Linuxでこれらのインタフェースを使用している人はいますか?それでは、入力はどのようにマッピングされますか(ALSA / PulseAudioなど)。
たとえば、Scarlett 6i6には次の接続があります。
入力する:
- 対称型XLR入力2個(チャンネルあたり1個)
- 対称型フォンコネクタ入力2個(チャンネルあたり1個)
- 1x同軸SPDIF入力(断線によるステレオ信号伝送)
出力:
- 対称型電話コネクタ出力4本
- 1x同軸SPDIF出力(断線によるステレオ信号)
各入力には独自のADCがあり、各出力には独自のDACがあるため、別のチャネルに「転送」されることはありません。
今私の質問は、これがLinuxでオーディオチャンネルにどのようにマッピングされるのですか?
出力モード:シングル6チャンネルカードとして認識されますか?たとえば、電話コネクタ1は「前面左」、電話コネクタ2は「正面右」、電話コネクタ3は「背面左」、電話コネクタ4は「背面」、「正しい」 SPDIFチャンネルpreとLFEはまだ似ている「厄介な」状況ですか?それとも、3つの別々のステレオオーディオカードとして認識されますか?それとも、各出力はモノラルオーディオカードですか?
入力方式:2x対称XLR入力が「ステレオペア」を形成し、マイクを接続して録音するときは左チャンネルからのみ信号を受信し、右チャンネルはミュート状態に保ちますか?それとも2つの独立したモノラル入力として機能しますか?他の入力はどうですか?
誰もがLinuxでこのインターフェースを実行し、私に洞察力を与えることができればいいでしょう。 XLRを介してコンデンサーマイクをインターフェースに接続する予定です。両方のXLRが「ステレオ入力」として機能し、録音するとき、あるチャンネルでは信号が受信されますが、他のチャンネルでは信号がない場合はどうなりますか?私には本当に興味があると思います。
答え1
Focusrite 6i6の使用方法は、jack / alsaをバックエンドとして使用し、pulseaudioをジャックに接続して、デフォルトでジャックをサポートしていないアプリケーションでオーディオを再生することです。
すべての入力/出力ポートはalsamixerで完全に設定可能です。ハードウェア設計には、ソフトウェアで制御される非常に柔軟なハードウェアミキサーがあり、FocusriteはLinuxをサポートしていませんが、誰かがデバイスと通信する方法を理解し、Scarlett 6i6用のalsaドライバを介してこの機能を実装しました。
Scarlettには12の再生ポートと6つのキャプチャポートが表示されます。キャプチャポートはalsamixerで設定可能で、ユーザーは4つのアナログ入力+ 2つのSPDIFチャンネル入力に配置できますが、必要なものは何でも自由にできます。再生ポートとモニターとヘッドフォン出力もalsamixerを介して完全に設定できます。すなわち、再生ポート7,8,11,12を設定してモニターを介してステレオミックスで再生し、再生ポート1,2,3,4を他のステレオミックスで再生するヘッドホンで再生する。 Pulseaudioはジャックインターフェースを介してScarlettの通常のシステムサウンドをスムーズに再生しますが、ScarlettはPulseaudioを介した出力も表示しません。
alsaがステレオチャンネルとモノラルチャンネルでどのように機能するかはわかりませんが、ジャックではステレオチャンネルが2つのモノラルチャンネルで構成されていると思うのは当然です。 alsaが同じように機能するかどうかはわかりませんが、入力チャンネルをステレオに直接ミックスする必要があると予想されます。 Linuxでこのオーディオインターフェースを使用および制御するには、alsaバックエンドとalsamixerでjackを使用することをお勧めします。ハードウェアミキサー機能を制御しないと、デバイスがほとんど麻痺してしまうからです。