Cамоучитель по CubaseSX

         

Основы, без которых не обойтись

В этой книге мы рассказываем о работе с программой Cubase SX, столь многофункциональной, что ее вряд ли уже можно назвать музыкальным и звуковым редактором. Cubase SX — это виртуальная звуковая студия. В ней есть все, что, в принципе, должно быть в настоящей студии.
 Секвенсор для записи и редактирования MIDI-композиций.  Множество музыкальных инструментов как мелодических, так и ударных, объединенных в синтезаторы.  Многоканальный цифровой магнитофон для записи звука.   Приборы динамической обработки, частотные фильтры.  Приборы обработки эффектами отдельных MIDI- и аудиотреков или всей композиции в целом.


 Микшер для сведения треков в стереофоническую фонограмму (а также многоканальную Surround-фонограмму).  Измерительные приборы и индикаторы.  Система коммутации студийного оборудования и управления им.

Единственное, существенное отличие представленного в программе оборудования от того, которое вы можете увидеть в реальной студии, — его виртуальность. Однако с точки зрения пользователя нет большой разницы в том, с чем предстоит иметь дело: со студийным "железом" или с "софтовой" студией. В любом случае перечисленный набор аппаратуры в умелых руках позволяет решить любую задачу, возникающую в процессе создания музыкальной композиции. Вместе с тем, если этим богатством владеет безграмотный человек, то реальная студия превращается просто в сотни килограммов железа, а виртуальная — в сотни мегабайт цифрового кода, бессмысленно и бесполезно занимающего место на жестком диске.
Многофункциональность виртуальной студии, сложность и разнообразие явлений и алгоритмов, положенных в основу ее работы, приводят к тому, что пользователь такой программы должен быть специалистом широкого профиля.
Лучшие современные программы сопровождаются подробной и удобной справочной системой. Казалось бы, пользуясь ею, можно научиться применять программу по назначению. Однако как вы считаете, можно ли, например, доверить свое здоровье человеку только на том основании, что у него на книжной полке стоят несколько томов медицинских справочников? Думаем, ответ очевиден. Для того чтобы считаться и, тем более, на деле быть врачом, музыкантом, звукорежиссером, недостаточно иметь в своем распоряжении соответствующий справочник. Нужны специальные знания (хотя бы для того, чтобы суметь сформулировать вопрос для справочной системы и понять ответ на него). Как минимум, необходимо владеть терминологией и научными основами в той предметной области, в которой вы намерены себя проявить. Именно поэтому книгу, посвященную описанию конкретной программы, мы начинаем с главы, содержащей базовые сведения. Без них вряд ли удастся эффективно использовать возможности, заложенные в программе.
В этой главе мы договоримся о терминологии и познакомим вас с принципами построения и функционирования элементов виртуальной звуковой студии.

1.1. MIDI: аппаратная составляющая. Подключение MIDI-клавиатуры к звуковой карте

Подключение MIDI-клавиатуры к звуковой карте, установленной в компьютер, осуществляется посредством MIDI-интерфейса. Для того чтобы выполнить необходимые соединения, совсем не обязательно вызывать специалиста. Вы в состоянии сделать это сами. А все, что необходимо знать о MIDI-интерфейсе, вы сейчас прочтете.



1.1.1. Musical Instrument Digital Interface (MIDI)

Начнем со слова "интерфейс". Интерфейс (Interface) — система унифицированных связей и сигналов, посредством которых устройства или программы взаимодействуют между собой.
Musical Instrument Digital Interface (MIDI) — цифровой интерфейс музыкальных инструментов. Стандарт на интерфейс создан ведущими производителями музыкальных инструментов: Yamaha, Roland, Korg, E-mu и др.
Различают аппаратный MIDI-интерфейс и формат MIDI-данных. Аппаратный интерфейс используется для физического соединения источника и приемника сообщений, формат данных — для создания, хранения и передачи MIDI-сообщений. Вопросы, связанные с форматом данных, мы рассмотрим в разд. 1.2, а сейчас познакомимся с аппаратной составляющей MIDI-интерфейса.
MIDI-интерфейс — это старт-стопный последовательный асинхронный интерфейс "токовая петля".
Словосочетание "старт-стопный" означает, что в каждом передаваемом сообщении обязательно должны содержаться признаки того, что процесс передачи начат (сигнал "Старт") и завершен (сигнал "Стоп").
В последовательном интерфейсе двоичные данные передаются не одновременно, а поочередно (последовательно).
Асинхронность интерфейса состоит в том, что начало передачи данных в нем не привязано к какому-либо определенному моменту времени. Передача осуществляется тогда, когда в этом возникает необходимость. Нажали на клавишу — в интерфейсе появилось сообщение об этом.
Передающая сторона интерфейса активна, на ней имеется источник тока и коммутирующий элемент (в конечном счете, выключатель), а приемная — пассивна, на ней расположен только прибор-приемник тока. Принцип токовой петли заключается в том, что как только цепь выключателя будет замкнута, ток через нее потечет от положительного полюса источника (на передающей стороне) через "прямой" соединительный проводник кабеля, далее через приемник тока (на приемной стороне) и по "обратному" проводнику кабеля возвратится на приемную сторону ("втечет" в отрицательный полюс источника). Вот вам и токовая петля. Проходя сквозь приемник, ток выполнит предписанную ему роль: приведет в действие чувствительный элемент, в результате чего в приемнике и будет зафиксирован пришедший сигнал.



1.1.2. Структура элементарного MIDI-сигнала

Активный передатчик формирует токовую посылку с силой тока 5 мА. Токовая посылка соответствует логическому нулю, бестоковая — логической единице. Структура элементарного MIDI-сигнала (рис. 1.1) характеризуется следующими признаками: 7 битов данных, один бит (старший) статусный, один бит старта, один бит стопа. Проверка на четность отсутствует.
Вы видите, что столовый бит — единичный, а не нулевой. То есть в состоянии "Стоп" ток в цепи не течет. Это очень разумно. Экономится энергия и ресурсы элементов интерфейса. Ведь основную часть времени в M1DI-системе никаких событий не происходит: в среднем протяженность пауз значительно больше, чем протяженность тех интервалов времени, когда вы
играете на MIDI-клавиатуре. Правда, ток может отсутствовать в цепи не только потому, что нет сообщений, но и из-за ее обрыва. Для своевременного выявления неисправного состояния MIDI-сети предусмотрена периодическая передача специального тестового сигнала. Если по прошествии определенного времени приемник его не обнаружит, то это будет считаться аварией, после чего MIDI-система отработает заранее обусловленную последовательность действий.



Рис. 1.1.Структура элементарного MIDI-сигнала

Пропускная способность MIDI-канала 3,125 кбайт/с. Команды могут быть одно-, двух- и трехбайтными. Первый байт — статусный. Он определяет действие команды. За ним могут следовать 1 — 2 байта данных. Старший бит статусного байта 1, а байта данных — 0.



1.1.3. Соединительные MIDI-разъемы и MIDI-кабель

Полноценное MIDI-устройство имеет три соединительных разъема: MIDI In (вход), MIDI Out (выход) и MIDI Thru (на разъем MIDI Thru через буфер ретранслируется копия сигнала, поступающего с внешнего MIDI-устройства на вход MIDI In). Все разъемы — пятиконтактные. Контакты 4 и 5 — сигнальные, контакт 2 — экран. Полярность сигналов определяется относительно источника тока: контакт 4 — плюс (ток вытекает из вывода), контакт 5 — минус (ток втекает в вывод). Таким образом, для разъемов MIDI Out и MIDI Thru назначение контактов одно и то же, для разъема MIDI In — обратное.



Рис. 1.2. Схема распайки разъемов MIDI-кабеля

Для соединения используется двужильный экранированный кабель. Соединение разъемов на двух концах кабеля — прямое (2-2, 4-4, 5-5). Схема распайки разъёмов MIDI-кабеля представлена на рис. 1.2.



1.1.4. Принцип соединения MIDI-устройств

Принцип соединения двух MIDI-устройств показан на рис. 1.3. Контакт передатчика, с которого во внешнюю цепь снимается сигнал, называется MIDI TXD (Transmitter Data). Контакт приемника, на который из внешней цепи должен поступать сигнал, — MIDI RXD (Receiver Data).



Рис. 1.3. Принцип соединения двух MIDI-устройств

Аппаратная часть интерфейса MIDI замечательна тем, что разработчики предусмотрели в ней несколько мер, направленных на снижение уровня шума и помех. К простейшим, но достаточно эффективным мерам относится обязательное экранирование кабелей, соединяющих MIDI-устройства. Экран представляет собой проволочную оплетку, которая защищает проводники от проникновения в них электромагнитных волн, несущих помехи. И, что не менее важно, экран предотвращает излучение электромагнитных волн в окружающее пространство самим MIDI-кабелем. Посредством экрана помехи не проникают с одного инструмента на другой, так как в соответствии со стандартом MIDI исключено электрическое соединение экрана с корпусами одновременно двух MIDI-устройств. Самое главное, помехи не могут попасть с одного инструмента на другой еще и потому, что даже сигнальные провода не имеют непосредственной (говорят: гальванической) связи одновременно и с прибором-передатчиком, и с прибором-приемником MIDI-сообщений. Разумеется, здесь нет парадокса: если по проводам передается информация, значит, связь есть, но эта связь в действительности не гальваническая, а оптическая. Во входной цепи интерфейса MIDI включена пара оптоэлектронных приборов. Светодиод начинает светиться, когда по кабелю передается логический ноль, и гаснет, если передается логическая единица. Свет направлен на фотодиод, ток через который тем сильнее, чем сильнее этот прибор освещен. Цепочка преобразования сигналов такова: электрический ток — свет — электрический ток. Таким способом создается непреодолимое препятствие на пути протекания токов, несущих в себе помехи (величины этих токов недостаточно, чтобы светодиод стал излучать свет), в то же время цифровые сигналы проходят совершенно свободно.
Стандартом предусмотрено, что в сети MIDl-устройств в одно и то же время только одно из них может быть передатчиком MIDI-сообщений, а все остальные — только приемниками. Один MIDI-передатчик допускает подключение до четырех приемников.
На рис. 1.4 представлен вариант подключения MIDI-устройств к MIDI-интерфейсу звуковой карты, установленной в компьютер.



Рис. 1.4. Подключение MIDI-устройств к звуковой карте



1.1.5. MIDI-сигналы в разъеме игрового порта звуковой карты

Следует заметить, что у звуковых карт, как правило, отсутствуют стандартные MIDI-разъемы. Это связано с тем, что габариты не позволяют разместить их в прорезях на задней стенке компьютера, предназначенных для закрепления плат расширения. "Полуфабрикаты" MIDI-сигналов (MIDI RXD и MIDI TXD) выводятся на контакты разъема игрового порта (рис. 1.5).
Для правильной ориентации в номерах контактов нужно учесть, что разъем показан таким, каким он представлялся бы наблюдателю, сидящему внутри компьютера. Не очень удобная точка наблюдения, но именно ей соответствует рисунок, обычно приводимый в описании звуковой карты. Чтобы не запутать вас, на рис. 1.5 мы не стали менять направления взгляда.



Рис. 1.5. Назначение некоторых контактов разъема игрового порта

Большинство контактов предназначено для подключения джойстика, однако, они нас сейчас не интересуют. Обратите внимание на следующие контакты:
 4, 5 — соединенные с общим проводом блока питания компьютера или, как иногда говорят, с корпусом, с землей (на схемах это соединение обозначают GND);  1, 8, 9 — соединенные с выводом +5 В источника питания компьютера;  15 — на который из внешних цепей должен поступать сигнал MIDI RXD (Receiver Data);  12 — с которого во внешнюю цепь снимается сигнал MIDI TXD (Transmitter Data). Наличие контактов 12 и 15, а также соответствующих им сигналов позволяет производителям и продавцам утверждать, что данная звуковая карта снабжена интерфейсом MIDI. Однако на деле сигналы MIDI TXD и MIDI RXD следует рассматривать как полуфабрикаты настоящих MIDI-сигналов. С их помощью можно принимать и передавать информацию, представленную стандартными для компьютеров значениями напряжения (говорят, уровнями транзисторно-транзисторной логики — TTL). И даже если заменить один из пятиконтактных разъемов MIDI-кабеля на разъем, соответствующий тому, что изображен на рис. 1.8, то подключить через этот кабель синтезатор к звуковой карте не удастся. Дело в том, что сигнал MIDI TXD не будет правильно восприниматься светодиодом, с помощью которого в интерфейсе MIDI передают полезные сигналы и прерывают гальваническую связь MIDI-устройств друг с другом.
Для подключения звуковой карты к MlDI-устройствам необходим переходной кабель-адаптер, содержащий оптронную развязку.
При соединении MIDI-устройств нужно придерживаться несложного правила: кабель не должен соединять одноименные разъемы двух устройств, т. е. нельзя соединять MIDI Out одного устройства с MIDI Out другого, также MIDI In с MIDI In. Однако если вы случайно ошиблись, ничего страшного не случится: в схеме MIDI-интерфейса есть необходимая защита.
А вот один кабель или два следует протягивать между MlDI-устройствами, зависит от того, что это за устройства и в каких целях они используются.
Сначала рассмотрим наиболее вероятную ситуацию. Допустим, вы приобрели MIDI-клавиатуру и хотите подключить ее к звуковой карте, воспользовавшись MIDI-интерфейсом. Нет ничего проще, однако прежде необходимо разобраться, чем же отличается MIDI-клавиатура от клавишного электронного музыкального инструмента (синтезатора). Последний содержит и клавиатуру, и блок синтеза, поэтому в состоянии самостоятельно формировать звуки. Все современные синтезаторы оснащены MIDI-интерфейсом. MIDI-клавиатура не обладает способностью синтезировать звук. Она предназначена лишь для того, чтобы посредством MIDI-интерфейса управлять работой внешнего (по отношению к ней) синтезатора. Это, прежде всего, наиболее дешевый вариант совместного использования нескольких синтезаторов. В этом случае они могут не иметь собственных клавиатур, чем и определяется их относительно низкая стоимость. Синтезатор, который не имеет собственной клавиатуры, принято называть тон-генератором.



1.1.6. Подключение к звуковой карте MIDI-клавиатуры и MIDI-синтезатора

Вернемся к вопросу о подключении MIDI-клавиатуры к звуковой карте (рис. 1.6).
Действительно, сделать это очень просто: в гнездо MIDI Out клавиатуры вставьте вилку MIDI In адаптера, а 15-контактный разъем MIDI-адаптера соедините с разъемом игрового порта, расположенным на звуковой карте. MIDI-клавиатура здесь будет играть роль ведущего MIDI-устройства, а звуковая карта — ведомого.



Рис. 1.6. Подключение MIDI-клавиатуры к звуковой карте

Если у вас уже имеется современная, с широкими функциональными возможностями звуковая карта и вы хотите исполнять музыку не с помощью мыши, а проверенным дедовским способом, перебирая белые и черные клавиши, то MIDI-клавиатура — это выход из положения. Заметим, что в продаже имеются музыкальные синтезаторы с клавиатурой и MIDI-интер-фейсом. Некоторые из них (относительно простые) немногим дороже MIDI-клавиатур. В режимах исполнения и записи композиции синтезатор можно использовать в качестве MIDI-клавиатуры. Для этого следует выполнить такое же соединение, как и в случае подключения MIDI-клавиатуры: MIDI Out синтезатора соединить с входом MIDI In адаптера.
При проигрывании композиции внешний синтезатор с клавиатурой можно использовать как дополнение к звуковой карте и извлекать из него звуки тех инструментов, которые отсутствуют в палитре звуковой карты. Для реализации этой возможности выход MIDI Out адаптера следует соединить со входом MIDI In синтезатора (рис. 1.7).



Рис. 1.7. Схема подключения внешнего синтезатора к звуковой карте



1.1.7. Решение проблемы самовозбуждения MIDI-системы

При некорректном выборе режима работы музыкального редактора соединение по схеме, приведенной на рис. 1.7, может вызвать неприятный эффект: поданное с клавиатуры сообщение, например нажатие клавиши, поступит на звуковую карту, а оттуда вновь в синтезатор, а с синтезатора вновь на звуковую карту... И так до бесконечности. Система зациклится, возбудится и перегрузится. Звуки будут слышны неинтересные. Что следует сделать, чтобы избежать этого?
Из рис. 1.7 следует, что оба устройства — и звуковая карта и синтезатор — одновременно оказываются и MIDI-приемниками и MIDI-передатчиками. Это недопустимо. Тривиальный выход — отключить второй кабель на время использования синтезатора в качестве MIDI-клавиатуры и подключить его при воспроизведении записанной ранее мелодии, — крайне неудобен. Все эти отключения, подключения, поверьте, кончатся плохо. Проще и безопасней для аппаратуры и вашего кошелька выполнить необходимую коммутацию на логическом уровне. Делается это или непосредственно в синтезаторе (выключателем Local Off), или в музыкальном редакторе.
Однако было бы правильнее решить проблему зацикливания, манипулируя опциями ретрансляции MIDI-сообщений. Суть дела состоит в том, что MIDI-информация, поступающая на вход устройства (или программы, в нашем случае Cubase SX), транслируется на его выход. Рассмотрим классический пример, когда синтезатор звуковой карты используется совместно с внешним синтезатором, который, в свою очередь, еще и выполняет функции MIDI-клавиатуры. Зацикливание неминуемо возникнет в том случае, если вы выберете трек, у которого в качестве портов ввода/вывода заданы порты, физически подключенные к внешнему синтезатору. Последовательность возникновения нежелательного эффекта зацикливания такова:
1. Вы нажимаете на синтезаторе клавишу, синтезатор воспроизводит соответствующую ноту.
2. MIDI-сообщение типа Note On (см. разд. 1.2.1) поступает в звуковой редактор.
3. В звуковом редакторе, благодаря ретрансляции MIDI-сообщений, это же сообщение передается на входной порт синтезатора.
4. Синтезатор, получив сообщение Note On, отрабатывает его, воспроизводя соответствующую ноту (заметьте, уже не в первый раз).
5. В синтезаторе тоже работает ретрансляция MIDI-сообщений (можно ли ее отключить и как это сделать — ищите в руководстве пользователя), поэтому дальше см. п. 2.
Чтобы разорвать эту цепочку, следует отключить ретрансляцию MIDI-сообщений или в синтезаторе, или в программе (как правило, в музыкальных редакторах эта опция по умолчанию включена). В Cubase SX следует поступить так: откройте меню File, выберите команду Preferences. Откроется диалоговое окно Preferences. В дереве, находящемся в левой части окна, выберите ветвь MIDI. На открывшейся вкладке MIDI сбросьте флажок MIDI Thru Active. Теперь зацикливания не будет. Убедиться в этом можно, нажав ОК, после чего диалоговое окно Preferences закроется. Можно также нажать кнопку Apply, окно Preferences останется открытым, а изменения, внесенные вами, будут применены.
При сброшенном флажке MIDI Thru Active теряется возможность использовать внешний синтезатор в качестве MIDI-клавиатуры для управления встроенным синтезатором звуковой карты.



Формат MIDI-данных.

Типы MIDI-сообщений в Cubase SX

К категории MIDI в программе Cubase SX относятся следующие сообщения: Note, Controller, Program Change, Aftertouch, Pitchband, SysEx.
Кроме того, предусмотрены сообщения SMF и Text. Сообщения этих двух типов не принадлежат к категории MIDI-сообщений и не влияют на синтез звука. Сообщения SMF относятся к сообщениям нотации. Сообщение Text (текстовая метка, комментарий) имеет единственный параметр — текстовую строку. Они отображаются только в списке сообщений редактора List Editor, а также над нотным станом (в окне редактора Score Editor) и предназначены для записи комментариев или текста песни.
Рассмотрим подробнее сообщения категории MIDI.


1.2.1. Note — сообщение о нажатии MIDI-клавиши

Note — это сообщение о том, что нажата клавиша MIDI-клавиатуры. Параметры сообщения — нота (используется символьное обозначение), громкость и длительность.
Сообщения Note формируются программой на основе стандартных канальных MIDI-сообщений Note On (включение ноты) формата 9k nn vv и Note Off (выключение ноты) формата 8k nn vv, где k — номер MIDI-канала, nn — номер ноты, w — скорость (Velocity) нажатия клавиши (в Note On), no умолчанию соответствующая громкости звучания ноты, или скорость ее отпускания (в Note Off). Причем числа 9k, 8k, nn и w — шестнадцатеричные.
Сообщение о включении/выключении ноты MIDI-клавиатура генерирует при нажатии/отпускании клавиши. При этом MIDI-синтезатор включает/ выключает генератор соответствующего звука.
В MIDI номер ноты задается абсолютным номером полутона в диапазоне 0-127, причем центральной фортепианной клавише — ноте до первой октавы — соответствует десятичный номер 60. В соответствии с принятой стандартом MIDI нумерацией октав (с нуля) эта нота имеет обозначение С5. Однако в Cubase SX система нумерации MIDl-октав несколько иная: отсчет октав начинается не с 0, а с —2. Поэтому центральная нота обозначена как СЗ.
Скорость (Velocity) нажатия/отпускания клавиши характеризуется десятичным числом от 0 до 127. Скорость нажатия соответствует силе удара по клавише. Чувствительная к скорости нажатия (динамическая) клавиатура выдает реальные значения этого параметра. Нечувствительная — значения 64 (десятичные).
Сообщение Note On с параметром vv = 00 эквивалентно сообщению Note Off для этой же клавиши. В простых синтезаторах информация о скорости нажатия клавиши используется для управления громкостью извлекаемого звука, в более сложных — еще и для управления фильтрами (например, большей громкости соответствует более звонкий звук) либо для выбора нужного сэмпла.
Хотя MIDI-клавиатурой формируются два сообщения (Note On и Note Off), программа преобразует их в одно типа Note, с тремя временными параметрами: временем включения ноты (нажатия MIDI-клавиши), временем выключения ноты (отпусканием MIDI-клавиши) и продолжительностью удержания MIDI-клавиши нажатой. Независимыми являются только два параметра.



1.2.2. Controller — сообщение о состоянии контроллера

Controller — сообщение о состоянии контроллера. Параметры сообщения — тип контроллера и его состояние. В спецификации MIDI этому сообщению соответствует сообщение Control Change формата Bk cc vv, где k — номер MIDI-канала, ее — номер, vv — значение контроллера. В литературе принято обозначать сообщение Control Change сокращенно, например, СС91 — сообщение о смене значения контроллера глубины эффекта реверберации.
MIDI-контроллеры делятся на контроллеры непрерывного действия (связанные с рукоятками, движками, регуляторами и т. п.) и переключатели (педали, кнопки и т. п.), имеющие два дискретных состояния (On/Off— включено/выключено). Для переключателей значения контроллера 0—63 означают выключенное состояние, а 64—127 — включенное.
В соответствии со спецификацией General MIDI принята следующая нумерация контроллеров:
 № 0-31 — старший байт значения контроллеров непрерывного действия;  № 32-63 — младший байт значений контроллеров непрерывного действия;  № 64-95 — переключатели;  № 96-119 — зарезервированы;  № 120-127 — специальные канальные сообщения. На сообщения, содержащие старший или младший байт значения контроллера, MIDI-устройства реагируют немедленно. Причем в качестве недостающего байта значения контроллера используется либо ранее переданное, либо установленное по умолчанию значение. Это позволяет, передав однажды неизменный байт, в дальнейшем передавать только изменившийся байт значения контроллера.
Спецификацией General MIDI определены следующие контроллеры: 
 № 1 — Modulation — контроллер глубины частотной модуляции;  № 2 — Breath — духовой контроллер;  № 4 — Foot Controller — ножной контроллер;  № 5 — Portamento Time — контроллер времени портаменто (портаменто — плавный переход по частоте от ноты к ноте);  № 7 — Volume — контроллер громкости звука в канале;   № 8 — Balance — контроллер баланса стереоканалов;   № 10 — Pan — контроллер панорамы;   № 11 — Expression — контроллер экспрессивности звука;  № 64 — Sustain Pedal, Holdl — контроллер педали удержания звучания нот;  № 65 — Portamento — контроллер включения/выключения режима портаменто;  № 66 — Sostenuto Pedal — контроллер педали удержания звучания нот, включенных во время действия педали;  № 67 — Soft Pedal — контроллер педали приглушения звука.



1.2.3. Program Change — сообщение о смене MIDI-инструмента

Program Change — сообщение о смене MIDI-инструмента (тембра, патча, программы). Параметры сообщения — способ выбора банка, номер банка, номер инструмента в банке.
Поскольку MIDI-инструменты распределены по банкам, в спецификации MIDI сообщению Program Change соответствует совокупность сообщений: Program Change, Bank Select MSB и Bank Select LSB.
Для выбора MIDI-инструмента предназначено сообщение Program Change формата Ck pp, где k — номер MIDI-канала, pp — номер MIDI-инструмента.
Для переключения банков служат контроллеры:
 № 0 — Bank Select MSB — контроллер выбора банка (старший байт);  № 32 — Bank Select LSB — контроллер выбора банка (младший байт). Одним MIDI-устройствам для переключения банков требуется только один из этих контроллеров, другим — оба. Обработка MIDI-устройством команды смены банка и MIDI-инструмента может занять значительное время (десятки миллисекунд и более).
В спецификации General MIDI регистрируемые (Registered Parameter Number — RPN) и нерегистрируемые (Non-Registered Parameter Number — NRPN) параметры введены дополнительно для расширенного управления синтезом.
Номера RPN и NRPN передаются при помощи контроллеров: 
 № 98 — NRPN LSB — контроллер младшего байта параметра NRPN;   № 99 — NRPN MSB — контроллер старшего байта параметра NRPN;   № 100 — RPN LSB — контроллер младшего байта параметра RPN;   № 101 — RPN MSB — контроллер старшего байта параметра RPN.  MIDI-устройство запоминает однажды переданные ему сообщения RPN или NRPN, после которых передаются значения соответствующего параметра при помощи контроллеров:
 № 6 — Data Entry MSB — контроллер вводимых данных (старший байт);   № 38 — Data Entry LSB — контроллер вводимых данных (младший байт).  Такой механизм передачи сообщений можно охарактеризовать как "контроллер в контроллере". Стандартом определена интерпретация только трех RPN (их значения задаются старшими байтами параметров Data Entry):
 RPN 0 — Pitch Bend Sensitivity — контроллер для изменения чувствительности колеса сдвига тона (Pitch Bend);  RPN I — Fine Tuning — контроллер для точной подстройки строя синтезатора;  RPN 2 — Coarse Tuning — контроллер для грубой подстройки строя синтезатора. RPN 0 определяет количество полутонов, на которое смещается высота тона при получении сообщения Pitch Bend Change с максимально допустимым абсолютным значением параметра. По умолчанию принимается диапазон перестройки частоты на плюс-минус два полутона.
В сообщении RPN 0 содержится параметр X, определяющий ширину диапазона перестройки тона. Он рассчитывается по формуле X = 1284N+C, где N — ширина диапазона в полутонах, С — уточнение ширины диапазона в центах (сотых долях полутона). Некоторые синтезаторы (например, поддерживающие спецификации GS или XG) воспринимают только целое число полутонов (значение параметра С игнорируется). Чтобы, например, установить ширину диапазона перестройки частоты колеса сдвига тона равной плюс-минус одной октаве, нужно передать сообщение NRPN 0 1536. Число 1536 рассчитано следующим образом: 128412 = 1536 (12 — количество полутонов в октаве).
RPN 1 и RPN 2 позволяют сместить строй инструмента в MIDI-канале на заданное количество центов при точной или полутонов при грубой подстройке. За относительный ноль принимается значение 64.
Интерпретация остальных контроллеров RPN и NRPN стандартом не определена. Каждый производитель MIDI-аппаратуры может использовать их по своему усмотрению.
Спецификацией Roland GS (General Synth) определены дополнительные контроллеры:
 № 91 — Reverb Level — контроллер глубины реверберации;  № 93 — Chorus Level — контроллер глубины хоруса. Спецификацией Yamaha XG (extended General) определены контроллеры, которые не предусмотрены спецификацией Roland GS:
 № 71 — Harmonic Content — контроллер глубины резонанса фильтра;  № 72 — Release Time — контроллер времени затухания звука после выключения ноты;  № 73 — Attack Time — контроллер времени нарастания звука после включения ноты;  № 74 — Brightness — контроллер частоты среза фильтра;  № 84 — Portamento Control — контроллер номера ноты, начиная с которой будет выполнено плавное скольжение по частоте до очередной включенной ноты (портаменто);  № 94 — Variation Level — контроллер глубины эффекта Variation;  № 96 — RPN Increment — контроллер увеличения значения RPN на 1, значение контроллера RPN Increment игнорируется;  № 97 — RPN Decrement — контроллер уменьшения значения RPN на 1, значение контроллера RPN Decrement игнорируется. Таким образом, устройства, соответствующие спецификациям GM, GS и XG, обладают различными возможностями по управлению параметрами синтеза. Исчерпывающие сведения о контроллерах, регистрируемых и нерегистрируемых параметрах можно найти только в документации на конкретные модели звуковых карт, синтезаторов и модулей синтеза.



1.2.4. Aftertouch — сообщение о силе давления на нажатые клавиши

Aftertouch — сообщение о силе давления на все нажатые клавиши, с которыми связан текущий MIDI-канал. Параметр сообщения — давление. В спецификации MIDI этому сообщению соответствует сообщение Channel Pressure, или Channel Aftertouch, формата Dk pp, где k — номер MIDI-канала, рр — давление.
Сообщение Aftertouch несет информацию об изменении давления на клавиши после прикосновения к ним. Простые модели клавиатур не имеют датчика давления. Модели средней сложности имеют датчик, общий для всех клавиш, и посылают сообщения Channel Pressure, предварительно усреднив давление на все нажатые клавиши. Сложные модели оборудованы отдельным для каждой клавиши датчиком и посылают сообщения об изменении состояния каждого датчика. Реакция синтезатора на эти сообщения стандартом не определена. Обычно синтезаторы с функцией Aftertouch поддерживают команды ассоциирования сообщений с выбранным параметром синтеза (с громкостью, модуляцией, параметром фильтра или эффекта и т. п.).



1.2.5. Pitchband — управление регулятором тона

Pitchband — управление регулятором тона. Параметр сообщения — положение регулятора тона, задаваемое числом от -8192 до 8191. В спецификации General MIDI этому сообщению соответствует сообщение Pitch Bend Change формата Ek II mm, где k — номер MIDI-канала, 11 — младший байт, mm — старший байт значения контроллера. Контроллер задает смещение высоты тона для всех сообщений типа Note, передаваемых по данному MIDI-каналу. Значение контроллера изменяется от 0 до 16 383; среднее значение (8192) принимается за относительный ноль. Чувствительность контроллера Pitchband может изменяться при помощи регистрируемого параметра RPN 0. По умолчанию в качестве предельного значения смещения тона принимается интервал в два полутона (с любым знаком).



1.2.6. SysEx (System Exclusive) — привилегированные системные сообщения

SysEx (System Exclusive) — сообщения, предназначенные для обмена специфической информацией, которая по усмотрению производителя MIDI-устройства может иметь различное назначение. С помощью сообщений этих типов синтезатору подаются такие команды, как, например, сброс (Reset), смена типа эффекта и т. п. В спецификации MIDI эти сообщения относятся к привилегированным системным сообщениям (System Exclusive). Параметром таких сообщений является блок данных — последовательность шестнадцатеричных чисел. В начале блока данных обязательно передается число FO, а завершает его число F7. Привилегированные системные сообщения чем-то похожи на машинные коды и предназначены для интерпретатора MIDI-команд синтезатора.



1.3. MIDI-секвенсор. Дискретная шкала времени

Итак, посылая MIDI-сообщения, можно управлять работой синтезатора, передавать ему команды, определяющие момент начала извлечения определенной ноты, ее длительность, а также значения множества параметров синтеза звука. Эти команды можно посылать в реальном времени, нажимая клавиши MIDI-клавиатуры и изменяя положения различных регуляторов и переключателей, расположенных на ней. Но можно поступать и по-другому: заранее записать всю последовательность действий, преобразованных в MIDI-сообщения, в запоминающее устройство, а позже, когда в этом возникнет необходимость, считать MIDI-сообщения из запоминающего устройства и направить их в синтезатор. Причем вводить данные в запоминающее устройство можно с помощью все той же MIDI-клавиатуры. Что дает такое промежуточное звено? Возникают, как минимум, пять принципиально важных возможностей.
1. При записи сообщений можно играть на MIDI-клавиатуре в значительно меньшем темпе, чем требуется при исполнении конкретного произведения, а воспроизводить запись — быстрее. В итоге с любой композицией, сколь сложной она ни была бы, справится любой человек, даже не обладающий навыками игры на музыкальном инструменте.
2. Записанные данные можно подвергать редактированию в целях устранения исполнительских погрешностей или придания исполнению определенного стиля.
3. Можно записывать не всю партию, а только ту ее часть, которая составляет один период. Например, можно записать один куплет и один припев, а затем скопировать эти две части и в необходимом количестве экземпляров вставить в партию.
4. Можно поочередно записать все партии и скомпоновать из них цельное музыкальное произведение.
5. В небольшом по объему запоминающем устройстве можно хранить очень много продолжительных композиций. Ведь MIDI-сообщение не передает сам звук или какие-то его характеристики, а только команды, которые выполняются устройством-получателем.
Программа, предназначенная для записи, редактирования и воспроизведения последовательности MIDI-сообщений, называется MIDI-секвенсором.
Конечно, существуют и аппаратные секвенсоры. Некоторые из них выполнены в виде отдельного устройства, а другие входят в состав синтезаторов. Программные секвенсоры выгодно отличаются от аппаратных. Наглядность отображения данных, неограниченное количество композиций и партий в композициях, сохраняемое в памяти, развитые средства редактирования — вот неполный перечень их преимуществ.
Совокупность данных, с которыми работает секвенсор, называют сонгом или проектом. Кроме последовательности MIDI-сообщений в проекте может храниться всевозможная дополнительная информация: начальные установки секвенсора и синтезатора, названия отдельных партий, данные автоматизации (например, команды управления микшером), ссылки на другие данные (не относящиеся к MIDI). Проект можно сохранить в памяти компьютера в виде файла.
Современные программные MIDI-секвенсоры, как правило, входят в состав музыкальных редакторов, которые позволяют работать не только с MIDI-сообщениями, но также и со звуком, представленным в цифровой форме, и даже с оцифрованным изображением. Как вы уже знаете, к числу программ с наиболее развитыми средствами редактирования MIDI- и аудио-данных принадлежит и Cubase SX.
MIDI-сообщения дискретны по своей сути. И дело не только в том, что каждое сообщение выражается числом, которое может принимать только строго определенные значения. Существенно также, что поток MIDI-сообщений дискретен во времени. Они не могут передаваться непрерывно. Передача и обработка элементарных сигналов в MIDI осуществляется с конечной скоростью в определенные тактовые моменты, привязанные к началу передачи сообщения. Причем непосредственно в аппаратной части интерфейса сообщения передаются только последовательно: одно за другим, без какого-либо перекрытия во времени. Когда вы приступите к изучению MIDI-редакторов программы Cubase SX, то у вас может создаться впечатление, что в секвенсоре параллельно существует несколько потоков MIDI-сообщений. Но это кажущаяся параллельность. Такая иллюзия возникает только из-за того, что информация в MIDI-редакторе визуально отображается как несколько расположенных параллельно треков, на каждом из которых записывается и редактируется какая-нибудь одна партия. На самом деле данные со всех этих треков, сколько бы их ни было, хоть тысяча, передаются синтезатору последовательно через все тот же соединитель MIDI-интерфейса: два проводника. Конечно, в системе может быть и не один MIDI-интерфейс, а несколько, и не один синтезатор, а тоже несколько, но сейчас речь не об этом.
Предположим, что на MIDI-клавиатуре взят и записан в секвенсор аккорд из трех нот. Это значит, при воспроизведении композиции 3 ноты должны зазвучать одновременно. Однако соответствующие сообщения секвенсор передаст синтезатору не одновременно, а одно за другим. Скорость передачи сообщений по MIDI выбрана такой, что на слух временное рассогласование будет незаметно, но нужно понимать, что оно принципиально неустранимо. А если в композиции сотня партий, причем в доброй половине из них записаны аккорды? Не исключено, что в этом случае не только станет заметным рассогласование во времени между звучанием тех нот, которые вообще-то должны браться одновременно, но наступят и более неприятные последствия. Может оказаться, что интерфейс (речь идет о MIDI) еще не успеет передать все сообщения, относящиеся к одному моменту (ноты, которые должны, к примеру, звучать в первой четверти), как уже нужно будет передавать сообщения, соответствующие следующему моменту (пойдет вторая четверть и должны быть сыграны следующие ноты). Интерфейс окажется перегруженным. Если при исполнении задействованы контроллеры непрерывного (точнее говоря, квазинепрерывного) действия (связанные со слайдерами, рукоятками, колесами и т. п.), которые создают не поток, а целый океан сообщений, то перегрузка интерфейса возможна даже при небольшом количестве партий и одновременно исполняемых нот.
Когда разрабатывались требования к стандарту MIDI, никто, вероятно, и предположить не мог, что через четверть века скорость обмена данными внутри компьютера будет измеряться гигабитами в секунду, и MIDI-интерфейс станет настоящим тормозом, самым узким местом в компьютерной системе обработки музыки.
Для того чтобы уменьшить вероятность возникновения перегрузки MIDI-интерфейса, разработчики сознательно ограничивают разрешающую способность секвенсоров по времени. Она выбирается, исходя из двух противоречивых условий. С одной стороны нужно, чтобы дискретность записи и передачи сообщений не препятствовала музыканту в выражении самых тончайших ритмических нюансов. Для этого временная шкала секвенсора должна быть поделена на очень короткие отрезки. С другой стороны требуется, чтобы для произведений, типичных с точки зрения насыщенности музыкальными партиями, перегрузка MIDI-интерфейса не возникала или возникала бы, но с очень малой вероятностью.
Шкала времени секвенсора образована на основе трех единиц измерения: музыкальных тактов, музыкальных долей и тиков.
Самая большая единица здесь — такт. Доля составляет определенную часть такта. Это привычные для музыканта понятия. Такие единицы измерения временных интервалов оказываются особенно полезными при работе с секвенсором посредством специального транслятора MIDI-сообщений в графические символы нотного письма — нотного редактора или нотатора. Нотатор способен отображать ноты и паузы той длительности, которая не короче выбранной величины доли. В Cubase SX выбирать величину доли можно в пределах от половинной с точкой до шестьдесятчетвертой триоли. Для традиционной нотной записи партитур этого более чем достаточно. Ноты и паузы, короче шестьдесятчетвертой триоли в нотной записи не отображаются. Хотя реально в секвенсоре можно записать значительно более короткие звуки, с существенно меньшим шагом во времени. Разрешающая способность секвенсора равна одному временному кванту, который носит название тик.
Тик составляет определенную очень маленькую часть четвертной доли такта.
Чем больше в доле тиков, тем тоньше ритмические нюансы, которые удастся записать. В Cubase SX разрешающая способность секвенсора составляет 480 тиков в четвертной доле, 120 тиков соответствуют шестнадцатой ноте. Это ювелирный инструмент музыканта: получается, что можно записать ноту (или паузу) в 120 раз короче шестнадцатой!



1.4. Оцифровка звука

Для получения приемлемого качества записи компьютерной музыки необходимо пользоваться аппаратурой, способной его обеспечить. К параметрам, от которых это зависит, относятся, в первую очередь:
 Разрядность аналого-цифрового и цифроаналогового преобразователей звуковой карты;  Диапазон частот дискретизации. Разрядность звуковой карты существенно влияет на качество звука. Однако перед тем как перейти к более детальному обсуждению этого вопроса, следует пояснить, что речь идет о разрядности аналого-цифрового преобразователя (АЦП) (Analog/Digital Converter — ADC) и цифроаналогового преобразователя (ЦАП) (Digital/Analog Converter — DAC).
Звуковые карты двойного назначения имеют в своем составе одновременно два функционально независимых узла: синтезатор и устройство оцифровки звуковых сигналов, поступающих с внешнего источника. В каждый из узлов входит как минимум по одному ЦАП. В устройстве оцифровки, кроме того, имеется АЦП. Некоторые полупрофессиональные звуковые карты оборудованы 24-битными ЦАП/АЦП. Звуковые редакторы, работая с любыми звуковыми картами, в том числе и 16-битными, в процессе преобразований отсчетов сигнала используют арифметику с разрядностью двоичного представления числа, превышающей 16. Это позволяет уменьшить погрешность, накапливающуюся в процессе выполнения сложных алгоритмов обработки, которая в противном случае проявлялась бы как искажение звука.



1.4.1. Аналого-цифровое преобразование

Почему же столь важно наличие большого числа разрядов в устройствах ЦАП и АЦП? Дело заключается в том, что непрерывный (аналоговый) сигнал преобразуется в цифровой с некоторой погрешностью. Эта погрешность тем больше, чем меньше уровней квантования сигнала, т. е. чем дальше отстоят друг от друга допустимые значения квантованного сигнала. Число уровней квантования в свою очередь зависит от разрядности АЦП/ЦАП. Погрешности, возникающие в результате замены аналогового сигнала рядом квантованных по уровню отсчетов, можно рассматривать как его искажения, вызванные воздействием помехи. Эту помеху принято образно называть шумом квантования.
Шум квантования представляет собой разность соответствующих значений реального и квантованного по уровню сигналов.
В случае превышения сигналом значения самого верхнего уровня квантования ("старшего" кванта), а также в случае, когда значение сигнала оказывается меньше нижнего уровня квантования ("младшего" кванта), т. е. при цифровом ограничении сигнала, возникают искажения, более заметные по сравнению с шумом квантования. Для исключения искажений этого типа динамические диапазоны сигнала и АЦП должны соответствовать друг другу: значения сигнала должны располагаться между уровнями, соответствующими младшему и старшему квантам. При записи внешних источников звука это достигается с помощью регулировки их уровня, кроме того, применяется сжатие (компрессия) динамического диапазона, о которой речь пойдет в разд. 1.10.2.
В звуковых редакторах существует операция нормализации амплитуды сигнала. После ее применения наименьшее значение сигнала станет равным верхнему уровню младшего кванта, а наибольшее — нижнему уровню старшего кванта. Таким образом, от ограничения сигнал сверху и снизу будет защищен промежутками, шириной в один квант.
Для нормированного сигнала относительная величина максимальной погрешности квантования равна 1/N, где N — число уровней квантования. Этой же величиной, представленной в логарифмических единицах (децибелах), оценивается уровень шумов квантования АЦП звуковой карты. Уровень шумов квантования определяется по формуле: D = 201g (1/N). Для восьмиразрядного АЦП N = 256, D = -48 дБ; для шестнадцатиразрядного — N = 65536,; D= -96 дБ и для двадцатиразрядного АЦП N = 1648576, D = -120 дБ. Эти цифры наглядно демонстрируют, что с ростом разрядности АЦП шум квантования уменьшается. Приемлемым считается шестнадцатиразрядное представление сигнала, являющееся в настоящее время стандартным для воспроизведения звука, записанного в цифровой форме. С точки зрения снижения уровня шумов квантования дальнейшее увеличение разрядности АЦП особого смысла не имеет, т. к. уровень шумов, возникших по другим причинам (тепловые шумы, а также импульсные помехи, генерируемые элементами схемы компьютера и распространяющиеся либо по цепям питания, либо в виде электромагнитных волн), все равно оказывается значительно выше, чем -96 дБ.
Однако увеличение разрядности АЦП обусловлено еще одним условием — стремлением расширить его динамический диапазон. Динамический диапазон некоторого устройства обработки может быть определен выражением D = 201g (Smax/Smin), где Smax и Smin — максимальное и минимальное значения сигнала, который может быть преобразован в цифровую форму без искажения и потери информации. Вы уже, наверное, догадались, что минимальное значение сигнала не может быть меньше, чем напряжение, соответствующее одному кванту, а максимальное — не должно превышать величины напряжения, соответствующего N квантам. Поэтому выражение для динамического диапазона АЦП звуковой карты примет вид: D = 201g (N). Ведь можно считать, что Smax= kN, a Smin = k1, где k — некоторый постоянный коэффициент пропорциональности, учитывающий соответствие электрических величин (тока или напряжения) номерам уровней квантования.
Из сравнения выражений для А и D становится ясно, что при одинаковой разрядности АЦП эти величины будут отличаться лишь знаками. Поэтому динамический диапазон для шестнадцатиразрядного АЦП составляет 96 дБ, для двадцатиразрядного — 120 дБ. Иными словами, для записи звучания некоторого источника звука, динамический диапазон которого равен 120 дБ, требуется двадцатиразрядный АЦП. Если такого нет, а имеется только шестнадцатиразрядный, то динамический диапазон звука должен быть сжат на 24 дБ: со 120 дБ до 96 дБ.
В принципе, существуют методы и устройства сжатия (компрессии) динамического диапазона звука, и мы еще будем говорить о них (см. разд. 1.10.2). Но то, что они проделывают со звуком, как ни смягчай формулировки, все равно, представляет собой его искажение. Именно поэтому так важно для оцифровки звука использовать АЦП, имеющий максимальное количество разрядов. Динамические диапазоны большинства источников звука вполне соответствуют динамическому диапазону 16-битной звуковой карты. Кроме того, 24-битное или 32-битное представление сигнала применяется в основном на этапе обработки звука. Конечная аудиопродукция (CD Digital Audio и DAT) реализуется в 16-битном формате.
После того как мы немного разобрались с разрядностью АЦП звуковой карты, пришло время поговорить о частоте дискретизации.
В процессе работы АЦП происходит не только квантование сигнала по уровню, но и его дискретизация во времени. Сигнал, непрерывно изменяющийся во времени, заменяют рядом отсчетов этого сигнала. Обычно отсчеты сигнала берутся через одинаковые промежутки времени. Интуитивно ясно, что если отсчеты отстоят друг от друга на слишком большие интервалы, то при дискретизации может произойти потеря информации: важные изменения сигнала могут быть "пропущены" преобразователем, если они произойдут не в те моменты, когда были взяты отсчеты. Получается, что отсчеты следует брать с максимальной частотой. Естественным пределом служит быстродействие преобразователя. Кроме того, чем больше отсчетов приходится на единицу времени, тем больший размер памяти необходим для хранения информации.
Проблема отыскания разумного компромисса между частотой взятия отсчетов сигнала и расходованием ресурсов трактов преобразования и передачи информации возникла задолго до того, как на свет появились первые звуковые карты. В результате исследований было сформулировано правило, которое принято называть теоремой Найквиста — Котельникова.
Если поставить перед собой задачу обойтись без формул и использования серьезных научных терминов типа "система ортогональных функций", то суть теоремы Найквиста — Котельникова можно объяснить следующим образом. Сигнал, представленный последовательностью дискретных отсчетов, можно вновь преобразовать в исходный (непрерывный) вид без потери информации только в том случае, если интервал межу соседними отсчетами не превышает половины периода самого высокочастотного колебания, содержащегося в спектре сигнала.
Из сказанного следует, что восстановить без искажений можно только сигнал, спектр которого ограничен некоторой частотой Fmax. Теоретически все реальные сигналы имеют бесконечные спектры. Спектры реальных сигналов, хотя и не бесконечны, но могут быть весьма широкими. Для того чтобы при дискретизации избежать искажений, вызванных этим обстоятельством, сигнал вначале пропускают через фильтр, подавляющий в нем все частоты, которые превышают заданное значение Fmax, и лишь затем производят дискретизацию. Согласно теореме Найквиста — Котельникова частота дискретизации, с которой следует брать отсчеты, составляет Fд = 2Fmax. Теорема получена для идеализированных условий. Если учесть реальные свойства сигналов и устройств преобразования, то частоту дискретизации следует выбирать с некоторым запасом по сравнению со значением, полученным из предыдущего выражения.
В стандарте CD Digital Audio частота дискретизации равна 44,1 кГц. Для цифровых звуковых магнитофонов (DAT) стандартная частота дискретизации составляет 48 кГц. Звуковые карты, как правило, способны работать в широком диапазоне частот дискретизации.
В последнее время становится все более популярным стандарт DVD-audio, где частота дискретизации может быть равной 44,1/48/88.2/96 кГц, разрешающая способность 16/20/24 бит, количество каналов — до 6.



1.4.2. Цифроаналоговое преобразование

Для воспроизведения звукового сигнала, записанного в цифровой форме, необходимо преобразовать его в аналоговый сигнал.
Цифроаналоговое преобразование в общем случае происходит в два этапа. На первом этапе из потока цифровых данных с помощью цифро-аналогового преобразователя выделяют отсчеты сигнала, следующие с частотой дискретизации. На втором этапе путем сглаживания (интерполяции) из дискретных отсчетов формируется непрерывный во времени аналоговый сигнал.
На выходе простейшего ЦАП сигнал представляет собой последовательность узких импульсов, имеющих многочисленные высокочастотные спектральные компоненты. На аналоговый фильтр в этом случае возлагается задача полностью пропустить сигнал нужного частотного диапазона (например, 20 Гц — 20 кГц) и по возможности наиболее полно подавить ненужные высокочастотные компоненты. К сожалению, аналоговому фильтру выполнить такие противоречивые требования не под силу. Поэтому цифровой сигнал сначала интерполируют, то есть вставляют дополнительные отсчеты, вычисленные по специальным алгоритмам, и тем самым резко увеличивают частоту дискретизации. При этом исходный спектр полезного сигнала не искажается, а сигнал оказывается дискретизированным на значительно более высокой частоте. Это приводит к тому, что побочные спектральные компоненты на выходе ЦАП далеко отстоят от частотных компонентов основного сигнала и, чтобы отфильтровать их, достаточно простого аналогового фильтра.
После первого этапа цифроаналогового преобразования информация о величине звукового сигнала имеется только в определенные моменты, соответствующие частоте дискретизации АЦП. Дополнительная информация о форме сигнала между отсчетами отсутствует. Задачей второго этапа цифро-аналогового преобразования является восстановление значения сигнала между отсчетами, или интерполяция.
Наибольшее распространение получили линейные методы интерполяции формы сигнала по его дискретным отсчетам, основанные на использовании цифровых фильтров. В исходную последовательность отсчетов сигнала вставляются дополнительные нулевые отсчеты. Новая полученная последовательность подается на интерполирующий цифровой фильтр, в котором нулевые отсчеты преобразуются в очень точно реконструированные отсчеты исходного сигнала. Затем для сглаживания и окончательного восстановления сигнал подается на простой аналоговый фильтр. Полученный в результате цифроаналогового преобразования звуковой сигнал, как правило, попадает в микшер звуковой карты.



1.4.3.0 некоторых проблемах, связанных с ЦАП/АЦП

Обычно шум квантования представляют как разность соответствующих значений реального и квантованного по уровню сигналов (рис. 1.8, а, б).
Такое представление не совсем верно.
На рис. 1.8, а на самом деле цифровой сигнал не показан. Ступенчатая линия — это отображение аналогового сигнала, восстановленного из цифрового с использованием интерполяции нулевого порядка. Если из исходного аналогового сигнала вычесть эту ступенчатую линию, то получится очень странная и некрасивая линия (рис. 1.8, б). Некоторые авторы пишут, что это и есть шум квантования. Но, во-первых, кто сказал, что нужно заменять цифровой сигнал непрерывными ступеньками, и почему именно ступеньками, а не наклонными отрезками прямых линий или кривыми? Во-вторых, в действительности мы имеем право сравнивать непрерывные и дискретные сигналы только в моменты, соответствующие дискретным отсчетам. Поэтому и шум квантования следует представлять последовательностью дискретных отсчетов (рис. 1.8, в).



Рис. 1.8. Иллюстрация процесса квантования сигнала (интерполяция нулевого порядка)

В теоретических работах для представления дискретных сигналов используют функцию отсчетов (дельта-функцию) — бесконечно большой по амплитуде и бесконечно короткий по времени импульс. Площадь дельта-функции равна единице. Разумеется, функции отсчетов в природе не существуют. На практике они заменяются прямоугольными импульсами малой длительности.
Если взять последовательность смещенных во времени функций отсчетов и умножить ее на ординаты кривой линии, соответствующей аналоговому сигналу, то получится дискретный по времени сигнал, который можно представить графически так, как показано на рис. 1.8, в. В данном случае это и есть шум квантования, представленный дискретными отсчетами.
Не существует и идеальных фильтров, с помощью которых можно было бы точь-в-точь восстановить аналоговый сигнал по его дискретным значениям. Однако в современных АЦП используются методы, позволяющие свести погрешности, обусловленные неидеальностью преобразования, к разумному минимуму.
На рис. 1.9, а показан исходный аналоговый сигнал и сигнал, восстановленный из цифрового с использованием интерполяции 1-го порядка (отсчеты соединяются отрезками прямых линий).
Видно, что разница между исходным и восстановленным сигналом (рис. 1.9, б) гораздо меньше, чем при использовании интерполяции нулевого порядка (рис. 1.8, а). А ведь в современных ЦАП используются гораздо более сложные алгоритмы восстановления аналогового сигнала.
Что касается цифрового шума квантования (рис. 1.8, в), бесспорно, при цифроаналоговом преобразовании он трансформируется в некий аналоговый шум. Вид этого шумового колебания будет зависеть от конкретного
АЦП, но его уровень будет гораздо меньше, чем уровень шумового процесса, показанного на рис. 1.8, б.
Распространенная среди сторонников аналогового звука страшилка "Результат дискретизации ужасно отличается от исходного сигнала" основана именно на неадекватном представлении шума квантования (рис. 1.8, б).



Рис. 1.10. Квантование сигнала по уровню и искажения при клиппировании сигнала

Из рис. 1.10 видно, что в случае превышения сигналом значения самого верхнего уровня квантования ("старшего" кванта), а также в случае, когда значение сигнала оказывается меньше нижнего уровня квантования ("младшего" кванта), т. е. при ограничении сигнала, возникают искажения. Они могут быть гораздо более заметными по сравнению с шумом квантования.
Для исключения искажений этого типа динамические диапазоны сигнала и АЦП должны соответствовать друг другу.
Следует упомянуть еще об одном заблуждении. Иногда им грешат даже профессиональные звукорежиссеры. Они утверждают примерно следующее: "Поведение восстановленного сигнала в промежутках между отсчетами не определено, он может изменяться произвольным образом". Однако, говоря так, они забывают о том, что спектр аналогового сигнала, подвергающегося цифроаналоговому преобразованию, обязательно должен быть ограничен. Поэтому при аналого-цифровом преобразовании его значения между дискретными отсчетами не могут быть произвольными и поддаются однозначному восстановлению по этим отсчетам.
Довольно часто изготовители, доказывая преимущество своих звуковых карт, подчеркивают такое обстоятельство, как наличие у звуковой карты цифрового входа и/или выхода. Действительно, если звуковая карта имеет выход, на который сигналы поступают не в аналоговой (после ЦАП), а в цифровой форме, это позволяет уменьшить искажения, связанные с дополнительными преобразованиями при дальнейшей цифровой обработке сигнала вне звуковой карты.
В соответствии с концепцией виртуальной студии звукозаписи вся обработка должна выполняться средствами одного PC. С помощью этого же PC можно получить и конечный продукт — компакт-диск. ЦАП высокого качества нужен только лишь для мониторинга, т. е. для того, чтобы слышать происходящее в виртуальной студии. Наличие цифрового выхода в виртуальной студии дает преимущества только тогда, когда требуется выполнить запись на DAT или подключить высококачественные акустические мониторы, снабженные цифровым входом.
Наличие цифрового входа в виртуальной студии может быть актуальным в том случае, если вас не устраивает качество работы встроенного в звуковую карту АЦП и вы хотите использовать более качественный внешний АЦП. Кроме этого, цифровой вход может быть полезен, если требуется "перегнать" запись с DAT в PC.
Шум квантования. Как с ним бороться? Если для представления звука использовать 24- или 32-битные отсчеты, то о шуме квантования можно забыть (так он слаб). Да вот беда — основным потребительским аудиоформатом является формат компакт-дисков: 16 бит/44,1 кГц/стерео. Поэтому разрядность представления звуковых данных приходится понижать. Даже при 16-битном разрешении звука шум квантования неуловимо мал, тем не менее, он обладает одной пренеприятнейшей особенностью: этот шум коррелирован с полезным сигналом. Именно шум квантования принимает самое активное участие в формировании негативного образа цифрового звука в умах людей — он плоский, металлический, пластмассовый и т. п. Как только раньше ни называли 16-битный звук! Так было до появления специальных методов обработки цифрового звука, называемых дитерингом (dithering) и нойзшейшнгом (noise shaping). Суть дитеринга состоит в том, что до понижения разрядности к полезному сигналу подмешивается очень слабый специфичный шум. В результате шум квантования попросту забивается этим шумом, который в силу своих статистических свойств гораздо меньше действует на психику человека. Конечно, в результате получается более шумная запись, но шум этот, как и шум квантования, практически неуловим на слух.
Еще один метод борьбы с шумом квантования, нойзшейпинг, заключается в применении специальных алгоритмов округления значений звуковых отсчетов при понижении разрядности. После применения нойзшейпинга большая часть энергии шума квантования сосредоточена в области высоких частот, к которым человеческий слуховой аппарат наименее восприимчив. Обычно нойзшейпинг применяется совместно с дитерингом..
Есть еще комплекс проблем: транкейт (от truncate — усечь) — то, что раньше мы называли понижением разрядности цифрового звука. Был сигнал 24-битным, стал 16-битным — произошел транкейт. С одной стороны, понижение разрядности цифрового звука дело обычное. Стоило ли вводить специальный термин? Однако термином truncate обозначают целый комплекс проблем, возникающих при работе с цифровым звуком, разрядность которого больше 16. Прежде всего, это неконтролируемое вами понижение разрядности (оно происходит втайне от вас или вы просто не обратили на него внимания). Допустим, сигнал проходит через три соединенных последовательно цифровых устройства обработки звука. Пусть для их соединения используется интерфейс S/PDIF. Внешне все кажется нормально: три красивых прибора соединены стандартными кабелями, все работает. Что еще нужно? Но кто-то из людей, коммутирующих эти устройства между собой, не разобрался в том, что только первый и последний приборы данной цепочки 24-битные, а средний 16-битный. Эти приборы легко нашли между собой язык: каждый из 24-битных приборов при установлении связи по S/PDIF выяснил, что подключен к 16-битному устройству и переключился в соответствующий режим. В результате при передаче сигнала от первого устройства ко второму произошел транкейт, причем персонал студии этого даже и не заметил. А как вы уже знаете, шум квантования 16-битного сигнала — вещь не очень приятная. Если в процессе обработки фонограммы транкейт происходит неоднократно, то качество звучания будет постепенно понижаться.
Вы скажете, что у вас нет своей цифровой студии с оборудованием стоимостью в десятки тысяч долларов. Но проблема транкейта может подстерегать вас и в персональной студии звукозаписи на базе PC. Обработали свой 24-битный WAV-файл 16-битным plug-in-модулем реверберации — вот вам и транкейт.
Единственный способ борьбы со случайным транкейтом — внимательно читайте инструкции, поставляемые с оборудованием. Что же касается программ, plug-in-модулей в частности, то для контроля за ними существуют специальные утилиты.



1.5. Методы синтеза звуков. Синтезаторы и сэмплеры

Начало относительно широкого использования возможностей электротехники (а в дальнейшем и электроники) в музыке относится к середине 30-х годов XX века. В этот период Л. Хаммонд запатентовал электрический орган, представлявший собой набор электромеханических генераторов, каждый из которых вырабатывал колебания с частотой, соответствующей частоте одной из нот. Для исполнителя же, в конечном счете, самым важным в этом инструменте было то, что управление органом Хаммонда осуществлялось с помощью привычной органной клавиатуры. В те времена от такого электрического инструмента требовалось, в основном, чтобы его звучание было максимально похоже на звучание старшего брата — духового органа.



1.5.1. Синтезаторы

В процессе бурного развития электроники совершенствовались методы и устройства генерации и обработки звуковых колебаний в электронных органах и в подобных им электронных музыкальных инструментах. Все больше внимания уделялось вопросам темброобразования как для более точной имитации звучания традиционных инструментов, так и в целях получения новых, необычных тембров. Основным методом темброобразования оставался аддитивный (от английского "additive") метод, применявшийся еще в органе Хаммонда. Этот метод заключается в том, что результирующий тембр формируется путем сложения нескольких исходных колебаний.
При использовании в качестве исходных колебаний синусоидальных сигналов с кратными (отличающимися в целое число раз) частотами и регулируемыми амплитудами отдельных составляющих можно получить большое количество самых разнообразных тембров. Такая разновидность аддитивного метода называется гармоническим синтезом тембра.
Другой разновидностью аддитивного метода является регистровый синтез. В этом случае в качестве исходных используют колебания более сложной формы, например, пилообразные или прямоугольные.
И в том, и в другом случаях для точного воспроизведения звучания заданного музыкального инструмента требуется очень большое (теоретически бесконечно большое) число исходных колебаний. Чем меньше исходных колебаний, тем сильнее отличается синтезированный звук от звучания имитируемого инструмента. На практике оказывается, что даже при полутора-двух десятках исходных колебаний звучание синтезатора лишь в основном напоминает то, что хотелось получить. И здесь, как это часто случается, на помощь технике приходит сам человек. Наша психика устроена так, что если нами будут опознаны хоть какие-нибудь характерные признаки знакомого музыкального инструмента, то в сознании произойдет подмена фактического звучания на воображаемое и на проявляющиеся в дальнейшем огрехи имитации реагировать мы будем значительно слабее, чем они того заслуживают.
Но (даже с учетом этого нашего замечательного свойства) проблема формирования большого числа исходных сигналов остается актуальной. Ее решение значительно упростилось с появлением и развитием цифровых устройств, работающих с сигналами, имеющими прямоугольную форму. Реализация этих устройств в виде интегральных микросхем практически сняла ограничение на количество исходных сигналов. А потом наступило время, когда гармонический синтез, реализуемый довольно громоздкими и дорогостоящими устройствами, не выдержал конкуренции со стороны регистрового синтеза и был вытеснен последним.
Наряду с рассмотренным аддитивным методом, в синтезаторах широко применяется и субтрактивный метод (от английского "subtractive" — вычитание). Сущность этого метода заключается в том, что новый тембр создается путем изменения соотношений между отдельными составляющими в спектре первоначального колебания. Реализуется этот метод как бы в два этапа. Сначала формируются колебания, основные частоты которых соответствуют частотам нот. Главное требование к первоначальному колебанию сводится к тому, что оно должно иметь как можно более богато развитый тембр (иметь большое количество спектральных составляющих). На втором этапе с помощью частотных фильтров из первоначального колебания выделяют частотные составляющие, характерные для имитируемого музыкального инструмента. Этот метод также удобно реализовать на базе быстродействующих цифровых интегральных микросхем. В теории сигналов давно доказано (и экспериментально подтверждено), что спектр импульсной последовательности тем шире, чем короче каждый импульс. Поэтому первоначальными сигналами могут служить последовательности коротких прямоугольных импульсов.
Таким образом, при синтезе звуков в электронных музыкальных инструментах аддитивный и субтрактивный методы мирно уживаются и дополняют друг друга.
Развитие электронных музыкальных инструментов стимулировало создание электронных музыкальных синтезаторов. В синтезаторах, с одной стороны, нашли свое дальнейшее развитие ранее применявшиеся методы синтеза звука, с другой стороны, были внедрены и принципиально новые методы. Однако не это составляет основное отличие синтезаторов. Главное заключается в том, что за счет использования микропроцессоров для управления синтезом звуков в них имеется возможность быстрого и очень просто выполняемого перехода от одного имитируемого (или синтезируемого) инструмента к другому. И еще одно отличие: за счет применения запоминающих устройств большого объема имеется возможность хранения и постоянного дополнения гигантского количества алгоритмов синтеза звуков. Переход от одного синтезируемого инструмента к другому происходит за время, значительно меньшее, чем длительность самой короткой ноты. На практике это означает, что, в принципе, каждую очередную ноту синтезатор может сыграть другим тембром (инструментом). Кроме того, в состав синтезатора входят несколько идентичных блоков синтеза, поэтому и одновременно взятые ноты могут быть исполнены как бы различными музыкальными инструментами.
Не сразу синтезаторы стали такими совершенными. Первые электронные синтезаторы звуков скорее представляли собой специализированные, причем аналоговые, а не цифровые, вычислительные машины. Из-за сложности и недостаточной оперативности управления они были предназначены, в основном, не для исполнительских целей, а для экспериментов, проводимых в интересах совершенствования электронных музыкальных инструментов, создания звуковых эффектов для озвучивания кинофильмов и исследований в области электроакустики.
Развитие технологии аналоговых интегральных микросхем позволило со временем реализовать отработанные методы синтеза в сравнительно доступных как в отношении управляемости, так и в отношении стоимости исполнительских инструментах. Приоритет в этой области принадлежит Р. Мугу, выпустившему в 1964 году первый такой синтезатор. Его основой стал генератор, управляемый напряжением, который способен формировать сигналы прямоугольной, пилообразной и синусоидальной формы. Различные варианты соединения таких генераторов и сложения их выходных сигналов позволили получить обширную палитру новых "электронных" звуков. Такой метод синтеза получил название: "FM-аддитивный метод". Метод основан на частотной модуляции: изменении частоты сигнала в соответствии с законом изменения некоторого управляющего напряжения. Со временем было накоплено большое количество таких алгоритмов управления частотами генераторов Муга, которые представляли ценность в музыкальном отношении, и поэтому закладывались в блоки управления новых синтезаторов.
В результате развития цифровой техники произошел естественный переход от аналоговых к цифровым формирователям колебаний, способным генерировать сигналы произвольной формы. Сами формирователи могут быть реализованы как аппаратно, так и программно, а форма генерируемого сигнала в виде цифрового алгоритма управления формирователями хранится в запоминающем устройстве. Возможность использования большого числа формирователей (порядка нескольких десятков), которые имеют независимое управление частотой колебаний и огибающей амплитуды (размаха колебаний) сигналов, для синтеза каждого голоса музыкального инструмента позволила говорить о переходе на качественно новый по сравнению с аналоговыми синтезаторами уровень. Описанный принцип синтеза звуков с некоторыми модернизациями применяется и в синтезаторах звуковых карт. Кроме того, синтезаторы большей части звуковых карт устроены проще и, в связи с этим, обладают меньшими возможностями по сравнению с "начинкой" электронных музыкальных синтезаторов.
Итак, при FM-методе синтез звука с необходимым тембром производится на основе использования нескольких генераторов звуковых частот при их взаимной модуляции. Совокупность генератора и схемы, управляющей этим генератором, принято называть оператором. Схема соединения операторов и параметры каждого оператора (частота, амплитуда и закон их изменения во времени) определяют тембр звучания. Количество операторов определяет максимальное число синтезируемых тембров. В звуковых картах используется как двухоператорный, так и четырехоператорный синтез. Виртуальные синтезаторы позволяют реализовать значительно более сложные алгоритмы синтеза.
В операторе следует выделять два структурных элемента: частотный модулятор и генератор огибающей. Частотный модулятор определяет высоту тона, а генератор огибающей определяет относительно медленное изменение амплитуды колебания во времени и, тем самым, тембр звука. Звуковые колебания, формируемые различными музыкальными инструментами, имеют различные огибающие. Однако любую огибающую можно условно расчленить на несколько характерных фаз, которые принято называть: attack (атака), decay (спад), sustain (поддержка), release (освобождение). Пояснением сказанного служит рис. 1.11.
Например, при нажатии на клавишу фортепиано, действительно, сначала амплитуда колебаний быстро возрастает до максимального значения, затем несколько спадает, потом в течение некоторого времени остается практически постоянной и, наконец, колебания медленно затухают.
В более совершенных синтезаторах элементарный процесс извлечения звука состоит не из четырех, а из шести фаз (рис. 1.12). Это позволяет получить большее сходство синтезируемого звучания и его естественного образца.
Неоспоримое достоинство FM-синтеза состоит в том, что на его основе можно получить несчетное количество "электронных" тембров. Немаловажно также то обстоятельство, что не требуется заранее записывать и хранить в памяти синтезируемые звуки. Достаточно хранить алгоритм их синтеза.



Рис. 1.11. Четыре фазы огибающей сигнала



Рис. 1.12. Шесть фаз огибающей сигнала

Метод частотно-модуляционного синтеза развивается и широко используется. Накоплено большое количество алгоритмов синтеза оригинальных звучаний. В принципе, как мы уже и говорили, для этого метода нет невозможного.
Вопрос заключается только в том, ценой каких аппаратурных затрат достигается желаемый результат. Но, в соответствии с законами развития, сильная сторона метода со временем превратилась в свою противоположность. Сила метода состоит в том, что любой звук может быть получен модуляцией частоты генератора. Слабость метода заключается в том, что для синтеза любого звучания используется только генератор и только его частотная модуляция, причем процесс синтеза во времени совмещен с процессом исполнения музыки. Почти одно и то же заключено в этих двух фразах — да не совсем. Выходит, что возможности синтеза ограничиваются не только сложностью аппаратурной реализации, но и сложностью алгоритма управления синтезатором в реальном времени. Поясним эту мысль. Для точного воспроизведения звучания какого-то традиционного музыкального инструмента, во-первых, требуется значительное число модулируемых генераторов. Во-вторых, управлять их частотой следует по очень сложному алгоритму, ибо только таковой в состоянии учесть малейшие оттенки звучания, присущие именно данному инструменту. Например, концертный рояль воспроизводит около 4,5 тысяч различимых на слух тембров. Алгоритм должен успевать считываться, вычисляться и передаваться, словом, выполняться компьютером. А генераторы должны успевать его отрабатывать. Поэтому качество синтеза ограничивается также и быстродействием компьютера.
Технические возможности микропроцессорной системы управления не в такой степени сказывались бы на качестве звука, если бы его синтез производился не в реальном времени, а заранее, если бы результаты синтеза сохранялись и использовались при исполнении музыки. Правда, тогда пришлось бы отказаться и от привычного FM-синтезатора. Так оно, в общем, и произошло.



1.5.2. Сэмплеры

В конце семидесятых годов прошлого века был создан цифровой музыкальный инструмент, в котором реализован принципиально иной подход к синтезу музыки, получивший название "sampling". Буквально это слово означает отбор образцов. Суть этого способа состоит в том, что для синтеза звука используются сгенерированные не в реальном времени, а заранее фрагменты, хранящиеся в памяти инструмента. В частности (и чаще всего), эти фрагменты могут быть получены путем записи в цифровой форме натуральных звуков. Синтезаторы, в которых воплощен такой принцип, называются сэмплерами, а образцы звучания — сэмплами. Процесс записи сэмплов принято называть оцифровкой или сэмплированием. В целях экономии необходимой памяти сэмплы могут храниться в виде нескольких фрагментов: фрагмента начала звука, фрагмента стационарной фазы и фрагмента завершения звука. Фазы начала и завершения звука (вспомним рис. 1.11) при исполнении воспроизводятся без изменений, а стационарная фаза "зацикливается" на время нажатия клавиши.
Конечно же, сэмплы, записанные с помощью микрофонов, расположенных, например, вблизи рояля, до того, как оказаться в памяти синтезатора, подвергаются нескольким процедурам обработки. Запись очищают от посторонних звуков, подчеркивают стереоэффект и производят частотную коррекцию. В принципе существуют и аппаратура, и программное обеспечение, позволяющие отредактировать заготовку сэмпла, а то и вовсе сконструировать звучание по своему усмотрению.
Для одного и того же инструмента могут быть записаны сэмплы, относящиеся к различным приемам игры и соответствующие различной динамике звукоизвлечения, например: игра на рояле с использованием педали — и без нее, сильный удар по клавише — и мягкое касание. При воспроизведении различные динамические оттенки исполнения получают комбинированием этих сэмплов в различной пропорции.
У рассматриваемого метода есть еще и другое название — волновой синтез. Закодированные наборы образцов хранимых звуков называют волновыми таблицами (Wave Table). О звуковых картах, реализующих рассматриваемый метод синтеза, говорят, что они поддерживают режим Wave Table (WT).
Одна из основных проблем волнового синтеза состоит в том, что для хранения голосов инструментов требуется запоминающее устройство очень большого объема. Если бы задача решалась "в лоб", т. е. запоминалось бы звучание каждой ноты инструмента, то проблема, скорее всего, и по сей день оставалась бы неразрешимой. Значительного сокращения необходимой памяти достигают за счет того, что запоминается звучание немногих нот (в пределе — одной). Формирование звучания остальных нот происходит путем изменения скорости воспроизведения сэмпла в той степени, каково отношение частоты извлекаемой ноты к частоте ноты, хранящейся в памяти.
Как с помощью одного музыкального тона синтезатор получает другой? Допустим, исходный сэмпл оцифрован на частоте 44,1 кГц. Теперь, если мы будем воспроизводить его на удвоенной частоте дискретизации 88,2 кГц, т. е. вдвое быстрее, высота звука возрастет на октаву. Если же воспроизводить сигнал на пониженной частоте дискретизации, то высота звука соответственно уменьшится. Таким образом, если воспроизводить сэмпл на измененной соответствующим образом частоте дискретизации, в принципе можно получить звук любой высоты.
Однако такой подход содержит неприятный момент. Одновременно со смещением величины тактовой частоты и высоты звука будет изменяться длительность атаки и скорость затухания сигнала. Так, если мы удвоим тактовую частоту, то наряду с удвоением высоты звука в два раза уменьшится общее время звучания сигнала (так как он будет проигрываться в два раза быстрее). Отсюда вдвое сократится длительность атаки, и вдвое возрастет скорость затухания звука. Это вызовет искажение общего впечатления о звуке. Тембр воспроизводимого сигнала заденут и более серьезные изменения.
В реальном музыкальном инструменте при изменении высоты звука форма амплитудно-частотной характеристики (АЧХ) излучающих звук поверхностей, местоположение на оси частот, величина ее максимумов и провалов механических и акустических резонансов обычно не изменяются. А вот при изменении скорости воспроизведения оцифрованного сигнала вместе с частотой основного тона изменится и форма АЧХ (растянется или сожмется, максимумы и минимумы сместятся по оси частот). Конечно, это сильно исказит звук. Кроме того, в некоторых музыкальных инструментах (пианино, гитара и т. д.) звуки разной частоты формируются с помощью различающихся механически элементов конструкции (струны с оплеткой и без нее; несколько струн, настроенных в унисон). В этом случае звук, полученный с помощью удвоения скорости воспроизведения оцифрованного сигнала, может изначально не соответствовать реальному на октаву более высокому звуку.
Поэтому в WT-синтезаторах применяется несколько другой способ изменения высоты звука. Оцифровывается несколько разных по высоте сигналов (сэмплов) реального музыкального инструмента, перекрывающих весь его частотный диапазон. Шаг по частоте должен быть достаточно мал, чтобы изменения тембра, связанные с конструктивными особенностями инструмента, при смещении частоты основного тона с помощью варьирования частоты дискретизации не были заметны на слух.
В недорогих устройствах считается достаточной оцифровка через половину октавы. При генерации звука определенной высоты WT-синтезатор определяет, в каком частотном диапазоне находится звук, и использует соответствующие сэмплы из своей таблицы, корректируя их частоту основного тона точно до требуемой высоты, виртуально подстраивая частоту дискретизации. Под виртуальностью подразумевается следующее. Частота дискретизации выходного сигнала жестко стабилизирована кварцевым генератором (например, 44,1 кГц). Звук музыкального инструмента также дискредитирован на частоте 44,1 кГц. Для изменения высоты тона надо выбирать отсчеты сигнала из таблицы с частотой, немного отличной от 44,1 кГц, а подавать на ЦАП с частотой, точно равной 44,1 кГц. Это полностью аналогично изменению частоты дискретизации данных и, естественно, будет восприниматься слухом как изменение высоты основного тона сигнала.
Кроме того, синтез звучания некоторых музыкальных инструментов становится более реалистичным и выразительным при одновременном воспроизведении нескольких сэмплов. То есть звук инструмента может генерироваться WT-синтезатором путем наложения звучания нескольких сэмплов.
С помощью специальных программ-редакторов можно изменить (подкор-ректировать) содержание любого произвольного слоя, изменяя форму волны, высоту тона сэмпла, включить использование обычных или управляемых генераторами фильтров и т. д. Таким образом можно добиться самого необычного звучания.
Поскольку качество звучания звуковой карты с WT-синтезатором напрямую зависит от качества звучания образцов инструментов, хранящихся в памяти карты, желательно иметь сэмплы высокого качества (с высоким разрешением записи), что в свою очередь приводит к росту объема банка инструментов.
Для гипотетического устройства, имеющего диапазон частот генерируемого звука в пять октав, при оцифровке через интервал в один тон по высоте с частотой дискретизации 48 кГц и разрядностью данных 24 бита понадобится около 7 Мбайт 1-секундных отрезков сигнала реального музыкального инструмента. Однако WT-синтезаторы некоторых звуковых карт имеют меньший объем памяти, хотя могут имитировать более ста инструментов. Достигается это несколькими методами. Звук оцифровывается с большим шагом по частоте основного тона и подвергается различным видам компрессии. В таблице хранятся отрезки сигнала значительно меньшей по времени длины, чем одна секунда. При этом для синтеза длительных нот применяется зацикливание (многократное повторное воспроизведение отрезка сигнала). Отрезок как бы превращается в кольцо. Естественно, для гладкого, без щелчков на стыке кольца требуется специальная обработка отрезка сигнала. Он должен содержать целое число периодов основного тона, а отсчеты около стыка должны быть обработаны специальной сглаживающей программой.
Патчи для инструментов с малой длительностью звучания (ударных) обычно записываются полностью, а для остальных может записываться лишь начало, конец звука и небольшая "средняя" часть, которая затем проигрывается в цикле в течение нужного времени.
В процессе воспроизведения звука специальный процессор выполняет операции над патчами, изменяя их амплитуду, частоту и таким образом формируя звук требуемой громкости, полностью соответствующий необходимому тембру.
Безусловным достоинством синтеза на основе таблицы волн является предельная реалистичность звучания классических инструментов и простота получения звука.
Основой "голоса" WT-синтезатора является цифровой звук. В этом и заключается самое главное отличие WT- от FM-синтезаторов, у которых "голосовыми связками" являются генераторы аналоговых колебаний строго определенных форм. В принципе, используя FM-синтез, можно получить очень большое количество тембров. Однако на основе одной и той же волновой формы при использовании WT-синтезатора можно получить еще большее количество тембров (а ведь количество сэмплов ограничивается только объемом памяти). Все дело в том, что WT-синтезатор — это не просто "маленький цифровой магнитофончик", который может в цикле и с разной скоростью (а значит и в различной тональности) воспроизводить свою фонограмму — сэмпл. Кроме этого он может проделывать самые разные операции над генерируемым звуком: пропускать его через резонансный фильтр,
модулировать его как по амплитуде, так и по частоте, накладывать различные эффекты...
Для того чтобы в дальнейшем понимать смысл действий по редактированию музыки, необходимо познакомиться с архитектурой звукового элемента типичного синтезатора. Звуковой элемент — это некоторый аппаратным путем реализованный блок полифонического синтезатора, который воспроизводит звучание только одного голоса. Слово "полифонический" означает, что у синтезатора таких блоков много и каждый из них в определенный момент времени занимается генерацией только одного звука. Когда вы берете аккорд на MIDI-клавиатуре, не подозревая того, вы запускаете в работу столько звуковых элементов, сколько нот в аккорде, а в некоторых случаях и больше. Вариант структурной схемы типичного звукового элемента показан на рис. 1.13.



Рис. 1.13. Структурная схема типичного звукового элемента

Сразу отметим, что все преобразования над сэмплом происходят в цифровом виде. Какие же именно преобразования претерпевает сэмпл, прежде чем попасть на выход синтезатора?
Сердце звукового элемента — осциллятор (oscillator) — тот самый воображаемый цифровой магнитофончик, о котором мы говорили совсем недавно.
Это устройство воспроизводит сэмпл с заданной скоростью. Скорость воспроизведения зависит от номера нажатой MIDI-клавиши. Кроме того, этот "магнитофончик" может воспроизводить звук в цикле: "докрутил" звук до отметки конца цикла и быстро перескочил к метке начала цикла (и так — по кругу). А можно сделать так, чтобы, как только вы отпускаете MIDI-клавишу, "магнитофончик" выходил из цикла и начинал воспроизводить все фазы сэмпла подряд, пока сэмпл не закончится.
С осциллятора цифровая информация о звуке попадает на резонансный НЧ-фильтр (Resonant Low Pass Filter), с помощью которого можно изменять спектр сэмпла, получая при этом очень интересные эффекты, например, эффект, называемый "Wah-wah" ("Вау-вау"). Частотная характеристика фильтра определяется двумя параметрами: частотой среза (Filter Cutoff) и коэффициентом усиления фильтра на частоте среза (Resonance). Последний из параметров часто обозначается как Filter Q.
После фильтра звук попадает на усилитель (Amplifier), где ему придается заданная в пространстве "громкость-время" форма — амплитудная огибающая.
Теперь звук почти готов к употреблению. Остается пропустить его некоторую часть через эффект-процессор (Effects Engine), чтобы реализовать эффекты реверберации и хоруса (Reverb, Chorus). Наверное, требуется пояснить, что значит "некоторая часть звука". Звуковой сигнал следует двумя путями: первый путь ведет сразу в обход эффект-процессора, а второй — через эффект-процессор. На первом пути звук не претерпевает никаких изменений. Проходя же по второму пути, звук, например, полностью превращается в свое эхо. Затем эти пути вновь сходятся: исходный звук смешивается со своим эхом. Очевидно, что регулировать глубину эффектов можно, изменяя уровень сигнала, следующего вторым путем.
Теперь звук полностью готов к употреблению и поступает на ЦАП синтезатора, а затем или на микшер звуковой карты, или непосредственно на цифровой выход в стандарте S/PDIF, если таковой имеется у данной звуковой карты.
Кроме рассмотренных блоков, в которых происходит генерация и преобразование звукового сигнала, обычно существуют еще вспомогательные генераторы, создающие низкочастотные колебания (Low Frequency Oscillator). На схеме в качестве примера показаны два таких генератора: LFO1 и LFO2. Низкочастотные колебания требуются для реализации эффектов частотной (частотное вибрато) и амплитудной (амплитудное вибрато, тремоло) модуляции, а также тембрового вибрато (эффекта "Вау-вау"). Для каждого из генераторов регулируется два параметра: Delay — задержка начала низкочастотной генерации от момента начала звучания сэмпла, Freq — частота колебаний.
Генераторы огибающих Pitch/Filter и Volume Envelope Modulation предназначены для управления высотой тона (Pitch), параметрами фильтра (Filter) и громкостью (Volume) непосредственно в процессе воспроизведения сэмпла.
В отличие от традиционного четырехфазного представления звуков ADSR (аббревиатура от Attack, Decay, Sustain, Release) в рассматриваемом гипотетическом синтезаторе звук делится на шесть фаз (DAHDSR): Delay (задержка), Attack (атака), Hold (удержание), Decay (спад), Sustain (поддержка) и Release (освобождение). Именно по этой причине на блоке Envelope Parameters (параметры огибающей) изображено шесть регуляторов, каждый из которых символизирует возможность управления определенной фазой звука. Перечисленные фазы показаны на рис. 1.12.
Кроме основных блоков, на структурной схеме символически показаны манипуляторы (ручки, при помощи которых можно регулировать тот или иной параметр звукового элемента). Конечно же, никаких ручек физически не существует, все настройки — это числа, которые хранятся в памяти драйвера, обслуживающего синтезатор.
Треугольниками обозначены модуляторы. Для того чтобы вы лучше поняли их назначение, приведем пример из повседневной жизни. Все пользуются водопроводным краном. В кране течет вода. Интенсивность ее протекания (если можно так выразится) характеризуется положением ручки крана. А теперь проведем аналогию между водопроводным краном и модулятором в схеме синтезатора: кран — модулятор, вода — исходный сигнал (например, низкочастотные колебания от LFO1), ручка — модулирующий сигнал (например, LFO1 to Pitch), положение ручки — параметр регулировки, т. е. просто число, характеризующее глубину модуляции (в нашем примере речь идет о частотной модуляции — частотном вибрато).
Сэмплирование — это запись образцов звучания (сэмплов) того или иного реального музыкального инструмента. Сэмплирование является основой волнового синтеза музыкальных звуков. Вы уже знаете, что аппаратные или программные устройства, использующие этот метод синтеза, называются сэмплерами.
Если при частотно-модуляционном синтезе (FM-синтезе) новые звучания получают за счет разнообразной обработки простейших стандартных колебаний, то основой волнового синтеза являются заранее записанные звуки традиционных музыкальных инструментов или звуки, сопровождающие различные процессы в природе и технике. С сэмплами можно делать все, что угодно. Можно оставить их такими, как есть, и сэмплер будет звучать голосами, почти неотличимыми от голосов инструментов-первоисточников. Можно подвергнуть сэмплы модуляции, фильтрации, воздействию эффектов и получить самые фантастические, неземные звуки.
В принципе, сэмпл — это не что иное, как сохраненная в памяти синтезатора последовательность цифровых отсчетов, получившихся в результате ана-лого-цифрового преобразования звука музыкального инструмента.
Технология, которая позволяет "привязывать" сэмплы к отдельным клавишам или к группам клавиш MIDI-клавиатуры, называется мультисэмплингом (Multi-Sampling). Суть данной технологии можно пояснить графически так, как это сделано на рис. 1.14, а.



Рис. 1.14. Примеры использования технологий мультисэмплинга и многослойности

У реальных инструментов тембр зависит от высоты звука. Спектральная характеристика звука изменяет свою форму в зависимости от частоты. Например, у фортепиано тембр звука каждой из клавиш будет хоть немного, но все-таки отличаться даже от своих ближайших клавиш-соседей, не говоря уже о клавишах, расположенных предельно далеко друг от друга — в начале и в конце клавиатуры. Если бы не существовала проблема экономии памяти, то можно записать звучание музыкального инструмента для каждой ноты, а полученные сэмплы привязать к каждой из клавиш MIDI-клавиатуры. Но в этом случае для размещения звукового банка потребуется значительный объем памяти. В принципе, такой подход может быть реализован в программном сэмплере Gigastudio. Собственно, отсюда и происходит приставка Giga- в названии программы: банки сэмплов могут занимать гигабайты. Однако это не всегда оправданно, поэтому в памяти обычно хранятся сэмплы не для каждой ноты, а лишь для некоторых. В этом случае изменение высоты звучания достигается путем изменения скорости воспроизведения сэмпла. Группы клавиш, для которых записываются сэмплы, выбираются так, чтобы в пределах каждой из них вариации тембра звучания реального инструмента были бы не заметны на слух. Это позволяет существенно снизить затраты памяти и в то же время получить вполне качественный, близкий к живому звук.
Для получения разных нот сэмплы воспроизводятся с разной скоростью, при этом изменяется их длина (время звучания сэмпла или период его циклического воспроизведения). Нота, соответствующая воспроизведению сэмпла со штатной скоростью (когда частота дискретизации при его воспроизведении такая же, как была при записи), называется базовой нотой.
Если использовать малое количество сэмплов, распределенных по MIDI-клавиатуре, то эффект изменения длительности сэмплов будет слишком заметен. Кроме того, при воспроизведении сэмпла со скоростью, существенно ниже той, на которой он был записан, из него пропадают высокочастотные составляющие, присутствующие в тембре любого (даже басового) инструмента.
Приведем простой пример. Пусть изначально сэмпл был записан для ноты до пятой MIDI-октавы (при нумерации октав, начиная с нулевой) с частотой дискретизации 44,1 кГц. Это значит, что для этой ноты спектр звука потенциально может простираться до 44,1/2 = 22,05 кГц (по теореме Найкви-ста — Котельникова). Для того чтобы получить ноту до четвертой октавы, синтезатор должен воспроизводить этот сэмпл со скоростью в два раза ниже той, на которой он был записан, то есть с частотой дискретизации 22,05 кГц. По теореме Найквиста — Котельникова: 22,05/2 = 11,025 кГц — максимальная частота звукового сигнала. Это значит, что в спектре сигнала область частотного диапазона размером 11,025 кГц будет, отсутствовать, т. е. спектр звука будет ограничен в области высоких частот значением 11,025 кГц.
Чтобы свести эти неприятные эффекты к минимуму, достаточно распределения двух-трех сэмплов на октаву.
В домашних условиях попытка создать свой собственный качественный инструмент, например, записать звучание акустической гитары, вряд ли увенчается успехом. Для таких целей нужна лаборатория, оснащенная специальным оборудованием. Поэтому в качестве "стандартных" инструментов все-таки лучше использовать звуковые банки, созданные специалистами.
Существует еще одна важная особенность мультисэмплинга. Связав сэмплы различных инструментов с различными группами клавиш, можно получить одновременно несколько инструментов на одной MIDI-клавиатуре, например, для левой руки — контрабас, для правой — флейту. Это значит, что вы можете управлять по одному MIDI-каналу несколькими инструментами одновременно. Правда, при этом сузятся диапазоны звучания этих инструментов, ведь MIDI-клавиш всего 128. Но этого должно хватить. Тем более что для управления компьютерными аналогами "живых" инструментов, такими как, например, фортепиано, используется далеко не все 128 MIDI-клавиш.
Музыкальные инструменты (условные контрабас и флейту) можно заменить на спецэффекты, например на различные фразы, произнесенные человеком, звуки различных природных и технических объектов.
Еще одно понятие, связанное с сэмплерами, — многослойность (Multi-Layering) — технология, позволяющая воспроизводить одновременно несколько сэмплов для озвучивания одного инструмента. Как видно на рис. 1.14, б, в данном случае "слои" — это сэмплы, которые расположены как бы друг над другом.
Поговорим о том, как можно использовать данную технологию. Первое, что приходит на ум, — это возможность создания сложных, изменяющихся во времени тембров. Многослойность можно применять для создания стереофонических инструментов для тех сэмплеров, которые не поддерживают стереофонические сэмплы. С помощью многослойности обойти это ограничение просто. Если у вас имеется WAV-файл в формате 16 бит/стерео, то достаточно разделить каждый файл на два сэмпла 16 бит/моно и задействовать эти сэмплы в одном инструменте. Теперь остается только развести сэмплы в разные стороны панорамы: сэмпл, который раньше соответствовал левому каналу стереофонического WAV-файла, — в предельно левое положение, а сэмпл, соответствующий правому каналу, — в предельно правое. Кроме того, многослойность используется обычно для более точной передачи особенностей звучания живых инструментов в зависимости от силы нажатий на клавиши. Нажали клавишу с одной силой — звучит один сэмпл. Если нажать эту же клавишу с другой силой — зазвучит другой. Пример одновременного использования технологий мультисэмплинга и многослойности приведен на рис. 1.14, в.
Как уже говорилось, в сэмплерах для изменения высоты тона воспроизводимых сэмплов изменяется скорость их воспроизведения. Вроде бы все просто и понятно. Но на практике реализовать это очень сложно. Допустим, полифония сэмплера составляет 64 голоса — одновременно могут воспроизводиться 64 сэмпла. При этом каждый из них может воспроизводиться на своей скорости. Но на выходе сэмплера должен быть один поток звуковых данных, с одной фиксированной частотой дискретизации. Как объединить все сэмплы, которые должны воспроизводиться с разными скоростями, в один цифровой поток? Об этом вы можете прочитать в книге [12]. Как вы уже поняли, сэмплер — устройство достаточно сложное. Современные сэмплеры по своей сути являются неким гибридом синтезатора и многоканального цифрового магнитофона, который может воспроизводить сэмплы с разными скоростями. Сэмплы в этом синтезаторе используются в качестве осцилляторов — генераторов сигналов звуковой частоты. В своей практике вы обязательно столкнетесь с объектами, которые именуются лупами и грувами. Классический барабанный луп — это фрагмент барабанной партии, записанный в определенном темпе, длина которого кратна целому числу тактов. Если воспроизводить такой фрагмент в цикле (отсюда и название лупа — "Loop" — петля (существительное), двигаться по кругу (глагол)), то создастся ощущение непрерывной игры. Лупы могут быть и не барабанными. Это может быть любой фрагмент музыки, зацикливание которого приведет к ощущению непрерывной игры.
В настоящее время на дисках и в Internet можно найти множество коллекций лупов. Композиция будет звучать очень монотонно, если на всем ее протяжении будет звучать всего один луп. Поэтому лупы обычно поставляются наборами, в пределах которых все лупы записаны в одном темпе на одних инструментах, но соответствуют разным частям композиции. Например, вступлению, переходам и т. п. Однако несмотря на это, найти подходящий луп для вашей композиции не просто. Что значит "подходящий"? Это значит то, что он вам должен нравиться, быть уместным в композиции определенного стиля и подходить по темпу. Допустим, вам понравился какой-то луп, который был записан в темпе 126 долей в минуту. Да вот беда, темп вашей композиции равен 140. К тому же вы не уверены, что вам не придется изменить темп до какого-то третьего значения. Можно было бы изменить длительность лупа с помощью звукового редактора (например, Cool Edit Pro 12]) таким образом, чтобы подогнать луп под нужный вам темп. Однако при этом изменится тональность лупа. Алгоритмы изменения длительности сэмпла без изменения его тональности эффективно работают только с аудиосигналами, содержащими чистый тон. Звуки барабанов и перкуссии являются аудиосигналами шумоподобными, поэтому результаты работы подобных ачгоритмов будут неудовлетворительными. Многие разработчики музыкальных программ внедрили в своих продуктах такие алгоритмы работы с лупами, при которых в лупе выделяются отдельные звуки (Slices). После этого программа может автоматически изменять положения этих звуков в лупе, подстраиваясь под заданный темп.
Однако мало того, чтобы луп был согласован по темпу. Суть лупа в его циклическом звучании. Это означает, что начало и конец зацикленного фрагмента должны естественно сопрягаться друг с другом. В месте стыка недопустимы перепады амплитуды аудиосигнала. В противном случае будут слышны щелчки.
Совсем не обязательно лупы могут быть только барабанными. В своей практике вам обязательно придется работать и с грувами — мелодическими лупами. Если барабанный луп достаточно подогнать к сонгу по темпу, то грув нужно подгонять еще и по тону.
Изменение тональности грува достигается путем изменения скорости воспроизведения его отдельных частей.



VST и VSTi

В последнее время чрезвычайно популярными стали аудиоэффекты, обработки и виртуальные инструменты, реализованные программным путем и работающие в режиме реального времени. Они могут представлять собой как самостоятельные приложения, так и плагины, предназначенные для использования из других приложений — приложений-хостов. Вообще плагины — нечто несамостоятельное, некий подключаемый "довесок" к программе или устройству, благодаря чему эта программа или устройство получает новые возможности. Приложение-хост — это та программа, которая позволяет подключать к себе плагины. Взаимодействие хоста с плагином регламентируется интерфейсом прикладных программ (Application Programming Interface — API). В настоящее время наиболее популярными "музыкальными" API на платформе PC можно считать VST и DX.
DX — технология, обеспечивающая взаимодействие приложений-хостов с виртуальными эффектами и инструментами (синтезаторами; сэмплерами; эффектами, управляемыми по MIDI, и др.) посредством интерфейса прикладных программ Microsoft DirectX. После установки DX-плагинов в систему они становятся доступными из любых приложений, позволяющих использовать данную технологию.
В равной степени распространены VST-плагины. VST — Virtual Studio Technology — API фирмы Steinberg. Virtual Studio Technology изначально разрабатывалась для применения в программных продуктах Steinberg (в частности, в Cubase VST). Поэтому нет ничего удивительного в том, что и программа Cubase SX ориентирована на работу с VST-плагинами.
Вообще с поддержкой плагинов различных стандартов в Cubase SX дела обстоят следующим образом:
 в полной мере поддерживаются VST-плагины (и эффекты, и инструменты - VST1);  DX-плагины поддерживаются с ограничениями: Cubase SX не отличает DX-плагины эффектов от плагинов инструментов DXi, поэтому применение DXi из Cubase SX нам не представляется возможным; не поддерживается автоматизация параметров DX-плагинов. Все плагины фирмы Steinberg поддерживают стандарт VST. Наиболее мощные по возможностям и качеству звучания (поэтому и наиболее популярные) плагины третьих фирм поддерживают оба стандарта: и DX, и VST. Поэтому в дальнейшем мы будем говорить только о применении VST-плагинов.
Инсталляция VST-плагинов, входящих в поставку Cubase SX, осуществляется во время установки самой программы Cubase SX, и вам не нужно прикладывать никаких усилий для того, чтобы эти плагины в дальнейшем были доступны. Если же вы собираетесь инсталлировать дополнительные плагины, то следует понимать, что для Cubase SX важно, чтобы программные модули плагинов находились в определенной папке. По умолчанию это C:/PROGRAM FILES/STEINBERG/CUBASE SX/VSTPLUGINS. В случае необходимости можно указать другую папку, используемую для хранения плагинов, и дать Cubase SX команду обновить информацию о плагинах. Дело в том, что в настройках каждого приложения-хоста имеется путь к папке с VST-плагинами. У разных приложений этот путь по умолчанию разный. И если вы хотите использовать одни и те же VST-плагины из разных приложений, то в настройках каждого из них должна быть указана одна и та же папка.
VST-инструменты (VSTi) — это, по существу, плагины, управляемые по протоколу MIDI. Для того чтобы задействовать в Cubase SX какой-либо виртуальный инструмент, требуется выполнить минимальное количество действий: подключить плагин VSTi к проекту и выбрать на одном из MIDI-треков в качестве выходного порта виртуальный MIDI-порт данного инструмента.
Различным аспектам применения VST-плагинов посвящено несколько разделов данной книги. В частности, методика подключения VSTi описана в разд. 4.1.3, автоматизация VST-плагинов (эффектов и инструментов) описана в разд. 4.7.8, методика получения информации о VST-плагинах изложена в разд. 5.6.1. О применении VST-плагинов в многоканальных проектах вы прочтете в разд. 5.6.2. Применение VSTi рассмотрено в главе 10, а описание VST-плагинов приведено в главе 13.
У каждого VST-инструмента есть свои особенности. Большинство из инструментов уникально: в них используются различные типы синтеза звука, они отличаются архитектурой и методами обработки генерируемого звука. Многие из них обладают собственным, как правило, ни с чем не совместимым набором MIDI-контроллеров. Однако перечень этих контроллеров, банков и патчей может передаваться в приложение-хост. В этом случае вы обращаетесь к требуемому контроллеру уже не по номеру, а по его названию. Выбирать и корректировать тембры удобнее всего в окне самого VST-инструмента. Все настройки VST-инструмента, сделанные в этом окне, сохраняются непосредственно в проекте.
Мультитембральными VST-инструментами можно управлять по нескольким MIDI-каналам с нескольких MIDI-треков. Для того чтобы свести к минимуму задержку между поступлением MIDI-команды VST-инструменту и ее реализацией в звуке, требуется достаточно мощный процессор и звуковая карта с ASIO-драйверами. Однако если вы не собираетесь играть на VST-инструменте с клавиатуры, то эта задержка значения не имеет. На MIDI-треке, управляющем VST-инструментом, вы располагаете партию для данного инструмента, записав ее нотами или с помощью отпечатков клавиш. Можно записать партию с MIDI-клавиатуры на другой трек, озвучиваемый аппаратным синтезатором, а затем перенести на трек, управляющий VST-инструментом. При воспроизведении проекта приложение-хост учтет то, что VST-инструменты откликаются с запозданием, и будет посылать MIDI-команды для них чуть раньше, чем для других MIDI-инструментов. В результате VST-инструменты будут звучать синхронно со всем сонгом.
Что касается субъективного качества звука, генерируемого виртуальными синтезаторами (и VST-инструментами, в частности), то оно зависит исключительно от разработчиков. Существует множество виртуальных синтезаторов с возможностями игрушки. Но попадаются и такие, которые не уступают по качеству звучания своим аппаратным прототипам, а по возможностям и гибкости в управлении оставляют их далеко позади.
Если вы работаете с аппаратным синтезатором, то для "переброски" MIDI-партии этого инструмента на аудиотрек или в WAV-файл требуется делать внутреннее пересведение: нужно воспроизводить MIDI-треки, относящиеся к данному синтезатору, и одновременно записывать звучание синтезатора на аудиотрек. Качество записи при этом зависит от самого синтезатора, соединительных кабелей и качества АЦП звуковой карты. А цифровые выходы имеются далеко не у всех "железных" синтезаторов.
Совсем другое дело — виртуальные инструменты. Вы можете сами определять формат звуковых данных проекта Cubase SX. Соответственно все виртуальные инструменты будут работать в заданном формате. При этом ничто не мешает вам использовать 24 бита для представления звукового сигнала. И никакого шума.
Итак, вы можете использовать VST-инструменты и добиться серьезных результатов, обладая всего лишь компьютером с достаточно мощным процессором и звуковой картой с минимальными возможностями. Стоимость такой домашней студии гораздо меньше, чем студии с несколькими аппаратными синтезаторами и сэмплерами. Единственные два требования к звуковой карте состоят в том, что она должна обеспечивать качественное аналого-цифровое преобразование для записи вокала и живых инструментов и качественное цифро-аналоговое преобразование для мониторинга (вы должны слышать результаты своих действий).


1.6. Структура микшера

В тех случаях, когда необходимо проводить запись или сведение сигналов, поступающих от нескольких различных источников, без микшера (микшерного пульта) обойтись очень трудно. На страницах книги вы не раз встретитесь с виртуальным микшером Cubase SX и его элементами, реализованными программным способом. Вообще, микшеры, используемые в современных виртуальных студиях, по своим возможностям, да и по дизайну, очень напоминают настоящие аппаратные микшеры. Поэтому есть смысл познакомиться со структурой типичного микшера, а также с назначением его основных элементов.
Микшер позволяет решать несколько задач. Некоторые из них перечислены ниже.
 Микширование (смешивание) в заданных пропорциях сигналов, поступающих от различных источников.  Согласование уровня сигнала источника с чувствительностью и динамическим диапазоном устройства записи, обработки, усиления.  Измерение уровня выходного микса (а в ряде ситуаций и канальных) сигналов.  Оперативное регулирование уровня сигналов.  Эквализация (корректирование частотных характеристик сигналов).  Направление сигналов на внешние устройства динамической обработки и эффект-процессоры, регулирование уровней сигналов, посылаемых на эти устройства и возвращаемых с них.   Коммутация сигналов.   Переключение фазы канального сигнала.  Формирование микса, направляемого на контрольные мониторы или на наушники исполнителей.  Заглушение (мьютирование) отдельных каналов и переключение их в режим solo. Внешний вид типичного микшера представлен на рис. 1.15.



Рис. 1.15. Внешний вид типичного микшера

Условно в микшере можно выделить элементы, перечисленные ниже.
 Секция канальных модулей (иногда канальный модуль называют входным каналом микшера). Каждый из канальных модулей содержит элементы коммутации и регулировки, с помощью которых ведется раздельная обработка канальных сигналов.  Шины параллельного подключения эффектов (шины Aux). С их помощью один или несколько каналов подключаются к внешним устройствам обработки сигналов с последующим возвратом обработанного сигнала в общий микс.  Мастер-модуль. В нем канальные сигналы и сигналы, возвращенные с внешних устройств обработки, объединяются в одну или несколько пар стереосигналов, производится измерение и регулировка уровня смикши-рованного сигнала.  Модуль формирования контрольного сигнала. В нем формируется микс, поступающий на вход усилителя, подключенного к контрольным мониторам или наушникам.



1.6.1. Канальный модуль

На панели канального модуля сосредоточено большинство элементов управления микшером. Канальный модуль позволяет:
 подключать к микшеру источник звука (микрофон, а также электрогитару, синтезатор, магнитофон, CD-плеер и другие линейные источники сигналов);  управлять уровнем громкости источника;  осуществлять коррекцию частотных характеристик сигнала с помощью эквалайзера;   направлять сигналы на выходы системы (основной и мониторный);  направлять сигналы на дополнительные шины подключения эффектов (шины Aux). В каждом канальном модуле есть средства выбора различных источников (микрофонный/линейный) и предоставляется возможность установить предварительное усиление для каждого из них. Обобщенная функциональная схема канального модуля представлена на рис. 1.16.



Рис. 1.16. Обобщенная функциональная схема канального модуля

Канальный эквалайзер служит для управления частотной характеристикой входного сигнала как в целях ее коррекции, так и для достижения определенного художественного эффекта.
Фейдер канала позволяет оперативно регулировать уровень сигнала.



Подключение источников сигнала

Для подключения источников сигнала предусмотрены гнезда разъемов различных типов. Как минимум, имеются трехконтактный разъем типа XLR (подключается микрофон) и гнездо для моноджека (подключаются линейные источники сигнала). Селектор входа (переключатель MIC/LINE) определяет, какое гнездо разъема и какие элементы усиления будут использованы данным каналом.
Кнопка ослабления сигнала (имеется не на всех микшерах) позволяет понижать уровень сигнала (на 20-30 дБ) до того, как он попадет на какой-либо усилительный элемент микшера. Это позволяет избежать перегрузок от сигналов повышенного уровня.
В некоторых микшерах имеется переключатель фазы (на схеме не показан), который используется для исправления последствий неверной коммутации проводов или для изменения фазы, когда размещение системы из нескольких микрофонов этого требует. Одному положению переключателя соответствует нулевой сдвиг фазы, второму — сдвиг фазы на 180° (иными словами, сигнал инвертируется). Этот переключатель, как правило, действует только на сбалансированный микрофонный вход и не влияет на вход линейный.



Фантомное питание

Фантомное питание подается только на сбалансированный микрофонный вход и является источником питания конденсаторных микрофонов. Название фантомное объясняется тем, что для подачи напряжения питания не требуются дополнительные проводники. Питание 48 В на конденсаторный микрофон подается по сигнальным проводникам. Для разделения цепей постоянного и переменного тока применяются конденсаторы. Пользоваться выключателем фантомного питания следует предельно осторожно. Если микрофонный вход скоммутирован с несбалансированным источником сигнала, случайное включение фантомного питания может привести к поломке прибора, так как на него будет подано напряжение 48 В.
На сбалансированные источники сигнала фантомное питание не оказывает негативного воздействия.
Фантомное питание можно использовать также и для подключения электрогитары или клавиатуры. Однако при этом нужно:
 применять специальные распределительные устройства, понижающие напряжение фантомного питания до величины, на которую рассчитано подключаемое устройство;  следить, чтобы источник фантомного питания не оказался перегружен устройством, потребляющим недопустимо большой ток. Регулятор предварительного усиления позволяет привести в соответствие уровни источника сигнала и микшера. Тем самым компенсируется, например, разброс в громкостях звучания голосов различных певцов и в уровнях сигналов различных источников (микрофон, гитара и т. п.).
Предварительное усиление необходимо регулировать при нажатой кнопке Solo, расположенной рядом с фейдером канала. Эта кнопка позволяет выделить канальный сигнал из общего микса, проверить уровень и оценить качество звука в канале независимо от общего микса. Кнопка Solo имеется не на всех микшерах и на схеме (см. рис. 1.16) она не показана. Усиление на входе следует отрегулировать таким образом, чтобы пиковые отметки индикатора уровня находились на границе красной зоны (О VU), но не оставались в ней подолгу.
Эквалайзер микшера обычно имеет три полосы частот: низкую, среднюю и высокую. В микшерах, стоящих не очень дорого, используются полупараметрические эквалайзеры. В них для всех или некоторых полос можно выбрать частотный диапазон, с которым будет работать эквалайзер. Полупараметрический эквалайзер не позволяет регулировать добротность фильтра в отличие от параметрического. С перестройкой центральной частоты фильтра эквалайзера изменяется полоса пропускания и в полупараметрическом эквалайзере скомпенсировать это изменение невозможно.
В дорогих микшерах используются параметрические эквалайзеры, которые позволяют независимо регулировать и центральную частоту, и добротность (полосу пропускания).
Если все метки на вращающихся ручках направлены строго вертикально вверх, то эквалайзер находится в нейтральном положении. При вращении ручки по часовой стрелке происходит усиление сигнала в выбранном частотном диапазоне, против часовой стрелки — подавление.
Для поиска частоты эквализации есть смысл усиливать сигнал, тогда станут заметны изъяны звука на этой частоте. Для достижения тонального баланса целесообразно применять не усиление частот того сигнала, который вы хотите выделить (что может вызвать его искажение), а, наоборот, подавление частот остальных сигналов.



Insert — подключение эффектов и обработок последовательного действия

После эквалайзера (а в некоторых микшерах перед ним, как показано на рис. 1.16) сигнал проступает на разрыв (Insert) и затем на фейдер канала.
Разрыв (Insert) представляет собой гнездо разъема типа "стереоджек" с несколько необычно скоммутированными контактными группами. Если в гнездо не вставлена ответная часть разъема, то сигнал проходит с выхода эквалайзера на вход фейдера. Однако если ответная часть разъема вставлена в гнездо, то цепь действительно оказывается разорванной. Вместо нее по подключенному к ответной части разъема кабелю с двумя сигнальными проводниками сигнал с выхода эквалайзера сначала попадает на вход внешнего устройства обработки, например, ревербератора (данная линия называется посылом), а затем возвращается в микшер по линии, которая называется возвратом. Именно за счет наличия гнезда разъема Insert, посыла и возврата каждый канал можно обработать эффектами независимо от других каналов.
После разъема Insert (либо после эквалайзера) сигнал поступает на фейдер канала, предназначенный для оперативного регулирования уровня канального сигнала. В недорогих микшерах данный регулятор управляется вращающейся ручкой. Но более удобна слайдерная (движковая) конструкция фейдера. Положение канальных фейдеров относительно друг друга создает общее представление о соотношении уровней сигналов в каналах.
Фейдер обычно имеет маркировку его оптимального положения (0 дБ). Для повышения уровня оставлен некоторый запас (10—15 дБ), но в основном предусматривается его уменьшение. Когда фейдер находится в положении — бесконечности, сигнал максимально ослаблен.
После фейдера в схеме пульта расположен регулятор панорамы, определяющий баланс сигнала между левым и правым выходами. Обычно регулятор панорамы является источником сигнала для главного стереовыхода.
Префейдерные посылы используются для организации мониторинга. Сигнал снимается до того, как он пройдет фейдер канала, поэтому уровень отбираемого сигнала не зависит от положения фейдера канала. Это удобно с той точки зрения, что мониторный микс для артистов, находящихся на сцене (или для исполнителя и звукооператора), и звук в зрительном зале (или на входе записывающего устройства) становятся независимыми. Однако при необходимости корректировок приходится манипулировать и фейдером канала, и префейдерными ручками Aux.
Постфейдерньгй посыл (сигнал, снимаемый после фейдера канала) используется для эффектов. Пропорции между уровнем сигнала, подаваемого на внешние приборы обработки звука, и уровнем сигнала в канале при этом сохраняются.
Как правило, микшеры позволяют подключать Aux как до, так и после фейдера. Делается это с помощью специального переключателя или перемычки.



1.6.2. Шины. Подключение эффектов параллельного действия

В ряде моделей имеются коммутаторы, которые определяют маршрут дальнейшего прохождения сигнала и направляют его на различные выходные шины.
Кроме основных шин, в микшере есть и дополнительные шины Aux, позволяющие организовать мониторинг (озвучивание всей сцены или подачу миксов на индивидуальные мониторные системы, например, наушники исполнителей) и подключать дополнительные приборы обработки. Любая шины Aux является общей для всех каналов, и сигналы направляются на один и тот же прибор, где они и обрабатываются.
Для последовательного подключения эффекта, действующего только на один канал, служит разрыв (Insert).
Последовательные эффекты или обработки заменяют исходный сигнал собственным. Такими эффектами могут быть, например, хорус, флэнжер (см. разд. 1.6), а обработками — эквалайзер, гейт, компрессор. Последовательные эффекты включаются в разрыв в тех случаях, когда нужно обработать ими сигнал только одного канала. Для одновременной обработки эффектом нескольких источников можно подключать их через шины Aux. Необработанный звук при этом можно получить путем регулировки баланса или глубины эффекта на самом приборе обработки.
Параллельные эффекты не заменяют исходный сигнал собственным, а лишь добавляют к исходному сигналу его обработанный вариант. Параллельные эффекты подключают через шины Aux, причем эффект оказывается доступным для всех каналов и для каждого из них можно установить свою глубину эффекта. После обработки эффектом параллельного действия сигнал возвращается на основную шину микшера, где смешивается с остальными сигналами. В результате в общем миксе присутствует и исходный сигнал, и обработанный.
Степень обработки эффектом сигнала того или иного канала устанавливают регулятором уровня посыла.
Обычно у эффектов имеется регулятор Dry/Wet. Он может называться и по-другому, но его суть от этого не меняется — это отношение исходного и обработанного сигналов на выходе эффекта. Желательно, чтобы на выходе эффекта, подключенного к шине Aux, был только обработанный сигнал. В противном случае исходный сигнал вернется в общий микс, где смешается с таким же сигналом с выхода аудиотрека. Понятно, что за счет сложения двух одинаковых сигналов увеличится их общая громкость. Это в лучшем случае. А в худшем случае вы получите совершенно непрогнозируемый результат за счет того, что фаза необработанного сигнала на выходе эффекта в принципе может отличаться от фазы этого же сигнала на выходе аудиотрека.
Если же эффектом требуется обработать только один канал, то эффект можно включить в разрыв (Insert) и добиться требуемых соотношений между обработанным и необработанным сигналами регулировкой Dry/Wet.
Рассмотрим элементы коммутации и регулировки, имеющиеся в каждом канальном модуле.



1.6.3. Мастер-модуль

В мастер-модуле микшера сосредоточены регуляторы уровня левого и правого каналов, регулятор панорамы стереомикса, измеритель уровня сигнала на выходе микшера. Здесь же, как правило, находится и регулятор уровня микса, поступающего на тот выход микшера, к которому подключены контрольные мониторы или наушники.
Разумеется, от модели к модели микшера состав элементов коммутации и управления варьируется. Микшеры отличаются количеством каналов (и моно, и стерео), но рассмотренные элементы, как правило, есть во всех микшерах.
Практически все MIDI- и аудиоредакторы содержат виртуальные микшеры, более или менее успешно имитирующие своих железных собратьев. Не является исключением и Cubase SX.
Ко многим звуковым картам прилагаются драйверы, по существу являющиеся специализированными виртуальными микшерами.



1.6.4. Автоматизация

Наиболее совершенные (как правило, цифровые) микшеры обладают функцией автоматизации. Поддержка микшером автоматизации означает, что оператор может заранее записать, отредактировать и затем автоматически воспроизвести все свои манипуляции с элементами управления микшера. Перемещения регуляторов, рукояток, слайдеров и изменения состояний переключателей, имеющихся на панели микшера, преобразуются в нестандартные MIDI-сообщения (данные автоматизации), которые, в свою очередь, запоминаются в устройстве, подобном секвенсору. В необходимое время включается воспроизведение автоматизации, данные из секвенсора поступают на соответствующие исполнительные элементы (электронные или механические). Оператор отдыхает, а невидимые руки крутят ручки и передвигают слайдеры.
Автоматизированный микшер превращается и в мощнейший инструмент создания сложных сценариев развития событий во время живого выступления, и в средство динамического управления параметрами мультитрековой композиции при ее сведении. Автоматизированными могут быть не только микшеры, но и самые различные приборы обработки звука, устройства для создания звуковых и световых эффектов и т. п.
Наиболее развитые музыкальные редакторы, к числу которых относится и Cubase SX, имеют в своем составе автоматизируемые виртуальные микшеры. Кроме того, посредством автоматизации можно управлять параметрами эффектов реального времени и виртуальных инструментов.
В Cubase SX для хранения данных автоматизации используются специальные сообщения, которые описывают положение узловых точек, формирующих огибающие автоматизации. Огибающие автоматизации — квазинепрерывные графики (выглядят как непрерывная линия, хотя, на самом деле, сообщения записываются и воспроизводятся в дискретные моменты секвенсорного времени), описывающие поведение того или иного автоматизируемого параметра во времени. Огибающие автоматизации образуются путем линейной интерполяции значений автоматизируемого параметра в узловых точках.
Применению автоматизации в Cubase SX посвящен разд. 4.8.



1.7. Представление музыкальной информации в Cubase SX

В музыкальном редакторе Cubase SX MIDI-данные отображаются и записываются в виде нот, клипов, отпечатков фортепианных клавиш, табулатур, списка сообщений, графиков изменения параметров синтеза, данных автоматизации.
Композиция состоит из отдельных треков, за каждым из которых может быть закреплен любой MIDI-инструмент из любого банка любого MIDI-устройства (синтезатора, сэмплера), в том числе виртуального. Допускается смена инструмента в любой момент. Отдельные ноты или любой фрагмент композиции с помощью стандартных приемов могут быть подвергнуты редактированию. Возможна запись и редактирование цифрового стереозвука. Есть встроенные MIDI- и аудиоэффекты. Программа совместима с VST-инструментами и VST-плагинами эффектов, которые можно применять в реальном времени (см. главы 10 и 13), а также с DirectX-плагинами и DirectX-инструментами. Имеется виртуальный аналог интеллектуального микшера.



1.7.1. Порты, каналы, MIDI- и аудиотреки, части. Подтреки и огибающие

Взаимодействие любого музыкального редактора с музыкальным аппаратным или программным (виртуальным) MIDI-оборудованием осуществляется через программные же порты ввода и порты вывода MIDI- или звуковых данных. Если речь идет о портах для обмена данными с аппаратным устройством, то в терминологии музыкального редактора (Cubase SX, в частности) под портами можно понимать драйверы данного устройства. Однако у одного аппаратного устройства может быть несколько программных портов. Широко известен пример: существуют звуковые карты, синтезаторы которых поддерживают более чем 16 MIDI-каналов. Поскольку согласно спецификации GM может быть только 16 MIDI-каналов, то для взаимодействия с такими синтезаторами в операционной системе создается два (или более) программных MIDI-порта.
Роль входного MIDI-порта чаще всего исполняет порт MIDI In звуковой карты, к которому подключена MIDI-клавиатура. Наиболее типичный пример выходного MIDI-порта: MIDI-вход синтезатора, размещенного на звуковой карте, или порт MIDI Out звуковой карты, к которому подключен внешний синтезатор. Приведем еще примеры входных и выходных MIDI-портов:
 MIDI-вход и выход виртуального синтезатора (VSTi);  порты виртуального MIDI-кабеля, посредством которого "соединяются" друг с другом программные MIDI-секвенсоры или синтезаторы;  порты виртуальных устройств программного MIDI-секвенсора или синтезатора, подключенного к Cubase SX посредством протокола обмена музыкальными данными ReWire. Каждый MIDI-порт, в свою очередь, содержит 16 MIDI-каналов, сообщения которым адресуются независимо друг от друга. Получается, что, имея в своем распоряжении MIDI-систему с единственным выходным MIDI-портом и не пользуясь MIDI-сообщениями о смене MIDI-инструментов, вы в состоянии создать композицию, в которой общее число партий не превышает 16. Для двух портов максимальное число партий составит 32, для трех — 48 и т. д. Конечно, если какие-то партии не перекрываются во времени, то они могут быть адресованы одному и тому же MIDI-каналу, просто нужно в начале каждой партии вставлять сообщение о смене MIDI-инструмента.
Кроме MIDI-информации, музыкальные редакторы должны обмениваться с внешним аппаратным и программным миром адиопотоками. Взаимодействие осуществляется через программные аудиопорты, которые в свою очередь связаны с драйверами оборудования. Обычно входному аудиопорту соответствует АЦП звуковой карты. От состояния элементов коммутации входов звуковой карты, в свою очередь, зависит то, какой источник звукового сигнала оказывается подключенным к АЦП. Выходной аудиопорт, как правило, — ЦАП звуковой карты. Профессиональные звуковые карты бывают многоканальными: имеют несколько портов ввода/вывода оцифрованного звука.
Разработчик Cubase SX, фирма Steinberg, продвигает свой собственный интерфейс прикладных программ, обеспечивающий обмен данными между звуковым оборудованием и программами. Называется он ASIO (Audio Stream In/Out). Использование ASIO в обход стандартных средств Windows позволяет сократить время реакции виртуальных инструментов и устройств обработки звука на поступающие команды до нескольких (1 —2) миллисекунд.
Спецификация ASIO является открытой. Это означает, что производитель оборудования, написавший ASIO-драйвер, ничего за это не должен платить фирме Steinberg. А из-за огромного авторитета Steinberg практически каждый производитель стремится снабдить свою, пусть даже мультимедийную, звуковую карту ASIO-драйвером и с гордостью разместить соответствующий логотип на упаковке и в рекламном проспекте.
Использование ASIO-драйверов, в свою очередь, позволяет в большей степени (по сравнению со стандартными драйверами Windows) задействовать возможности оборудования.
В качестве примера сравним возможности звуковой карты SB Audigy при использовании стандартных драйверов и ASIO-драйвера. Если используется стандартный драйвер, то доступен всего один входной порт (стереофонический), хотя к самой карте могут быть подключены несколько источников аудиосигнала. Сигналы каких источников и с каким уровнем следует направлять в этот единственный входной порт, определяется настройками микшера звуковой карты. Выходной порт тоже один и тоже стереофонический. Если задействовать ASIO-драйвер этой же карты, то картина изменится кардинальным образом: 6 входных стереофонических портов (включая порт интерфейса S/PDIF) и 7 пар выходных портов. Первые шесть пар портов соответствуют каналам системы объемного звука с обработкой аппаратным процессором эффектов звуковой карты и без обработки. Последняя пара портов фактически является посылом на этот аппаратный процессор.
В любом музыкальном редакторе присутствуют MIDI- и аудиотреки. Треки предназначены для хранения информации, адресованной определенному аппаратному или виртуальному устройству. Для каждого из треков независимо можно задать входной и выходной порты. В режиме записи на трек сохраняется та информация, которая поступает через входной порт. При воспроизведении информация, хранящаяся на треке, будет передаваться на его выходной порт. Если говорить о MIDI-треках, то для каждого трека в отдельности можно задать:
 входной MIDI-порт, к которому подключена, например, MIDI-клавиатура;  выходной MIDI-порт (к которому подключен внешний синтезатор, сэмплер или какое-либо другое аппаратное или виртуальное MIDI-устройство);  номер MIDI-канала, по которому будут передаваться MIDI-данные. Для аудиотреков можно задать входной и выходной аудиопорты. Если карта поддерживает систему объемного звучания, то выходные порты можно использовать по-разному. Например, можно задействовать каждый из этих портов по отдельности (звук с одного трека воспроизводить через один канал, а звук другого трека — через другой и т. д.). В Cubase SX реализована поддержка многоканальных систем вплоть до 5.1. Заключается она в том, что в качестве выходного порта аудиотрека можно выбрать выходной виртуальный аудиопорт SurroundPan. В Cubase SX предусмотрена возможность увязки данного виртуального порта с существующими реально выходными портами многоканальной системы. Ваша задача — размещать виртуальные источники звука вокруг себя (делается это с помощью виртуальных регуляторов, по своей сути напоминающих джойстик), а задача Cubase SX — распределять соответствующим образом сигналы по каналам системы объемного звучания.
В принципе, в музыкальном редакторе музыку можно создавать, не применяя режим записи. Соответственно входные MIDI- и аудиопорты могут вообще не использоваться. Как такое возможно? Вы можете создать музыку графическим способом (расставляя ноты или отпечатки MIDI-клавиш), импортировать уже готовые MIDI-файлы, содержащие некие "полуфабрикаты" для вашего будущего произведения (например, ритмические партии). Что касается аудиотреков, то вы можете импортировать аудиофайлы из библиотек сэмплов. Но вот без выходных портов MIDI- и аудиотреков не обойтись. Надо же как-то музыку воспроизводить.
Само собой разумеется, что треков в проекте песни или инструментальной композиции может быть несколько (а именно, столько, сколько вам нужно). Абсолютно независимо друг от друга треки могут находиться в режиме записи или режиме воспроизведения. Предположим, что над многотрековым проектом вы работаете в одиночку. Тогда процесс вашей работы выглядит примерно так. Вы поочередно записываете партии разных инструментов на разные треки. Сначала вы записываете партию одного инструмента. Потом вы записываете партию другого инструмента уже на другой трек. Во время записи второго трека вы слышите звучание партии, записанной на первый трек и свою собственную игру. При записи партии третьего инструмента на третий трек вы слышите звучание первых двух треков и свою собственную игру и т. д. В принципе, если возможности аппаратуры позволяют, вы можете производить одновременную запись нескольких источников MIDI-и/или аудиоданных на разные треки (выполнять многоканальную запись).
В Cubase SX MIDI- и аудиоданные хранятся в виде сообщений. Пример MIDI-сообщения: Note (нажатие MIDI-клавиши), параметры данного сообщения — номер клавиши, время удержания в нажатом состоянии и скорость, с которой клавиша была нажата. Что понимать под аудиосообщением? Аудиосообщение — объект, содержащий ссылку на звуковой файл и набор атрибутов, относящихся к тому, когда и как данный файл следует воспроизводить и как отображать в проекте соответствующий ему графический объект. В терминологии Cubase SX звуковой файл называется клипом.
В Cubase SX существует понятие часть — это объект, предназначенный для хранения сообщений. Часть располагается на одном треке и может не содержать ни одного сообщения или содержать сколько угодно сообщений. Производя операции редактирования с частью, вы тем самым производите эти операции с множеством сообщений как с единым целым.
MIDI-сообщения не могут храниться вне частей. В момент включения режима записи на соответствующих треках автоматически создаются части, и в них по мере поступления размещаются записываемые данные. Если за время работы программы в режиме записи никакая информация не поступила, то созданные пустые части будут автоматически уничтожены.
В отличие от MIDI-сообщений, аудиосообщения могут храниться вне частей непосредственно на аудиотреках.
Следует различать части, предназначенные для хранения MIDI-сообщений, и части, предназначенные для хранения аудиосообщений. В Cubase SX существует жесткое ограничение — MIDI-части могут располагаться только на MIDI-треках, а аудиочасти — только на аудиотреках. Проявляется это ограничение, например, в том, что вам не удастся перетащить MIDI-часть на аудиотрек.
На рис. 1.17 вы видите окно Cubase SX Project программы Cubase SX. Это окно проекта. По горизонтали оно поделено на три области. Левая и средняя области относятся к секции атрибутов треков. От правой области (секции треков) секция атрибутов треков отделена перемещаемым бордюром. Секция атрибутов треков подразделяется на список треков (средняя область) и поле инспектора (левая область). В списке треков один над другим располагаются поля, каждое из которых соответствует своему треку. В этих полях доступны лишь основные атрибуты треков: имя трека, его состояние (заглушен или звучит, солирует, подготовлен к записи), громкость, панорама и ряд других атрибутов. В главе 4 имеется исчерпывающее описание всех типов треков и соответствующих им атрибутов.
Область инспектора представляет собою панель, на которой сосредоточены опции выбора большого числа параметров одного из треков. Какого именно? Когда вы щелкаете левой кнопкой мыши на одном из полей в списке треков, трек оказывается выделенным более светлой окраской. На рис. 1.17 на выделенный трек указывает стрелка курсора мыши. Вы можете использовать клавиши <вверх> и <вниз> для выбора того трека, атрибуты которого будут отображаться в поле инспектора. В дальнейшем вы узнаете, что выделенной может оказаться группа треков. Однако даже в этом случае в поле инспектора будут доступны атрибуты только одного из них.
Прямоугольники, расположенные один под другим в правой части окна, — части, содержащие MIDI-сообщения.
До сих пор мы упоминали только MIDI- и аудиосообщения. Однако в Cubase SX существуют сообщения и других категорий. Например, существуют сообщения, содержащие текст. У них всего один параметр — текстовая строка. С их помощью можно набрать комментарии или текст песни.
А кроме MIDI- и аудиотреков в Cubase SX существуют еще несколько видов вспомогательных треков. В качестве примера можно привести треки-контейнеры, предназначенные для хранения внутри себя других треков.
С их помощью можно придать проекту некую структуру и сократить количество отображаемых в окне проекта треков. Однако на эти треки невозможно записать какую-либо информацию. Тем не менее, как графические объекты эти треки отображаются в окне проекта.



Рис. 1.17. Окно Cubase SX Project

Итак, треки Cubase SX представляют собой графические объекты, созданные для удобства пользователя. Нагляднее и удобнее каждому инструменту назначать отдельный трек. Хотя на одном и том же треке, в принципе, могут располагаться партии разных инструментов. С помощью специального MIDI-сообщения в заданном месте трека можно подать синтезатору или сэмплеру команду смены инструмента. Однако команда для смены выходного MIDI- или аудиопорта не существует.
На самом деле вряд ли удастся выделить внутри компьютера или внутри программы что-то, напоминающее звуковую дорожку на магнитной ленте. Скорее всего, эта информация не только разбросана по разным адресам, но и сами адреса непрерывно меняются. Но для пользователя трек остается треком. При нотном представлении это проявляется в том, что каждому инструменту отводится свой нотоносец. С каждым треком ассоциирован отдельный модуль виртуального микшера.
В одном предельном случае часть — это одно сообщение, в другом — все сообщения, размещенные на одном треке.
Части же, расположенные на треках, имеют вполне определенный смысл — хранение фрагмента композиции, принадлежащего одному треку. Приведем примеры того, что может быть содержанием части:
 один или несколько тактов;  логически завершенный фрагмент трека, относящийся, скажем, к куплету или припеву;  все сообщения, принадлежащие одному треку. Последний пример не имеет особого смысла, поскольку полезный эффект от существования частей можно получить лишь в первых двух случаях. На рис. 1.17 показан пример проекта Cubase SX, полученного путем импорта MIDI-файла. Структура MIDI-файла такова, что MIDI-сообщения хранятся непосредственно на треках. Однако в процессе их импорта Cubase SX создает части, поскольку в проекте данной программы хранение MIDI-сообщений вне частей не предусмотрено. В результате мы получили такую картину: на каждом непустом треке имеется по одной части, в которую собраны все сообщения данного трека. Кстати, существуют MIDI-файлы такого формата (MIDI Format 0), в котором вообще отсутствуют треки. Все сообщения, адресованные разным MIDI-каналам, "свалены" в одну кучу.
Что касается технологии частей, то она позволяет в сотни раз ускорить работу компьютерного музыканта. В каких ситуациях? Например, записали вы 4 такта барабанной партии, выделили их в отдельную часть и путем копирования размножили часть так, что образовалась партия, насчитывающая десятки, а то и сотни тактов.
Или: записали один куплет и один припев песни, выделили это в часть и размножили в необходимом количестве экземпляров.
Еще один пример. Записали солирующую партию в исполнении фортепиано. Захотелось найти какой-то оригинальный тембр. Вот он — синтезированный звук плачущей флейты! Но у этого звука большое время атаки, он медленно нарастает. Создается впечатление запаздывания. Хорошо бы сделать так, чтобы ноты этой партии брались с небольшим опережением. Если вы не работаете с клипами, то станете передвигать каждую ноту, на что уйдет уйма времени. Да еще придется делать это не один раз. А вот после объединения партии в часть, все ноты вы сможете переместить одним легким движением руки с мышью.
Часть можно скопировать, вырезать, мышью перенести в любое место проекта. Можно применить к выделенной части любую обработку, MIDI- или аудиоэффекты. Несколько частей можно объединить в одну.
Части и треки — это средство обзора композиции в целом, с высоты птичьего полета. Они, по сути дела, являются инструментами дирижера. Это не только наглядное графическое отображение структуры проекта, но и возможность быстрого и легкого переноса партий и их фрагментов во времени и пространстве музыкального произведения (с трека на трек).
Мы уже говорили об огибающих — графиках, с помощью которых в Cubase SX осуществляется управление виртуальным микшером, VST-плагинами и VST-инструментами. В Cubase SX, в отличие от многих других программ, работа пользователя с огибающими организована очень удобно. Наряду с треками, предусмотрены еще и подтреки. На каждом из них вы можете редактировать по одной огибающей. В результате графики не наслаиваются друг на друга. Доступ к подтрекам и огибающим осуществляется из окна проекта Cubase SX Project.
Подтрек открывается щелчком на маленькой кнопке, помеченной знаком + (плюс) и расположенной в левом нижнем углу каждого из полей списка треков (см. рис. 1.18). Открываете один подтрек, ассоциируете его с одним из параметров (например, с панорамой). У этого подтрека тоже есть кнопка, помеченная знаком +. Открываете еще один подтрек, ассоциируете его с другим параметром (например, с громкостью). И у этого подтрека тоже есть кнопка, помеченная знаком +. В общем, вы можете открыть столько подтреков, сколько надо (рис. 1.18).



Рис. 1.18. Открыты 2 подтрека, на которых нарисованы огибающие громкости (Volume) и панорамы (Pan)

Подтреки называются так именно из-за того, что на них хранится часть информации, принадлежащей какому-то треку. У каждого подтрека имеется небольшой набор собственных атрибутов.
Детальное описание элементов окна Cubase SX Project читайте в главе 4.



1.7.2. Список сообщений

Для редактирования сообщений предназначен специальный редактор List Editor (рис. 1.19).



Рис. 1.19.Окно редактора List Editor

Каждое сообщение (event) занимает в списке одну строчку и, по существу, представляет собой указание, которое должен выполнить музыкальный синтезатор в определенный момент.
Для MIDI-редактора сообщения — это наиболее естественная форма представления музыкальной информации. Более того, MIDI-система способна принимать и выполнять только те сигналы, которые являются MIDI-сообщениями. Вы записываете ноты, наносите отпечатки клавиш, рисуете графики изменения параметров синтеза, а компьютер, в конечном счете, все равно преобразует их в сообщения.
Вы уже знаете, что MIDI-сообщения — это всего лишь закодированные числами команды синтезатору. Наиболее часто встречаются команды Note On (включить звучание определенной ноты в такой-то момент с такой-то громкостью) и Note Off (выключить звучание ноты в такой-то момент). Все MIDI-ноты пронумерованы от 0 до 127.
Кроме этих команд MIDI-сообщения могут содержать указания о смене инструмента, перестройке частотного фильтра, нажатии педали, виде и глубине эффекта, а также многое другое. Соответствие чисел командам стандартизировано. Правда, одновременно имеют хождение целых четыре стандарта: GM, GS, XG и GM2. Смысл основных команд в них, к счастью, совпадает. Подробнее о соответствии стандартных MIDl-сообщений тем сообщениям, с которыми работает Cubase SX, мы рассказали в разд. 1.2.
Редактор MIDI-сообшений есть в музыкальной программе каждой уважающей себя фирмы. В окне редактора List Editor программы Cubase SX можно редактировать не только MIDI-сообщения, но и сообщения еще двух типов: текстовые комментарии и сообщения нотации. Окно редактора открывается командой главного меню MIDI > Open List Editor.
В левой части окна List Editor находится таблица — список сообщений. В ячейках таблицы содержится тип сообщения, время выполнения сообщения и его параметры. Редактирование содержания таблицы производится с клавиатуры компьютера или мышью с помощью меню и полей ввода.
В правой части расположена секция графического редактирования сообщений. Здесь с помощью инструмента (Erase). Подробнее о работе с редактором List Editor читайте в главе 6.



1.7.3. Отпечатки клавиш

Конечно, подготовленному музыканту привычнее работать с нотными записями. К сожалению, далеко не каждому талантливому человеку судьба дала возможность обучиться теории музыки. Видимо, разработчики программ тоже понимали, что не все пользователи смогут выразить музыкальную идею нотами. Однако каждая фирма заинтересована в расширении числа покупателей своей продукции. Найденное решение просто и на удивление удобно. Мы называем его образно: "Отпечатки клавиш". Для редактирования отпечатков клавиш предназначено окно Key Editor (рис. 1.20). Оно открывается командой главного меню MIDI > Open Key Editor.
Вместо пяти нотных линеек здесь их 128. По одной линейке для каждой ноты из числа тех, что способен воспроизводить MIDI-синтезатор. Такое количество нотных линеек позволяет обойтись без ключей и знаков альтерации. И это еще не все. Для того чтобы не нужно было постоянно пересчитывать нотные линейки, в окне редактора Key Editor отображается виртуальная клавиатура, подобная фортепианной. Каждая нотная линейка
начинается от определенной клавиши. Клавиши можно как бы нажимать, щелкая на них мышью. Вы немедленно услышите звучание соответствующей ноты. Это помогает ориентироваться в линейках на слух. Но, вообще-то, обозначение той клавиши, на которую указывает курсор мыши, отображается в поле подсказки.



Рис. 1.20. Окно редактора Key Editor

По сути дела, клавиатура — это вертикальная ось системы координат, в которой вам нужно записывать музыку. А горизонтальная ось — это, конечно, ось времени. Правда, время здесь измеряется в музыкальных единицах: тактах и долях. На рабочем поле окна видны линии, обозначающие границы тактов и их долей.
Запись музыки в окне редактора Key Editor действительно выглядит, как следы отпечатков клавиш. Отпечаток необходимой клавиши начинается и заканчивается в необходимые моменты музыкального времени. На экране он представлен как цветной прямоугольник.
Вертикальная координата положения прямоугольника соответствует MIDI-номеру ноты, то есть высоте звука. Левая сторона прямоугольника приходится на момент начала извлечения звука. Длина прямоугольника по горизонтали пропорциональна длительности ноты. И все это избавляет вас от массы проблем. Не обязательно помнить обозначения нот и пауз разной длительности, знать, что такое триоль, квинтоль, пунктирная нота, лига, фермата. Просто рисуйте прямоугольники разной длины и оценивайте звучание.
Для записи отпечатка клавиши служит инструмент (Erase). Перетаскивают отпечаток клавиши по вертикали и горизонтали, изменяют его длину, как обычно, мышью. Для выполнения перечисленных операций необходимо предварительно выбрать инструмент
В окне редактора отпечатков клавиш есть много полезных инструментов. Можно заранее настроить карандаш на запись звуков определенной длительности, можно прослушать, как звучат отпечатки клавиш, можно даже одновременно наблюдать и редактировать несколько партий.
Детальное описание работы с отпечатками фортепианных клавиш вы найдете в главе 6.



1.7.4. Ноты

Итак, Cubase SX допускает представление и редактирование музыки в различных формах. Но редактор не имел бы права именоваться музыкальным, если бы не позволял оперировать привычными нотами и символами нотного письма. Для этого в состав программы входит нотный редактор, нотатор.
Самое главное свойство MIDI-нотатора (окно редактора Score Editor, рис. 1.21), в котором музыкальная информация отображается в нотной форме, заключается в том, что можно не только читать нотную запись, но и воспроизводить ее звучание.
И еще одна важная особенность: ноты записываются несколькими способами. Например, щелкаете кнопкой мыши на линейках нотного стана, наигрываете партию на MIDI-клавиатуре.
Для того чтобы открыть окно Score Editor, воспользуйтесь командой главного меню MIDI > Open Score Editor. Окно нотатора похоже на страничку нотной тетради: нотные станы, поделенные на такты.
В любом месте можно вставить или удалить такт, обозначить необходимые ключевые знаки.
С помощью инструмента (Erase) исправляют ошибки.
Для тех, кто неуверенно ориентируется, на какой линейке в том или ином ключе располагается определенная нота, в программе предусмотрена подсказка. В ней содержится обозначение ноты, соответствующей положению курсора мыши.



Рис. 1.21. Окно Score Editor

Партитура в целом или отдельные партии выводятся для печати на принтер.
Вся информация, записанная в форме нот, автоматически отображается: в редакторе отпечатков клавиш Key Editor, в списке сообщений редактора List Editor, в окне Cubase SX Project в виде частей на треках.
Подробности о работе с нотатором читайте в главе 8.



1.8. Эффекты и обработки

Использование звуковых карт, плат оцифровки звука, программ - звуковых редакторов предоставляет компьютерному музыканту довольно широкие возможности по применению в музыкальных композициях различных звуковых эффектов и приемов обработки звука. Далее мы будем различать эффекты и обработки. В чем состоит разница между ними? Обработки — это те преобразования исходного аудиосигнала, которые направлены на повышение его качества (в некотором оговоренном смысле). Примеры обработок:
 шумоподавление в целях избавления от помех, сопровождающих полезный аудиосигнал;  динамическая обработка уровня сигнала, позволяющая устранить случайные перепады громкости;  фильтрация спектральных составляющих, необходимая для подчеркивания характерного тембра инструмента или голоса, а также для обеспечения "прозрачности" звучания композиции. Эффекты — это тоже обработки, но только такие, в результате которых у звука появляются свойства, которых у него исходно не было.
Применение эффектов не всегда приводит к улучшению объективных свойств звука. Например, эффект дистошн, широко используемый в практике гитаристов, на самом деле есть не что иное, как специально организованное сильнейшее искажение исходного сигнала, подобное тому, которое возникает при перегрузке усилителя. Но применительно к гитаре и для определенных музыкальных стилей такой эффект оказывается уместен и позволяет получить желаемый эстетический результат.
Как правило, эффекты имитируют (иногда утрированно) какие-либо природные процессы и явления, сопровождающие излучение, распространение звуковых колебаний и восприятие их человеком. Например, эффект эхо имитирует отражение звука от преграды, эффект дилэй — многолучевой характер распространения звука в ограниченном пространстве, эффект реверберация — способность помещения, с одной стороны, накапливать энергию звуковых колебаний (многократно переотражать звуковые волны), а с другой, — постепенно поглощать эту энергию, превращая ее в тепло, нагревающее поверхности помещения.
В ряде случаев бывает очень трудно отличить эффект от обработки. Скажем, за счет фильтрации можно так исказить голос человека, что он будет восприниматься звучащим из телефонной трубки. Обработка это или эффект?
Иногда эффекты и обработки применяются совместно. Например, лучшие алгоритмы реверберации учитывают различия в поглощении средой распространения звуковых волн разной длины: за счет использования частотного фильтра эффектом обрабатывается не весь спектр сигнала, а только определенная его часть.
Те эффекты и обработки, которые применяются к MIDI-сообщениям, принято называть MIDI-эффектами. Если же преобразованию подвергается оцифрованный звук, то речь идет об аудиоэффектах и аудиообработках. Эффекты и обработки могут быть встроены в программу и неотделимы от нее. В таком случае они способны функционировать лишь в составе конкретного музыкального или звукового редактора.
Эффекты и обработки могут быть реализованы в виде специализированных программ. Для выполнения необходимых преобразований MIDI- или аудио-данные должны быть импортированы в подобные программы.
Однако наибольшее распространение получили MIDI- и аудиоплагины — модули, подключаемые к программе-хосту. Такое решение позволяет практически безгранично наращивать возможности основной программы. Программа как бы непрерывно обновляется и совершенствуется без какой-либо переработки ее кода и интерфейса. К Cubase SX аудиоплагины подключаются посредством интерфейса прикладных программ VST. Имеется также возможность подключать DirectX-эффекты.



1.9. Сущность наиболее важных звуковых эффектов

Звуковые эффекты могут быть созданы аппаратным путем, и тогда их можно использовать в реальном времени, как, например, это сделано в высококачественных звуковых картах. Для этого в их состав включены цифровые сигнальные процессоры. Цифровой сигнальный процессор (Digital Signal Processor — DSP) позволяет обрабатывать звуковые сигналы в реальном времени. В основе его принципа действия лежит аналого-цифровое преобразование сигнала с последующей обработкой, основанной на нескольких алгоритмах цифровой фильтрации и цифровой задержки. Правда, полноценный DSP чрезвычайно дорого стоит, поэтому применяется только в специализированных устройствах профессионального назначения. Сигнальные процессоры мультимедийных звуковых карт представляют собой устройства, значительно упрощенные по сравнению со своими старшими братьями. Обычно они ориентированы на создание эффектов в играх и обладают ограниченными возможностями с точки зрения применения эффектов в домашней музыкальной студии.
Выбор эффектов и управление их параметрами производится по MIDI с помощью контроллеров. В составе большинства музыкальных редакторов имеется соответствующий интерфейс, позволяющий управлять контроллерами эффектов различными способами. Чаще всего это делается путем "рисования" графика изменения параметра эффекта. Контроллер эффекта может быть также ассоциирован с одним из регуляторов виртуального микшера, входящего в состав музыкального или звукового редактора.
В компьютерных студиях звуковые эффекты часто создаются программным способом. И реализация эффектов, и управление ими осуществляется с помощью звуковых редакторов. Обработке подвергается заранее записанный в цифровой форме звуковой сигнал. Недостатком программной реализации некоторых звуковых эффектов является невозможность их использования в реальном времени, в процессе записи. Достоинство заключается в том, что отказ от обработки в реальном времени позволяет применять самые сложные алгоритмы, требующие больших временных затрат, поэтому число различных звуковых эффектов и число вариантов каждого эффекта в этом случае значительно превышает то, что достижимо при аппаратной реализации. Кроме того, имеется возможность практически неограниченного "вложения" эффектов один в другой. Предел устанавливается не техническими (точнее, не математическими) возможностями, а здравым смыслом и эстетическими критериями. Основной способ применения эффектов в Cubase SX — их применение в реальном времени. О том, как воспользоваться ими, мы расскажем на страницах книги. Сначала нужно получить хотя бы исходные представления о сущности основных звуковых эффектов: вибрато, тремоло, дилэй (delay), флэнжер (flanger), фэйзер (phaser), xopyc (chorus), реверберация (reverb).



1.9.1. Вибрато

В самом общем смысле суть эффекта вибрато заключается в периодическом изменении одного из параметров звукового колебания: амплитуды, частоты или фазы. Изменение параметра происходит с очень малой частотой — единицы герц. Различают амплитудное, частотное и фазовое вибрато. В любом случае результатом является обогащение спектра исходного звукового колебания. Читатели, знакомые с основами радиотехники, понимают, что, по сути дела, происходит модуляция звукового колебания низкочастотным сигналом. Законы физики неумолимы — спектр сигнала при этом действительно расширяется.
Кроме того, имеется еще и тембровое вибрато, о котором мы поговорим чуть позже.
Как и многие другие электронные звуковые эффекты, вибрато имеет свои естественные прототипы, уходящие корнями в народную и классическую инструментальную и вокальную музыку.
Владение приемом вибрато отличает очень хорошего певца от просто хорошего. Скрипка в руках талантливого музыканта потому и звучит так божественно, что, совершая едва заметные перемещения вдоль грифа пальцев, прижимающих струны, он осуществляет частотное вибрато. Тремоло (частный случай амплитудного вибрато) является основным приемом игры на мандолине.
Первоначально словом "вибрато" именовалась модуляция любого параметра звукового колебания. Но со временем некоторые из разновидностей этого эффекта получили свое название. Во многих публикациях по электронной музыке теперь под вибрато подразумевают только вибрато частотное. На наш взгляд это не совсем верно, следует различать амплитудное вибрато, частотное вибрато и тембровое вибрато. У фазового вибрато имеется специальное название — фэйзер (phaser).



Амплитудное вибрато и тремоло

Амплитудное вибрато включает в себя собственно амплитудное вибрато и тремоло.
Сущность амплитудного вибрато состоит в периодическом изменении амплитуды звукового сигнала. Частота, с которой это происходит, должна быть очень небольшой (от долей герца до 10—12 Гц). Если частота вибрато находится вне этих пределов, то необходимый эстетический эффект не достигается.
Тембр сигнала с амплитудным вибрато богаче по сравнению с тембром исходного сигнала. С таким спектром можно проделывать различные манипуляции, например, изменять уровни спектральных составляющих с помощью фильтров.
Степень проявления эффекта характеризуется глубиной вибрато: m = AS/S, где AS — максимальное изменение амплитуды сигнала с вибрато, S — амплитуда исходного сигнала. Диапазон допустимых значений глубины вибрато — от О до 1. Оптимальная с точки зрения художественного результата частота амплитудного вибрато составляет 6—8 Гц.
Особой разновидностью амплитудного вибрато является тремоло. Отличительные признаки тремоло: относительно высокая частота вибрации (10—12 Гц), максимальная глубина (т = 1) и импульсная форма результирующего сигнала.
В аналоговых устройствах амплитудное вибрато реализуется с помощью перемножителей сигналов. Существует много различных принципиальных схем устройств вибрато. Основная проблема аналоговых устройств — неполное подавление управляющего сигнала. При большой глубине вибрато это проявляется в виде ясно прослушивающегося "стука" с частотой модуляции.
Компьютерные музыканты встретятся с двумя вариантами реализации амплитудного вибрато: аппаратным и программным. Аппаратный способ предполагает наличие в структуре звуковой карты усилителей с управляемым коэффициентом усиления. Программный способ заключается в перемножении значений цифровых отсчетов звуковых колебаний со значениями отсчетов функции (обычно синусоидальной), описывающей управляющий сигнал.
При обработке вокальных партий нужно пользоваться амплитудным вибрато очень осторожно, глубина его не должна быть большой, а тремоло совсем недопустимо.



Частотное вибрато

Суть частотного вибрато заключается в периодическом изменении частоты звукового колебания.
В музыке частотное вибрато получило широкое распространение лишь после создания электронных музыкальных инструментов. Реализовать этот эффект на адаптеризированных акустических инструментах довольно сложно. Правда, у соло-гитары конструкция предоставляет такую возможность. Натяжение всех струн можно одновременно изменять с помощью специального механизма: подвижной подставки для крепления струн и рычага. Частотное вибрато здесь исполняется вручную.
Реализация частотного вибрато в электромузыкальных инструментах и синтезаторах проста и естественна. Работу всех узлов электронных музыкальных синтезаторов как аппаратных, так и реализованных программным путем, синхронизирует опорный генератор. Если изменять его частоту, то будут изменяться частоты и всех синтезируемых колебаний. В радиотехнике этот процесс называется частотной модуляцией. Если изменение частоты производится по периодическому закону, то в результате получается частотное вибрато. По существу дела, при частотном вибрато также расширяется спектр исходного сигнала, тембр перестает быть постоянным, а периодически изменяется во времени.
Красивое звучание получается только в том случае, когда глубина частотного вибрато (относительное изменение частоты звука) невелика. Как известно, в соответствии с хроматической гаммой введена единица музыкальных интервалов, в 1200 раз меньшая, чем октава — цент. Интервал между соседними полутонами в темперированной гамме равен в точности 100 центам. Колебание высоты тона при частотном вибрато не должно превышать нескольких десятков центов. В противном случае создается впечатление нарушения строя инструмента.
Частотное вибрато используется и само по себе и входит составной частью в более сложные звуковые эффекты.



Тембровое вибрато

Эффект тембрового вибрато также предназначен для изменения спектра звуковых колебаний. Физическая сущность этого эффекта состоит в том, что исходное колебание с богатым тембром пропускается через полосовой частотный фильтр, у которого периодически изменяется либо частота настройки, либо полоса пропускания, либо по различным законам изменяются оба параметра. При этом фильтр выделяет из всего спектра исходного колебания те частотные составляющие, которые попадают в "мгновенную" полосу его пропускания. Так как полоса пропускания "дышит" по ширине и "гуляет" по частоте, то тембр сигнала периодически изменяется.
Кроме автоматического тембрового вибрато используют еще и ручное (чаще даже "ножное" — с управлением от педали). Такой вариант эффекта известен под названиями "вау-вау".
Необыкновенно красиво звучит электрогитара, сигнал которой пропущен через блок тембрового вибрато, если цикл перестройки фильтра синхронизирован с моментом возникновения колебания струны. Звук каждого очередного взятого аккорда перетекает от одного края своей тембральной области до другого.
Если звуковая карта содержит перестраиваемые резонансные фильтры или хотя бы фильтры нижних частот с перестраиваемой частотой среза, то этот эффект может быть создан и аппаратным способом в реальном времени.



1.9.2. Эффекты, основанные на задержке сигнала

В этом разделе мы познакомим вас с сущностью ряда эффектов, основанных на задержке сигнала, таких как:
 Дилэй (Delay)  Флэнжер (Flanger)  Фэйзер (Phaser)  Хорус (Chorus)  Реверберация (Reverb) О реализации данных эффектов в Cubase SX речь пойдет в главе 13.



Дилэй

Необходимость в эффекте дилэй (delay) возникла с началом применения стереофонии. Сама природа слухового аппарата человека предполагает в большинстве ситуаций поступление в мозг двух звуковых сигналов, отличающихся временами прихода. Если источник звука находится "перед глазами": на перпендикуляре, проведенном к линии, проходящей через уши, то прямой звук от источника достигает обоих ушей в одно и то же время. Во всех остальных случаях расстояния от источника до ушей различны, поэтому одно либо другое ухо воспринимает звук первым. Проведем несложные расчеты. Время задержки (разницы во времени приема сигналов ушами) будет максимальным в том случае, когда источник расположен напротив одного из ушей. Так как расстояние между ушами — около 20 см, то максимальная задержка может составлять около 6 мс. Этим величинам соответствует волна звукового колебания с частотой около 1,7 кГц. Для более высокочастотных звуковых колебаний длина волны становится меньше, чем расстояние между ушами, и разница во времени приема сигналов ушами становится неощутимой. Предельная частота колебаний, задержка которых воспринимается человеком, зависит от направления на источник. Она растет по мере того, как источник звука смещается от точки, расположенной напротив одного из ушей, к точке, расположенной перед человеком.
Дилэй применяется прежде всего в том случае, когда запись голоса или акустического музыкального инструмента, выполненную с помощью единственного микрофона, "встраивают" в стереофоническую композицию. Этот эффект служит основой технологии создания стереозаписей.
Но дилэй может применяться и для получения эффекта однократного повторения каких-либо звуков. Величина задержки между прямым сигналом и его задержанной копией в этом случае выбирается большей, чем естественная задержка в 8 мс. Какая именно задержка должна быть выбрана? Ответ на этот вопрос определяется несколькими факторами. Прежде всего, следует руководствоваться эстетическими критериями, художественной целью и здравым смыслом. Для коротких и резких звуков время задержки, при котором основной сигнал и его копия различимы, меньше, чем для протяженных звуков. Для произведений, исполняемых в медленном темпе, задержка может быть больше, чем для быстрых композиций.
При определенных соотношениях громкостей прямого и задержанного сигналов может иметь место психоакустический эффект изменения кажущегося расположения источника звука на стереопанораме. Согласитесь, что, например, "перескоки" рояля с места на место по ходу прослушивания произведения очень трудно обосновать как с эстетических позиций, так и с точки зрения верности воспроизведения реального звучания. Как и любой эффект, дилэй нужно применять в разумных пределах и не обязательно на протяжении всей композиции.
Этот эффект реализуется с помощью устройств, способных осуществлять задержку акустического или электрического сигналов. Таким устройством сейчас чаще всего служит цифровая линия задержки, представляющая собой цепочку из элементарных ячеек — триггеров задержки. Для наших целей достаточно знать, что принцип действия триггера задержки сводится к следующему: символ двоичного сигнала, поступивший в некоторый тактовый момент на его вход, появится на его выходе не мгновенно, а только в очередной тактовый момент. Общее время задержки в линии тем больше, чем больше триггеров задержки включено в цепочку, и тем меньше, чем меньше тактовый интервал (чем больше тактовая частота). В качестве цифровых линий задержки можно использовать запоминающие устройства. Известны специальные алгоритмы адресации ячеек запоминающих устройств, обеспечивающие "скольжение" информации "вдоль" адресного пространства. Разумеется, для применения цифровой линии задержки сигнал должен быть сначала преобразован в цифровую форму. А после прохождения копией сигнала линии задержки происходит цифроаналоговое преобразование. Исходный сигнал и его задержанная копия могут быть как раздельно направлены в различные стереоканалы, так и смешаны в различных пропорциях. Суммарный сигнал можно направить либо в один из стереоканалов, либо в оба.
В звуковых редакторах дилэй реализуется программным (математическим) путем за счет изменения относительной нумерации отсчетов исходного сигнала и его копии.
Возможны такие, например, разновидности задержки, при которых формируются несколько задержанных на различное время копий сигнала. Реализация эффекта delay в программе Cubase SX рассмотрена в главе 13.
В виртуальных дилэях, как и в их аппаратных прототипах, обязательно имеются регуляторы глубины и частоты модуляции задержанного сигнала, а также регулятор коэффициента обратной связи (feedback). Сигнал с выхода подается опять в линию задержки. Время затухания устанавливается регулятором обратной связи. Чтобы однократное повторение превратилось в настоящее повторяющееся эхо, коэффициент обратной связи надо увеличить. Как правило, и в реальных, и в виртуальных устройствах имеется регулятор, при помощи которого можно подобрать такое время задержки, чтобы оно соответствовало темпу композиции.



Флэнжер и фэйзер

В основу звуковых эффектов флэнжер (flanger) и фэйзер (phaser) также положена задержка сигнала.
В аналоговых устройствах флэнжер реализуется при помощи гребенчатых фильтров, которые могут строиться на линиях задержки. Характерная форма амплитудно-частотной характеристики (АЧХ) создается за счет сдвига фазы при распространении сигнала в линии задержки и сложения реализаций задержанного сигнала.
Меняя параметры гебенчатого фильтра, можно в значительной степени изменять первоначальный тембр звука.
Гребенчатая АЧХ фильтра обусловлена тем, что для некоторых частот задержанные копии сигнала складываются в фазе и поэтому усиливаются, для других частот — в противофазе и поэтому взаимоуничтожаются. Периодическая структура АЧХ определяется периодическим характером составляющих аудиосигнала (синусоид).
Совершенно не случайно в старые времена флэнжером часто пытались заменить реверберацию. Реверберация возникает за счет многократного отражения звуковых волн от стен, потолка и пола помещения. При этом звуковые колебания по пути к слушателю претерпевают различные по величине задержки (фазовые сдвиги). Имеет место интерференция колебаний. Если исследовать любое помещение с заметными реверберационными свойствами, то обнаружится, что его АЧХ имеет гребенчатую форму.
Как мы уже сказали, дилэй имитирует эффект неодновременного восприятия мозгом человека звуковых сигналов. Эффект повторного звучания может быть вызван и распространением звука от источника к приемнику различными путями (например, звук может приходить, во-первых, напрямую и, во-вторых, отразившись от препятствия, находящегося чуть в стороне от прямого пути). В том и в другом случаях время задержки остается постоянным. В реальной жизни этому соответствует маловероятная ситуация, когда источник звука, приемник звука и отражающие предметы неподвижны относительно друг друга. При этом частота звука не изменяется, каким бы путем и в какое бы ухо он ни приходил.
Если же какой-либо из трех элементов подвижен, то частота принимаемого звука не может оставаться той же, что и частота звука переданного. Это и есть проявление того самого эффекта Доплера, который в учебниках традиционно поясняется на примере изменения высоты звучания гудка движущегося паровоза.
Итак, реальные музыкальные звуки при распространении претерпевают не только расщепление на несколько звуковых волн и различную (для каждой из них) задержку, но и неодинаковое изменение частот для разных спектральных составляющих.
И флэнжер, и фэйзер имитируют (каждый по-своему) проявления взаимного перемещения упомянутых трех элементов: источника, приемника и отражателя звука. По сути дела, оба эффекта представляют собой сочетание задержки звукового сигнала с частотной или фазовой модуляцией. Разница между ними чисто количественная. Флэнжер отличается от фейзера тем, что для первого эффекта время задержки копии (или времена задержек копий) и изменение частот сигнала значительно большее, чем для второго. Образно говоря, флэнжер наблюдался бы в том случае, когда певец мчался бы к зрителю, сидящему в зале, со скоростью автомобиля. А вот для того чтобы ощутить фэйзер в его, так сказать, первозданном виде, движущегося источника звука не требуется, зрителю достаточно часто-часто вертеть головой из стороны в сторону.
Упомянутые количественные отличия эффектов приводят и к отличиям качественным: во-первых, звуки, обработанные ими, приобретают различные акустические и музыкальные свойства, во-вторых, эффекты реализуются различными техническими средствами.
Значения времени задержек, характерные для флэнжера, существенно превышают период звукового колебания, поэтому для реализации эффекта используют многоразрядные и многоотводные цифровые линии задержки. С каждого из отводов снимается свой сигнал, который в свою очередь подвергается частотной модуляции.
Для фэйзера, наоборот, характерно столь малое время задержки, что оно оказывается сравнимо с периодом звукового колебания. При таких малых относительных сдвигах принято говорить уже не о задержке копий сигнала во времени, а о разности их фаз. Если эта разность фаз не остается постоянной, а изменяется по периодическому закону, то мы имеем дело с эффектом Phaser. Так что можно считать фэйзер предельным случаем флэнжера. Но если внимательно прочитать еще раз этот абзац, то можно понять, что фэйзер — это фазовое вибрато.
Чего только ни придумывали в относительно старые времена, чтобы реализовать эти эффекты!
Например, чтобы получить флэнжер, вместо одной акустической системы использовали несколько систем, размещенных на различных расстояниях от слушателей. В определенные моменты производили поочередное подключение источника сигнала к акустическим системам таким образом, что создавалось впечатление приближения или удаления источника звука. Задержку звука выполняли и с помощью магнитофонов со сквозным трактом запись/воспроизведение. Одна головка записывает, другая — воспроизводит звук с задержкой на время, необходимое для перемещения ленты от головки к головке. Для частотной модуляции особых мер можно было и не придумывать. Каждому аналоговому магнитофону присущ естественный недостаток, называемый детонацией, которая проявляется в виде "плавания звука". Стоило чуть-чуть специально усилить этот эффект, изменяя напряжение, питающее двигатель, и получалась частотная модуляция.
Для реализации фэйзера методами аналоговой техники использовали цепочки электрически управляемых фазовращателей. А иногда можно было наблюдать и такую картину: в акустической системе, подключенной к электромузыкальному инструменту или электрогитаре, вдруг начинало вращаться что-то вроде вентилятора. Звук пересекался подвижными лопастями, отражался от них, получалась фазовая модуляция. Представляете, сколько усилий предпринималось только ради того, чтобы оживить тембр звучания инструментов! Современные звуковые редакторы позволяют без особых усилий со стороны пользователя реализовать гигантское количество различных звуковых эффектов.



Хорус

Хорус (chorus) проявляется как эффект исполнения одного и того же звука или всей партии не одним-единственным инструментом или певцом, а несколькими. Искусственно выполненный эффект является моделью звучания настоящего хора. В том, что хоровое пение или одновременное звучание нескольких музыкальных инструментов украшает и оживляет музыкальное произведение, сомнений, вероятно, нет ни у кого.
С одной стороны, голоса певцов и звуки инструментов при исполнении одинаковой ноты должны звучать одинаково, а к этому стремятся и музыканты, и дирижер. Но из-за индивидуальных различий источников звук все равно получается разным. В пространстве, тракте звукоусиления и в слуховом аппарате человека эти немного неодинаковые колебания взаимодействуют, образуются так называемые биения. Спектр звука обогащается и, самое главное, течет, переливается.
Можно считать, что предельным случаем хоруса является одновременное звучание слегка отличающихся по частоте двух источников — унисон.
Унисон был известен задолго до появления синтезаторов. В основе сочного и живого звучания двенадцатиструнной гитары и аккордеона лежит унисон. В аккордеоне, например, звук каждой ноты генерируется узлом, содержащим два источника колебаний (язычка), специально настроенных "в разлив" — с небольшой (в единицы герц) разницей в частотах. В двенадцатиструнной гитаре звук извлекается одновременно из пары струн. Разница в частотах образуется естественным путем из-за невозможности идеально одинаково настроить струны инструмента.
Вот именно наличие этой ничтожной разницы в частотах голосов певцов или инструментов и служит причиной красивого звучания унисона (для двух голосов) или хоруса (для более двух голосов).
В цифровых электромузыкальных инструментах, напротив, частоты пары вторичных генераторов могут быть получены абсолютно равными друг другу. В таком звучании отсутствует жизнь, потому что оно слишком правильное. Для оживления электронного звучания и создания впечатления игры нескольких инструментов и используют хорус.
Существует довольно много разновидностей алгоритмов хоруса. Но все они сводятся к следующему:
 исходный сигнал разделяется на два или несколько каналов;  в каждом из каналов спектр сигнала сдвигают по частоте на определенную величину. Частотные сдвиги очень малы, они составляют доли Гц и в ряде случаев изменяются во времени;  в каждом из каналов сигнал немного задерживают во времени, причем, величина задержки может меняться (поэтому хорус относится к числу эффектов, основанных на задержке сигнала);  каждый из каналов позиционирует в свою точку на стереопанораме;   сигналы, полученные таким способом, складывают. В итоге получается сигнал, спектр которого непрерывно изменяется, причем период полного цикла этого изменения столь велик, что повторяемость спектральных свойств сигнала не ощущается.
Хорус настолько украшает звучание инструментов, что ныне он стал одним из эффектов, имеющихся практически в каждом синтезаторе и многих звуковых картах.
Обработка аудиосигнала звуковыми редакторами позволяет получить массу разновидностей этого эффекта. Вместе с тем, не следует чрезмерно увлекаться им, так как это может привести к ухудшению разборчивости звучания голоса, к "засорению" акустической атмосферы композиции.



Реверберация

Реверберация (reverb) относится к наиболее интересным и популярным звуковым эффектам. Сущность реверберации состоит в том, что исходный звуковой сигнал смешивается со своими копиями, задержанными относительно него на различные интервалы времени. Этим реверберация напоминает ди-лэй. Отличие заключается в том, что при реверберации число задержанных копий сигнала может быть значительно больше, чем для дилэя. Теоретически число копий может быть бесконечным. Кроме того, при реверберации чем больше время запаздывания копии сигнала, тем меньше ее амплитуда (громкость). Эффект зависит от того, каковы временные промежутки между копиями сигналов и какова скорость уменьшения уровней их громкости. Если промежутки между копиями малы, то получается собственно эффект реверберации. Возникает ощущение объемного гулкого помещения. Звуки музыкальных инструментов становятся сочными, объемными, с богатым тембровым составом. Голоса певцов приобретают напевность, недостатки, присущие им, становятся малозаметными.
Если промежутки между копиями велики (более 100 мс), то правильнее говорить не об эффекте реверберации, а об эффекте "эхо". Интервалы между соответствующими звуками при этом становятся различимыми. Звуки перестают сливаться, кажутся отражениями от удаленных преград.
Первым ушей слушателя достигает прямой звук. Этот сигнал приходит к слушателю по кратчайшему пути. Поэтому интенсивность его больше, чем интенсивности других сигналов. Прямой сигнал несет информацию только о расположении источника звука справа или слева от слушателя.
Несколько отстав от прямого сигнала, затем приходят ранние (первичные) отражения. Эта составляющая звукового поля претерпевает одно — два отражения от ограждающих поверхностей (стен, пола, потолка). Взаимодействуя с поверхностями, звуковая волна не только отражается от них, но и отдает им часть своей энергии. Энергия расходуется на нагрев поверхностей. Поэтому интенсивность ранних отражений меньше (но не намного) интенсивности прямого сигнала. Ранние отражения проявляются как ясно различимые эхо-сигналы. Временные промежутки между ними достаточно велики, т. к. велики разности длин путей, по которым сигналы доходят до слушателя. Например, волна может отразиться от боковой или от тыльной стены. Возможно, что часть волн, относящихся к ранним отражениям, испытают не одно, а несколько отражений. Ранние отражения несут в себе информацию не только о месте расположения исполнителя, но и о размерах помещения. Именно данные отражения вносят наибольший вклад в пространственное ощущение акустики зала. К ранним отражениям относят те копии первичного сигнала, которые отстают от прямого сигнала не более, чем на 60 мс.
Вторичные и последующие (поздние) отражения — это звуковые волны, многократно отраженные от каждой из поверхностей. По мере увеличения числа переотражений интенсивность аудиосигнала заметно уменьшается. Кроме того, изменяется спектральный состав звуковых колебаний. Дело в том, что из-за различий в конфигурации отражающих поверхностей л в свойствах материалов покрытий разные спектральные составляющие аудиосигнала отражаются не одинаково. Какие-то из них поглощаются сильнее, поэтому затухают быстрее.
По мере возрастания номеров вторичных отражений они рассеиваются, их число увеличивается. Постепенно они перестают восприниматься как отдельные звуки, сливаются в один сплошной постепенно затухающий отзвук. Это и есть собственно реверберация.
Теоретически затухание звука длится бесконечно. На практике, для того чтобы можно было сравнивать между собой различные реверберационные процессы (а главное реверберационные свойства помещений), введено понятие времени реверберации. Время реверберации — это такое время, за которое уровень реверберирующего сигнала уменьшается на 60 дБ.
Основным элементом, реализующим эффект реверберации, является устройство, создающее эхо-сигнал.
Интересна история развития таких устройств. Первоначально радиостудии и солидные концертные залы содержали эхо-камеры. Эхо-камера представляет собой комнату с отражающими стенами, в которую помещен источник звукового сигнала (громкоговоритель) и приемник (микрофон). По сути дела, такая эхо-камера является уменьшенной моделью реального зрительного зала, в котором не всегда удается создать необходимую акустическую атмосферу. В эхо-камере с трудом, но можно было в некоторых пределах управлять распределением интенсивностей и времен распространения переотраженных сигналов, устанавливая отражающие или поглощающие звук перегородки. Преимущество эхо-камеры состоит в том, что затухание звука происходит в ней естественным путем (что очень трудно обеспечить другими способами имитации эффекта реверберации). В то время как звук продолжает реверберировать в трех измерениях, волна разбивается на множество отражений, которые достигают микрофона во все более уменьшающиеся промежутки времени задолго до того, как звук полностью затихнет. Недостатки эхо-камер связаны с их относительно малыми размерами, при этом вследствие собственных резонансов помещения спектр сигнала искажается в области средних частот. Определенную проблему представляет надежная звукоизоляция помещения эхо-камеры. Но самое главное заключается в том, что эхо-камера не может служить распространенным инструментом получения искусственной реверберации, так как она слишком дорога и громоздка.
Наряду с эхо-камерами для имитации реверберации использовали стальные пластины, точнее довольно-таки большие листы. Колебания в них вводили и снимали с помощью устройств, по конструкции и принципу действия похожих на электромагнитные головные телефоны. Для получения удовлетворительной равномерности амплитудно-частотной характеристики толщина листа должна быть выдержана с точностью, которую не позволяют достичь обычные технологии проката стали. Реверберация здесь была не трехмерной, а плоской. Сигнал имел характерный металлический призвук.
В середине 60-х годов XX века для получения эффекта реверберации стали применять пружинные ревербераторы. С помощью электромагнитного преобразователя, соединенного с одним из концов пружины, в ней возбуждаются механические колебания, которые с задержкой достигают второго конца пружины, связанного с датчиком. Эффект повторения звука обусловлен многократным отражением волн механических колебаний от концов пружины.
Качество звука в пружинном ревербераторе чрезвычайно низкое. Пружина воспринимает любые колебания воздуха и пола, между акустической системой и пружиной существует практически неустранимая обратная связь, звук имеет ярко выраженную "металлическую" окраску. Время реверберации не регулируется.
На смену этим несовершенным устройствам пришли ревербераторы магнитофонные. Принцип формирования в них эхо-сигнала состоит в том, что исходный сигнал записывается на ленту записывающей магнитной головкой, а через время, необходимое для перемещения данной точки ленты к воспроизводящей головке, считывается ею. Через цепь обратной связи уменьшенный по амплитуде задержанный сигнал вновь подается на запись, что и создает эффект многократного повторения звука с постепенным затуханием. Качество звука определяется параметрами магнитофона. Недостаток магнитофонного ревербератора заключается в том, что при приемлемых скоростях протяжки ленты удается получить только эффект эха. Для получения собственно реверберации требуется либо еще сильнее сблизить магнитные головки (чего не позволяет сделать их конструкция), либо значительно увеличить скорость протяжки ленты.
С развитием цифровой техники и появлением интегральных микросхем, содержащих в одном корпусе сотни и тысячи цифровых элементов задержки, появилась возможность создавать высококачественные цифровые ревербераторы. В таких устройствах сигнал может быть задержан на любое время, необходимое как для получения реверберации, так и для получения эха. Ревербератор отличается от цифрового устройства, реализующего дилэй, только тем, что содержит обратную связь (feedback), необходимую для формирования затухающих повторений сигнала.
Цепь обратной связи отсылает часть сигнала с выхода обратно в линию задержки, тем самым получается повторяющееся эхо. Коэффициент обратной связи должен быть меньше единицы, иначе каждое новое эхо будет возрастать по уровню, а не затухать. Может получиться эффект, подобный самовозбуждению акустической системы.
В некоторых виртуальных ревербераторах предусмотрен модулятор фазы. Его действие проявляется в том, что при коротком времени затухания возникает едва заметное изменение тона.
В звуковых картах реверберация, в конечном счете, основана именно на цифровой задержке сигналов. Поэтому может показаться лишним рассказ об остальных способах создания этого эффекта. Но в наши дни не счесть звуковых редакторов, в которые встроена та самая эхо-камера. Конечно, не само гулкое помещение втиснуто в компьютер, а его математическая модель. Для чего это понадобилось делать? Эхо-камера принципиально отличается от всех остальных устройств тем, что реверберация в ней настоящая: трехмерная, объемная. Во всех же остальных устройствах это и не реверберация даже, а ее плоское, двумерное (а то и одномерное) подобие. Модель эхо-камеры позволяет воссоздавать акустику любого помещения. Она даже лучше, чем настоящая эхо-камера, потому что допускает оперативное изменение размеров моделируемого помещения и отражающих свойств стен, пола, потолка. Более того, это не одна, а целых две эхо-камеры, с отдельно устанавливаемыми координатами источников и приемников звука. И это еще не все. Во многих программах, предназначенных для синтеза голосов новых музыкальных инструментов, смоделирован и эффект реверберации, как бы реализуемый с помощью того самого стального листа. Наблюдая такое развитие средств реверберации, можно предположить, что когда-нибудь появятся и математические модели пружинных и магнитофонных ревербераторов. Ведь совсем не исключено, что есть люди, испытывающие ностальгические чувства по отношению к звукам музыки, окрашенным дребезгом пружин или шипением магнитной ленты.
Варианты виртуальных ревербераторов, реализованных в программе Cubase SX, рассмотрены в главе 13.



1.9.3. Дистошн

Дистошн (distortion) — преднамеренное искажение формы аудиосигнала, придающее ему резкий, скрежещущий оттенок. Чаще всего дистошн применяется в качестве гитарного эффекта. Получается перегрузкой усилителя вплоть до появления в усилителе ограничений и даже его самовозбуждения. Благодаря этому сигнал становится похож на прямоугольный, отчего в нем появляется большое количество новых гармоник, резко расширяющих спектр. Этот эффект применяется в нескольких вариациях (fuzz, overdrive и т. п.), различающихся:
 способом ограничения сигнала (обычное или сглаженное, весь спектр или полоса частот, весь амплитудный диапазон или его часть);  соотношением исходного и искаженного сигналов в выходном миксе;  частотными характеристиками усилителей (наличие/отсутствие фильтров на выходе). Варианты эффекта дистошн, реализованные в программе Cubase SX, рассмотрены в главе 13.



1.9.4. Вокодер

Вокодер (voice coder) — устройство синтеза речи на основе произвольного входного сигнала с богатым спектром. Речевой синтез реализуется обычно при помощи формантных преобразований: выделение из сигнала с достаточным спектром нужного набора формант с нужными соотношениями придает сигналу свойства соответствующего гласного звука. Изначально вокодеры использовались для передачи кодированной речи. Путем анализа исходного речевого сигнала из него выделяется информация об изменении положений формант при переходе от звука к звуку. Эта информация кодируется и передается по линии связи, а на приемном конце блок управляемых фильтров и усилителей синтезирует речь заново.
Подавая на блок речевого синтеза сигнал, например электрогитары, и произнося слова в микрофон блока анализа, можно получить эффект "разговаривающей гитары". При подаче сигнала с синтезатора получается "голос робота". А если подать сигнал, близкий по спектру к колебаниям голосовых связок, но отличающийся по частоте, то изменится регистр голоса — мужской на женский или детский, и наоборот.
Виртуальный вокодер, входящий в состав Cubase SX, рассмотрен в главе 13.



1.9.5. Pitch Shifter — изменение высоты тона

Большинство реальных и виртуальных устройств обработки звука имитируют эффекты, которые существуют в природе. Но устройства изменения высоты тона (Pitch Shifter) относятся к совершенно особому типу процессоров, так как тот сигнал, что получается в результате их работы, не.имеет аналога в окружающем мире.
Pitch Shifter делает интересное преобразование: он позволяет получить копию входного сигнала, но высота тона этой копии может быть изменена на величину от нескольких центов до октавы и более.
Принцип действия Pitch Shifter в общем заключается в том, что сигнал записывается в память с фиксированной скоростью, а считывание может производиться быстрее или медленнее — в зависимости от того, вверх или вниз относительного входного сигнала должен быть изменен тон.
Сигнал с измененной высотой тона может быть задержан по отношению к входному. Это используется для более натурального имитирования искусственного унисона: два инструмента играют одно и то же, но есть небольшая разница во времени и высоте.
На этом позвольте завершить рассказ о сущности основных эффектов, имеющихся в музыкальных и звуковых редакторах.



1.10. Сущность наиболее важных обработок

Из числа различных обработок, реализованных в звуковых редакторах, чаще всего применяются на практике две их разновидности: частотная фильтрация и преобразование динамического диапазона. Сейчас мы ограничимся лишь самыми необходимыми сведениями.



1.10.1. Частотная фильтрация

Фильтрация — это процесс обработки электрического звукового сигнала частотноизбирательными устройствами с целью изменения спектрального состава (тембра) сигнала. Задачами такой обработки могут быть:
 амплитудно-частотная коррекция сигнала (усиление или ослабление отдельных частотных составляющих);  полное подавление спектра сигнала или шумов в определенной полосе частот. Например, если микрофон, акустическая система или еще какой-либо элемент звукового тракта имеют неравномерную амплитудно-частотную характеристику, то с помощью фильтров эти неравномерности могут быть сглажены. Если в результате анализа спектра выяснилось, что в некоторой области частот в основном сосредоточена энергия помех, а энергии сигнала совсем немного, то посредством фильтрации все колебания в этом диапазоне частот можно подавить.
Для осуществления фильтрации созданы самые различные устройства: отдельные корректирующие и формантные фильтры, устройства для разделения звука на несколько каналов по частотному признаку (кроссоверы), двухполосные и многополосные регуляторы тембра (эквалайзеры), фильтры присутствия и т. д.
Основой фильтров, реализованных программным путем в составе звуковых редакторов, служит спектральный анализ. Любой реальный сигнал может быть представлен в виде набора коэффициентов разложения в ряд по гармоническим функциям. Фильтрация сводится к умножению спектральных коэффициентов на соответствующие значения передаточной функции фильтра. Если спектр представлен в комплексной форме, то сигнал описывается совокупностью амплитудного и фазового спектров (АС и ФС), а фильтры — амплитудно-частотными и фазо-частотными характеристиками (АЧХ и ФЧХ). АЧХ представляет собой зависимость коэффициента передачи фильтра от частоты. ФЧХ отражает сдвиг фазы выходного сигнала по отношению ко входному в зависимости от частоты. В этом случае фильтрация эквивалентна перемножению АС на АЧХ и алгебраическому сложению ФС с ФЧХ.
Классический спектральный анализ из-за наличия большого количества операций перемножения занимает очень много процессорного времени и при значительном числе отсчетов сигнала неосуществим в реальном темпе обработки. Для сокращения времени спектрального анализа дискретных сигналов разработаны специальные алгоритмы, учитывающие наличие связей между различными отсчетами сигнала и устраняющие повторяющиеся операции. Одним из таких алгоритмов является быстрое преобразование Фурье (БПФ).
В зависимости от расположения полосы пропускания на оси частот фильтры подразделяются на:
 фильтры нижних частот (ФНЧ) (Low Pass), типичные АЧХ и ФЧХ которых показаны на рис. 1.22;  фильтры верхних частот (ФВЧ) (High Pass), их АЧХ и ФЧХ показаны на рис. 1.23;  полоснопропускающие (полосовые) фильтры (Band Pass) (рис. 1.24);  полоснозадерживающие (режекторные) фильтры (Band Stop) (рис. 1.25). На рисунках по горизонтальным осям отложено значение частоты, по вертикальным осям отложены значения передаточных функций K(f) или фазовых сдвигов
Тот участок АЧХ, где коэффициент передачи не равен нулю, соответствует полосе пропускания фильтра. В полосе задерживания (или подавления), напротив, коэффициент передачи фильтра должен быть минимальным (в идеальном случае нулевым).
Характеристики, представленные на рис. 1.22-1.25 являются идеализированными: реальные фильтры, строго говоря, не позволяют обеспечить равенство передаточной функции нулю вне полосы пропускания. Колебания в полосе подавления пусть и значительно ослабленные, все равно проникают через фильтр.
Реальные фильтры низких и высоких частот характеризуются следующими основными параметрами:
 частотой среза;  шириной полосы пропускания;  неравномерностью характеристики в полосе пропускания;  крутизной ската характеристики в области перехода от полосы пропускания к полосе задерживания. Для полосового фильтра добавляется еще один параметр — добротность, под которой понимают отношение центральной частоты фильтра к полосе его пропускания.



Рис. 1.22. АЧХ и ФЧХ фильтра



Рис. 1.23. АЧХ и ФЧХ фильтра нижних частот верхних частот



Рис. 1.24. АЧХ и ФЧХ полосового



Рис. 1.25. АЧХ и ФЧХ режекторного фильтра фильтра

Весьма распространенной ошибкой является пренебрежение учетом влияния на форму сигнала фазо-частотной характеристики фильтра. Фаза важна потому, что сигнал, прошедший через фильтр без изменения амплитуды в полосе пропускания, может быть искажен по форме, если временное запаздывание при прохождении через фильтр не будет постоянным для разных частот. Одинаковое время задержки соответствует линейной зависимости фазы от частоты. Из рисунков видно, что для ФНЧ и ФВЧ зависимость фазы от частоты можно считать линейной лишь в окрестностях частот среза, а для полосового фильтра — в окрестностях резонансной (центральной) частоты. Таким образом, следует ясно представлять себе, что фильтрация широкополосных звуковых колебаний будет обязательно сопровождаться фазовыми искажениями, приводящими к изменению формы фильтруемого сигнала.
Работая со звуковыми редакторами, вы будете часто пользоваться эквалайзерами.
Эквалайзеры представляют собой устройства, объединяющие в себе несколько фильтров, предназначенные для изменения спектральных свойств (тембра) обрабатываемого сигнала. Первоначально эквалайзер (equalizer, EQ), в основном, выполнял функции устройства, компенсирующего неравномерность того или иного участка тракта усиления и преобразования звукового сигнала.
При наличии эквалайзера можно как бы выровнять исходно неровную АЧХ. Известны несколько различных по назначению и по устройству типов эквалайзеров, среди них есть и те, с которыми вы встретитесь, пользуясь Cubase SX:
 графический эквалайзер;  параметрический эквалайзер;  фильтр присутствия. Графический эквалайзер — это набор полосовых фильтров с фиксированными центральными частотами и переменным коэффициентом усиления, которым можно управлять при помощи слайдера. В качестве регуляторов принято использовать именно ползунки, так как положение их ручек представляет собой некое подобие графика АЧХ эквалайзера. Именно поэтому такие эквалайзеры принято называть "графическими" — пользователь как бы рисует ползунками необходимую ему кривую АЧХ.
Итак, графический эквалайзер — это набор полосовых фильтров, которые полностью отделяют друг от друга определенные полосы частот. Для того чтобы иметь возможность управлять частотной характеристикой во всей области звуковых частот, такие фильтры соединены параллельно. На вход всех фильтров подается один и тот же сигнал, и задача каждого фильтра состоит в том, чтобы усилить или ослабить "свой" участок спектра в соответствии с положением регулятора коэффициента усиления (слайдера).
Частоты, на которых осуществляется регулирование в графических эквалайзерах, унифицированы и выбираются из ряда стандартных частот, перекрывающих весь звуковой диапазон и отстоящих друг от друга на некоторый интервал. Этот интервал может составлять октаву, ее половину или треть октавы. Наибольшие возможности, естественно, имеют третьоктавные графические эквалайзеры, которые в силу этого и получили наибольшее распространение. Число полос регулирования может составлять до 31 в серьезных профессиональных моделях.
Самый низкочастотный фильтр эквалайзера не обязательно должен быть полосовым, он может быть и фильтром нижних частот. Аналогично самый высокочастотный фильтр может быть фильтром верхних частот.
Наиболее часто графические эквалайзеры применяются для обработки суммарного сигнала, "доводки" общей картины, а не фильтрации отдельных составляющих. С помощью графического эквалайзера можно приближенно сформировать необходимую АЧХ системы обработки звука или акустической системы: поднять усиление в одних областях спектра и уменьшить его в других. Однако графический эквалайзер (даже многополосный) мало пригоден для ювелирной частотной коррекции. Ведь центральные частоты фильтров неизменны. Они могут и не совпадать в точности с теми частотами, на которых следует подчеркнуть или, напротив, подавить спектральные составляющие. В подобных случаях на помощь приходит параметрический эквалайзер.
Параметрический эквалайзер позволяет управлять не только коэффициентом усиления фильтра, но и его центральной частотой, а также добротностью (по существу, шириной полосы пропускания). При наличии некоторого опыта вы сможете точно устанавливать значения этих параметров таким образом, чтобы подчеркнуть звук отдельного инструмента или удалить нежелательную помеху (например, фон 50 Гц или частоту самовозбуждения акустической системы) с минимальным влиянием на остальные элементы звукового образа.
Для формирования АЧХ сложного вида применяются многополосные параметрические эквалайзеры, параметры каждого из которых можно изменять независимо.
Фильтр присутствия (presence) позволяет добиться впечатления, что звучащий инструмент (или певец) находится в одной комнате со слушателем. На самом деле это не что иное, как регулируемый полосовой фильтр, центральная частота которого лежит где-то в диапазоне от 2 до 6 кГц.
Подробнее о фильтрах и их применении вы можете прочитать в кни-ге [12].



1.10.2. Динамическая обработка

О сущности динамической обработки мы ограничимся лишь изложением кратких сведений о назначении различных приборов динамической обработки, работа которых моделируется в Cubase SX.
В зависимости от выполняемых функций различают следующие приборы динамической обработки:
 ограничители уровней;   компрессоры динамического диапазона;   экспандеры динамического диапазона;   пороговые шумоподавители (гейты). Ограничитель уровня (лимитер) — это авторегулятор уровня, у которого коэффициент передачи изменяется так, что при превышении номинального уровня входным сигналом уровни сигналов на его выходе остаются практически постоянными, близкими к номинальному значению. При входных сигналах, не превышающих номинального значения, ограничитель уровня работает как обычный линейный усилитель. Лимитер должен реагировать на изменение уровня мгновенно.
Компрессор — такое устройство, коэффициент передачи которого возрастает по мере уменьшения уровня входного сигнала.
Действие компрессора приводит к повышению средней мощности и, следовательно, громкости звучания обрабатываемого сигнала, а также к сжатию его динамического диапазона.
Экспандер имеет амплитудную характеристику, обратную по отношению к амплитудной характеристике компрессора. Экспандер применяют в том случае, когда необходимо восстановить динамический диапазон, предварительно преобразованный компрессором. Система, состоящая из последовательно включенных компрессора и экспандера, называется компандером. Она используется для снижения уровня шумов в трактах записи или передачи звуковых сигналов.
Пороговый шумоподавителъ (гейт) — это авторегулятор, у которого коэффициент передачи изменяется так, что при уровнях входного сигнала меньше порогового амплитуда сигнала на выходе близка к нулю. При входных сигналах, уровень которых превышает пороговое значение, пороговый шумопо-давитель работает как обычный линейный усилитель.
Любой прибор динамической обработки в своем составе имеет два функциональных элемента — основной канал и канал управления.
Задача канала управления заключается в обнаружении момента пересечения аудиосигналом порогового значения, измерении уровня аудиосигнала относительно порога и выработке управляющего напряжения.
Результат обработки зависит от вида характеристики регулируемого элемента основного канала. Например, если с ростом управляющего напряжения, подаваемого на регулируемый элемент, его коэффициент передачи уменьшается, то получается компрессор, если увеличивается, то — экспандер.
Оценку инерционности устройств динамической обработки осуществляют на основе анализа двух временных характеристик: времени срабатывания и времени восстановления.
Для регулируемых звеньев всех устройств динамической обработки кроме гейта срабатыванием принято считать реакцию устройства на увеличение уровня сигнала, а восстановлением — на его уменьшение. Время срабатывания — это интервал между моментом, когда от источника начинает подаваться сигнал с уровнем на 6 дБ выше номинального значения, и моментом, когда выходной уровень уменьшается с 6 дБ до 2 дБ по отношению к номинальному значению.
Время восстановления — это интервал между моментом, когда уровень сигнала от источника снижается с 6 дБ до номинального значения 0 дБ, и моментом, когда выходной уровень увеличивается от —6 до —2 дБ по отношению к номинальному значению.
Для гейта срабатыванием принято считать уменьшение усиления при пропадании полезного сигнала, а восстановлением — восстановление усиления при появлении полезного сигнала.
Одной из наиболее часто применяемой разновидностью динамической обработки является компрессия — сжатие динамического диапазона.
Субъективно компрессия проявляется как увеличение громкости звука. Он становится более "плотным". И это не удивительно. Ведь в результате компрессии можно достичь увеличения средней мощности неискаженного сигнала. По сути дела компрессия сводится к автоматическому управлению усилением. Когда уровень сигнала становится слишком большим, усиление уменьшается, а при нормальном уровне сигнала усилению возвращается исходное значение.
Результат компрессии зависит от правильного выбора значений нескольких основных параметров. К важнейшим из них относятся:
 порог срабатывания (Threshold);  коэффициент компрессии или коэффициент сжатия (Compression Ratio);  компенсирующее усиление (Makeup Gain);  время атаки (Attack Time);  время восстановления (Release Time). Порог срабатывания определяет уровень, при превышении которого компрессор начинает управлять усилением (иногда говорят, что он находится в активном состоянии). До тех пор пока значение уровня сигнала меньше порогового, компрессор не воздействует на сигнал (компрессор находится в пассивном или выключенном состоянии). От величины порога зависит, коснется ли обработка только отдельных пиков или сигнал будет подвергаться компрессии постоянно.
Коэффициент компрессии (сжатия) определяет степень сжатия динамического диапазона сигнала, имеющего уровень выше порогового. Численно он равен отношению уровня сигнала на выходе работающего компрессора к уровню сигнала на его входе.
Например, коэффициент компрессии 2:1 означает, что изменение уровня входного сигнала на 2 дБ вызовет изменение уровня выходного сигнала только на 1 дБ. На практике именно такое отношение часто применяется, хотя иногда приходится устанавливать более высокие значения. Если коэффициент компрессии установлен, скажем, в пропорции 20:1 и больше, то получается режим ограничения. Это значит, что если на входе появляется сигнал, превышающий установленный уровень, то сигнал на выходе практически не будет усилен.
Абсолютному ограничению соответствует коэффициент компрессии "Бесконечность:!", но на практике величины отношений больше, чем 20:1, дают такой же эффект.
Время атаки определяет, насколько быстро компрессор будет реагировать на сигналы с уровнем выше порогового.
При больших значениях параметра Attack Time компрессор, вероятнее всего, не будет успевать отслеживать резкие увеличения уровня входного сигнала. В сигнале на выходе компрессора будут присутствовать пики.
Если значение параметра Attack Time мало, то можно практически исключить возникновение пиков сигнала при скачкообразном увеличении его уровня. Однако при этом звучание может стать недостаточно акцентированным.
Время восстановления — это время, за которое компрессор выходит из активного состояния после падения уровня сигнала ниже порогового.
Если время восстановления слишком велико, то компрессор дольше находится в активном состоянии и воздействует на динамический диапазон даже тогда, когда это нежелательно. Это дает заметный на слух эффект пульсации звука, так как компрессия не приводит к сглаживанию сигнала.
При малом времени восстановления обеспечивается более существенное сглаживание. Но в тех ситуациях, когда уровень входного сигнала постоянно колеблется в окрестностях порогового значения, возможно возникновение эффекта "захлебывания".
Подбор оптимального времени восстановления основан на поиске компромисса. Обычно рекомендуется для инструментальной музыки в качестве грубого приближения и отправной точки для более тонкой настройки выбирать время восстановления около 500 мс. Это соответствует промежутку между двумя тактами при темпе 120 четвертей в минуту.
Восприятие музыки зависит от динамического диапазона, так как динамика позволяет передать эмоциональное содержание. Если совершенно сгладить динамику, сделать один неизменный средний уровень, то получится музыка, которую неинтересно слушать.
Неопытный вокалист обычно допускает большие перепады в громкости. В результате некоторые слова тонут в общем звучании музыки, а другие, наоборот, слышны слишком громко. Поэтому при записи вокала всегда используется компрессия.
Когда у вокалиста есть проблемы с шипящими звуками, а смена типа микрофона и его расположения не приводит к исправлению ситуации, тогда при сведении стоит использовать компрессор в режиме деэсера, в котором устраняются свистящие и шипящие согласные в вокальной партии. Если путем фильтрации при помощи внешнего эквалайзера подавить все низкие частоты, поступающие на вход канала управления, компрессор будет реагировать только на высокочастотные звуки. В таком случае сигнал, управляющий компрессором, формируется только из тех компонентов исходного аудиосигнала, что составляют свист и шипение. В этом и заключается принцип действия деэсера. Выбор частотных составляющих, на которые надо повлиять, производится на слух. Эквалайзер, включенный в канал управления компрессором, должен усиливать частоты в области 4-10 кГц. Однако нужно подобрать точную АЧХ.



1.11. Измерители и анализаторы

Заниматься записью и преобразованием звуковых данных вслепую, не измеряя их параметров, а значит и не представляя себе их свойств, нет никакого смысла. В распоряжении современного звукорежиссера имеется большое количество самых разнообразных измерительных приборов, позволяющих оперативно контролировать ход записи и редактирования звука. С их помощью можно своевременно обнаружить факт возникновения искажений, выявить то место в студийном комплексе, где возникают искажения, и выработать правильное решение, направленное на устранение искажений. И даже когда аппаратура работает нормально, то, если вы хотите получить звук высокого качества, без измерений все равно не обойтись. Наибольшую пользу способны принести те измерительные приборы, которые визуализируют какие-либо параметры звуковых колебаний. К числу таких приборов можно отнести: осциллограф, измеритель уровня сигнала, анализатор спектра, измеритель статистических характеристик сигнала и анализатор качества стереосигнала. Здесь же в силу ограниченности объема данного издания мы кратко остановимся лишь на приборах тех двух видов, виртуальные аналоги которых представлены непосредственно в программе Cubase SX: измерителе уровня сигнала и анализаторе спектра.



1.11.1. Измеритель уровня аудиосигнала

Мы ограничимся изложением того минимума сведений, который необходим для успешной работы с программой Cubase SX.
Уровень аудиосигнала характеризует сигнал в определенный момент и представляет собой выраженное в децибелах выпрямленное и усредненное за некоторый предшествующий промежуток времени напряжение аудиосигнала.
Теоретически наиболее просто усреднять мгновенное значение выпрямленного напряжения с постоянным весовым коэффициентом.
Вид зависимости уровня сигнала от времени определяется как особенностями самого аудиосигнала, так и выбранным интервалом усреднения Т.
При Т -> 0 временные зависимости средних значений выпрямленного сигнала практически не отличаются от временных зависимостей его мгновенных значений.
При увеличении Т средние значения выпрямленного сигнала будут тем меньше меняться во времени, чем больше интервал усреднения Т. Данные обстоятельства нужно учитывать, пользуясь измерителями уровня сигнала. Выбор Т -> 0 соответствует пиковому измерителю уровня. При малых значениях Т речь идет о квазипиковых измерителях. Большие значение Т означают, что вы имеете дело со среднеквадратическим измерителем уровня (RMS-измерителем уровня). В этом названии нет ничего странного: вычисление среднеквадратического значения эквивалентно операции усреднения модуля функции.
Слуховое ощущение в каждый момент текущего времени определяется не только мгновенным значением сигнала в этот момент, но и предыдущими его значениями. Последние сказываются на слуховом ощущении тем меньше, чем раньше они появились по отношению к текущему моменту. Поэтому при определении уровня аудиосигнала усреднение его выпрямленных мгновенных значений следует выполнять не с постоянным, а с переменным множителем веса, убывающим в направлении прошедшего времени. Наиболее подходящим приближением, достаточно хорошо соответствующим реальным свойствам человеческого слуха, является экспоненциальная весовая функция.
Изменяющееся во времени выпрямленное напряжение, усредненное за определенный период с заданным множителем веса и выраженное в децибелах, называется динамическим уровнем аудиосигнала.
Уровень определяется не только мгновенными значениями аудиосигнала, но и временной зависимостью множителя веса и длительностью "памяти" измерительного устройства. Поэтому, говоря об уровнях, следует обязательно учитывать временные характеристики приборов, которыми они измерены.
Если, подводя итог, ограничиться одной фразой, то можно сказать, что уровень сигнала — это результат усреднения значений сигнала. Причем усреднение производится особым образом и за определенный интервал времени.
Итак, до начала записи необходимо установить уровень сигнала, поступающего на аналого-цифровой преобразователь (АЦП) звуковой карты. Сложнее всего дело с выбором уровня сигнала обстоит при записи с микрофона.
Напомним, что уровень сигнала измеряется в логарифмических единицах децибелах (дБ). Номинальный уровень соответствует 0 дБ. С одной стороны, уровень сигнала должен быть достаточно велик, чтобы разрядность звуковой карты использовалась эффективно. Если усиление тракта, предшествующего АЦП, установлено, например, таким, что в пиках уровень достигает отметки —3 дБ, это означает, что из 16 бит АЦП своей звуковой карты вы фактически используете только 15. Если максимальный уровень сигнала еще ниже, то и эквивалентная разрядность АЦП будет еще меньше.
С другой стороны, сигнал не должен превышать уровня 0 дБ. Иначе произойдет переполнение разрядной сетки АЦП, что проявит себя как очень неприятные на слух нелинейные искажения.
По этим двум причинам между микрофоном и входом звуковой карты хорошо бы включить компрессор, сужающий динамический диапазон сигнала. Фактически компрессор сглаживает разницу между самыми тихими и самыми громкими звуками. И разряды АЦП используются "с толком", и вероятность перегрузки уменьшается. Но если компрессора у вас нет, можно попросить исполнителя либо стараться петь без значительных перепадов в громкости, либо регулировать уровень записываемого сигнала путем приближения и удаления по отношению к микрофону. Правда, это требует от певца наличия определенных навыков, да и тембр голоса оказывается различным при расположении микрофона на разном удалении от источника звука.
Если у вас имеется аппаратный микшер, то уровень громкости вы можете регулировать вручную. С помощью микшера, встроенного в звуковую карту, нечего и думать об оперативном регулировании уровня сигнала. Слишком на малое число ступенек "разбита" характеристика регулятора уровня входного сигнала микшера звуковой карты. Поэтому плавной регулировки не получится. Уровень будет изменяться сразу на значительную величину. Скачки громкости будут явно заметны на слух. Однако именно с помощью микшера звуковой карты перед началом сеанса записи вам следует произвести необходимую коммутацию и установить оптимальный уровень входного сигнала. Хотя, заметим, не всегда эту удастся сделать, некоторые драйверы не предоставляют доступа к регулятору уровня входного сигнала звуковой карты. В этом случае ничего не остается, как только регулировать уровень с помощью элементов управления аппаратною микшера, подключенного к аудиовходу звуковой карты.
А теперь наступило время отыскать в Cubase SX место, где располагается измеритель уровня. Точнее говоря, таких мест несколько. Укажем для начала только два из них. Один экземпляр измерителя уровня находится в окне Cubase SX Project в секции атрибутов треков в поле каждого из треков. Им можно пользоваться в том случае, когда масштаб изображения по вертикали увеличен до максимального предела (рис. 1.26).



Рис. 1.26. Окно Cubase SX Project. Отображается аудиотрек и два измерителя уровня

Второй экземпляр измерителя уровня расположен в поле инспектора. Чтобы увидеть его, нужно щелкнуть на значке
Если и физическое, и логическое подключения источника звукового сигнала выполнены верно и, следовательно, сигнал поступает на входной аудиопорт трека, то измеритель уровня будет функционировать. Высота светящегося столбика (индикатора уровня) будет изменяться в соответствии с изменением уровня сигнала. Значения локальных максимумов уровня будут отображаться в поле, расположенном над индикатором.
Определенная информация об уровне сигнала содержится в цвете свечения сегментов индикатора. Если верхушка индикатора в основном окрашена в желтый цвет, то это означает, что выбран оптимальный уровень. Когда индикатор не выходит за пределы синей и зеленой зоны — уровень занижен. Наличие красных всплесков свидетельствует о случаях перегрузки — уровень завышен.
Цветовое отображение информации всегда наглядно. И в данном случае разработчики тоже нашли хорошее решение, но приходится признать, что определенное неудобство составляет отсутствие разметки шкалы измерителя уровня. Те безымянные деления, что видны слева от него, относятся не к измерителю, а к регулятору. А точное значение коэффициента передачи регулятора в дБ отображается и устанавливается в поле ввода, которое находится под регулятором.



1.11.2. Анализатор спектра аудиосигнала

О спектральной форме представления сигнала ограничимся лишь пояснением основных терминов.



Классический спектр

Начать разбираться в сущности спектральных представлений лучше с разложения в ряд Фурье периодического сигнала. Всякая периодическая функция (с ограничениями, носящими абстрактный характер) может быть представлена в виде разложения в ряд по тригонометрическим функциям


Таким образом, периодическая функция s(t) представлена суммой слагаемых, каждое из которых есть не что иное, как косинусоидальное колебание с амплитудой сk и начальной фазой
Совокупность коэффициентов сk называется амплитудным спектром сигнала, а
Частоты всех синусоидальных колебаний, из которых составляется периодическая функция s(t), кратны основной частоте F =1/Т. Отдельные составляющие называются гармониками. Колебание с частотой F называется первой гармоникой (k = 1), с частотой 2F— второй гармоникой (k = 2) и т. д.
Ряд Фурье дает разложение периодической функции по тригонометрическим функциям. Это разложение можно применить и к непериодической функции, которую рассматривают как предельный случай периодической функции при неограниченном возрастании периода.
Если Т->


Формула (1.2) называется интегралом Фурье в комплексной форме. В данном случае предполагается, что функция непериодическая, поэтому она может быть представлена только суммой бесконечно большого числа бесконечно близких по частоте колебаний с бесконечно малыми амплитудами.
Если ряд Фурье представляет периодическую функцию суммой хотя и бесконечного числа синусоид, но с частотами, имеющими определенные дискретные значения, то интеграл Фурье представляет непериодическую функцию суммой синусоид и косинусоид с непрерывной последовательностью частот. Иногда говорят, что в .составе непериодического сигнала есть колебания всех частот. В случае непериодического сигнала говорить об амплитудах отдельных спектральных составляющих нет смысла, т. к. это бесконечно малые величины. На самом деле параметр G(w) выражает не непосредственно амплитуду, а так называемую спектральную плотность. Обычно эту деталь опускают и называют G(w) комплексным спектром непериодической функции, а абсолютное значение этой величины — просто спектром.
В специальной литературе можно найти теоремы, позволяющие облегчить спектральные преобразования сигналов, а также соотношения и графики, описывающие спектры сигналов различной формы.



Текущий спектр

Классическое определение спектра основывается на преобразовании Фурье, причем интегрирование по времени выполняется в бесконечных пределах и спектр зависит только от частоты. Однако бесконечная длительность какого-либо процесса — это абстракция, не имеющая ничего общего с реальностью.
Если анализируемая функция есть отображение некоторого реального физического процесса, то сведения о функции С(w) мы получаем лишь в результате наших наблюдений. Следовательно, при вычислении спектра мы можем выполнить интегрирование лишь от момента начала анализа до текущего момента времени t, а не до момента, устремленного в бесконечное будущее.
Текущий спектр определяется как результат преобразования Фурье, но с переменным верхним пределом интегрирования, в качестве которого фигурирует текущее время. Поэтому текущий спектр является функцией не только частоты, но и времени.
В начале раздела мы воспользовались понятием периодической функции. На самом деле периодическая функция — лишь весьма полезная математическая абстракция. Ведь всякий природный процесс имеет начало и конец.
Принято называть реальный циклический процесс периодическим, если он длится достаточно долго. Мерилом длительности служит число "периодов", которое должно быть намного больше единицы. Периодичность процесса проявляется лишь с течением времени, когда прорисовываются его характерные черты. Текущий спектр и отражает это развитие процесса.
Спектр процесса (за короткий отрезок времени) однороден, так как короткий отрезок процесса — это просто короткий одиночный импульс. Если в дальнейшем происходит периодическое повторение некоторого цикла явления, то в текущем спектре начинают формироваться максимумы на основной частоте и ее гармониках. Эти пики становятся все более острыми и высокими, а значение спектральной плотности в интервалах между максимумами убывает, и при t ->
Конечно, и при достаточно большой (не обязательно бесконечной) длительности процесса пики делаются настолько узкими, что их можно трактовать как линии.
Таким образом, периодический процесс — это предел, к которому может стремиться с течением времени реальный повторяющийся процесс. Аналогично и спектр (в его классическом определении) такого процесса есть предел, к которому стремится текущий спектр при увеличении времени интегрирования до бесконечности.
Например, при интегрировании в бесконечных пределах спектр синусоиды представляет собой единственную линию на частоте, равной частоте этой синусоиды.
Но как на практике измеряется текущий спектр, например, той же синусоиды? Мы включаем анализатор спектра, а спустя какое-то время выключаем его. Получается, что измеряется не спектр бесконечного синусоидального колебания, а спектр его более или менее протяженного отрезка. Это значит, что фактически исследуется спектр прямоугольного импульса с синусоидальным заполнением. Сказанное объясняет причину того, что даже для синусоидального колебания при уменьшении времени интегрирования спектральная линия расширяется, появляются боковые лепестки спектральной функции, ее нули все более удаляются друг от друга. Ведь именно так и должен вести себя спектр прямоугольного импульса при уменьшении его длительности.
Таким образом, текущий спектр в большей степени отражает свойства сигналов, проявляющиеся в реальных условиях их генерирования и обработки, нежели спектр, полученный на бесконечном временном интервале.



Мгновенный спектр

Текущий спектр — только мостик от частотного к временному описанию процесса. Представьте себе, что вы анализируете текущий спектр от начала до конца музыкального произведения, не слыша его. Вполне возможно, вы получите такой график спектральной функции, что в среднем за время анализа спектр будет выглядеть относительно широким. Рассматривая график, можно прийти, например, к следующему выводу: произведение исполняется одновременно на нескольких инструментах. В тембре звучания одних инструментов преобладают низкочастотные, других — средне- и высокочастотные составляющие.
Потом вы выводите сигнал на акустическую систему и оказывается, что это запись дуэта мужчины и женщины в сопровождении фортепиано. На самом деле тембр звука периодически меняется. Пока звучит баритон, в нем преобладают бархатные низкочастотные составляющие, а когда диалог продолжает сопрано, кажется, что звенит колокольчик. Но все эти нюансы оказались усреднены, сглажены, завуалированы в ходе спектрального анализа.
Для чего же нужны тогда все эти измерения спектра, если они не дают достоверной картины реального развития тембра музыкального произведения? На основе такого анализа трудно построить детальную стратегию последующей обработки фонограммы. Все дело в том, что не только спектр, вычисленный на бесконечном временном интервале, но и текущий спектр — слишком грубый инструмент в тех случаях, когда анализируемый процесс не стационарен. Для того чтобы сблизить частотное и временное представления сигнала, было введено понятие мгновенный спектр. Мгновенный спектр — это спектр короткого отрезка процесса длительностью
В этом определении мы имеем дело со скользящим интегрированием: интервал интегрирования имеет постоянную длину, но перемещается по оси времени. А вот относительно текущего времени этот интервал расположен неизменно.
Страшно далеко это определение спектра от того, что давно придумали великие математики. И все же в руках звукорежиссера именно мгновенный спектр является наиболее эффективным инструментом анализа свойств записываемого или уже записанного звука. Все дело в том, что реальные звуковые сигналы, с которыми нам приходится сталкиваться, одинаково непохожи на обе крайние математические абстракции — бесконечное во времени сверхузкополосное синусоидальное колебание и бесконечный в частотной области (сверхширокополосный) белый шум.
Музыка, которую создают с помощью синтезатора, отличается особенно заметной нестационарностью тембра. Может быть, именно поэтому в звуковых редакторах уже давно используются средства анализа текущего и мгновенного спектра.



Взвешенный спектр

Вы познакомились с тремя подходами к вычислению спектра и даже вынуждены были вникать в непростые математические соотношения. Но это еще не финал. Продолжим погружение в суть спектральных преобразований. И вновь речь пойдет о влиянии времени на результаты спектрального анализа.
Как вычисляется одна-единственная точка графика спектра? Исчерпывающий ответ на этот вопрос дают формулы. Хочется, однако, чтобы их вид не приводил вас в состояние трепета. Главное, чтобы вы понимали их смысл, поэтому попытаемся разъяснить обычными словами то, что записано математическими символами.
Итак, сначала выбирается частота f0. Реальный или виртуальный генератор формирует синусоиду этой частоты и условно единичной амплитуды. Исследуемый сигнал нормируется по амплитуде. Начиная с какого-то определенного момента f0, с шагом t, тем лучше) в моменты времени t0, t1, t2, t3,...ti,...,tN-1 c этой синусоидой и исследуемым сигналом проделываются следующие операции:
 берется отсчет синусоиды;  берется отсчет исследуемого сигнала;  эти отсчеты перемножаются;  результаты перемножения суммируются с накоплением. В некоторый момент процесс измерения спектра на частоте f0 завершается. Накопленная сумма делится на общее число отсчетов. Вычисленное значение G(f0) запоминается и, возможно, отображается как одна точка графика. Затем накопленная сумма обнуляется, значение частоты изменяется на величину 1). И вся последовательность операций повторяется до тех пор, пока "пробежкой" по ряду частот f0,f1,f2,...,fN-1 не будет перекрыт весь заданный диапазон.
Описанная процедура вычисления спектрального коэффициента одновременно есть не что иное, как вычисление взаимокорреляционной функции исследуемого сигнала и синусоиды заданной частоты. Иными словами, в процессе вычисления спектральной составляющей выясняется степень сходства исследуемого сигнала со стандартным (базисным) сигналом, в данном случае с синусоидой. Или можно сказать еще и так: выясняется, в какой пропорции синусоида "содержится" в исследуемом сигнале.
Если исследуемый сигнал уже записан и в нашем распоряжении есть цифровой анализатор спектра, способный сколь угодно долго хранить результаты промежуточных вычислений, то измерение текущего спектра и мгновенного спектра вполне осуществимо по описанной выше процедуре.
Все значительно сложнее, когда анализ ведется в реальном времени. В самом деле, допустим, что одна спектральная составляющая вычислена. Изменяем частоту синусоиды и хотим приступить к вычислению следующей спектральной составляющей. Но анализируемый фрагмент сигнала остался в прошлом. Его не повторить. Поэтому вторая спектральная составляющая будет вычислена для второго фрагмента сигнала, третья — для третьего и т. д. Это уже не текущий спектр, а просто разрозненный набор отдельных спектральных коэффициентов, каждый из которых в ничтожно малой степени характеризует совершенно разные и, возможно, не связанные между собой фрагменты сигнала.
Конечно, спектральный анализ можно проводить по параллельной схеме, одновременно вычисляя множество значений спектральной функции для различных частот. Однако это в значительной степени усложнит аппаратуру.
Уместен и такой вопрос: насколько адекватен описанный математический алгоритм тому спектральному анализу, который проводится реальными анализаторами спектра, и тому, который выполняется органами слуха и мозгом человека? Ответ: не вполне.
Основная проблема состоит в том, что прибор, анализирующий спектр, и человек обладают конечной памятью. Былые события, подробности хода любого процесса постепенно стираются из нее. Это означает, что чем более удалены в прошлое отсчеты анализируемого сигнала, тем меньший вклад они вносят в накопление той самой суммы произведений отсчетов, которая, в конце концов, определяет значение спектрального коэффициента.
Учет реальных свойств памяти анализаторов спектра осуществляется с помощью весовых функций. Весовая функция описывает зависимость вклада предшествующих отсчетов исследуемого сигнала в вычисляемый спектр. Наглядное представление о весовой функции дает форма так называемого спектрального окна.
Тот спектральный анализ, о котором мы вели речь до сих пор, соответствует спектральному окну прямоугольной формы: весовая функция равна единице в пределах спектрального окна и равна нулю вне его. При анализе текущего спектра начало спектрального окна совпадает с началом отсчета времени, а конец приходится на текущий момент. Текущее время идет вперед, правая граница спектрального окна смещается, поэтому каждому конкретному моменту завершения анализа соответствует своя ширина спектрального окна. Если вычисляется мгновенный спектр, то спектральное окно скользит вдоль оси времени, не изменяя своей ширины.
Однако в большей степени суть реального спектрального анализа отражает экспоненциальная весовая функция. Кстати говоря, экспонента и синусоида — прямо-таки магические функции. Многие существующие в природе колебательные процессы описываются экспонентой при их возникновении и затухании, а синусоидой — на этапе продолжительного существования. В частности, по экспоненциальному закону затухают колебания в колебательном контуре, который служит основой реальных анализаторов спектра, т. е. как раз по экспоненте колебательный контур "забывает" величину спектральной составляющей, некогда возбудившей его. И именно по экспоненциальному закону стирается в памяти человека информация о прошедших событиях. Прямоугольное и экспоненциальное спектральные окна используется при вычислении спектра наиболее часто. Первое соответствует идеальному анализатору с бесконечно большой памятью, второе удачно отражает свойства человеческого мозга и реальных анализаторов спектра на основе резонансных фильтров. Вместе с тем, хотя не столь широко, применяются и другие весовые функции. Трудно дать конкретные рекомендации по поводу предпочтительности использования той или иной весовой функции для спектрального анализа звуковых сигналов (за исключением экспоненциальной функции, о пользе которой сказано уже достаточно). Пожалуй, единственный совет может состоять в том, что следует остановиться на какой-то одной весовой функции. Только тогда у вас будет уверенность в том, что различия результатов анализа обусловлены различием свойств сигналов, а не методов расчета. Целесообразно также выбирать одну и ту же весовую функцию, когда при работе с одним и тем же сигналом вы решаете несколько задач, в которых применяются спектральные преобразования.



Быстрое преобразование Фурье

До сих пор, знакомясь с сущностью спектральных представлений, мы предполагали, что сигнал является аналоговым, т. е. описывается непрерывной функцией. На самом деле компьютер способен обрабатывать только цифровые сигналы — дискретные во времени и квантованные по уровню. Поэтому аналоговый сигнал подвергается аналого-цифровому преобразованию (АЦП). Затем с сигналом в цифровой форме производятся все необходимые операции, в частности, спектральный анализ, причем вместо обычного спектрального преобразования производится так называемое дискретное преобразование Фурье (ДПФ). Непрерывное время и непрерывная частота заменяются на соответствующие дискретные величины, а место взятия интегралов осуществляется суммирование.
Однако на практике мало кто пользуется ДПФ. Дело в том, что для вычисления дискретного преобразования Фурье последовательности N элементов требуется выполнить N2 операций с комплексными числами. Если длины обрабатываемых массивов цифровых отсчетов звуковых колебаний имеют порядок тысячи и более, то использовать эти алгоритмы дискретного спектрального анализа затруднительно (особенно в реальном времени). Выходом из положения явился алгоритм быстрого преобразования Фурье (БПФ). Значительно сократить число выполняемых операций здесь удается за счет того, что обработка входного массива сводится к нахождению ДПФ-массивов с меньшим числом элементов. Для метода БПФ существенно, что число отсчетов составляет целую степень двойки (N =2p, где р — целое число). Это обусловлено тем, что одной из операций, входящей в алгоритм БПФ, является последовательное деление интервала вычисления ДПФ на две части. Поэтому точное вычисление БПФ возможно лишь в случае, когда число отсчетов в сигнале равно 2, 4, 8, 16, 32, 64, 128, 256, 512, 1024, 2048, 4096, IP. Если данное условие не выполняется, приходится дополнять сигнал некоторым количеством отсчетов, имеющих нулевое значение. Например, для выполнения БПФ сигнал, содержащий 60 значащих отсчетов, нужно дополнить четырьмя нулевыми отсчетами. Конечно, приписка отсчетов равноценна изменению сигнала, что приводит к возникновению дополнительной погрешности вычисления спектра. Но, как правило, погрешность невелика и, учитывая заметное повышение скорости расчетов, с ней можно смириться.
Приближенно можно считать, что объем вычислений по алгоритму БПФ пропорционален произведению N х log2N, где N — количество отсчетов сигнала. А если решать задачу расчета спектра "в лоб", не пользуясь алгоритмами быстрых преобразований, то объем вычислений ориентировочно будет пропорционален произведению N х N. Если бы не БПФ, то для фильтрации, спектрального анализа и синтеза сигналов не хватило бы быстродействия самого современного компьютера. Не верится? Давайте прикинем. Очень скоро вы узнаете, что в примере установок параметров, соответствующих рис. 1.27, сигнал представлен 4096-ю отсчетами. Тогда для БПФ: 4096 х log24096 = 4096 х 12 = 49152, а для "небыстрого" алгоритма: 4096 х 4096 = 16777216. Отношение 16777216/49152 = 341,(3) приблизительно равно выигрышу во времени выполнения вычислений по алгоритму БПФ.
О чем говорят эти цифры? Пусть на вашем компьютере для расчета фильтра по алгоритму БПФ требуется 10 секунд. Та же самая задача при использовании обычного алгоритма спектрального анализа заняла бы почти час. Какое уж тут может быть творчество! Либо, чтобы все-таки уложиться в 10 секунд, потребовался бы компьютер, работающий в 341 раз быстрее, чем ваш.
При расчете спектра протяженных сигналов приходится не дополнять отсчеты до целой степени двойки, а поступать совершенно наоборот: использовать для вычислений не все отсчеты сигнала, а, к примеру, каждый сотый, тысячный, десятитысячный. Судите сами. В одной секунде оцифрованного стереофонического звука при частоте дискретизации 44,1 кГц содержится 88200 отсчетов. Тогда в одной минуте — 5292000, а в 4 минутах (типичная длительность композиции) — 21168000 отсчетов. В качестве примера средствами Cubase SX мы проанализировали спектр 4-минутной композиции. На нашем компьютере для этого понадобилось 10 секунд. При этом было выбрано число отсчетов, равное 4096 (что для анализатора спектра Cubase SX в два раза меньше максимального). Если бы программа использовала для вычислений все отсчеты, которыми представлена композиция (более 21 миллиона отсчетов), то для решения этой задачи ей потребовалось бы непрерывно работать больше 14 часов.
Существуют аудиоредакторы, позволяющие не только анализировать текущий и мгновенный спектры, но также и редактировать звуковой сигнал, представленный в спектральной форме. Примером подобной программы может служить аудиоредактор Cool Edit Pro 2. Конечно, от такой универсальной программы, как Cubase SX, нельзя требовать, чтобы она позволяла обращаться со спектром так же свободно, как и специализированный звуковой редактор. Вместе с тем, в Cubase SX возможности для проведения спектрального анализа все же имеются.



Измерение спектра в Cubase SX

Команда, инициализирующая анализатор спектра, имеющийся в Cubase SX, доступна только при следующих условиях: в проекте существует хотя бы один аудиотрек, на треке имеются аудиоданные и выделен хотя бы фрагмент части с аудиоданными. Для выделения фрагмента нажмите кнопку , то спектральный анализ будет автоматически проводиться поочередно на каждом треке.
Доступ к анализатору спектра в Cubase SX осуществляется из главного меню командой Audio > Spectrum Analyzer. Этой командой отрывается диалоговое окно Spectrum Analyzer (рис. 1.27), предназначенное для выбора режима спектрального анализа.
В окне диалога Spectrum Analyzer имеются следующие опции:
 Size in Samples — объем выборки (число отсчетов, на основе которых будет выполняться БПФ). Чем больше число, выбранное в этом поле, тем точнее анализ и тем больше времени потребуется для его проведения.  Size of Overlap — степень наложения блоков выборок в процессе спектрального анализа. Оптимальное значение этого параметра устанавливается автоматически при изменении числа в поле Size in Samples. В любом случае значение данного параметра должно быть меньше, чем значение параметра in Samples. Если попытаться задать значения Size of Overlap и Size in Samples равными, то программа закроется без всякого предупреждения и сохранения текущего проекта в файле.  Window used — раскрывающийся список для выбора вида спектрального окна.  Normalized values — флажок включения нормализации полученных значений. При установленном флажке наибольшее значение спектральной функции будет приравнено к уровню 0 дБ или к значению 1.  From Stereo — раскрывающийся список для выбора режима обработки стереосигнала. Возможные варианты: анализ монофонического сигнала, полученного суммированием сигналов правого и левого каналов, анализ сигнала левого канала, анализ сигнала правого канала, раздельный анализ сигналов каждого из стереоканалов (спектры отображаются графиками, которые отличаются цветом).



Рис. 1.27. Окно Spectrum Analyzer для выбора параметров анализа спектра

Когда вы нажмете кнопку Process, начнется спектральный анализ выборки сигнала, находящейся в выделенном фрагменте. Будет вычисляться спектр. Спустя некоторое время расчет спектра завершится и откроется окно с графиком спектра (рис. 1.28).
Обладая некоторым опытом общения с анализатором и профессиональным чутьем, по спектру сигнала вы сможете, например, разыскать на графике даже небольшой выброс, в котором сосредоточена основная энергия помехи. Затем с помощью фильтра можно удалить этот выброс из спектра сигнала, существенно улучшив при этом отношение полезного сигнала к шуму.
Если окно с графиком спектра покажется мелковатым, вы можете увеличить его традиционным способом с помощью мыши.



Рис. 1.28. Окно Spectrum Analyzer с результатами анализа спектра



Рис. 1.29. Спектр сигнала при логарифмическом масштабировании оси частот

А теперь рассмотрим график внимательнее. По горизонтальной оси откладывается частота в герцах, по вертикальной — уровень компонентов сигнала на этой частоте.
Если флажок dB установлен, то значения спектральной функции откладываются в логарифмической шкале, оцифрованной в децибелах, если сброшен — в линейной шкале (либо ненормированной, либо нормированной к единице).
При сброшенном флажке Freq. log горизонтальная ось размечается в линейном масштабе, в котором удобнее рассматривать весь спектр в целом, включая и его высокочастотную область. Если этот флажок установлен, то по горизонтали назначается логарифмический масштаб. Логарифмический масштаб позволяет в деталях наблюдать низкочастотную часть спектра. Для сравнения на рис. 1.29 при логарифмической шкале по оси частот показан спектр того же самого сигнала, для которого на рис. 1.28 выбран линейный масштаб.
Справа вверху располагается поле, в котором отображаются данные о'значениях спектральной функции сигналов правого и левого канала для той частоты, на которую в данный момент указывает курсор мыши. Сама частота также отображается в поле. Сказанное справедливо при условии, что курсор находится в пределах координатного поля. При перемещении курсора значения параметров изменяются. Если курсор находится вне пределов координатного поля, то значения отображаемых параметров не меняются, причем они соответствуют той частоте, при которой курсор, покидая координатное поле, пересек его границу.
Обратите внимание на то, что числа, отображаемые в поле, не являются координатами курсора мыши. В этом поле вы видите координату курсора мыши на оси частот и соответствующее ей значение спектра. Это упрощает процесс численного измерения значений спектральной функции. Вам не нужно прицеливаться в конкретную точку на координатной плоскости. Достаточно добиться, чтобы в поле появилось искомое значение частоты, а значение спектра для нее программа предъявит вам автоматически. Точка на графике, которой соответствуют числа, отображаемые в поле, выделяется зеленой окружностью, а проекции этой точки на координатные оси отмечаются зелеными черточками.
Возможно, вам понадобится рассмотреть в подробностях поведение спектральной функции на каком-либо ее конкретном участке. В полях Min. и Мах. вы можете задать нижнюю и верхнюю границы частотного диапазона, отображаемого в окне.
В поле Precision: программа отображает значение разрешающей способности измерения спектра, которая зависит от объема выборки (см. поле ввода Size in Samples на рис. 1.27).
В единственном раскрывающемся списке выбирают один из двух вариантов оцифровки горизонтальной оси координат:
 Frequency (Hz) — в традиционных единицах измерения частоты (герцах).  Note (С) — "в нотах". Вместо значений соответствующих частот шкала будет размечена символами С0, C1, C2, ..., С10, которые означают ноты до различных октав (например, до пятой октавы соответствует частоте 523,251 Гц). При установленном флажке Active всякий раз, когда вы станете выбирать команду Audio > Spectrum Analyzer, очередной график с результатами анализа будет отображаться в том же самом окне (заменяя собой предшествующий график). Если флажок сброшен, новые результаты спектрального анализа появятся в отдельных окнах. Последний режим очень удобен, так как позволяет сравнивать спектры сигналов, записанных на различных треках, что чрезвычайно важно при обработке отдельных музыкальных партий фильтрами в процессе сведения композиции.



Анализ спектра и фильтрация при сведении композиции

Раз уж мы заговорили о сведении, то упомянем о том, что оно включает в себя несколько этапов:
1. Индивидуальный контроль отсутствия ошибок в партии каждого инструмента.
2. Перезапись партий в исполнении MIDI-инструментов (если таковые есть в композиции) на аудиотреки.
3. Выставление ориентировочного баланса уровней всех партий и предварительное панорамирование.
4. Корректировка частотных характеристик партий.
5. Динамическая обработка звуковых сигналов.
6. Обработка эффектами.
7. Динамическое изменение уровня аудиосигнала каждого трека (в каких-то местах каждая партия должна звучать несколько громче, в каких-то — тише).
8. Уточнение относительных уровней, уточнение распределения партий по панораме.
Сейчас речь идет о спектральном анализе, поэтому остановимся лишь на четвертом этапе: коррекции частотных характеристик партий. С помощью эквалайзеров нужно добиться гармоничного сочетания всех партий. Сделать так, чтобы в звучании каждого инструмента присутствовали характерные тембры и, вместе с тем, чтобы, по возможности, их спектры не перекрывались: энергия сигналов равномерно распределялась бы в пределах звукового диапазона частот. Только в этом случае удастся добиться прозрачности звучания композиции. Начинать такую работу нужно со спектрального анализа сигналов каждого из треков в отдельности. Для того чтобы наглядно пояснить то, о чем сейчас идет речь, рассмотрим простой пример. Пусть имеется три трека и требуется их сбалансировать по тембру. Проведем спектральный анализ каждого трека с помощью Spectrum Analyzer, причем флажок Active сбросим. Полученные графики спектральных функций представлены на рис. 1.30.



Рис. 1.30. Результат спектрального анализа аудиосигналов на трех треках

Разработчики Cubase SX не приводят детальных сведений об алгоритме спектрального анализа, реализованного в программе. Поэтому в процессе работы над книгой мы решили провести сравнение полученных результатов с теми, что дает какой-либо другой виртуальный анализатор спектра. В качестве альтернативного мы выбрали анализатор спектра программы Cool Edit Pro 2, детально описанный нами в книге [10]. Анализировались одни и те же тестовые сигналы, спектры которых были нам заранее известны, т. к. их описание имеется в научных литературных источниках. Также проводился анализ сигналов, полученных путем перезаписи на аудиотреки MIDI-инструментов. По результатам этого эксперимента можно сделать следующие выводы.
1. Анализатор спектра Cubase SX дает большую погрешность на частотах ниже 40—50 Гц. Создается впечатление, что в этом диапазоне существует некий порог чувствительности измерителя. Об этом косвенно свидетельствует такой, например, результат: сигнал на треке № 3 (нижний график на рис. 1.30) был обработан фильтром, ослабившим все частоты в диапазоне 0—50 Гц на 30 дБ. На слух результат такой обработки заметен хорошо: из звучания рояля исчез призвук, похожий на слабые удары по бас-барабану, который в необработанном сигнале слышен в моменты нажатия клавиш. Однако спектральный анализ отфильтрованного сигнала средствами Cubase SX показал, что уровень спектральной функции остался прежним (все те же -26 дБ), хотя должен был бы снизиться до -56 дБ. Причиной этого может быть ограниченное время анализа. Кроме того, даже при наибольшем числе анализируемых отсчетов (Size in Samples) разрешающая способность анализатора спектра Cubase SX составляет около 6 Гц, а график всего рассматриваемого низкочастотного участка спектра строится лишь по 8—10 точкам. Анализатор спектра программы Cool Edit Pro 2 "заметил" понижение уровня низкочастотных составляющих фильтром.
2. Анализатор Cubase SX вычисляет спектр либо на участке трека, выделенном при нажатой кнопке ). Иными словами, измеряется мгновенный спектр, поэтому вид графика спектра зависит от расположения и протяженности выделенного фрагмента.
3. Анализатор Cubase SX сглаживает разброс между значениями соседних локальных максимумов и минимумов спектральной функции. Чтобы убедиться в этом, достаточно сравнить рис. 1.31 и 1.32. На первом из рисунков показан спектр, измеренный анализатором Cubase SX, на втором — Cool Edit Pro 2. Анализируется один и тот же сигнал. В результате подобного сглаживания пользователю нетрудно допустить ошибку в оценке того, какие спектральные компоненты аудиосигнала следует считать существенными, а какие — нет, так как создается субъективное впечатление, будто значения спектральной функции с ростом частоты уменьшаются быстрее, чем это происходит на самом деле.



Рис. 1.31. Спектр сигнала, измеренный средствами Cubase SX



Рис. 1.32. Спектр сигнала, измеренный средствами Cool Edit Pro 2

А теперь возвратимся к рис. 1.30 и рассмотрим его сверху вниз.

На треке № 3 записана партия баса, на треке № 2 — аккомпанирующего инструмента, на треке № 1 — солирующего инструмента. Результаты спектрального анализа соответствуют такому распределению инструментов. Спектр сигнала на треке № 3 сосредоточен в основном в области частот 20 Гц - 400 Гц, на треке № 2 - 60 Гц - 2 кГц, на треке № 1 - 60 Гц - 8 кГц.
Напрашивается такая последовательность обработки сигналов частотными фильтрами:
 к треку № 3 можно применить фильтр нижних частот с частотой среза 400 Гц для того, чтобы полностью подавить высокочастотные составляющие. Уровень передачи сигнала в полосе подавления фильтра можно установить порядка -30 дБ — -40 дБ (или минимально возможный для эквалайзера, имеющегося в вашем распоряжении);  на треке № 2 можно без потери качества подавить спектральные составляющие, лежащие ниже 60 Гц. Для этого сигнал следует обработать фильтром верхних частот с частотой среза 60 Гц. Кроме того, фильтром нижних частот можно подавить спектральные составляющие, расположенные выше 2 кГц — 3 кГц;  на треке № 1 полосно-подавляющим фильтром можно ослабить на 10 дБ — 15 дБ спектр в полосе частот 500 Гц — 1,5 кГц (приблизительно). Это позволит устранить маскировку звука аккомпанирующего инструмента, записанного на треке № 2. В целом после такой обработки фильтрами уменьшится уровень нелинейных искажений в области нижних частот, а в звучании композиции появится прозрачность.
Заметим, что рассмотренный вариант фильтрации — не единственный. В зависимости от поставленной цели можно попытаться реализовать несколько различных стратегий обработки фильтрами сигналов, имеющих такие спектры. Анализатор спектра лишь помогает сориентироваться, а контролировать качество звука, полученного в результате фильтрации, следует только на слух.



1.12. Surround — объемный звук

С тех пор, как существует звукозапись, и слушатели, и конструкторы аппаратуры испытывают неистребимое желание сделать звук, записанный и затем воспроизведенный, в максимальной степени похожим на оригинал. Чего только не делают разработчики аудиотехники для того, чтобы приблизиться к идеалу: сражаются с шумом, минимизируют искажения, расширяют частотный и динамический диапазоны элементов тракта записи-передачи-воспроизведения звукового сигнала. А кроме всего прочего они стремятся заставить звуковое поле, создаваемое акустическими системами, передавать слушателю информацию о направлении на источники звуков и об акустических свойствах того помещения, в котором производилась запись.
На первом этапе своего развития звукозапись и радиовещание были монофоническими. Звук, раздающийся из динамика, до неузнаваемости отличался от живого звука концертного зала: искаженный баланс между различными музыкальными инструментами, искаженный тембр и, главное, полностью утраченная пространственность. Это очень серьезный недостаток. Ведь слуховой анализатор человека обладает способностью к пеленгации источников звука, что помогает нам ориентироваться в пространстве. Если же все звуки исходят из одной точки — это кажется противоестественным.



1.12.1. Немного истории

Первые эксперименты по получению объемного звучания (с помощью трех — семи каналов) проводились еще в 30-е годы прошлого века. Сравнительные испытания многоканальных и монофонических систем дали удивительные результаты. Было установлено, что при воспроизведении даже 2-х раздельных каналов субъективное качество звука резко улучшается. А самое поразительное заключается в том, что эксперты предпочитали стереозвук даже в тех случаях, когда им предъявляли объективно более качественные, но монофонические фонограммы. Решающим преимуществом стала возможность пространственной локализации кажущихся источников звука (рис. 1.33).



Рис. 1.33. Распределение кажущихся источников звука на стереопанораме

На начальном этапе разработчики решили ограничиться двумя каналами. Это, конечно, в первую очередь было обусловлено небогатыми возможностями аппаратуры тех времен: грампластинки реально позволяли разместить только два полноценных канала.
Стереозвук дает некоторую прозрачность звучания: партии отдельных инструментов становятся более различимыми на фоне оркестра. Кроме того, стереосистема способна воспроизвести подобие звуковой атмосферы помещения, в котором выполнялась запись. Началась эра 2-канальных стереофонических систем. Постепенно появились стереофонические грампластинки и стереопроигрыватели, стереомагнитофоны, стереофоническое радиовещание.
В свою очередь стереозвучание имеет существенный недостаток. Стереопанорама ограничена углом между направлениями на громкоговорители и получается плоской. Такое звучание лишено естественности реального звукового поля, когда человек способен воспринимать реальные источники практически со всех направлений и оценивать расстояние до источников звука. Создающееся у слушателя ощущение объемного звучания могло бы существенно обогатить тембры музыкальных инструментов и голосов певцов. При этом можно было бы имитировать реверберационный процесс, свойственный помещению, в котором произведена запись.
Одной из первых попыток преодоления недостатков, присущих стереофоническим системам, стала квадрофония. Для воспроизведения квадрофонических фонограмм используются 4 акустические системы (рис. 1.34).
Первые бытовые квадросистемы появились в начале 70-годов прошлого века. Казалось, что их ждет славное будущее. Однако этого не произошло. Причин тому есть несколько. Одна из них традиционна для многих новинок техники и заключается в том, что производители квадрофонической аппаратуры так и не смогли прийти к единому стандарту записи и воспроизведения 4-канального звука. Свою роль сыграли несовершенство и большая стоимость приборов четырехканальной записи-воспроизведения. Но главное заключается в другом: с переходом от "стерео" к "квадро" в те времена новое качество звука не возникло. Квадрофонические системы, так же как и стереофонические, не обеспечивали полной передачи свойств реального звукового поля. Недостатков было только два, но они существенны:
 при квадрофонии 70-годов прошлого века не получалась круговая стереопанорама — слушатель ощущал обычную стереопанораму перед собой и еще одну стереопанораму сзади себя;  все мнимые источники звука располагались в одной плоскости на линиях между динамиками, поэтому объемного трехмерного звучания по-прежнему не было. Следует заметить, что эти недостатки обусловлены не столько ограниченными возможностями четырехканального воспроизведения звука, сколько трудностями реализации панорамирования кажущихся источников звука
при записи. При подготовке фонограмм для современных многоканальных систем этот фактор учитывается. Важную роль при этом играет именно компьютер, способный справиться с моделированием объемных реверберационных процессов и предоставляющий звукорежиссеру удобные регуляторы для перемещения источников звука по круговой панораме.



Рис. 1.34. Распределение кажущихся источников звука на квадропанораме

Но в те далекие времена квадрофония отступила, а стереофония победила и стала развиваться по линии миниатюризации аппаратуры, улучшения ее технических и потребительских качеств, перехода к новым носителям — компакт-кассетам и компакт-дискам. Перед звукозаписывающими компаниями и производителями аудиоаппаратуры все еще существовал широчайший фронт работ и емкий рынок сбыта. В который раз они предлагали слушателям смену фонотек. Накопленный на грампластинках за предшествующие десятилетия музыкальный материал, обновленный и адаптированный сначала под монофонические катушечные магнитофоны, затем реализованный на компакт-кассетах в стереоформате, в очередной раз предлагался меломанам, но теперь уже на лазерных дисках.
Однако в самом конце XX века стереофония, кажется, все-таки начала сдавать свои позиции. Цифровые технологии записи звука, а также емкие,, удобные и дешевые носители сняли ранее существовавшую проблему хранения многоканальных фонограмм большой длительности. Кроме того, в звуке, передающем акустические свойства окружающего пространства, появилась острая потребность. Виртуальные графические миры компьютерных игр становятся все более сложными и похожими на реальность, а значит, требуют и адекватного звукового оформления. Кинематограф, переживший кризис в состязании с телевидением, возродился в виде домашних кинотеатров и кинозалов нового формата, основное отличие которых от предшественников кроется не в изображении, а в принципиально новом звуке (хотя и качество изображения тоже улучшилось, благодаря DVD и современным проекционным средствам).
Новая эра в звукозаписи началась в результате исследований, выполненных инженерами Dolby Laboratories (http://dolby.com). Это был принципиально новый подход к передаче многоканального звука. Отличие от традиционного способа заключалось, прежде всего, в том, что для хранения аудиосигналов двух дополнительных каналов использовалось матричное кодирование, т. е. их подмешивание к основным двум каналам. Изменился и способ размещения акустических систем — дополнительно к традиционному для квадрофонии расположению акустических систем по углам помещения добавлен центральный канал, размещенный между правым и левым фронтальными каналами, чтобы сохранить широкую стереобазу для зрителей, сидящих на боковых местах, а за спинами размещен канал эффектов (Surround). Так появилась система нового кинотеатрального звучания Dolby ® Stereo.
Как вы уже знаете, этот четырехканальный формат является матричным форматом, при котором звук, предназначенный для каждого из четырех каналов, кодируется и записывается на два канала, а при воспроизведении декодируется вновь в четыре канала: левый, центральный, правый и задний. Сигнал заднего канала, как правило, направляется на две тыловые акустические системы одновременно. Впервые формат Dolby ® Stereo был применен в фильме "Star Wars" в 1975 году.
Используемая технология кодирования не позволяла обеспечить разделение между каналами более 8 дБ. Позже она была изменена, и разделение между каналами достигло 15 дБ, но частотный диапазон заднего канала остался ограниченным в диапазоне 100 Гц — 7 кГц.



Рис. 1.35. Размещение излучателей звука в системе Dolby ® Stereo

Системой воспроизведения совершенно нового качества, совместимой со старым стандартом звукозаписи, стала система Dolby ® Pro Logic ®. В ней был применен декодер, реализующий пространственную фокусировку звуковых образов — технологию, используемую для снижения взаимного проникновения сигналов одного канала в другой. В Dolby ® Pro Logic ® также появилась возможность создавать задержку звукового сигнала в тыловом канале. Тем самым было обеспечено согласование геометрических и акустических характеристик конкретного помещения с характеристиками "эталонного кинозала", под который при производстве сводился мультитрековый звук. Очень важно, что к настоящему времени накоплено огромное количество музыки, фильмов, телепрограмм, записанных на различных современных носителях со звуком в формате Dolby ® Pro Logic ®. А потом наступила эпоха цифрового кодирования и цифровой записи многоканального объемного звука, и появилась система Dolby ® Digital. Для кодирования цифрового звука в ней используется алгоритм, называемый АС-3 (Dolby's third generation audio coding algorithm — алгоритм кодирования звука Dolby третьего поколения). АС-3 представляет собой алгоритм компрессии многоканального звука (количество независимых каналов от 1 до 6) с потерями. Достижения в области психоакустики, учитывающие особенности человеческого слухового аппарата, используются в нем для принятия решения о том, какую часть информации в аудиосигнале можно отбросить, чтобы это было не очень заметно для человеческого уха. При кодировании алгоритмом АС-3 могут использоваться битрейты от 32 Кбит/с (для одного монофонического канала с минимальным качеством) до 640 Кбит/с (для каналов 5.1 с минимальными потерями качества). Типичный битрейт для 5.1 записей составляет 385 Кбит/с.
Кодер Dolby® Digital поддерживает частоты дискретизации цифровых данных 32 кГц, 44,1 кГц и 48 кГц при разрядности 16, 18 или 20 бит. Предусмотрена возможность увеличения разрядности до 24 бит. Используется сжатие данных с потерями, однако качество звука все равно получается выше, чем у предшествующих аналоговых систем. Dolby® Digital может обеспечить кодирование до 6 каналов в формате 5.1, где 5 — это каналы с полным частотным диапазоном (2020 000 Гц) и .1 — канал низкочастотных (менее 120 Гц) эффектов (LFE).
Объемность акустических сцен, более четкая детализация, естественность перемещений источников звука из фронтальной области в тыловую, стереофоническое звучание в тыловой области — все это обеспечило успех системы.
Следующий шаг эволюции систем объемного звучания — система Dolby ® Digital EX, которую можно считать надстройкой над Dolby ® Digital. В Dolby ® Digital EX, как и в Dolby ® Digital физически может кодироваться до 6 независимых каналов (5.1), однако, за счет использования матричного кодирования, в левый и в правый тыловые каналы подмешивается информация еще одного или двух surround-каналов. Благодаря такому решению сохранена совместимость с оборудованием Dolby ® Digital, и в то же время, за счет введения дополнительных surround-каналов (6.1, 7.1) на оборудовании Dolby ® Digital EX достигается еще более высокая точность локализации звуковых источников в пространстве.
Конечно, многоканальным звуком занимается не только Dolby Lab.
Например, фирма RSP Technologies создала матричную систему Circle Surround, которая имеет тыловой канал с полным диапазоном частот и тем самым оказывается наилучшим образом приспособленной для воспроизведения музыки. Новая версия Circle Surround может также работать в шести -канальном режиме с раздельными тыловыми каналами и каналом сабвуфера (сверхнизкочастотной акустической системы).
В настоящее время можно говорить о распространении нового потребительского формата: DVD-audio. Звуковые данные на этом носителе могут храниться с использованием различных алгоритмов кодирования, включая Dolby ® Digital. Однако в связи с большой емкостью носителя DVD (4,7 Гб на однослойном диске) необходимость сжатия звуковой информации с потерями отпадает. На DVD-audio можно хранить многоканальные записи в формате вплоть до 24 бит/96 кГц без какого либо сжатия и, соответственно, без каких-либо потерь.



1.12.2. Формат 5.1

Обозначение "5.1" указывает на количество каналов, но не несет в себе информации о каком-либо определенном способе кодирования многоканального звука. Используется пять каналов с полным частотным диапазоном (левый передний, центральный, правый передний, левый задний и правый задний), а также один низкочастотный канал (с диапазоном от 3 до 120 Гц), подключаемый к сабвуферу (рис. 1.36).
В этой системе 5.1 формируется круговая стереопанорама. Поскольку на сверхнизких частотах наш слух практически лишен способности определять направление на источник звука, место расположения сабвуфера не имеет существенного значения.
Сабвуфер применяется и в обычных стереосистемах. В его канал подается низкочастотная часть спектра суммарного сигнала стереоканалов, в результате чего обеспечивается гарантированное воспроизведение басовых звуков. Однако в системе 5.1 канал низкочастотных эффектов играет особую роль. Его стоит рассматривать не как низкочастотную компоненту многополосной акустической системы, а именно как независимый канал низкочастотных эффектов.
При записи на магнитофон для большинства систем 5.1 принят следующий порядок каналов (начиная с первой дорожки): левый передний, центральный, правый передний, левый задний, правый задний и низкочастотный каналы. В ряде случаев (например, в многоканальных звуковых картах) предусмотрен и другой порядок: левый передний, правый передний, левый задний, правый задний, центральный, низкочастотный.
По мнению специалистов, формат 5.1 является наиболее перспективным, поскольку поддерживается основными разработчиками. Важно, что имеются подходящие носители (DVD).



Рис. 1.36. Размещение излучателей звука в системе 5.1

И хотя пока не принят единый стандарт и одновременно существует несколько систем кодирования для 5.1, однако фиаско "первобытной" квадрофонии вряд ли повторится, даже если "выживет" не одна, а несколько различных систем кодирования. Принципиальное отличие формата 5.1 от квадрофонии тридцатилетней давности заключается в том, что в данном случае аудиосигнал имеет цифровую форму, поэтому создание универсального декодера, способного работать со звуком, закодированным различными системами, не вызовет особых трудностей и не приведет к заметному удорожанию аппаратуры.
В успехе формата 5.1 заинтересованы производители аудио-, видеоаппаратуры, компьютеров, компьютерных комплектующих и программ. К нему с интересом относятся потребители: зрители, слушатели, геймеры. Звукорежиссеры и музыканты находят в этом формате новые выразительные средства для реализации творческих замыслов и усиления влияния на наши эмоции. Формат действительно придает воспроизводимому звуку новое качество: слушатель окружен им. Правда, виртуальный звуковой мир и в этом случае не дотягивает до реального. В синтезированном звуковом пространстве источник звука может находиться справа, слева, спереди, сзади, перемещаясь в этих "координатах". А у настоящего звукового пространства, кроме того, есть еще "верх" и "низ".



1.12.3. Особенности оборудования студии формата 5.1

Сейчас мы поговорим только об основных элементах звуковой студии, к которым в первую очередь следует отнести:
 микшер;  устройство многоканальной записи;  приборы обработки и эффектов;  мониторы для прослушивания фонограмм. Основным инструментом сведения многоканального звука является микшер, снабженный средствами панорамирования.
В стереоформате для размещения кажущегося источника звука в определенном месте предназначен регулятор панорамы. Им вы устанавливаете относительные уровни звуковых сигналов, которые подаются в каждый из двух каналов, и тем самым определяете положение источника звука между двумя акустическими системами. При работе с многоканальным звуком вам надо управлять аналогичным процессом в 5 каналах, кроме того, конечно, требуется также регулировать и канал сабвуфера. Поэтому при использовании традиционного микшера для позиционирования одного источника звука необходимо манипулировать несколькими регуляторами. Заметим, что состояние фейдеров, управляющих уровнем сигнала, и регуляторов панорамы в каждом канале трудно сопоставить с положением кажущегося источника звука на круговой панораме. Еще сложнее заставить звук перемещаться по заданной траектории. Это возможно только в микшерах с автоматизацией. В качестве регулятора круговой панорамы в микшере, предназначенном для работы с многоканальным звуком, очень подошел бы джойстик.
Ко всему прочему, микшер, способный работать с объемным звуком, должен иметь не один, а несколько выходов (по числу каналов). Например, в системе 5.1 у микшера должно быть не менее 6 выходов. Оборудование стереофонической студии звукозаписи стоит недешево, а уж о цене студии формата 5.1 и подумать страшно!
Дороговаты также и устройства записи многоканального звука. Они должны иметь 6 и более каналов. Причем крайне желательно, чтобы звук в них представлялся не менее чем 24 разрядами.
Микшеры и цифровые магнитофоны — устройства, многоканальные по своей сути. Поэтому некоторые из моделей, предназначенных для работы со стереозвуком, можно с большим или меньшим удобством применять и в студии формата 5.1. А вот с эквалайзерами, приборами динамической обработки и особенно эффектами дело обстоит сложнее. Конечно, можно обеспечить 6 каналов, собрав "батарею" из 3-х двухканальных приборов. Однако об осмысленной регулировке параметров в этом случае говорить не приходится. Вообразите себе, например, трудности создания в многоканальной системе реалистичной реверберации.
Достойной заменой цифровым магнитофонам и аппаратным микшерам могут служить программные мультитрековые студии и имеющиеся в составе некоторых из них виртуальные микшеры, позволяющие управлять панорамированием с помощью обычной мыши. Удобный в работе и наглядно отображающий положение источника звука на круговой панораме surround-микшер имеется в программе Cubase SX (см. главу 5).
Не всякий владелец домашней студии стереофонического формата может позволить себе иметь мониторную акустическую стереосистему. Однако в случае сведения в стерео приемлемым выходом из положения являются относительно дешевые мониторные наушники. А в формате 5.1 стереонаушники вас не спасут. Без пяти широкополосных акустических систем (а также сабвуфера) не обойтись.
При работе со стереозвуком основными требованиями к мониторам являются: равномерность их частотной характеристики, низкий уровень искажений и полная идентичность двух акустических систем.
Аналогичные требования можно было бы предъявить и к пяти широкополосным мониторам формата 5.1. Они вроде бы тоже должны быть абсолютно одинаковыми. Но в таком случае сведение в круговую панораму вы будете осуществлять в условиях, отличающихся от тех, в которых будут находиться многие слушатели вашей композиции. Дело в том, что у большинства владельцев домашних театров тыловые акустические системы не только по мощности слабее фронтальных, но, кроме того, они могут иметь конструктивное исполнение другого типа. В свою очередь, центральная акустическая система зачастую отличается от крайних передних. Получается, что впечатление слушателя может не совпадать с тем, которое замышляли вы.
Заметим, что подобная проблема существует и при работе со стереозвуком: сведение осуществляется на студийных мониторах, а воспроизведение — на самой различной акустике, начиная от высококачественных колонок и кончая динамиками переносного кассетного магнитофона. Правда, в процессе мастеринга фонограммы должны проходить тест на совместимость с оборудованием низкого качества, да и одной из основных задач этого этапа является адаптация записи к конкретному типу носителя.
Что касается канала низкочастотных эффектов системы 5.1, то при сведении музыкальной композиции сабвуфер вообще не должен использоваться, если по художественному замыслу в музыкальной композиции не присутствует эффект типа взрыва, выстрела из пушки и т. п.
Но опыт прошлых лет, когда царствовал формат CD-audio, показывает, что всякие официальные рекомендации по использованию формата выполняются только на первых порах. Постепенно звукорежиссеры и продюсеры в своих творческих замыслах становятся смелее и пересекают ту черту, которая называется "официальными рекомендациями". Как нам подсказывает интуиция, в конечном итоге низкочастотный канал системы 5.1 будет использоваться "на полную катушку": там, где это нужно и где не нужно. Например, сама собою напрашивается идея задействовать низкочастотный канал для усиления ударов басового барабана в танцевальной музыке.
Как организовать мониторинг при сведении многоканального звука? Об этом идут споры. Однако большинство специалистов рекомендует использовать одинаковую акустику, не внося поправку на несовершенство домашних систем. Мониторы следует располагать на равном расстоянии от слушателя, в частности, три фронтальных монитора должны образовать дугу, а не прямую линию. Если это невозможно, то следует соответственно снизить громкость центрального монитора.
А как в идеале должны располагаться мониторы системы 5.1? Представьте себе, что вы находитесь в центре системы 5.1. Центральный монитор должен располагаться перед вами. Воображаемая линия между вами и центральным монитором является осью, относительно которой будет определяться расположение остальных мониторов. Левый и правый фронтальные каналы располагаются под углами -30° и 30° относительно этой оси. Таким образом, угол "левый монитор-вы-правый монитор" составляет 60°. В случае необходимости этот угол может быть уменьшен до 50° — 45°. Сабвуфер тоже должен располагаться где-нибудь перед вами. Тыловые мониторы должны располагаться под углами -110° (левый тыловой) и 110° (правый тыловой). В идеале все мониторы должны быть равноудалены от вас и откалиброваны таким образом, чтобы при подаче сигналов одинакового уровня на разные мониторы вы слышали их с одинаковой громкостью. Высота размещения мониторов — на уровне вашей головы или немного выше.



1.12.4. Особенности сведения в круговую панораму

Серьезно занимаясь проблемой обработки звука, мы на протяжении многих лет внимательно следим за публикациями, имеющими отношение к этой теме. Поэтому можем уверенно констатировать, что работ, посвященных вопросам технологии сведения в стерео, не так уж и много. А вот статей, содержащих конкретные рекомендации по созданию многоканальных записей, практически нет совсем. Видимо, это можно объяснить тем, что проблема нова, отсутствует необходимый опыт, нет сложившихся традиций. Во всяком случае, самостоятельные музыкальные произведения, сведенные в круговую панораму, еще не стали массовым явлением. Многоканальный звук, в основном, существует как дополнение к видеоизображению. Ясно, что подходы к панорамированию звука для саундтрека кинофильма и звука музыкальной композиции должны отличаться. При сопровождении видео требуется размещать основной звук спереди, так как именно на экране перед зрителем происходит действие. Задние каналы используются для придания звуку объема и реализации специальных эффектов. Конечно, при работе с surround-музыкой можно ориентироваться на наработки, имеющиеся в области создания звука для современной кинопродукции. То есть можно поместить основной звук спереди, слегка окружая слушателя, а тыловые каналы использовать для воссоздания акустики окружающей среды и перемещения второстепенных источников звука. И все же, если речь идет о музыкальном произведении, которое создается без расчета на увязку с видеосюжетом, то автор может пользоваться полной свободой в применении новых выразительных средств, заложенных в собственно круговой панораме. Например, вы можете "посадить" слушателя среди исполнителей, передвигать вокруг него все звуковое поле или отдельные источники звука, перемещать их в "глубину" панорамы.
Правда, спецэффекты панорамирования лучше использовать в меру. Например, вряд ли есть смысл конструировать виртуальный рояль, клавиатура которого, судя по звучанию, выглядит окружностью, охватывающей слушателя. Звуки ударных, помещенных в тыловые каналы, и особенно внезапные громкие звуки, раздающиеся сзади, вполне1 могут стать причиной, по которой ваше песня не станет хитом. Мало кому может понравиться, если придется то и дело рефлекторно оборачиваться или подскакивать от испуга.
При подготовке стереофонических записей мы вынуждены сознательно ограничивать себя в использовании возможностей стереопанорамы применительно к некоторым музыкальным инструментам. Причем ограничения продиктованы не только художественными, но и техническими соображениями. Например, совершенно нет смысла смещать бас с центра стереопанорамы. Во-первых, потому, что все равно в области низких частот стереоэффект проявляется очень слабо. Во-вторых, если бас панорамировать влево или вправо, то мощность одной из акустических систем не будет использоваться в полной мере. А это уже серьезный недостаток, так как на низкочастотную область спектра всегда приходится заметная доля общей мощности звукового сигнала.
Аналогичные проблемы имеются и в системах 5.1, хотя задачу формирования низкочастотных звуков здесь решает сабвуфер. Одна из таких проблем — использование центрального канала. В кино он предназначен для привязки доминирующих звуков к изображению, чтобы зрители, сидящие не по центру, воспринимали эти звуки, исходящими с экрана. В музыке те звуки, которые в стерео обычно направляются в левый и правый каналы равномерно (основной вокал, бас, часть барабанов), лучше распределять между центральным и фронтальными каналами. Это позволит избежать перегрузки центрального канала. Кроме того, различимость звуков увеличивается, если одни из них больше направлять в центральный канал, а другие — одновременно в левый и правый передние каналы.
Формат 5.1 предоставляет массу новых возможностей в применении эффектов, подобных дилэю и реверберации. Реверберационный сигнал может располагаться в том же направлении, что и прямой сигнал. Вместе с тем, подобно тому, как в стереозаписях перекрестное направление реверберации приводит к кажущемуся расширению стереобазы, впечатление увеличения объема виртуального помещения можно получить, если реверберацию фронтальных звуков сделать чуть сзади, а тыловых — чуть спереди. Не только сами кажущиеся источники звука, но и эхо-сигналы, порожденные ими, можно динамически перемещать в пределах круговой панорамы.
При сведении в круговую панораму появляются дополнительные признаки, по которым слух может выделять отдельные партии: направление на источник звука в пределах 360° и, в какой-то мере, расстояние до него (глубина панорамы). Поэтому нет особой необходимости производить частотную фильтрацию с целью выделения одних звуков на фоне других, а также изменять громкость инструментов по ходу песни или компрессировать отдельные аудиосигналы.
Что касается дополнительной обработки компрессором уже сведенной композиции, то такая операция представляется недопустимой. Она может привести к возникновению смещения положений кажущихся источников звука, предварительно позиционированных в определенных точках. А те из источников, текущие значения уровня сигналов которых в какой-то момент превысят порог срабатывания компрессора, будут к тому же и хаотично "перемещаться" по случайным траекториям. Думается, что ситуация изменится лишь с появлением широкодоступных многоканальных виртуальных эффектов и обработок, реализующих алгоритмы обработки, в которых учитывается специфика панорамирования объемного звука и психоакустический фактор. В настоящее время зачатки подобных алгоритмов можно найти в программных кодеках, преобразующих, например, WAV-файлы, располагающиеся на 6 отдельных треках в единый цифровой поток АС-3. К сожалению, суть таких алгоритмов скрыта от пользователя, а число параметров, доступных для регулировки, чрезвычайно мало.
Представляется, что обеспечение моносовместимости записей, сведенных в формате 5.1, нереально. Обеспечение стереосовместимости готовой фонограммы тоже проблематично. Видимо, единственно правильным решением будет целенаправленное и раздельное сведение композиции в моно, стерео и в формат 5.1.
Сущность, задачи и этапы мастеринга применительно к стереофоническим фонограммам - прямо скажем, проблема эта весьма непроста. А с мастерингом в многоканальных форматах дело обстоит еще сложнее. Многое еще не ясно. Не фильтровать, не компрессировать, не контролировать моносовместимость, не осуществлять подготовку к выводу альбома на различные носители. А что же тогда следует делать с записями 5.1 на этапе мастеринга?
И еще об одной вещи хочется сказать. Вы можете слушать FM-радио или CD и заниматься при этом своими делами, например, читать эту книгу. При этом важно, чтобы звук был комфортным: не должно быть перепадов громкости и тембра, отвлекающих от основного занятия. А вот слушать композицию в формате 5.1 "краем уха" практически невозможно. Сам по себе формат 5.1 подразумевает погружение слушателя в музыку. Поэтому еще один подход может заключаться в том, чтобы на этапе мастеринга в формате 5.1 не делать ничего, кроме, возможно, нормализации. То есть вся ответственность за субъективное качество конечной фонограммы переносится на этап сведения, а мастеринг осуществляется по принципу "что есть, то есть". А если же все-таки слушателю потребуется более комфортное звучание без перепадов громкости, то он может включить на своей системе соответствующую опцию (типа Enable Dynamic Range Compression — компрессия динамического диапазона).
Вопросы, связанные с пространственным панорамированием средствами Cubase SX, рассмотрены в разд. 4.2.2 и 5.4.



1.13. Выполнение основных операций в Cubase SX

В этом разделе мы познакомим начинающих пользователей программы Cubase SX с методиками выполнения самых необходимых операций. В первую очередь вам необходимо научиться загружать существующие файлы с проектами, воспроизводить сонг, создавать новый проект, записывать MIDI- и аудиотреки. Перечисленные элементарные операции лежат в основе работы над любой композицией. Освоив их, вы сможете затем двигаться дальше в изучении более сложных функций программы.



1.13.1. Загрузка файла с проектом

В меню File выберите команду Open. Откроется диалоговое окно Open Project (рис. 1.37), предназначенное для загрузки файла проекта.



Рис. 1.37.Диалоговое окно Open Project

В поле Look in: следует выбрать необходимую папку. Появится список файлов, находящихся в ней. В этом списке нужно найти и выделить файл, предназначенный для загрузки. Его имя отобразится в поле File name:. Остается нажать кнопку Open и файл откроется. Для того чтобы открыть файл, можно также сделать двойной щелчок на его имени в списке.
Если вы хотите увидеть имена всех файлов, хранящихся в выбранной папке, то в раскрывающемся списке Files of type: выберите строчку Any Type (*.*). Однако с помощью окна Open Project загрузить в Cubase SX вам удастся файлы только одного из двух типов:
 Cubase Project File — файлы проектов программы Cubase SX, имеющие расширение CPR;  Nuendo Project File — файлы проектов программы Nuendo, имеющие расширение NPR. Если в раскрывающемся списке Files of type: выбрать строчку Cubase Project File (*.срr), то в списке останутся только файлы проектов программы Cubase SX. При выборе в этом списке строчки Nuendo Project File (*.npr) — только файлы проектов программы Nuendo. Когда выбрана строчка All Types (*.cpr;*.npr) — и те и другие. Таким образом, списком Files of type: можно пользоваться как фильтром, сокращающим количество имен файлов, просматриваемых перед загрузкой, и облегчающим обнаружение необходимого файла.
Если у вас пока нет собственных файлов в формате Cubase Project File, то в целях обучения загрузке проектов и воспроизведению сонга воспользуйтесь файлами, находящимися в папке PROJECTS на диске, который сопровождает книгу.
Не нужно думать, будто программа Cubase SX способна работать только с файлами Cubase Project File и Nuendo Project File. Просто файлы других типов могут быть импортированы в программу не при помощи команды Open, а посредством других команд.
После загрузки файла в окне проекта на треках появится изображение частей. Если в проекте есть MIDI-сообщения, то в редакторе Score Editor появятся ноты, в редакторе Key Editor — отпечатки клавиш, а в редакторе List Editor — список сообщений. Можно в деталях рассмотреть, как устроена компьютерная музыка, написанная другими авторами. Но лучше, конечно, не только смотреть, но и слушать.



1.13.2. Воспроизведение сонга

Для воспроизведения сонга, загруженного в Cubase SX, воспользуйтесь кнопкой



Рис. 1.38. Transport Panel. Нажата кнопка Play

Воспроизведение начнется с Т9го момента в композиции, которому соответствует положение указателя текущей позиции. Указатель текущей позиции виден во всех тех окнах программы, где присутствует временная координата. Он представляет собой вертикальную линию, которая в режиме "Stop" находится в той точке временной оси, в которой ее застала команда остановки воспроизведения или записи. В режиме записи и воспроизведения указатель текущей позиции скользит вдоль оси времени, отмечая те ноты, события, отсчеты оцифрованного звука, которые воспроизводятся (записываются) в данный момент. Для перемещения указателя текущей позиции к началу сонга служит кнопка . Медленное перемещение указателя текущей позиции назад или вперед осуществляется нажатием кнопок .

Для остановки воспроизведения нажмите кнопку
В главе 3 мы детально познакомим вас с Transport Panel. На этой панели кроме названных расположены и другие элементы, предназначенные для управления записью и воспроизведением сонга.



1.13.3. Открытие и закрытие проекта

Подготовку к записи своего первого MIDI-трека начните с того, что очистите память компьютера от предыдущего сонга, который вы прослушивали, выполняя рекомендации предыдущего раздела: в меню File выберите команду Close. Если в процессе работы с проектом вы внесли в него хоть одно изменение, то откроется окно, представленное на рис. 1.39.



Рис. 1.39. Запрос подтверждения решения о сохранении проекта с внесенными в него изменениями

Если вам нужно сохранить проект в измененном виде под прежним именем, то нажмите кнопку Save. Если же, например, изменения были внесены случайно или ошибочно и сохранять их нет смысла, то нажмите кнопку Don't Save. Нажав кнопку Cancel, вы тем самым откажетесь от закрытия проекта.
В принципе, Cubase SX позволяет держать открытыми одновременно несколько проектов, один из которых является активным. Но на первом этапе освоения программы лучше не усложнять себе задачу и работать только с одним открытым проектом. Итак, больше открытых проектов нет, а вы готовитесь к записи своего первого сонга. Начинать нужно с создания нового проекта.
Чтобы заготовить файл для нового проекта, в меню File выберите команду New Project. Откроется диалоговое окно New Project (рис. 1.40).



Рис. 1.40. Диалоговое окно New Project

У вас есть возможность выбрать для своего проекта один из заранее предусмотренных в программе шаблонов. Шаблон определяет:
 сколько и каких (MIDI- и аудиотреков) будет в проекте;  какие атрибуты треков будут установлены для каждого из треков;  множество значений различных параметров, которые в большинстве шаблонов остаются принятыми по умолчанию. Термин атрибуты в данном случае означает набор большого числа параметров трека. В качестве примера, перечислим некоторые из них:
 название трека;  Channel — номер MIDI-канала, закрепленного за треком;  Bank and Programs — выбранный для трека MIDI-инструмент;  Input — порт ввода;  Output — порт вывода;  Volume — значение параметра, определяющего начальную громкость, установленную для трека;  Pan — значение параметра, определяющего начальную панораму трека (кажущееся положение источника звука на стереопанораме);  перечень подключенных к треку MIDI-эффектов реального времени или WST-плагинов и значения их параметров;  Delay — значение параметра, определяющего смещение во времени событий на треке относительно тактовой сетки. Все подробности о работе с треками и их атрибутами вы узнаете в главе 4.
Среди шаблонов проектов, содержащихся в окне New Project, представленном на рис. 1.40, есть те, что поставляются вместе с программой, но есть и "самодельные". Со временем вы сами поймете, с какими конфигурациями программы вам приходится работать чаще всего, и сохраните их в виде шаблонов. Для этого нужно воспользоваться командой File > Save as Template, в открывшемся окне диалога задать имя шаблона и нажать кнопку ОК.
Если выбрать шаблон Empty (см. рис. 1.40), то откроется абсолютно чистое и пустое окно проекта, и далее вам нужно будет своими силами создавать в нем треки и устанавливать их атрибуты.
Сейчас же мы предлагаем вам обойти проблему установки атрибутов треков, выбрав шаблон проекта, приспособленный специально для записи MIDI-треков. В окне диалога New Project выделите строку 16 Track MIDI Sequencer и нажмите кнопку ОК. В результате сначала возникнет окно Select directory, в котором следует указать папку для хранения файла с будущим проектом.



Рис. 1.41. Окно Select directory



Рис. 1.42. Окно Cubase SX Project с выбранным шаблоном проекта

Вы можете нажать кнопку ОК, окно Select directory закроется, а в качестве папки проекта будет выбрана текущая папка. Можно нажать кнопку Create и создать новую папку, указав ее имя в открывшемся окне Select/Create new directory. После того как и в этом окне вы нажмете кнопку ОК, проект наконец-то будет создан, а перед вами предстанет во всей красе одно из основных окон программы — окно проекта Cubase SX Project (рис. 1.42).
Именно в этом окне наглядно представлена структура шаблона проекта:
 в нем 16 треков (если видны не все треки, можно воспользоваться вертикальной полосой прокрутки);  номера треков специально установлены равными номерам MIDI-каналов (так проще ориентироваться);  начальный уровень громкости для каждого трека установлен равным 100 единицам (максимально возможное его значение составляет 127);  источники звука на всех треках панорамированы в центр (Pan = Off);  ни для одного трека не выбран MIDI-инструмент (bnk:off, prgroff). Фактически это означает то, что команда смены инструмента вообще не посылалась синтезатору. Поэтому, вероятнее всего, на данном канале будет звучать патч Grand Piano, который обычно автоматически устанавливается при инициализации синтезатора для всех MIDI-каналов кроме MIDI-канала 10, предназначенного для ударных инструментов. Эти и некоторые другие сведения об атрибутах трека вы узнаете, переключая секции инспектора треков, расположенного справа.
Чтобы в дальнейшем не отвлекаться, есть смысл до начала записи выбрать для всех треков соответствующие MIDI-инструменты (программы, звуки, патчи, голоса). На первых порах, пока вы еще не умеете пользоваться богатейшими возможностями виртуальных VST-инструментов, вполне можно обойтись звуками, имеющимися в стандартном банке General MIDI вашей звуковой карты. Для трека MIDI 01 подберите подходящее по звучанию пианино, а сам трек можно переименовать в Piano, набрав это слово в поле ввода, расположенном в верхней части панели инспектора. Для трека MIDI 02, переименовав его в Bass, возьмите один из басовых инструментов. Для трека MIDI 03, переименовав его в Accompaniment, выберите, например, одну из гитар и т. д.
По умолчанию в данном шаблоне для каждого их 16 треков выбраны все существующие в вашей системе каналы ввода MIDl-данных (in: All MIDI Inputs). Это прекрасно подходит для того, чтобы записывать на трек результаты вашей игры на MIDI-клавиатуре. А вот порт вывода MIDI-сообщений по умолчанию не выбран (out: Not Connected). Устраните непорядок, выбрав в раскрывающемся списке Output вместо строки out: Not Connected какую-либо другую строку, означающую название порта управления синтезатором вашей звуковой карты или виртуальным синтезатором, подключенным к Cubase SX. Для начала, двигаясь от простого к сложному, выберите порт звуковой карты, установленной в вашем компьютере. В том компьютере, на котором готовился графический материал главы, установлена звуковая карта SB Live!. Поэтому в раскрывающемся списке Output имеется строка SB Live! Synth А. Если выбрать ее, то вместо отдельных раскрывающихся списков bnk: и prg: .

MIDI-инструмент можно выбрать двумя способами:
 щелкая на стрелках раскрывающегося списка Bank and Programs каждого из треков, вы будете последовательно пролистывать список MIDI-инструментов;  двойным щелчком на поле этого раскрывающегося списка вы получите доступ к окну, в котором перечислены все банки и все MIDI-инструменты текущего банка (рис. 1.43).



Рис. 1.43. Окно выбора MIDI-инструментов

Выбор MIDI-инструмента для трека сводится к выделению одного из элементов данного меню.
При желании вы можете использовать не только стандартный банк GM, но и дополнительные банки инструментов в формате SoundFont 2 или банки виртуальных синтезаторов, подключенных к Cubase SX.
В целях упрощения процедуры поиска MIDI-инструментов в окне, представленном на рис. 1.43, предусмотрен фильтр. Наберите в поле Filter имя искомого инструмента, и соответствующая строка тут же появится в окне. Если вы не помните полного имени MIDI-инструмента — не страшно. Список, отображаемый в окне, можно существенно сократить. Для этого достаточно набрать в поле Filter хотя бы несколько букв, входящих в имя. На рис. 1.44 представлен пример: набраны буквы str, в списке остались имена только тех инструментов, в которые эти буквы входят.



Рис. 1.44. Пример применения фильтра имен MIDI-инструментов

Теперь, когда и MIDI-клавиатура подключена, и MIDI-инструменты для треков выбраны, можно послушать, как они звучат, а заодно и отрепетировать каждую из партий будущей композиции. Звучать будет тот трек (те треки), на котором (которых) вы нажмете одну из кнопок: .



1.13.4. Сохранение проекта. Форматы файлов

Запись еще не началась, но мы бы советовали уже сохранить ваш проект. Под проектом понимается файл, в котором кроме звуковых и МIDI-данных содержатся также всевозможные установки (созданные треки, подключенные эффекты, данные автоматизации управления виртуальным микшером, выбранные параметры, открытые окна, установленные режимы, текущая позиция, с которой начнется запись или воспроизведение, и многое другое).
Для первого сохранения файла с текущим проектом служит команда Save As меню File. По этой команде откроется диалоговое окно Save As, изображенное на рис. 1.45.



Рис. 1.45. Диалоговое окно Save As

В этом окне выберите каталог (в раскрывающемся списке Look in:), введите имя (в поле File name:) и нажмите кнопку Save. В окне Save As имеется также раскрывающийся список Files of type:, поэтому может создаться впечатление, будто есть выбор типа и расширения сохраняемого файла. Однако в Cubase SX (в отличие от предыдущих версий программы Cubase) проект можно сохранять в единственном формате: Cubase Project File (с расширением CPR).
Имеется возможность экспортировать из Cubase SX содержимое MIDI-треков в MIDI-файлы, а содержимое аудиотреков — в WAV-файлы (команды File > Export > MIDI File и File > Export > Audio Mixdown). Это может пригодиться, если работу над MIDI- или аудиоданными необходимо будет продолжить в какой-то другой программе.
Заметим, что для обеспечения некоторой совместимости с предыдущими версиями программы предусмотрено импортирование в Cubase SX WAV-файлов и MIDI-файлов, а также файлов с такими объектами, как сонг, аранжировка и часть (команды File > Import > Audio File..., File > Import > MIDI File..., File > Import > Cubase Song, File > Import > Cubase Arrangement, File > Import > Cubase Part...). Следует учитывать, что импортирование данных из файлов перечисленных типов (кроме WAV- и MIDI-файлов) осуществляется с некоторыми потерями.



1.13.5. Запись MIDI-трека

Запись MIDI-композиции можно осуществлять различными способами, но удобнее всего делать это с помощью MIDI-клавиатуры. Это и быстрее и позволяет сохранить стиль исполнителя. Без MIDI-клавиатуры вам вряд ли удастся придать звучанию произведения "драйв", характерный для мастерской игры "в живую".
Запись можно начинать с любого трека, выбранного вами. Для этого следует в поле необходимого трека нажать маленькую кнопку
Наигрывать партии композиции на MIDI-клавиатуре удобно под метроном (см. разд. 2.8).



Локаторы

В программе Cubase SX имеются локаторы, выполняющие различные функции. Этих локаторов два — левый и правый (Left Locator, Right Locator). Если вы нажимаете на транспортной панели кнопку (локатор можно перемещать вдоль линейки, ухватившись за него курсором мыши), а также цифрами в левой части транспортной панели (рис. 1.46).



Рис. 1.46. Фрагмент транспортной панели. Индикатор положения локаторов

Существует также способ точной установки локатора. В программе Cubase SX любые цифровые поля (в том числе и поля значений локаторов) менять очень просто: щелчок в этом поле левой кнопкой мыши делает поле доступным для редактирования. Чтобы увеличить или уменьшить значение, воспользуйтесь клавишами вверх и вниз.
Для того чтобы начать запись "сначала", то есть с первого такта, установите левый локатор в положение 0001.01.01.000, что означает "первый такт, первая четвертная доля, первая четвертая часть первой доли, нулевой тик".



Музыкальное время в Cubase SX

В Cubase SX счет музыкального времени организован своеобразно. Рассмотрим для примера показания счетчика, который находится на транспортной панели и отображает положение указателя текущей позиции (рис. 1.47).



Рис. 1.47. Фрагмент транспортной панели. Счетчик указателя текущей позиции

Счет времени ведется следующим способом:
1. Подсчитываются такты, и их количество отображается числом, расположенным слева от левой точки (в примере на рис. 1.46 это число составляет 6064). На первый взгляд кажется, что в проекте может быть не более 9999 тактов. На самом деле это не так. По мере необходимости в счетчике тактов появляются дополнительные разряды.
2. Внутри каждого такта подсчитываются доли (в примере на рис. 1.46 это число составляет 03). Количество долей в такте определяется тем, какой музыкальный размер вы зададите (дробь в правой области транспортной панели), максимальное разрешенное число долей составляет 16.
3. Внутри каждой доли подсчитываются части долей (в примере на рис. 1.46 это число составляет 01). Каждая четвертная доля автоматически делится на 4 части, восьмая — на 2, шестнадцатая доля на части неделима (в ней заключена ровно одна часть).
4. Каждая часть доли в свою очередь делится на 120 тиков (в примере на рис. 1.46 это число составляет 038). Счет тиков ведется от 0 до 119. Таким образом, на шестнадцатую долю приходится 120 тиков, а на четвертную — 480.
Такая организация счета музыкального времени поначалу иногда вводит в заблуждение: некоторые пользователи воспринимают обе правые группы цифр как количество тиков. Игнорируя правую точку, такие пользователи могли бы запись, приведенную в примере (01.038 — первая часть, 38 тиков), истолковать абсолютно неправильно как 1038 тиков. Нам даже как-то встретилась публикация, автор которой, вероятно, не разобравшись с показаниями счетчика, утверждает, что в Cubase максимальная разрешающая способность секвенсора составляет более 15 тысяч тиков на четверть. Это совершенно неверно. Разрешающая способность Cubase SX равна 480 тикам на четверть.
Теперь в правой части транспортной панели установите нужный музыкальный темп и размер (в полях, расположенных справа от кнопок Click и Master). Размер устанавливается в традиционном формате, например, 3/4, 6/8, 2/2 и т. п. Темп устанавливается в стандартных единицах "количество долей в секунду".
Для того чтобы легче было сыграть отрывок ровно, нажмите кнопку Click на панели управления. В этом случае метроном будет "отбивать" каждую долю такта. Для того чтобы быстро, "на ходу" включать или выключать кнопку Click, можно просто нажимать клавишу < С >.



Первая попытка записи с MIDI-клавиатуры

Итак, MIDI-трек выбран, левый локатор установлен, метроном подготовлен, можно начинать запись.
Приступайте к записи, нажав на транспортной панели кнопку (Stop), либо на компьютерной клавиатуре нажмите <Spacebar>. Записанные MIDI-сообщения появятся на MIDI-треках в объектах, которые в терминологии Cubase SX называются частями. О частях мы будем говорить еще не один раз. Пока что для простоты можете считать, что в результате записи вы заполнили MIDI-сообщениями некоторые фрагменты MIDI-треков.
Если вам не понравилось то, что вы записали (а в самый первый раз так оно, вероятно, и будет), можно отменить результаты записи. Для этого в меню Edit выберите пункт Undo или нажмите комбинацию клавиш <Ctrl> + <z>. Сыграйте на MIDI-клавиатуре поочередно все партии. Помните, что вам не обязательно записывать музыкальное произведение целиком. Его можно "собрать по частям" из отдельно записанных и отредактированных фрагментов.
Записанные партии нужно отредактировать, устранив ошибки. Затем следует разнести виртуальные источники звука по стереопанораме и добиться необходимого баланса в совместном звучании партий композиции для каждого трека. Можно обработать некоторые MIDI-треки эффектами (например, реверберацией и хорусом), но особенно увлекаться этим не следует. В дальнейшем вам, скорее всего, захочется переписать партии с MIDI-треков на аудиотреки с тем, чтобы уже к ним применить гораздо более разнообразные и интересные аудиоэффекты. Поэтому предпочтительнее оставлять исходные MIDI-треки "сухими": без каких-либо обработок.



1.13.6. Запись звуковых данных с внешнего источника

Надеемся, что первый опыт записи MIDI-аккомпанемента у вас удался, да и файл с проектом вы сохранить не забыли. В таком случае можно начинать подготовку к дополнению полученной записи вокальной партией или партией в исполнении реального акустического музыкального инструмента. Но сначала нужно подключить микрофон к звуковой карте. 
Предположим, у вас уже есть микрофон. Он подключен к микрофонному входу звуковой карты либо непосредственно, либо через согласующий усилитель, либо через микшер. При записи вокала также понадобятся наушники. С их помощью исполнитель будет слушать аккомпанемент.
Вообще-то для записи и редактирования звука предназначены специальные программы — звуковые редакторы, например, Cool Edit Pro.
Возможностей такого редактора было бы достаточно, если бы вы решили записывать речь. Им можно было бы обойтись также и при записи вокала, если бы в вашем распоряжении уже была "минусовая" фонограмма будущей песни, сохраненная в WAV-файле. И он, конечно, пригодится вам, когда дело дойдет до "чистки" вокальной партии. Но многие музыканты приступают к записи вокала сразу же после того, как в MIDI-редакторе (секвенсоре) создадут MIDI-треки с аккомпанементом (MIDI-трек — это трек, ассоциированный с MIDI-портами ввода и вывода, предназначенный для хранения MIDI-данных). И это довольно разумно. Ведь воспроизведение MIDI-треков, сколько бы их ни было, занимает меньшую часть ресурсов компьютера по сравнению с воспроизведением оцифрованного звука. В принципе, MIDI-инструменты никогда не поздно переписать на аудио-треки (аудиотрек — трек, ассоциированный с аудиопортами ввода и вывода, предназначенный для хранения аудиосообщений — сообщений о начале воспроизведения звуковых файлов). И даже желательно, в конце концов, сделать это для того, чтобы появилась возможность обработать каждый инструмент различными звуковыми эффектами. И все же получается, что неизбежен этап одновременной работы с аудио- и MIDI-треками, поэтому без универсального музыкального редактора не обойтись. Разумеется, в качестве такого редактора в данной книге мы будем рассматривать Cubase SX.
Загрузите в программу файл с той MIDI-композицией, к которой собираетесь дописывать вокальную партию. Откроется окно проекта программы Cubase SX.



Создание аудиотрека

Вам нужно создать аудиотрек для записи пения. Для этого в меню Project выберите команду Add Track > Audio. К существовавшим ранее MIDI-трекам добавится аудиотрек (рис. 1.48). Он пока чист.
Чтобы работать было удобно, можно увеличить масштаб отображения треков по вертикали кнопкой Zoom In Vertical, расположенной в нижней области вертикальной линейки прокрутки.
Для созданного трека нужно задать ряд его параметров — выбрать атрибуты. Доступ к атрибутам осуществляется с помощью элементов интерфейса, расположенных на поле инспектора. Не все из представленных там возможностей понадобятся вам при записи звука с микрофона. Например, не будем использовать пока аудиоэффекты. Кстати говоря, исходную запись целесообразно выполнить без какой-либо обработки эффектами и в таком виде хранить, а экспериментировать с ее копией. Не станем также изменять предусмотренные по умолчанию начальные значения уровня громкости (Vol = 0.0) и панорамы (Pan = С, будет ощущение, что источник звука расположен в ее центре). Вот без чего нельзя обойтись, так это без портов ввода и вывода.



Рис. 1.48. Окно Cubase SX Project с частями, записанными на MIDI-треках, и созданным аудиотреком



Выбор портов ввода и вывода

Для выбора порта ввода звуковых данных служит раскрывающийся список
В зависимости от формата аудиотрека (моно или стерео) стереофонические порты могут быть логически разбиты на два монофонических:
1. Источник звука левого канала.
2. Источник звука правого канала.
Стереофоническому источнику звука должен соответствовать стереофонический аудиотрек. А если вы ведете запись с помощью единственного монофонического микрофона, то не обязательно выбирать стереофонический формат трека. Звук все равно будет монофоническим, а такой трек займет
файл удвоенного объема по сравнению с монофоническим вариантом. Для переключения формата трека с монофонического на стереофонический и наоборот следует воспользоваться кнопкой Stereo Switch, расположенной на панели инспектора. Вид кнопки изменяется: - стереофонический.
Но не спешите расстраиваться по поводу монофоничности фонограммы записанного голоса. Даже в профессиональных студиях вокал, как правило, записывается в монофоническом формате. Чтобы выполнить стереозапись голоса, нужны особые условия и либо пара определенным образом расположенных идентичных микрофонов, либо специальный стереомикрофон. Монофонический формат трека никогда не Поздно преобразовать в стереофонический, но делать этого вам, скорее всего, не придется, так как придать записи объемное псевдостереофоническое звучание можно с помощью обработки эффектами, основанными на задержке сигнала. Об этом написано в главе 13.
Для того чтобы звуковые данные с трека поступали на определенное устройство воспроизведения, необходимо выбрать соответствующий порт вывода. На данном этапе обучения работе с Cubase SX просто убедитесь, что в списке
Значения некоторых параметров, отвечающих за качество записи и воспроизведения звука, выбираются в окне Project Setup, которое открывается командой Project > Project Setup. Выбор устройств воспроизведения звука осуществляется в окне Device Setup (команда Devices > Device Setup). Формат звуковых данных (от стерео до 5.1) выбирают в окне VST Master Setup (команда Devices > VST Master Setup). С помощью опций этих окон производится утонченное конфигурирование канала цифрового звука. Но это уже высший пилотаж. Для первоначального же освоения технологии записи звука вполне достаточно будет значений параметров, которые предусмотрены по умолчанию.



Настройка уровня сигнала

Последнее, что осталось сделать до начала записи, — установить уровень сигнала, поступающего на аналого-цифровой преобразователь звуковой карты. О теоретических основах измерения уровня сигнала мы рассказали в разд. 1.11.1. Сейчас пришло время практики. С помощью микшера звуковой карты вам следует произвести необходимую коммутацию и установить оптимальный уровень входного сигнала. Пытаться подробно описывать эту процедуру нет смысла, так как звуковые карты и соответствующие им драйверы микшеров могут быть самыми разными. Контролируется уровень с помощью измерителя уровня сигнала программы Cubase SX (рис. 1.26).
После завершения всех подготовительных операций наконец-то можно и приступить непосредственно к записи звука на аудиотрек.
В поле трека (или на панели инспектора) окна Cubase SX Project нажмите маленькую кнопочку (Record) на транспортной панели программы Cubase SX. Нажимайте! Поле трека стало красным. Зазвучал аккомпанемент, песня полилась.
Итак, мы рассказали начинающим компьютерным музыкантам о том, как выполнить самые необходимые операции: подключить MIDI-клавиатуру и микрофон к звуковой карте, загрузить, сохранить и воспроизвести файл с проектом, записать MIDI- и аудиотреки. А теперь приступим к детальному изучению возможностей программы Cubase SX.