Звуковая карта, ее применение

Устройство и функционирование звуковых плат. Основные форматы музыкальных файлов на РС. Основные программы для работы со звуком и музыкой. Музыкант и компьютер, создание музыки на РС. Интерактивные исполнительские системы. Компьютер "сочиняет" музыку.

Рубрика Программирование, компьютеры и кибернетика
Вид курсовая работа
Язык русский
Дата добавления 16.11.2009
Размер файла 357,3 K

Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже

Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.

Алгоритм взаимодействия для исполнителя может быть написан обычным "человеческим" языком, пояснен нотными фрагментами и т. д. А алгоритм для компьютера составляется различными способами. Например, может быть использована последовательность условных операций типа "если прозвучал звук в диапазоне от 300 до 367 Гц с амплитудой от 7000 до 9500 условных единиц20 во временном промежутке от 7 до 9 секунд от начала пьесы, то исполнять звуки случайной частоты в диапазоне от 150 до 170 Гц длиной 0,02 секунды с частотой появления, линейно уменьшающейся от 47 до 6 Гц с постоянным затуханием в течение 11,4 секунды".
Для облегчения процесса создания таких интерактивных композиций были разработаны различные программные средства. Например, в парижском центре электронной музыки IRCAM была разработана программа MAX, коммерческую версию которой (для Macintosh) выпускает американская компания Opcode.
Программа MAX - это, по сути, целый язык программирования, предназначенный для создания алгоритмов интерактивного исполнения и реализованный в виде программного приложения с объектно-ориентированным интерфейсом пользователя. MAX работает на уровне MIDI-событий, так что если композитор желает работать с акустическим инструментом, ему необходимо использовать какие-либо конверторы (Pitch-to-MIDI21 и т. п.).
В MAX имеются объекты (операторы), обеспечивающие ввод/вывод MIDI-информации. Между входными и выходными параметрами помещаются модули преобразования. Возможно использовать арифметические и логические операции, ветвления, различные специальные возможности и т. п. Всего в программе более ста типов объектов. Имеется даже небольшой встроенный секвенцер.
Программу MAX использовали многие крупные композиторы, такие, как Ричард Буланже (Richard Boulanger) и Дрор Файлер (Dror Feiler).
Описанная концепция интерактивной исполнительской системы не является единственно возможной. Существуют и другие концепции, и среди них необходимо выделить концепцию системы управления партитурой.
Вначале американский инженер, программист и музыкант Макс Мэтьюз (Max Matthews) заметил противоречие между "музыкантством" и "музыкальностью". Оно выражается в том, что зачастую музыкант-профессионал, вложивший уйму времени и сил в овладение техникой исполнения на каком-либо инструменте и действительно овладевший этой техникой в совершенстве, испытывает затруднения в вопросе художественной интерпретации музыкального произведения. И наоборот, человек, не владеющий тем или иным инструментом в достаточной степени или вовсе не умеющий на нем играть, иной раз способен на собственную интересную интерпретационную концепцию, свое неординарное видение музыки. Только вот беда: донести свою исполнительскую концепцию до слушателей он никак не может из-за технических трудностей исполнения.
Макс Мэтьюз предложил решение, позволяющее такому музыкальному человеку, не имеющему достаточной техники, реализовать себя как исполнителя. (Именно как живого исполнителя, а не MIDI-аранжировщика.) Для этого Мэтьюз создал специальное устройство, называющееся в последней модификации "радиобатон". Визуально радиобатон представляет собой небольшой прямоугольный ящичек с MIDI-входом и выходом. Под верхней крышкой этого "ящичка" находятся пять датчиков (четыре - по углам и один в центре), которые следят за перемещением двух специальных палочек. С компьютера в радиобатон загружается MIDI-партитура, в которой в особом формате определены параметры, которыми можно будет управлять в реальном времени. С помощью двух палочек можно произвольно изменять во время исполнения шесть любых заранее заданных параметров: каждая палочка регулирует одновременно три параметра, перемещаясь в пространстве по трем осям, обозначаемым как x, y и z. Например, в многотембральном произведении логично регулировать таким образом громкости различных партий. Перемещения в плоскости поверхности радиобатона ограничены размерами устройства; перемещение по оси z также имеет как нижнюю, так и верхнюю границу: существует некоторое критическое расстояние, вне пределов которого радиобатон вообще не распознает палочку. Темп исполнения может регулироваться, помимо простого перемещения палочки вдоль одной из осей, специальным образом - с помощью "дирижирования" правой рукой.
Развитием идеи Мэтьюза является "управляющая перчатка" (PowerGlove) Ричарда Буланже. Здесь параметры MIDI-партитур можно регулировать не только перемещением руки в пространстве, но и сгибанием пальцев, причем каждый палец может контролировать отдельный параметр.
И радиобатон, и управляющая перчатка, однако, не так просты в обращении, как может показаться. Для полного использования их возможностей необходимы определенные "исполнительские" навыки, как и при игре на каком-либо традиционном инструменте. С другой стороны, эти навыки можно приобрести довольно быстро (за 2-3 месяца регулярных занятий), что делает его доступным для широкого круга музыкантов-любителей.
9. Компьютер "сочиняет" музыку
Конечно, для простых любителей и ленивых музыкантов, было бы весьма удобно, чтобы компьютер сам "сочинял" музыку. Но строго говоря, компьютеры сами никакой музыки до сих пор не сочинили. В основном, используются уже с середины 50-х годов так называемые программы алгоритмической композиции. При этом разрабатывались два в корне различных метода. Первый метод - это анализ того или иного музыкального стиля и составление композиции на основе полученных данных. Второй же метод предполагает вероятностные распределения звуков в партитуре.
Сочинения, написанные с использованием обоих методов, как правило, допускают "живое" исполнение - ведь результатом работы программ алгоритмической композиции является обычно нотный текст (или, по крайней мере, некоторые данные, подготовленные для последующего преобразования в нотный текст.
Еще в 1956 году были опубликованы опыты Кляйна и Болито по синтезированию песенных мелодий на компьютере Datatron. Мелодии носили название "Push Button Bertha". Они рассматривались, правда, скорее как эксперимент, а не творчество. Однако уже в следующем, 1957 году была опубликована (и впоследствии не раз исполнялась) сюита для струнного квартета, "сочиненная" в лаборатории электронной музыки Иллинойского университета с помощью компьютера "Иллиак" (ее так и назвали - "Иллиак-сюита"). Кроме компьютера, ее "авторами" являлись Лейярен Хиллер (Lejaren Hiller) и Леонард Айзексон (Leonard Isaacson).
Сюита состояла из четырех частей, причем первые две были написаны в диатоническом до-мажоре по правилам, близким к правилам музыки строгого стиля. Источником третьей части, напротив, была случайная хроматическая музыка, "профильтрованная", однако, по тем же правилам. Несмотря на фильтрацию, ее музыка очень похожа на атональные композиции. В четвертой же части авторы применили математические формулы, никак не связанные с музыкальными стилями. По их замыслу, четвертая часть должна была быть написана в совершенно особом, "машинном" стиле, хотя на слух, как ни странно, этот стиль мало отличался от стиля третьей части. "Иллиак-сюита" издавалась несколько раз и приобрела мировую известность.
В 1959 году Рудольф Зарипов, советский математик, "сочинял" одноголосные музыкальные пьесы на машине "Урал" (опять-таки в до-мажоре). Они назывались "Уральские напевы" и опять носили характер эксперимента. При их сочинении использовались различные случайные процессы для различных элементов музыкальной фактуры (форма, ритм, звуковысотность и т. д.). А Р. Бухараев и М. Рытвинская на том же "Урале" программировали "сочинение" алгоритмических мелодий на стихотворный текст.
Правда, "Урал" предоставил на выходе неуклюжую, абсолютно не вокальную мелодию (даже с точки зрения авангарда нашего столетия). Виноват был, конечно, не "Урал", а очень несовершенные алгоритмы синтеза музыкальной фактуры.
С тех пор появилось очень много программ для алгоритмической композиции. Часто такие программы разрабатывались, что называется, "на один раз", для личного использования. В отличие от подобных программ 50-х годов некоторые современные разработки позволяют достичь довольно хороших результатов. В качестве примера можно привести программу, которую разработал московский музыкант и программист Д. Жалнин.
Иногда средства алгоритмической композиции так или иначе смешиваются с другими творческими направлениями. Например, Cubase существует встроенное средство под названием "интерактивный синтезатор фраз" (Interactive Phrase Synthesizer, IPS). Здесь смешиваются средства интерактивной и алгоритмической систем. На вход системы подается некая "фраза", то есть последовательность MIDI-событий. Затем эта последовательность проходит через специальные "алгоритмические процессоры" - подпрограммы упорядоченного преобразования ритма, громкости и звуковысотности. Таким образом, с одной стороны, исполнитель имеет возможность все время взаимодействовать с системой, вводя различные стартовые ноты и даже меняя саму исходную последовательность; с другой стороны, для изменения звуковой ткани используются строгие алгоритмы.
Еще один яркий пример интеграции алгоритмической музыки с другими направлениями - класс программ перевода графики в звучание. Таких программ тоже существует не одна и не две. Однако особо хочется отметить программу Kandinsky Music Painter (KMP) для Atari, от компании Keys. Эта программа предоставляет довольно-таки развитые средства для создания рисунка.
Отдельно можно создать рисунки для звуковысотной фактуры и для громкости инструментов. В программе используется монохромная графика, которая транслируется в MIDI-события. В начале проигрывания экран очищается, и по ходу проигрывания рисунок постепенно прорисовывается по горизонтали, что дает ощущение слияния звуковой и визуальной композиций.
Похожим образом, но не на уровне MIDI, а на уровне звука работает система Яниса Ксенакиса U-Pic. А вообще-то эта идея уже была реализована гораздо раньше аналоговыми методами.

Рождение компьютерной музыки

В 1957 году М. Мэтьюз и Н. Гутман посетили концерт одного малоизвестного пианиста. Концерт им обоим не понравился, и, в процессе обмена впечатлениями после концерта, М. Мэтьюз заявил, что компьютер может сыграть лучше. Но поскольку на дворе был 1957 год, компьютеры еще не умели играть музыку. Придя домой, М. Мэтьюз тут же стал писать программу, играющую музыку. Первая компьютерная пьеса неизменно производит на окружающих ужасающее впечатление. Но идея Мэтьюза, развиваясь, породила целый класс музыкальных языков программирования, которые вначале назывались "MUSIC" с номером версии. Язык C-Sound произошел как раз из этих программ. А отделение Стэндфордского института исследований, где работал тогда М. Мэтьюз, выросло в музыкальный исследовательский центр под названием CCRMA (читается "карма").

Конечно, программы алгоритмической композиции не способны заменить собой творческий процесс сочинения музыки. Однако, в качестве вспомогательного средства при создании музыкальных пьес они могут быть применены с большим успехом.

10. Универсальная система "программирования" музыки

Компьютерная музыка как таковая начиналась когда-то с музыкальных языков программирования. Несмотря на то, что с тех пор разработчики музыкального программного обеспечения уделяли все большее и большее внимание развитию пользовательского интерфейса, музыкальный язык программирования в чистом виде - язык C-Sound - сохранился и успешно применяется по сей день. Дело в том, что C-Sound, в отличие от других музыкальных программ, является, по сути, универсальной системой, позволяющей создавать любые звучания. Ведь развитый пользовательский интерфейс при всех своих достоинствах обладает очень существенным недостатком: он всегда ограничивает возможности.

Язык C-Sound свободен от этого. Он существует в виде компилятора, который транслирует текст программы в звуковой файл. При этом основные операторы его реализуют основные средства создания электронной музыки. Если композитору не хватает операторов C-Sound (которые сами по себе позволяют проделывать гораздо больше, чем все описанные выше программы, вместе взятые [исключая, разумеется, нотную графику]), он может написать нужные ему фрагменты текста программы на языке Си или Ассемблере.

C-Sound позволяет работать как с синтезированным звуком, так и со звуком из внешнего источника. Широкий выбор операторов генерации и модификации сигналов делает работу очень удобной, а система меток и ссылок на них - привычной для хоть сколько-нибудь знакомого с программированием человека. Поначалу, правда, некоторые мои знакомые (да и я тоже) испытали некоторое разочарование при знакомстве с C-Sound, потому что надеялись (а напрасно), что это просто что-то вроде расширения классического Си или Си++. Но по мере знакомства с языком разочарование довольно быстро сменилось признанием его широких возможностей, простоты и удобства работы со звуком.

В любом синтезаторе содержится некоторый набор алгоритмов, реализующих звуковой синтез. Иногда эти алгоритмы поддаются редактированию, но, как правило, очень ограниченному. В сэмплерах также есть набор определенных алгоритмов плюс записанные образцы волновых форм. Любое устройство для обработки звука включает в себя алгоритмы обработки, и лишь немногие их параметры открыты для редактирования. Это перечисление можно продолжить. В C-Sound мы имеем такие же наборы алгоритмов, полностью открытые (ибо они существуют в виде простого текста) для изменения по нашему вкусу. Кроме того, можно самому создавать все эти алгоритмы "с нуля".

В настоящее время C-Sound не может работать в реальном времени на обычных компьютерах. Для компиляции звукового файла помимо описания инструментов необходим еще файл партитуры (.sco), в котором расположены звуки и их индивидуальные параметры. С одной стороны, это может показаться неудобным, однако, с другой, - заставляет музыканта проявлять большее внимание к каждому звуку в отдельности, что, несомненно, способствует повышению качества результата.

Программа C-Sound распространяется свободно. Она существует в модификациях для DOS, Windows, Macintosh, Atari и других платформ. Компилятор C-Sound с полным описанием языка и учебными примерами довольно легко можно найти в Сети.

11. Другие применения компьютера музыкантами

Все перечисленные выше музыкальные приложения компьютеров предполагают работу с нотным либо звуковым материалом. Однако есть и другие возможности применения компьютеров музыкантами.

Среди них следует выделить прежде всего организацию музыкально-теоретического или исторического материала с помощью баз данных. Такая система позволяет быстро и оперативно получать музыковедческую информацию.

Другая интересная идея состоит в открытии электронных нотных библиотек, как локальных, так и общедоступных (например, через тот же Интернет). О преимуществах здесь говорить излишне, поскольку существующие виртуальные книжные библиотеки иллюстрируют их лучше всяких объяснений. Правда, на сегодняшний день не существует единого стандарта на формат нотного текста, но имеющиеся форматы файлов программ профессионального нотного набора (прежде всего, Enigma Binary File - .mus, использующийся в программе Finale) уже становятся стандартом de facto. Тем не менее многие нотные примеры в Интернете, выполнены в виде графических файлов.

Еще одна интересная область применения компьютеров музыкантами - это использование обучающих программ в музыкальном образовании. В настоящее время существует довольно много музыкальных обучающих программ, но, к сожалению, они в большинстве своем достаточно примитивны и не могут по-настоящему заинтересовать учащегося. Причиной этого является, как мне кажется, вовсе не отсутствие специальных методик, а несколько формальный подход к алгоритмизации педагогического процесса. Здесь довольно-таки приятным исключением является симпатичная программка Play It By Ear, которая, несмотря на внешнюю простоту, зачастую бывает способна "завести" учащегося.

V Технология создания позиционируемого 3D звука

Звуковое сопровождение компьютера всегда находилось несколько на втором плане. Большинство пользователей более охотно потратят деньги на новейший акселератор 3D графики, нежели на новую звуковую карту. Однако за последний год производители звуковых чипов и разработчики технологий 3D звука приложили немало усилий, чтобы убедить пользователей и разработчиков приложений в том, что хороший 3D звук является неотъемлемой частью современного мультимедиа компьютера. Пользователей убедить в пользе 3D звука несколько легче, чем разработчиков приложений. Достаточно расписать пользователю то, как источники звука будет располагаться в пространстве вокруг него, т.е. звук будет окружать слушателя со всех сторон и динамично изменяться, как многие потянутся за кошельком. С разработчиками игр и приложений сложнее. Их надо убедить потратить время и средства на реализацию качественного звука. А если звуковых интерфейсов несколько, то перед разработчиком игры встает проблема выбора. Сегодня есть два основных звуковых интерфейса, это DirectSound3D от Microsoft и A3D от Aureal. При этом если разработчик приложения предпочтет A3D, то на всем аппаратном обеспечении DS3D будет воспроизводиться 3D позиционируемый звук, причем такой же, как если бы изначально использовался интерфейс DS3D. Само понятие "трехмерный звук" подразумевает, что источники звука располагаются в трехмерном пространстве вокруг слушателя. Это основа. Далее, что бы придать звуковой модели реализм и усилить восприятие звука слушателем, используются различные технологии, обеспечивающие воспроизведение реверберации, отраженных звуков, окклюзии (звук прошедший через препятствие), обструкции (звук не прошел через препятствие), дистанционное моделирование (вводится параметр удаленности источника звука от слушателя) и масса других интересных эффектов. Цель всего этого, создать у пользователя реальность звука и усилить впечатления от видео ряда в игре или приложении. Не секрет, что слух это второстепенное чувство человека, именно поэтому, каждый индивидуальный пользователь воспринимает звук по-своему. Никогда не будет однозначного мнения о звучании той или иной звуковой карты или эффективности той или иной технологии 3D звука. Сколько будет слушателей, столько будет мнений. В данной главе мы попытаемся собрать и обобщить информацию о принципах создания 3D звука, а также рассказать о текущем состоянии звуковой компьютерной индустрии и о перспективах развития. Мы уделим отдельное внимание необходимым составляющим хорошего восприятия и воспроизведения 3D звука, а также расскажем о некоторых перспективных разработках.

Для позиционирования источников звука в виртуальном 3D пространстве используются HRTF функции. Попробуем разобраться в том, что такое HRTF и действительно ли их использование так эффективно.

Сколько раз происходило следующее: команда, отвечающая за звук, только что закончила встраивание 3D звукового интерфейса на базе HRTF в новейшую игру; все комфортно расселись, готовясь услышать "звук окружающий вас со всех сторон" и "свист пуль над вашей головой"; запускается демо версия игры и... и ничего подобного вы просто не слышите!

HRTF (Head Related Transfer Function) это процесс посредством которого наши два уха определяют слышимое местоположение источника звука; наши голова и туловище являются в некоторой степени препятствием, задерживающим и фильтрующим звук, поэтому ухо, скрытое от источника звука головой воспринимает измененные звуковые сигналы, которые при "декодировании" мозгом интерпретируются соответствующим образом для правильного определения местоположения источника звука. Звук, улавливаемый нашим ухом, создает давление на барабанную перепонку. Для определения создаваемого звукового давления необходимо определить характеристику импульса сигнала от источника звука, попадающего на барабанную перепонку, т.е. силу, с которой звуковая волна от источника звука воздействует на барабанную перепонку. Эту зависимость называют Head Related Impulse Response (HRIR), а ее интегральное преобразование по Фурье называется HRTF.

Правильнее характеризовать акустические источники скоростью распространяемых ими звуковых волн V(t), нежели давлением P(t) распространяемой звуковой волны. Теоретически, давление, создаваемой идеальным точечным источником звука бесконечно, но ускорение распространяемой звуковой волны есть конечная величина. Если вы достаточно удалены от источника звука и если вы находитесь в состоянии "free field" (что означает, что в окружающей среде нет ничего кроме, источника звука и среды распространения звуковой волны), тогда давление "free field" (ff) на расстоянии "r" от источника звука определяется по формуле

Pff(t) = Zo V(t - r/c) / r

где Zo это постоянная называемая волновым сопротивлением среды (characteristic impedance of the medium), а "c" это скорость распространения звука в среде. Итак, давление ff пропорционально скорости в начальный период времени (происход "сдвиг" по времени, обусловленный конечной скоростью распространения сигнала. То есть возмущение в этой точке описывается скоростью источника в момент времени отстоящий на r/c - время которое затрачено на то, чтобы сигнал дошел до наблюдателя. В принципе не зная V(t) нельзя утверждать характера изменения скорости при сдвиге, т.е. произойдет замедление или ускорение) и давление уменьшается обратно пропорционально расстоянию от источника звука до пункта наблюдения.

С точки зрения частоты давление звуковой волны можно выразить так:

Pff(f) = Zo V(f) exp(- i 2 pi r/c) / r

где "f" это частота в герцах (Hz), i = sqrt(-1), а V(f) получается в результате применения преобразования Фурье к скорости распространения звуковой волны V(t). Таким образом, задержки при распространении звуковой волны можно охарактеризовать "phase factor", т.е. фазовым коэффициентом exp(- i 2 pi r /c). Или, иначе, это означает, что функция преобразования в "free field" Pff(f) просто является результатом произведения масштабирующего коэффициента Zo, фазового коэффициента exp(- i 2 pi r /c) и обратно пропорциональна расстоянию 1/r. Заметим, что возможно более рационально использовать традиционную циклическую частоту, равную 2*pi*f чем просто частоту.

Если поместить в среду распространения звуковых волн человека, тогда звуковое поле вокруг человека искажается за счет дифракции (рассеивания или иначе говоря различие скоростей распространения волн разной длины), отражения и дисперсии (рассредоточения) при контакте человека со звуковыми волнами. Теперь все тот же источник звука будет создавать несколько другое давление звука P(t) на барабанную перепонку в ухе человека. С точки зрения частоты это давление обозначим как P(f). Теперь, P(f), как и Pff(f) также содержит фазовый коэффициент, чтобы учесть задержки при распространении звуковой волны и вновь давление ослабевает обратно пропорционально расстоянию. Для исключения этих концептуально незначимых эффектов HRTF функция H определяется как соотношение P(f) и Pff(f). Итак, строго говоря, H это функция, определяющая коэффициент умножения для значение давления звука, которое будет присутствовать в центре головы слушателя, если нет никаких объектов на пути распространения волны, в давление на барабанную перепонку в ухе слушателя.

Обратным преобразованием Фурье функции H(f) является функция H(t), представляющая собой HRIR (Head-Related Impulse Response). Таким образом, строго говоря, HRIR это коэффициент (он же есть отношение давлений, т.е. безразмерен; это просто удобный способ загнать в одну букву в формуле очень сложный параметр), который определяет воздействие на барабанную перепонку, когда звуковой импульс испускается источником звука, за исключением того, что мы сдвинули временную ось так, что t=0 соответствует времени, когда звуковая волна в "free field" достигнет центра головы слушателя. Также мы масштабировали результаты таким образом, что они не зависят от того, как далеко источник звука расположен от человека, относительно которого производятся все измерения.

Проще можно сказать, что HRIR это давление воздействующее на барабанную перепонку, когда источник звука является импульсным.

Напомним, что интегральным преобразованием Фурье функции HRIR является HRTF функция. Если известно значение HRTF для каждого уха, мы можем точно синтезировать бинауральные сигналы от монофонического источника звука (monaural sound source).

Соответственно, для разного положения головы относительно источника звука задействуются разные HRTF фильтры. Библиотека HRTF фильтров создается в результате лабораторных измерений, производимых с использованием манекена, носящего название KEMAR (Knowles Electronics Manikin for Auditory Research, т.е. манекен Knowles Electronics для слуховых исследований) или с помощью специального "цифрового уха" (digital ear), разработанного в лаборатории Sensaura, располагаемого на голове манекена. Понятно, что измеряется именно HRIR, а значение HRTF получается путем преобразования Фурье. На голове манекена располагаются микрофоны, закрепленные в его ушах. Звуки воспроизводятся через акустические колонки, расположенные вокруг манекена и происходит запись того, что слышит каждое "ухо".

HRTF представляет собой необычайно сложную функцию с четырьмя переменными: три пространственных координаты и частота. При использовании сферических координат для определения расстояния до источников звука больших, чем один метр, считается, что источники звука находятся в дальнем поле (far field) и значение HRTF уменьшается обратно пропорционально расстоянию. Большинство измерений HRTF производится именно в дальнем поле, что существенным образом упрощает HRTF до функции азимута (azimuth), высоты (elevation) и частоты (frequency), т.е. происходит упрощение, за счет избавления от четвертой переменной. Затем при записи используются полученные значения измерений и в результате, при проигрывании звук (например, оркестра) воспроизводится с таким же пространственным расположением, как и при естественном прослушивании. Техника HRTF используется уже несколько десятков лет для обеспечения высокого качества стерео записей. Лучшие результаты получаются при прослушивании записей одним слушателем в наушниках.

Наушники, конечно, упрощают решение проблемы доставки одного звука к одному уху и другого звука к другому уху. Тем не менее, использование наушников имеет и недостатки. Например:

* Многие люди просто не любят использовать наушники. Даже легкие беспроводные наушники могут быть обременительны. Наушники, обеспечивающие наилучшую акустику, могут быть чрезвычайно неудобными при длительном прослушивании.

* Наушники могут иметь провалы и пики в своих частотных характеристиках, которые соответствуют характеристикам ушной раковины. Если такого соответствия нет, то восприятие звука, источник которого находится в вертикальной плоскости, может быть ухудшено. Иначе говоря, мы будем слышать преимущественно только звук, источники которого находится в горизонтальной плоскости.

* При прослушивании в наушниках, создается ощущение, что источник звука находится очень близко. И действительно, физический источник звука находится очень близко к уху, поэтому необходимая компенсация для избавления от акустических сигналов влияющих на определение местоположения физических источников звука зависит от расположения самих наушников.

Использование акустических колонок позволяет обойти большинство из этих проблем, но при этом не совсем понятно, как можно использовать колонки для воспроизведения бинаурального звука (т.е. звука, предназначенного для прослушивания в наушниках, когда часть сигнала предназначена для одного уха, а другая часть для другого уха). Как только мы подключим вместо наушников колонки, наше правое ухо начнет слышать не только звук, предназначенный для него, но и часть звука, предназначенную для левого уха. Одним из решений такой проблемы является использование техники cross-talk-cancelled stereo или transaural stereo, чаще называемой просто алгоритм crosstalk cancellation (для краткости CC).

Идея CC просто выражается в терминах частот. На схемы выше сигналы S1 и

S2 воспроизводятся колонками. Сигнал Y1 достигающий левого уха представляет собой смесь из S1 и "crosstalk" (части) сигнала S2. Чтобы быть более точными, Y1=H11 S1 + H12 S2, где H11 является HRTF между левой колонкой и левым ухом, а H12 это HRTF между правой колонкой и левым ухом. Аналогично Y2=H21 S1 + H22 S2. Если мы решим использовать наушники, то мы явно будем знать искомые сигналы Y1 и Y2 воспринимаемые ушами. Проблема в том, что необходимо правильно определить сигналы S1 и S2, чтобы получить искомый результат. Математически для этого просто надо обратить уравнение:

На практике, обратное преобразование матрицы не является тривиальной задачей.

* При очень низкой частоте звука, все функции HRTF одинаковы и поэтому матрица является вырожденной, т.е. матрицей с нулевым детерминантом (это единственная помеха для тривиального обращения любой квадратной матрицы). На западе такие матрицы называют сингулярными. (К счастью, в среде отражающей звук, т.е. где присутствует реверберация, низкочастотная информация не являются важной для определения местоположения источника звука).

* Точное решение стремиться к результату с очень длинными импульсными характеристиками. Эта проблема становится все более и более сложной, если в дальнейшем искомый источник звука располагается вне линии между двумя колонками, т.е. так называемый фантомный источник звука.

* Результат будет зависеть от того, где находится слушатель по отношению к колонкам. Правильное восприятие звучания достигается только в районе так называемого "sweet spot", предполагаемого месторасположения слушателя при обращении уравнения. Поэтому, то, как мы слышим звук, зависит не только от того, как была сделана запись, но и от того, из какого места между колонками мы слушаем звук.

При грамотном использовании алгоритмов CC получаются весьма хорошие результаты, обеспечивающие воспроизведение звука, источники которого расположены в вертикальной и горизонтальной плоскости. Фантомный источник звука может располагаться далеко вне пределов линейного сегмента между двумя колонками.

Давно известно, что для создания убедительного 3D звучания достаточно двух звуковых каналов. Главное это воссоздать давление звука на барабанные перепонки в левом и правом ушах таким же, как если бы слушатель находился в реальной звуковой среде.

Из-за того, что расчет HRTF функций сложная задача, во многих системах пространственного звука (spatial audio systems) разработчики полагаются на использование данных, полученных экспериментальным путем, например, данные получаются с помощью KEMAR, о чем мы говорили выше. Тем не менее, основной причиной использования HRTF является желание воспроизвести эффект elevation (звук в вертикальной плоскости), наряду с азимутальными звуковыми эффектами. При этом восприятие звуковых сигналов, источники которых расположены в вертикальной плоскости, чрезвычайно чувствительно к особенностям каждого конкретного слушателя. В результате сложились четыре различных метода расчета HRTF:

* Использование компромиссных, стандартных HRTF функций. Такой метод обеспечивает посредственные результаты при воспроизведении эффектов elevation для некоторого процента слушателей, но это самый распространенный метод в недорогих системах. На сегодня, ни IEEE, ни ACM, ни AES не определили стандарт на HRTF, но похоже, что компании типа Microsoft и Intel создадут стандарт де-факто.

* Использование одной типа HRTF функций из набора стандартных функций. В этом случае необходимо определить HRTF для небольшого числа людей, которые представляют все различные типы слушателей, и предоставить пользователю простой способ выбрать именно тот набор HRTF функций, который наилучшим образом соответствует ему (имеются в виду рост, форма головы, расположение ушей и т.д.). Несмотря на то, что такой метод предложен, пока никаких стандартных наборов HRTF функций не существует.

* Использование индивидуализированных HRTF функций. В этом случае необходимо производить определение HRTF исходя из параметров конкретного слушателя, что само по себе сложная и требующая массы времени процедура. Тем не менее, эта процедура обеспечивает наилучшие результаты.

* Использование метода моделирования параметров определяющих HRTF, которые могут быть адаптированы к каждому конкретному слушателю. Именно этот метод сейчас применяется повсеместно в технологиях 3D звука.

На практике существуют некоторые проблемы, связанные с созданием базы HRTF функций при помощи манекена. Результат будет соответствовать ожиданиям, если манекен и слушатель имеют головы одинакового размера и формы, а также ушные раковины одинакового размера и формы. Только при этих условиях можно корректно воссоздать эффект звучания в вертикальной плоскости и гарантировать правильное определение местоположения источников звука в пространстве. Записи, сделанные с использованием HRTF называются binaural recordings, и они обеспечивают высококачественный 3D звук. Слушать такие записи надо в наушниках, причем желательно в специальных наушниках. Компакт диски с такими записями стоят существенно дороже стандартных музыкальных CD. Чтобы корректно воспроизводить такие записи через колонки необходимо дополнительно использовать технику CC. Но главный недостаток подобного метода - это отсутствие интерактивности. Без дополнительных механизмов, отслеживающих положение головы пользователя, обеспечить интерактивность при использовании HRTF нельзя. Бытует даже поговорка, что использовать HRTF для интерактивного 3D звука, это все равно, что использовать ложку вместо отвертки: инструмент не соответствует задаче.

Sweet Spot
На самом деле значения HRTF можно получить не только с помощью установленных в ушах манекена специальных внутриканальных микрофонов (inter-canal microphones). Используется еще и так называемая искусственная ушная раковина. В этом случае прослушивать записи нужно в специальных внутриканальных (inter-canal) наушниках, которые представляют собой маленькие шишечки, размещаемые в ушном канале, так как искусственная ушная раковина уже перевела всю информацию о позиционировании в волновую форму. Однако нам гораздо удобнее слушать звук в наушниках или через колонки. При этом стоит помнить о том, что при записи через inter-canal микрофоны вокруг них, над ними и под ними происходит искажение звука. Аналогично, при прослушивании звук искажается вокруг головы слушателя. Поэтому и появилось понятие sweet spot, т.е. области, при расположении внутри которой слушатель будет слышать все эффекты, которые он должен слышать. Соответственно, если голова слушателя расположена в таком же положении, как и голова манекена при записи (и на той же высоте), тогда будет получен лучший результат при прослушивании. Во всех остальных случаях будут возникать искажения звука, как между ушами, так и между колонками. Понятно, что необходимость выбора правильного положения при прослушивании, т.е. расположение слушателя в sweet spot, накладывает дополнительные ограничения и создает новые проблемы. Понятно, что чем больше область sweet spot, тем большую свободу действий имеет слушатель. Поэтому разработчики постоянно ищут способы увеличить область действия sweet spot.
Частотная характеристика
Действие HRTF зависит от частоты звука; только звуки со значениями частотных компонентов в пределах от 3 kHz до 10 kHz могут успешно интерпретироваться с помощью функций HRTF. Определение местоположения источников звуков с частотой ниже 1 kHz основывается на определении времени задержки прибытия разных по фазе сигналов до ушей, что дает возможность определить только общее расположение слева/справа источников звука и не помогает пространственному восприятию звучания. Восприятие звука с частотой выше 10 kHz почти полностью зависит от ушной раковины, поэтому далеко не каждый слушатель может различать звуки с такой частотой. Определить местоположение источников звука с частотой от 1 kHz до 3 kHz очень сложно. Число ошибок при определении местоположения источников звука возрастает при снижении разницы между соотношениями амплитуд (чем выше пиковое значение амплитуды звукового сигнала, тем труднее определить местоположение источника). Это означает, что нужно использовать частоту дискретизации (которая должна быть вдвое больше значения частоты звука) соответствующей как минимум 22050 Hz при 16 бит для реальной действенности HRTF. Дискретизация 8 бит не обеспечивает достаточной разницы амплитуд (всего 256 вместо 65536), а частота 11025 Hz не обеспечивает достаточной частотной характеристики (так как при этом максимальная частота звука соответствует 5512 Hz). Итак, чтобы применение HRTF было эффективным, необходимо использовать частоту 22050 Hz при 16 битной дискретизации.
Ушная раковина (Pinna)
Мозг человека анализирует разницу амплитуд, как звука, достигшего внешнего уха, так и разницу амплитуд в слуховом канале после ушной раковины для определения местоположения источника звука. Ушная раковина создает нулевую и пиковую модель звучания между ушами; эта модель совершенно разная в каждом слуховом канале и эта разница между сигналами в ушах представляет собой очень эффективную функцию для определения, как частоты, так и местоположения источника звука. Но это же явление является причиной того, что с помощью HRTF нельзя создать корректного восприятия звука через колонки, так как по теории ни один из звуков, предназначенный для одного уха не должен быть слышимым вторым ухом.
Мы вновь вернулись к необходимости использования дополнительных алгоритмов CC. Однако, даже при использовании кодирования звука с помощью HRTF источники звука являются неподвижными (хотя при этом амплитуда звука может увеличиваться). Это происходит из-за того, что ушная раковина плохо воспринимает тыловой звук, т.е. когда источники звука находятся за спиной слушателя. Определение местоположения источника звука представляет собой процесс наложения звуковых сигналов с частотой, отфильтрованной головой слушателя и ушными раковинами на мозг с использованием соответствующих координат в пространстве. Так как происходит наложение координат только известных характеристик, т.е. слышимых сигналов, ассоциируемых с визуальным восприятием местоположения источников звука, то с течением времени мозг "записывает" координаты источников звука и в дальнейшем определение их местоположения может происходить лишь на основе слышимых сигналов. Но видим мы только впереди. Соответственно, мозг не может правильно расположить координаты источников звука, расположенных за спиной слушателя при восприятии слышимых сигналов ушной раковиной, так как эта характеристика является неизвестной. В результате, мозг может располагать координаты источников звука совсем не там, где они должны быть. Подобную проблему можно решить только при использовании вспомогательных сигналов, которые бы помогли мозгу правильно располагать в пространстве координаты источников звуков, находящихся за спиной слушателя.
Неподвижные источники звука
Все выше сказанное подвело нас к еще одной проблеме:
Если источники звука неподвижны, они не могут быть точно локализованы, как "статические" при моделировании, т.к. мозгу для определения местоположения источника звука необходимо наличие перемещения (либо самого источника звука, либо подсознательных микро перемещений головы слушателя), которое помогает определить расположение источника звука в геометрическом пространстве. Нет никаких оснований, ожидать, что какая-либо система на базе HRTF функций будет корректно воспроизводить звучание, если один из основных сигналов, используемый для определения местоположения источника звука, отсутствует. Врожденной реакцией человека на неожидаемый звук является повернуть голову в его сторону (за счет движения головы мозг получает дополнительную информацию для локализации в пространстве источника звука). Если сигнал от источника звука не содержит особую частоту, влияющую на разницу между фронтальными и тыловыми HRTF функциями, то такого сигнала для мозга просто не существует; вместо него мозг использует данные из памяти и сопоставляет информацию о местоположении известных источников звука в полусферической области.
Каково же будет решение?
Лучший метод воссоздания настоящего 3D звука это использование минимальной частоты дискретизации 22050 Hz при 16 битах и использования дополнительных тыловых колонок при прослушивании. Такая платформа обеспечит пользователю реалистичное воспроизведение звука за счет воспроизведение через достаточное количество колонок (минимум три) для создания настоящего surround звучания. Преимущество такой конфигурации заключается в том, что когда слушатель поворачивает голову для фокусировки на звуке какого-либо объекта, пространственное расположение источников звука остается неизменным по отношению к окружающей среде, т.е. отсутствует проблема sweet spot.
Есть и другой метод, более новый и судить о его эффективности пока сложно. Суть метода, который разработан Sensaura и называется MultiDrive, заключается в использовании HRTF функций на передней и на тыловой паре колонок (и даже больше) с применением алгоритмов CC. На самом деле Sensaura называет свои алгоритмы СС несколько иначе, а именно Transaural Cross-talk cancellation (TCC), заявляя, что они обеспечивают лучшие низкочастотные характеристики звука. Инженеры Sensaura взялись за решение проблемы восприятия звучания от источников звука, которые перемещаются по бокам от слушателя и по оси фронт/тыл. Заметим, что Sensaura для вычисления HRTF функций использует так называемое "цифровое ухо" (Digital Ear) и в их библиотеке уже хранится более 1100 функций. Использование специального цифрового уха должно обеспечивать более точное кодирование звука. Подчеркнем, что Sensaura создает технологии, а использует интерфейс DS3D от Microsoft.
Технология MultiDrive воспроизводит звук с использованием HRTF функций через четыре или более колонок. Каждая пара колонок создает фронтальную и тыловую полусферу соответственно.
Фронтальные и тыловые звуковые поля специальным образом смещены с целью взаимного дополнения друг друга и за счет применения специальных алгоритмов улучшает ощущения фронтального/тылового расположения источников звука. В каждом звуковом поле применяются собственный алгоритм cross-talk cancellation (CC). Исходя из этого, есть все основания предполагать, что вокруг слушателя будет плавное воспроизведение звука от динамично перемещающихся источников и эффективное расположение тыловых виртуальных источников звука. Так как воспроизводимые звуковые поля основаны на применении HRTF функций, каждое из создаваемых sweet spot (мест, с наилучшим восприятием звучания) способствует хорошему восприятию звучания от источников по сторонам от слушателя, а также от движущихся источников по оси фронт/тыл. Благодаря большому углу перекрытия результирующее место с наилучшим восприятием звука (sweet spot) покрывает область с гораздо большей площадью, чем конкурирующие четырех колоночные системы воспроизведения. В результате качество воспроизводимого 3D звука должно существенно повысится.
Если бы не применялись алгоритмы cross-talk cancellation (CC) никакого позиционирования источников звука не происходило бы. Вследствие использования HRTF функций на четырех колонках для технологии MultiDrive необходимо использовать алгоритмы CC для четырех колонок, требующие чудовищных вычислительных ресурсов. Из-за того, что обеспечить работу алгоритмов CC на всех частотах очень сложная задача, в некоторых системах применяются высокочастотные фильтры, которые срезают компоненты высокой частоты. В случае с технологией MultiDrive Sensaura заявляет, что они применяют специальные фильтры собственной разработки, которые позволяют обеспечить позиционирование источников звука, насыщенными высокочастотными компонентами, в тыловой полусфере. Хотя sweet spot должен расшириться и восприятие звука от источников в вертикальной плоскости также улучшается, у такого подхода есть и минусы. Главный минус это необходимость точного позиционирования тыловых колонок относительно фронтальных. В противном случае никакого толка от HRTF на четырех колонках не будет.
Стоит упомянуть и другие инновации Sensaura, а именно технологии ZoomFX и MacroFX, которые призваны улучшить восприятие трехмерного звука. Расскажем о них подробнее, тем более что это того стоит.
MacroFX
Как мы уже говорили выше, большинство измерений HRTF производятся в так называемом дальнем поле (far field), что существенным образом упрощает вычисления. Но при этом, если источники звука располагаются на расстоянии до 1 метра от слушателя, т.е. в ближнем поле (near field), тогда функции HRTF плохо справляются со своей работой. Именно для воспроизведения звука от источников в ближнем поле с помощью HRTF функций и создана технология MacroFX. Идея в том, что алгоритмы MacroFX обеспечивают воспроизведение звуковых эффектов в near-field, в результате можно создать ощущение, что источник звука расположен очень близко к слушателю, так, будто источник звука перемещается от колонок вплотную к голове слушателя, вплоть до шепота внутри уха слушателя. Достигается такой эффект за счет очень точного моделирования распространения звуковой энергии в трехмерном пространстве вокруг головы слушателя из всех позиций в пространстве и преобразование этих данных с помощью высокоэффективного алгоритма. Особое внимание при моделировании уделяется управлению уровнями громкости и модифицированной системе расчета задержек по времени при восприятии ушами человека звуковых волн от одного источника звука (ITD, Interaural Time Delay). Для примера, если источник звука находится примерно посередине между ушами слушателя, то разница по времени при достижении звуковой волны обоих ушей будет минимальна, а вот если источник звука сильно смещен вправо, эта разница будет существенной. Только MacroFX принимает такую разницу во внимание при расчете акустической модели. MacroFX предусматривает 6 зон, где зона 0 (это дистанция удаления) и зона 1 (режим удаления) будут работать точно так же, как работает дистанционная модель DS3D. Другие 4 зоны это и есть near field (ближнее поле), покрывающие левое ухо, правое ухо и пространство внутри головы слушателя.
Этот алгоритм интегрирован в движок Sensaura и управляется DirectSound3D, т.е. является прозрачным для разработчиков приложений, которые теперь могут создавать массу новых эффектов. Например, в авиа симуляторах можно создать эффект, когда пользователь в роли пилота будет слышать переговоры авиа диспетчеров так, как если бы он слышал эти переговоры в наушниках. В играх с боевыми действиями может потребоваться воспроизвести звук пролетающих пуль и ракет очень близко от головы слушателя. Такие эффекты, как писк комара рядом с ухом теперь вполне реальны и доступны. Но самое интересное в том, что если у вас установлена звуковая карта с поддержкой технологии Sensaura и с драйверами, поддерживающими MacroFX, то пользователь получит возможность слышать эффекты MacroFX даже в уже существующих DirectSound3D играх, разумеется, в зависимости от игры эффект будет воспроизводиться лучше или хуже. Зато в игре, созданной с учетом возможности использования MacroFX. Можно добиться очень впечатляющих эффектов.
Поддержка MacroFX будет включена в драйверы для карт, которые поддерживают технологию Sensaura.
ZoomFX
Современные системы воспроизведения позиционируемого 3D звука используют HRTF функции для создания виртуальных источников звука, но эти синтезированные виртуальные источники звука являются точечными. В реальной жизни звук зачастую исходит от больших по размеру источников или от композитных источников, которые могут состоять из нескольких индивидуальных генераторов звука. Большие по размерам и композитные источники звука позволяют использовать более реалистичные звуковые эффекты, по сравнению с возможностями точечных источников звука. Так, точечный источник звука хорошо применим при моделировании звука от большого объекта удаленного на большое расстояние (например, движущийся поезд). Но в реальной жизни, как только поезд приближается к слушателю, он перестает быть точечным источником звука. Однако в модели DS3D поезд все равно представляется, как точечный источник звука, а значит, страдает реализм воспроизводимого звука (т.е. мы слышим звук скорее от маленького поезда, нежели от огромного состава громыхающего рядом). Технология ZoomFX решает эту проблему, а также вносит представление о большом объекте, например поезде как собрание нескольких источников звука (композитный источник, состоящий из шума колес, шума двигателя, шума сцепок вагонов и т.д.).
Для технологии ZoomFX будет создано расширение для DirectSound3D, подобно EAX, с помощью которого разработчики игр смогут воспроизводить новые звуковые эффекты и использовать такой параметр источника звука, как размер. Пока эта технология находится на стадии завершения.
Компания Creative реализовала аналогичный подход, как в MultiDrive от Sensaura, в своей технологии CMSS (Creative Multispeaker Surround Sound) для серии своих карт SB Live!. Поддержка этой версии технологии CMSS, с реализацией HRTF и CC на четырех колонках, встроена в программу обновления LiveWare 2.x. По своей сути, технология CMSS является близнецом MultiDrive, хотя на уровне алгоритмов CC и библиотек HRTF наверняка есть отличия. Главный недостаток CMSS такой же, как у MultiDrive - необходимость расположения тыловых колонок в строго определенном месте, а точнее параллельно фронтальным колонкам. В результате возникает ограничение, которое может не устроить многих пользователей. Не секрет, что место для фронтальных колонок давно зарезервировано около монитора. Место для сабвуфера можно выбрать любым, обычно это где-то в углу и на полу. А вот тыловые колонки пользователи располагают там, где считают удобным для себя. Не каждый захочет расположить их строго за спиной и далеко не у всех есть свободное место для такого расположения.
Заметим, что главный конкурент Creative на рынке 3D звука, компания Aureal, использует технику панорамирования на тыловых колонках. Объясняется это именно отсутствием строгих ограничений на расположение тыловых колонок в пространстве.
Не стоит забывать и о больших объемах вычислений при расчете HRTF и Cross-talk Cancellation для четырех колонок.

Подобные документы

  • Устройство и архитектуры системных плат персональных компьютеров. Назначения компонентов системных плат ПК стандартов AT, ATX и NLX). Основные признаки системных плат ПК стандартов AT, ATX, NLX. Определение стандарта и форм-фактора системных плат.

    лабораторная работа [20,0 K], добавлен 04.06.2012

  • Преимущества и недостатки облачного хранилища данных. Установление приложения на компьютер, устройство Android, iOS. Создание аккаунта. Начало работы с Google диском. Способы загрузки файлов на него. Предоставление доступа к файлам другим пользователям.

    курсовая работа [1,3 M], добавлен 31.05.2016

  • Характеристика устройств базовой конфигурации персонального компьютера: компьютерный блок питания, материнская плата, процессор, звуковая карта, жесткий диск. Дополнительные внешние накопители. Принципы работы и функции лазерных дисководов и дисков.

    реферат [11,1 M], добавлен 26.11.2010

  • Apple I как ранний персональный компьютер, первый компьютер Apple Computer. Основные характеристики Rhapsody, Blue Box. История создания Mac OS X, принципы ее работы, значение и направления использования. Существующие типы и формы данной системы.

    курсовая работа [2,6 M], добавлен 26.11.2014

  • Модели звуковых карт, их возможности, качество звука и размеры. Устройство звуковых карт и принципы их функционирования. Методы генерации звука, применяющиеся в звуковых платах. Особенности системы пространственного звуковоспроизведения Dolby Digital.

    реферат [34,8 K], добавлен 13.03.2011

  • Устройство персонального компьютера: системный блок, система охлаждения, материнская плата, процессор, видеокарта, звуковая карта. Память, устройство хранения информации. Устройство ноутбука Asus N53SM: клавиатура и тачпад, технические характеристики.

    реферат [41,3 K], добавлен 05.12.2012

  • Разработка информационной системы на языке программирования С++ в среде С++Builder. Схема базы данных. Характеристика энергосберегающих режимов операционной системы. Интерфейс программы, ее установка на компьютер, выполнение, средства и порядок испытания.

    отчет по практике [986,2 K], добавлен 06.02.2016

  • История возникновения идеи о квантовых вычислениях. Основные понятия квантовых вычислений. Квантовые биты, вентили и алгоритмы. Основные принципы работы и реализации квантового компьютера. Алгоритмы Шора и Гровера. Квантовый компьютер на ионных ловушках.

    реферат [1,8 M], добавлен 26.05.2012

  • Назначение и состав системного блока компьютера. Виды и применение системных программ. Основные возможности Word: способы выполнения команд, запуск программы, открытие документа и завершение работы. Функционирование информационно-вычислительной сети.

    контрольная работа [541,2 K], добавлен 27.08.2013

  • Представление информации в компьютере, история его развития, принципы работы, основные блоки и дополнительные устройства. Функции микропроцессора и сопроцессора, контроллеров и шин. Блок-схема устройства компьютера, разновидности и применение программ.

    курсовая работа [501,6 K], добавлен 14.12.2010

Работы в архивах красиво оформлены согласно требованиям ВУЗов и содержат рисунки, диаграммы, формулы и т.д.
PPT, PPTX и PDF-файлы представлены только в архивах.
Рекомендуем скачать работу.