Вероятностные конструкции в лингвистике и теория принципов и параметров

Применение формулы Байеса для вычисления изменения априорного распределения при восприятии текстовой, речевой информации. Методика расчета апостериорной совместной плотности вероятности, полученной в результате акта чтения или воспроизведения речи.

Рубрика Математика
Вид статья
Язык русский
Дата добавления 31.08.2018
Размер файла 100,1 K

Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже

Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.

Размещено на http://www.allbest.ru

Размещено на http://www.allbest.ru

В современной лингвистике, особенно среди ученых Запада, очень популярна теория принципов и параметров, разработанная примерно в 1980 годах в основном усилиями Ноама Хомского.

Суть этой теории заключается в следующем постулате: все современные языки являются результатом соединения и взаимодействия конечного числа элементарных правил (факторов), которые Хомский называет параметрами.

Любой из существующих ныне языков, таким образом, формируется путем определенной комбинации параметров. Существенным прикладным плюсом теории может являться предположение, что в основе множества человеческих языков может лежать небольшое число параметров.

Хомский предполагает, что, опираясь на понятие параметра, можно построить высокоструктурированную универсальную грамматику (грамматику, общую для всех языков), основанную на некоторых основополагающих принципах, в которых будут изложены механизмы функционирования параметрических конструкций того или иного языка.

Наличие специфических речевых центров в мозге подтверждает предположения Хомского о врожденном характере языка и наличии универсальной грамматики. Изучение области Брока (специфическая область в головном мозге, ответственная за речевую деятельность человека) выявило интересные особенности [3]. Оказывается, область Брока активируется только при конструировании предложений языка на основе иерархической структуры слов в предложениях (смысловое построение предложения) и не активируется при конструировании предложений языка, основанного на простом линейном порядке слов (бессмысленный поток слов), что является сильным аргументом в пользу существования универсальной грамматики.

Исторически идея универсальной грамматики восходит к идеям таких философов, как Роджер Бэкон и Рене Декарт, но в современном контексте она практически всегда ассоциируется с теориями американского лингвиста Ноама Хомского.

Наблюдения Хомского за развитием речи маленьких детей, начинающих осваивать родной язык, позволили ему выдвинуть гипотезу о том, что дети обладают врожденным механизмом усвоения языка, который действует на протяжении некоторого периода (примерно до 12 лет).

Основным аргументом для такой гипотезы Хомского стало отсутствие стимула для обучения: ребенок не получает информации о том, какие языковые конструкции возможны, а какие - невозможны. Как правило, ребенка специально никогда не обучают; да это и невозможно в том возрасте, когда он еще не говорит. Это обстоятельство делает процесс усвоения языка маленьким ребенком невозможным без наличия какой-то заранее заданной информации.

Значит, где-то на генетическом уровне существуют какие-то конечные правила (универсальная грамматика), которые ограничивают количество возможных вариантов в конструкциях языка; в противном случае ребенок должен был бы выбирать из бесконечного количества возможностей, что значительно усложняло бы процесс обучения. Однако известно, что освоение языка детьми происходит весьма быстро и легко.

Для ясности понимания сказанного выше приведем пример сравнения (весьма упрощенного и не претендующего на исчерпывающую полноту) особенностей некоторых языков, связанных с порядком слов в предложениях, приведенный в [4].

Особенность языка навахо (язык одного из племен (навахо) американских индейцев) состоит в том, что если индеец навахо на своем языке хочет сказать: «Мальчик увидел девочку», то в подстрочном переводе (формальный перевод слов в предложении, написанном на языке навахо) это будет звучать так: «Мальчик девочка увидел». Здесь прямое дополнение «девочка» следует за подлежащим и находится перед глаголом. Подстрочный перевод можно понять и как «Девочка увидела мальчика».

Аналогичное строение имеют предложения в японском языке. Так, например, предложение «Сестра Джона умерла» на японском языке содержит совершенно очевидную информацию (чья сестра; что с ней случилось). Расположение же слов в подстрочнике таково: «Джон сестра умер(ла)».

Следует, конечно, отметить, что ни индейцы, ни японцы не путаются при разговоре и письме, и этому способствуют различные средства их языков (и не только их языков) - суффиксы, префиксы, аффиксы и другие показатели согласованности. Их наличие делает речь или письмо непротиворечивыми, и носители языка хорошо понимают друг друга.

Если сравнивать японский язык или язык навахо с английским языком, то мы увидим их коренное отличие (в смысле порядка слов). Так, например, английская фраза «Джон думает, что он лжет», в подстрочном переводе выглядит по смыслу так же, как и само предложение «John believes that he is lying». Другими словами, порядок слов в английском языке соответствует смысловому значению слов, появляющихся в естественном порядке в предложении.

Иной порядок слов показывает язык навахо, в котором та же фраза в подстрочном переводе выглядит так: «Джон он лжет - думает».

Лингвисты - приверженцы теории параметров - относительно приведенных примеров сказали бы, что порядок слов в языке регулируется некоторым параметром, который можно назвать, например, параметром порядка. Так, английский язык задает порядок: подлежащее - глагол - дополнение. В японском же языке порядок определяется иначе: подлежащее - дополнение - глагол.

Можно по-разному задавать этот параметр (числами, схемами и т.д.), и тогда всякий язык характеризуется тем или иным значением этого параметра. Таким образом, японский и английский языки представляют две альтернативные возможности для порядка слов (для параметра порядка) в предложениях.

Если рассматривать другие особенности в конструкциях предложений различных языков, то можно заметить также и действие других параметров в языках [3, 4].

Рассмотренный способ введения параметров (например, параметра порядка), на первый взгляд, не представляет никакой ценности, так как в мире существует более 6000 различных изолированных друг от друга языков, и было бы удивительно, если бы в языках не встречались такие, как в английском или японском языках, альтернативы в порядке следования слов.

Основой для понимания роли параметров и их использования было то обстоятельство, что почти во всех существующих языках (более чем в 95%) порядок слов в предложениях либо такой, как в английском языке, либо такой, как в японском языке. Эти два порядка в построении предложения распределены по существующим языкам практически поровну.

Данные реалии, безусловно, таят в своей сути некоторые фундаментальные принципы функционирования любого языка. Именно поэтому к теории принципов и параметров лингвисты проявляют повышенный интерес.

Действительно, было бы совсем неудивительно, если бы принципы построения предложений в любом языке были одинаковы. Это означало бы, что язык как средство общения имеет генетическую основу, общую для всех людей.

С другой стороны, на практике могли бы наблюдаться также самые различные порядки слов в предложениях в разных языках, т.е. не два варианта, как есть на самом деле, а много разных вариантов в размещении слов. Тогда можно было бы объяснить такую палитру способов построения предложений тем, что все языки развивались независимо друг от друга (не взаимодействовали между собой), и каждый этнос использовал свою схему, опираясь на собственный опыт, на собственную уникальную культуру.

То, что на самом деле вариантов порядка слов только два, является загадочным явлением, и неудивительно, что многие лингвисты оказывают этому и подобным явлениям в языке так много внимания.

Сейчас имеется много данных и о других параметрах, характерных для любого языка. Мы же будем для конкретности рассматривать только параметр порядка.

Нужно сказать, что явление строгой упорядоченности речи и текста любого языка свидетельствует о некоторых биологических механизмах при формировании способности к речевой деятельности у пралюдей (предшественников людей). Можно выдвигать различные гипотезы о формировании того или иного параметра порядка, и, вероятно, найдется много различных объяснений параметризации языка, опирающихся и на биологическую (генетическую) природу, и на социальную структуру носителей языка. Наверное, антропологические исследования в данном направлении (феномен речи) могли бы пролить свет на механизмы формирования особенностей, общих для любого языка.

Наши же задачи более скромны, и целью наших исследований является описание механизмов действия параметров с использованием упомянутой ранее [1] теории байесовского подхода.

Основа этого подхода заключается в том, что атомарной единицей языка в [1] принято слово. Основная функция слова - нести некоторый смысл или оттенять этот смысл, делать его понятным (междометия, суффиксы и т.д. также включаются в понятие «слово»).

Важным свойством слова, несущего некоторый смысл, является его полиморфизм - всякое слово в речи или тексте имеет не одно, а несколько смысловых значений, причем правила, по которым словам приписывается некоторый конкретный смысл, формализовать не удается. Они имеют статистическую природу [5, 6].

Итак, взятое отдельно слово языка имеет множество смысловых значений, и на этом множестве существует некоторое вероятностное распределение (распределение смыслов). Это распределение смыслов называется априорным (персональным) распределением. Другими словами, априорное распределение f (x) - это плотность вероятностей смыслов x. При этом шкала смыслов - ось x - может быть как дискретной, так и непрерывной [1, 5, 6].

Изменение априорного распределения f (x) при восприятии текста или речи происходит в соответствии с формулой Байеса:

f (x|y) = k f (y|x) f (x), (1)

где условная плотность распределения f (y|x) играет роль фильтра текстовой системы. Величина k в (1) выполняет функцию нормирующего множителя. Она выбирается так, чтобы интеграл от плотности вероятностей f (x|y) по множеству смыслов был равен единице.

Таким образом, после опыта (прочтения слова) мы получаем апостериорную функцию распределения f (x|y) - обновленную информацию, которая на следующем этапе будет уже считаться априорным распределением. При следующем опыте (чтении) происходит такая же фильтрация исходной (априорной) информации и т.д.

В процессе чтения (человеком или некоторым устройством) происходит обновление (эволюция) априорной информации. Во время восприятия текста формируется и изменяется фильтрующая плотность распределения f (y|x). Ее формирование зависит в основном от алгоритмов комбинирования читаемого слова с другими знаками текста.

Для предложения, состоящего из слов, формула (1) сохраняет свою силу, если мы говорим о смысле предложения, который (смысл предложения) тоже имеет вероятностную природу.

Так, весьма кратко, можно описать процесс восприятия слова, или некоторого фрагмента текста в системе «текст - субъект, воспринимающий этот текст». Подробности данного подхода можно выяснить из [1, 5, 6].

Каждое слово языка может взаимодействовать с другими словами, образуя предложения. Обратимся к конструкции предложения, причем будем считать, что это предложение может быть либо произнесено кем-то, либо написано (или прочитано). Нас интересует, кроме смыслового наполнения данного предложения, также и его соответствие некоторым формальным правилам универсальной грамматики языка (любого языка). Через эти правила и происходит действие параметров Хомского.

Отметим, что любой фрагмент речи, так же как и отдельное слово, обладает свойством полиморфизма - одному и тому же словосочетанию можно приписать много разных смыслов. Восприятие речи носит вероятностный характер. Это относится не только к восприятию речи, но также и к передаче при помощи речи некоторой информации. Она всегда будет неточна и неполна. Крайним вариантом этого утверждения служат теоремы Гёделя о неполноте, которые относятся к математическому языку - предельной (в смысле строгости) реализации человеческого языка.

В соотношении (1) переменная x может обозначать не только слово, но и целое предложение, которое обладает не только смыслом, но и структурой.

Пусть предложение некоторого языка состоит из n слов (x1, x2, …, xn) = x. Взаимодействие слов в предложении можно описать совместной n-мерной плотностью распределения:

f (x1, x2, …, xn) = f (x),

и эту функцию (по отношению к предложению) естественно назвать априорной совместной плотностью вероятностей данного фрагмента речи (или письма). В априорной (персональной) плотности вероятностей собрана вся личная информация индивидуума о рассматриваемом фрагменте речи. Здесь также содержатся и сведения о структуре предложения, о различных параметрах, управляющих строением и стилистикой текста, которые индивидуум усвоил из предыдущего опыта. Короче говоря, индивидуум воспроизводит или воспринимает речь или текст, будучи уже в определенной степени подготовленным. Основой такой подготовки является весь его предыдущий жизненный опыт, а также его личностные качества, возможно, и его генетические особенности.

Понятие априорной плотности универсально; оно присуще не только предложению, но и всякому отдельному фрагменту речи, безотносительно к тому, является ли он осмысленным или представляет бессмысленный набор слов. В частном случае, когда фрагмент речи состоит из одного слова, априорная совместная плотность вероятностей превращается в персональную плотность распределения.

Если набор слов бессмыслен, то тогда, очевидно, нужно принять, что слова речи (вернее, их смыслы) не зависят друг от друга, и в этом случае, в соответствии с правилами теории вероятностей:

f (x1, x2, …, xn) = f (x1)f (x2)f (xn).

При восприятии речи или при использовании речи индивидуумом априорная информация, представленная априорной плотностью, изменяется в соответствии с формулой Байеса. При этом появляется новая эволюционно обусловленная информация, представленная апостериорной совместной плотностью распределения:

f (x1, x2, …, xn|y1, y2, …, ym) = f (x|y).

Механизм взаимодействия информации, переданной словами и правилами языка, на котором происходит общение, регулируется в соответствие с формулой Байеса:

f (x1, x2, …, xn|y1, y2, …, ym) = k f (y1, y2, …, ym|x1, x2, …, xn) f (x1, x2, …, xn), (2)

где условная плотность вероятности:

f (y1, y2, …, ym|x1, x2, …, xn) = f (y|x),

играет роль фильтра при прохождении входного воздействия (функции f (x)) в систему восприятия и (или) понимания текста или речи. Отметим одну особенность этого фильтра. Эта особенность делает его суть отличной от того понимания условной плотности вероятностей, какое имеется в теории вероятностей и математической статистике при использовании формулы Байеса. В соотношении (2) f (y|x) - плотность вероятности ситуации y (возникающей в сознании индивидуума «семантической среды» y), когда «приемник текста» - личность - получает на входе сам текст x, имеющий вероятностную природу смыслов.

Как известно, при использовании формулы Байеса в приложениях технического характера условная плотность f (y|x) (плотность вероятности случайной величины y при условии, что случайная величина x приняла некоторое значение) всегда связана с новыми экспериментальными данными; ими же она и определяется. В этом случае по формуле Байеса может быть пересчитана априорная информация f (x) и сделаны какие-то выводы об изучаемом явлении. Лингвистическое же понимание функции f (y|x) (фильтра языковой системы) позволяет считать, что ее аргументом является не y, а x.

Переменные y1, y2, …, ym - (параметры фильтра - параметры языковой среды, а также личного опыта) содержат все правила (параметры универсальной грамматики) составления текста или речи, применяемые в данном языке. Можно сказать также, что переменные y1, y2, …, ym устанавливают правила речевого общения для носителей данного языка, воспринятые данной личностью. Используя техническую терминологию, можно сказать, что функция f (y|x) характеризует реакцию среды (языковой) на воздействие нагрузки x (слова или фразы).

Апостериорная совместная плотность вероятности f (x|y), полученная в результате акта чтения или воспроизводения речи, при следующем эксперименте будет уже априорной информацией, так что на самом деле в соотношении (2) априорная информация f (x) уже содержит все параметры y, полученные на предыдущих шагах речевой практики. И только для личности, не имеющей никакого жизненного опыта (например, ребенок), априорная информация либо отсутствует (априорное незнание, или априорное безразличие), и тогда f (x) представляет собой плотность равномерного распределения, либо эта информация жестко определяется биологическим механизмом (генетическая наследственность). В этом случае можно ожидать, что априорная функция плотности является линейной комбинацией дельта-функций Дирака, или близкой к такой комбинации полимодальной плотностью вероятностей. речевой априорный байес

Рассмотрим, как реализуется на практике выбор того или иного параметра, управляющего закономерностями произвольного языка. Изложение будем вести в отношении личности, которая пока не может обладать никакой априорной информацией о языке. Пусть априорная информация о правилах языка отсутствует (опыт ребенка) (рис.1 b), а фильтр f (y|x), формируемый окружающей средой (окружение ребенка), имеет вид, изображенный на рис.1 a). Здесь переменной x обозначено то свойство предложения, которое отвечает за порядок следования слов в предложениях и принимает значения из числового континуума.

Для простоты в качестве параметра y был рассмотрен параметр порядка глагола и дополнения, представленный выше. Два значения параметра (y1 и y2) определяют различные порядки (как в японском и английском), которые существуют почти во всех языках мира.

На рис. 1 a видно, что упомянутый порядок для рассматриваемого языка таков, что на значение параметра y1 приходится максимум плотности фильтра, в то время как для другого значения параметра (для y2) плотность фильтра ничтожно мала. Таким образом, язык среды обитания ребенка настроен (использует) вполне конкретный порядок y1 следования подлежащего, дополнения и глагола.

Априорная информация на рис. 1 b свидетельствует о том, что для ребенка абсолютно безразлично, какому порядку слов его будут обучать, ибо плотность его априорной информации одинакова для любого варианта. Если бы он был перемещен в другую языковую среду с иным порядком слов в речи и воспитан в ней, то он с таким же успехом усвоил бы и другой язык (другие правила образования предложений). И действительно, такие примеры в человеческой истории встречались часто.

На рис. 1 c представлен другой возможный вариант априорной плотности f (x). Такая плотность может встречаться тогда, когда порядок слов в предложениях закреплен в сознании ребенка биологически (генетически). Как видно из рисунка, жестко зафиксированы только два порядка y1 и y2 (плотность априорной плотности для них максимальна), и других вариантов не существует, в отличие от случая на рис. 1 b), когда возможны все варианты.

Рис. 1. a - плотность f (y|x) распределения фильтра; b - равномерная априорная плотность вероятностей f (x); c - жестко заданная априорная плотность вероятностей f (x)

В соответствии с формулой Байеса (2) в обоих случаях после опыта (акта обучения ребенка речи) априорная информация меняется и становится равной f (x|y):

f (x|y) = k f (y|x) f (x). (3)

Для случая b на рис. 1, согласно (3), новой априорной плотностью f (x|y) (новым знанием ребенка) будет плотность фильтра f (y|x), изображенная на рис. 1 a, только усеченная по отрезку [l, d] и нормированная при помощи коэффициента k. Легко видеть, что и априорная плотность, показанная на рис. 1 c, даст примерно такой же результат. На рис. 2 показаны обе новые априорные плотности, полученные при помощи (3).

Рис. 2. Апостериорная плотность распределения: a - для равномерной плотности f (x); b - для жестко заданной плотности вероятностей f (x)

Представим себе такую гипотетическую ситуацию, когда обучаемого ребенка уже после первого шага (первого опыта) обучения переносят (иммиграция) в другую языковую среду. В этой новой среде порядок слов предложения определяется значением y2 параметра порядка, т.е. фильтр языковой среды f (y|x), изображенный на рис. 1 a, имеет максимум при значении y2 и почти нулевую плотность при значении y1. Возможность генетически обусловленной априорной функции f (x), представленной на рис. 1 b, пусть остается неизменной. Что будет происходить с развитием речи у таких детей в этом случае?

Очевидно, что при первом шаге обучения уже в новой языковой среде, согласно (3), результатом обучения будет изменение уже полученной в старой среде априорной функции плотности f (x|y), изображенной на рис. 2. Новая априорная плотность, полученная уже в новой языковой среде, изображена на рис. 3.

Рис. 3. Апостериорная плотность распределения, полученная в новой среде: a - для равномерной плотности f (x); b - для жестко заданной плотности вероятностей f (x)

В новой языковой среде происходит «исправление» старой априорной информации новым фильтром. Происходит подстройка априорной информации к новым условиям, и после некоторого периода времени (многократные «уроки языка») старые установки полностью забываются, и новый язык становится «родным». Такие случаи часто происходят в эмигрантской среде, когда дети, в отличие от взрослых, очень быстро «вписываются» в чужую языковую среду. Повторимся - здесь речь идет о маленьких детях, имеющих небольшую языковую практику общения в «родной среде».

Итак, обучение в новой языковой среде способно легко переучить носителя старого языка, при условии, что старый языковый опыт не был долговременным.

Вернемся, однако, к эволюции языковых навыков в какой-либо конкретной среде с конкретным языком. Другими словами, возвратимся к рис. 2, когда индивидуум уже получил первую порцию обучения языка.

На втором шаге обучения априорная информация уже будет представлена апостериорной плотностью вероятностей. Обучение продолжится с прежней плотностью фильтра, и на втором шаге результат будет похож на тот, который показан на рис. 2. Разница между первым и вторым шагами обучения следующая: на рис. 2 a максимум будет острее и его значение больше, а на рис. 2 b максимум плотности для аргумента y1 будет больше (и значение максимума будет больше, чем на рис. 2 b). Локальный максимум при значении y2 уменьшится. Такая тенденция будет наблюдаться и при следующих «уроках языка». Постепенно априорная плотность все больше становится похожей на плотность распределения вероятностей фильтра f (y|x). В результате после n-ного опыта получится априорная плотность fn(x), фактически равная (f (y|x))n, т.е.

fn(x) = (f (y|x))n = (f (y1|x))n.

Априорная плотность fn(x), при больших значениях n оказывается близкой к дельта-функции, сосредоточенной в точке y1. Пусть, например, f (y1|x) N(y1, 2), т.е.

,

где постоянная величина k должна нормировать плотность вероятностей fn(x) к единице. Вычисляя интеграл от fn(x) по всей числовой прямой и приравнивая его к единице, найдем постоянную k. В результате имеем:

.

Теперь получим:

так как для любых n N:

Итак, если плотность фильтра f (y|x) не меняется на протяжении достаточно большого времени, то априорная плотность вероятности (опыт, приобретенный в результате обучения языку) получается сколь угодно близкой к дельта-функции Дирака. Это означает, что параметры языка настолько твердо усвоены (хочется сказать - зазубрены), что дальнейшее обучение не добавит ничего нового, так как при новом этапе обучения в соответствии с (3):

f (x) = k f (y1|x) (x - y1) = k f (x|x) (x - y1),

т.е. в дальнейшем априорная информация не может меняться, и смысл обучения языку теряется.

Теперь становится понятным, почему некоторые взрослые люди, попадая в «чуждую» языковую среду, очень часто испытывают дискомфорт и, даже проживая достаточно долго в этой среде, так и не осваивают ее язык. Их априорная информация настолько избирательна (близка к дельта-функции), что изменить ее они не в силах. С другой стороны, молодые люди, попадая с родителями в эмиграцию, достаточно легко осваиваются в новой языковой среде. Их априорная информация еще не успела «закостенеть» (плотность вероятностей дает еще много возможностей для изменения параметров).

Однако в реальности априорная плотность вероятности не меняется так необратимо, и причиной этому является то, что фильтр языковой системы изменяется под воздействием не только среды, но и самой личности. И, по большому счету, возможность и умение изменить свой фильтр и определяет истинно творческую личность. Интересно и ценно не то, что прописано в инструкциях (параметрах), а то, что отступает от догм, выходит за рамки привычного. Таким образом, изменяя свои представления о языке (меняя свой априорный опыт), люди не только в полной мере пользуются богатствами языка, но и изменяют его.

В заключение отметим, что изложенная здесь концепция вероятностной интерпретации лингвистических построений качественно верно объясняет основные закономерности существования индивидуума в языковой среде. Мы видим, что она верно описывает некоторые известные закономерности, возникающие при обучении правилам языка. Теория принципов и параметров в лингвистике также не противоречит изложенным выше вероятностным концепциям.

Литература

1. Евдокимов М.А., Кузнецов В.А., Стельмах Я.Г. Исчисление смыслов в лингвистике.

2. Кейсер С., Халле М. Что мы собственно делаем, когда говорим? Распознавание образов. - М.: Мир, 1970. - 102 с.

3. Chomsky N. The minimalist program. - Cambridge: MIT Press, 2005. - 293 p.

4. Бейкер М. Атомы языка. Грамматика в темном поле сознания. - М.: URSS, 2008. - 272 с.

5. Налимов В.В. Вероятностная модель языка. - М.: Наука, 1979. - 304 с.

6. Налимов В.В. Спонтанность сознания. - М.: Изд-во «Прометей», МГПИ им. Ленина, 1989. - 287 с.

Размещено на Allbest.ru


Подобные документы

  • Определение и оценка вероятности наступления заданного события. Методика решения задачи, с использованием теоремы сложения и умножения, формулы полной вероятности или Байеса. Применение схемы Бернулли при решении задач. Расчет квадратического отклонения.

    практическая работа [55,0 K], добавлен 23.08.2015

  • Классическое определение вероятности события. Способы вычисления наступления предполагаемого события. Построение многоугольника распределения. Поиск случайных величин с заданной плотностью распределения. Решение задач, связанных с темой вероятности.

    задача [104,1 K], добавлен 14.01.2011

  • Дискретные случайные величины и их распределения. Формула полной вероятности и формула Байеса. Общие свойства математического ожидания. Дисперсия случайной величины. Функция распределения случайной величины. Классическое определение вероятностей.

    контрольная работа [33,8 K], добавлен 13.12.2010

  • Вычисление математического ожидания, дисперсии и коэффициента корреляции. Определение функции распределения и его плотности. Нахождение вероятности попадания в определенный интервал. Особенности построения гистограммы частот. Применение критерия Пирсона.

    задача [140,0 K], добавлен 17.11.2011

  • Вычисление вероятности непогашения кредита юридическим и физическим лицом, с помощью формулы Байеса. Расчет выборочной дисперсии, его методика, основные этапы. Определение вероятности выпадания белого шара из трех, взятых наудачу, обоснование результата.

    контрольная работа [419,7 K], добавлен 11.02.2014

  • Оценивание параметров закона распределения случайной величины. Точечная и интервальная оценки параметров распределения. Проверка статистической гипотезы о виде закона распределения, нахождение параметров системы. График оценки плотности вероятности.

    курсовая работа [570,4 K], добавлен 28.09.2014

  • Применение классического определения вероятности в решении экономических задач. Определение вероятности попадания на сборку бракованных и небракованных деталей. Вычисление вероятности и выборочного значения статистики при помощи формулы Бернулли.

    контрольная работа [309,4 K], добавлен 18.09.2010

  • Использование формулы Бернулли для нахождения вероятности происхождения события. Построение графика дискретной случайной величины. Математическое ожидание и свойства интегральной функции распределения. Функция распределения непрерывной случайной величины.

    контрольная работа [87,2 K], добавлен 29.01.2014

  • Случайное событие и его вероятность. Теорема сложения вероятностей. Закон равномерной плотности вероятности. Случайные величины. Функция распределения и ее свойства. Как наука теория вероятности зародилась в 17 веке.

    реферат [96,2 K], добавлен 12.02.2005

  • Рассмотрение способов нахождения вероятностей происхождения событий при заданных условиях, плотности распределения, математического ожидания, дисперсии, среднеквадратического отклонения и построение доверительного интервала для истинной вероятности.

    контрольная работа [227,6 K], добавлен 28.04.2010

Работы в архивах красиво оформлены согласно требованиям ВУЗов и содержат рисунки, диаграммы, формулы и т.д.
PPT, PPTX и PDF-файлы представлены только в архивах.
Рекомендуем скачать работу.