Применение мультиколлениарности при исследовании экономических процессов

Теоретико-методические основы мультиколлинеарности (МК): понятие, причины возникновения и методы устранения. Эконометрический анализ мультиколлинеарной модели. МК факторов, влияющих на прибыль. Пример эконометрического исследования МК и ее устранение.

Рубрика Экономико-математическое моделирование
Вид курсовая работа
Язык русский
Дата добавления 13.06.2018
Размер файла 383,5 K

Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже

Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.

Размещено на http://www.allbest.ru/

Размещено на http://www.allbest.ru/

Министерство образования и науки Российской Федерации

Федеральное государственное бюджетное образовательное учреждение

высшего образования

«Уфимский государственный нефтяной технический университет»

Кафедра «Бухгалтерский учет и аудит»

Курсовая работа

тема: «Применение мультиколлениарности при исследовании экономических процессов»

Студент гр. МЭК-02з-2017 Н. Т. Шакиров

Проверил: преподаватель Е. А. Бутусов

г. Уфа, 2018

Содержание

Введение

1. Теоретико-методические основы мультиколлинеарности

1.1 Понятие мультиколлинеарности

1.2 Причины возникновения мультиколлинеарности

1.3 Методы устранения мультиколлинеарности

2. Эконометрический анализ мультиколлинеарной модели

2.1 Мультиколлинеарность факторов, влияющих на прибыль

2.2 Пример эконометрического исследования мультиколлинеарности и ее устранение

Заключение

Список использованной литературы

Введение

мультиколлинеарность эконометрический прибыль

С тех пор как экономика стала серьезной самостоятельной наукой, исследователи пытаются прогнозировать ту или иную ситуацию, предусмотреть будущие значения экономических показателей, предложить инструменты изменения ситуации в желаемом направлении. Политики или управляющие производством, выбирая одну из возможных стратегий, получают определенный результат. Плох он или хорош и можно было достичь лучшего результата, проверить очень трудно. Экономическая ситуация практически никогда не повторяется в точности, следовательно, невозможно применить две стратегии при тех же условиях с целью сравнения конечного результата. Поэтому одной из основных задач экономического анализа является моделирование развития экономических явлений и процессов при создании тех или иных условий. Поняв глубинные движущие силы исследуемого процесса, можно научиться рационально, управлять им. Применение математических методов в экономике позволяет выделить и формально описать наиболее важные, существенные связи экономических переменных и объектов, а также индуктивным путем получить новые знания об объекте. Кроме того, на языке математики можно точно и компактно отображать утверждение экономической теории, формулировать ее понятия и выводы. Критерием истины для любой теории является практика. В частности, практика экономической деятельности отражается в статистической информации. Сочетание экономической теории с практическими результатами является краеугольным камнем эконометрии.

Актуальность выбранной темы определяется тем, что в эконометрике широко применяются нелинейные регрессионные модели. Во многих практических задачах прогнозирования, изучая различного рода связи в экономических, производственных системах, необходимо на основании экспериментальных данных выразить зависимую переменную в виде некоторой математической функции от независимых переменных - регрессоров, то есть построить регрессионную модель.

Регрессионный анализ позволяет:

- производить расчет регрессионных моделей путем определения значений параметров - постоянных коэффициентов при независимых переменных - регрессорах, которые часто называют факторами;

- проверить гипотезу об адекватности модели имеющимся наблюдениям;

- использовать модель для прогнозирования значений зависимой переменной при новых или ненаблюдаемых значениях независимых переменных.

Целью курсовой работы явилось исследование регрессионного анализа и применение его в эконометрике. Для достижения поставленной цели были решены следующие задачи:

- изучение основных положений регрессионного анализа;

- рассмотрение оценки параметров множественной регрессионной модели;

- исследование в области мультиколлинеарности;

- изучение методов устранения мультиколлинеарности;

- рассмотрение практических задач.

Объект исследования курсовой работы - практическая задача по применению регрессионного анализа в эконометрике.

Информационную базу составили труды отечественных ученых-экономистов в области эконометрических исследований, публикации, Интернет источники и личные наблюдения автора.

Работа выполнена в программе Excel, проведены регрессионный и корреляционный анализы.

1. Теоретико-методические основы мультиколлинеарности

1.1 Понятие мультиколлинеарности

«Мультиколлинеарность» означает линейную связь между более чем двумя объясняющими переменными. На практике всегда используется один термин - мультиколлинеарность. Термин «мультиколлинеарность» введен Рагнаром Фришем

Под мультиколлинеарностью понимается высокая взаимная коррелированность объясняющих переменных. Мультиколлинеарность может проявляться в функциональной (явной) и стохастической (скрытой) формах.

При функциональной форме мультиколлинеарности по крайней мере одна из парных связей между объясняющими переменными является линейной функциональной зависимостью. В этом случае матрица X`X особенная, так как содержит линейно зависимые векторы-столбцы, и её определитель равен нулю, т.е. нарушается предпосылка регрессионного анализа, это приводит к невозможности решения соответствующей системы нормальных уравнений и получения оценок параметров регрессионной модели.

Однако в экономических исследованиях мультиколлинеарность чаще проявляется в стохастической форме, когда между хотя бы двумя объясняющими переменными существует тесная корреляционная связь. Матрица X`X в этом случае является неособенной, но её определитель очень мал.

В то же время вектор оценок b и его ковариционная матрица ?b пропорциональны обратной матрице (X`X)-1, а значит, их элементы обратно пропорциональны величине определителя |X`X|. В результате получаются значительные средние квадратические отклонения (стандартные ошибки) коэффициентов регрессии b0, b1,…,bp и оценка их значимости по t-критерию не имеет смысла, хотя в целом регрессионная модель может оказаться значимой по F-критерию.[1]

Оценки становятся очень чувствительными к незначительному изменению результатов наблюдений и объёма выборки. Уравнения регрессии в этом случае, как правило, не имеют реального смысла, так как некоторые из его коэффициентов могут иметь неправильные с точки зрения экономической теории знаки и неоправданно большие значения.

Точных количественных критериев для определения наличия или отсутствия мультиколлинеарности не существует. Тем не менее, имеются некоторые эвристические подходы по её выявлению.

Один из таких подходов заключается в анализе корреляционной матрицы между объясняющими переменными X1,X2,…,Xp и выявлении пар переменных, имеющих высокие переменные корреляции (обычно больше 0,8). Если такие переменные существуют, говорят о мультиколлинеарности между ними. Полезно также находить множественные коэффициенты детерминации между одной из объясняющих переменных и некоторой группой из них. Наличие высокого множественного коэффициента детерминации (обычно больше 0,6) свидетельствует о мультиколлинеарности.

Другой подход состоит в исследовании матрицы X`X. Если определитель матрицы X`X либо её минимальное собственное значение лmin близки к нулю ( например одного порядка с накапливающимися ошибками вычислений), то это говорит о наличии мультиколлинеарности. о том же может свидетельствовать и значительное отклонение максимального собственного значения лmax матрицы X`X от её минимального собственного значения лmin.

Для устранения или уменьшения мультиколлинеарности используется ряд методов. Самый простой из них (но далеко не всегда возможный) состоит в том, что из двух объясняющих переменных, имеющих высокий коэффициент корреляции (больше 0,8), одну переменную исключают из рассмотрения. При этом, какую переменную оставить, а какую удалить из анализа, решают в первую очередь на основании экономических соображений. Если с экономической точки зрения ни одной из переменных нельзя отдать предпочтение, то оставляют ту из двух переменных, которая имеет больший коэффициент корреляции с зависимой переменной.

Другой метод устранения или уменьшения мультиколлинеарности заключается в переходе от несмещённых оценок, определённых по методу наименьших квадратов, к смещённым оценкам, обладающим, однако, меньшим рассеянием относительно оцениваемого параметра, т.е. меньшим математическим ожиданием квадрата отклонения оценки bj от параметра вj или M (bj - вj)2.

Рисунок 1 Случай смешения оценки

Оценки, определяемые вектором, обладают в соответствии с теоремой Гаусса-Маркова минимальными дисперсиями в классе всех линейных несмещённых оценок, но при наличии мультиколлинеарности эти дисперсии могут оказаться слишком большими, и обращение к соответствующим смещённым оценкам может повысить точность оценивания параметров регрессии. На рисунке показан случай, когда смещённая оценка вj^, выборочное распределение которой задаётся плотностью ц (вj^). [2]

Действительно, пусть максимально допустимый по величине доверительный интервал для оцениваемого параметра вj есть (вj-Д, вj+Д). Тогда доверительная вероятность, или надёжность оценки, определяемая площадью под кривой распределения на интервале (вj-Д, вj+Д), как нетрудно видеть из рисунка, будет в данном случае больше для оценки вj по сравнению с bj (на рисунке эти площади заштрихованы).

Соответственно средний квадрат отклонения оценки от оцениваемого параметра будет меньше для смещённой оценки, т.е.:

M ( вj^- вj )2 < M ( bj - вj )2(1.1)

При использовании «ридж-регрессии» (или «гребневой регрессии») вместо несмещённых оценок рассматривают смещённые оценки, задаваемые вектором

вф^= (X`X+ф Ep+1)-1 X`Y,(1.2)

где ф - некоторое положительное число, называемое «гребнем» или «хребтом», Ep+1 - единичная матрица (р+1) -го порядка.

Добавление ф к диагональным элементам матрицы X`X делает оценки параметров модели смещёнными, но при этом увеличивается определитель матрицы системы нормальных уравнений - вместо (X`X) от будет равен

|X`X+ф Ep+1|(1.3)

Таким образом, становится возможным исключение мультиколлинеарности в случае, когда определитель |X`X| близок к нулю.

Для устранения мультиколлинеарности может быть использован переход от исходных объясняющих переменных X1, X2,…,Xn, связанных между собой достаточно тесной корреляционной зависимостью, к новым переменным, представляющим линейные комбинации исходных. При этом новые переменные должны быть слабо коррелированными либо вообще некоррелированными. В качестве таких переменных берут, например, так называемые главные компоненты вектора исходных объясняющих переменных, изучаемые в компонентном анализе, и рассматривают регрессию на главных компонентах, в которой последние выступают в качестве обобщённых объясняющих переменных, подлежащих в дальнейшем содержательной (экономической) интерпритации. [3]

Ортогональность главных компонент предотвращает проявление эффекта мультиколлинеарности. Кроме того, применяемый метод позволяет ограничиться малым числом главных компонент при сранительно большом количестве исходных объясняющих переменных.

Мультиколлинеарность -- это понятие, которое используется для описания проблемы, когда нестрогая линейная зависимость между объясняющими переменными приводит к получению ненадежных оценок регрессии. Разумеется, такая зависимость совсем необязательно дает неудовлетворительные оценки. Если все другие условия благоприятствуют, т. е. если число наблюдений и выборочные дисперсии объясняющих переменных велики, а дисперсия случайного члена --мала, то в итоге можно получить вполне хорошие оценки.

Итак, мультиколлинеарность должна вызываться сочетанием нестрогой зависимости и одного (или более) неблагоприятного условия, и это -- вопрос степени выраженности явления, а не его вида. Оценка любой регрессии будет страдать от нее в определенной степени, если только все независимые переменные не окажутся абсолютно некоррелированными. Рассмотрение данной проблемы начинается только тогда, когда это серьезно влияет на результаты оценки регрессии.

Эта проблема является обычной для регрессий временных рядов, т. е. когда данные состоят из ряда наблюдений в течение какого-то периода времени. Если две или более независимые переменные имеют ярко выраженный временной тренд, то они будут тесно коррелированы, и это может привести к мультиколлинеарности.

1.2 Причины возникновения мультиколлинеарности

Проблема мультиколлинеарности является обычной для регрессии временных рядов, т.е. когда данные состоят из ряда наблюдений в течение некоторого периода времени. Если две или более объясняющие переменные имеют ярко выраженной временной тренд, то они будут тесно коррелированы, и это может привести к мультиколлинеарности.

Если среди парных коэффициентов корреляции независимых переменных существуют такие, значение которых приближается или равно множественному коэффициенту корреляции, то это говорит о возможности существования мультиколлинеарности.

Если в эконометрической модели получено малое значение параметра при большом коэффициенте детерминации и при этом F-критерий существенно отличается от нуля, то это говорит о наличии мультиколлинеарности.[4]

Причинами возникновения мультиколлениарности является:

1. Ошибочное включение в уравнение регрессии двух или более линейно зависимых переменных.

2. Две (или более) объясняющих переменных, в нормальной ситуации слабо коррелированные, становятся в конкретной выборке сильно коррелированными.

3. В модель включается объясняющая переменная, сильно коррелирующая с зависимой переменной (такая переменная называется доминантной).

Под ошибочное включением в уравнение регрессии двух или более линейно зависимых переменных:

(1.4)

При этом применении метода Оценка коэффициентов уравнения невозможна!

Далее мультиколлинеарность из-за доминантной переменной. [5] Доминантная переменная «забивает» влияние остальных:

(1.5)

Влияние остальных переменных становится незначимым.

Неизбежность мультиколлинеарности:

1. Мультиколлинеарность - нормальное явление;

2. Практически любая модель содержит мультиколлинеарность;

3. Мы не обращаем внимания на мультиколлинеарность до появления явных симптомов;

4. Только чрезмерно сильные связи становятся помехой.

Далее рассмотрим методы устранения мультиколлинеарности. Различные методы, которые могут быть использованы для смягчения мультиколлинеарности, делятся на две категории: к первой категории относятся попытки повысить степень выполнения четырех условий, обеспечивающих надежность оценок регрессии; ко второй категории относится использование внешней информации. Если сначала использовать возможные непосредственно получаемые данные, то, очевидно, было бы полезным увеличить число наблюдений. [6]

Методы устранения мультиколлинеарности.

1. Включить более подходящие регрессоры.

2. Изменить или увеличить выборку

3. Увеличить вариацию регрессоров

4. Преобразовать мультиколлинеарные переменные:

- использовать агрегаты (линейные комбинации переменных);

- очищать переменные от влияния друг на друга

- использовать нелинейные формы;

- использовать первые разности вместо самих переменных.

5. Исключить из модели одну из переменных.

6. Использовать при оценке коэффициентов метод главных компонент или другие специальные процедуры расчета коэффициентов при плохой обусловленности

7. Ничего не делать! [7]

Чтобы уменьшить стандартные ошибки коэффициентов, следует уменьшить вариацию случайного фактора:

(1.6)

Уменьшение за счет:

- включения в модель более подходящих регрессоров;

- включения в модель большего количества наблюдений, стратифицированной выборки, использования квартальных данных вместо годовых и т.п.;

- увеличения вариации регрессора;

- уменьшения корреляции между регрессорами;

- комбинирования связанных регрессоров;

- удаления незначимого регрессора;

- очищения влияния одних регрессоров на другие;

- теоретического ограничения на связь регрессоров.

Если вы применяете данные временных рядов, то это можно сделать путем сокращения продолжительности каждого периода времени.

После этого вместо 25 наблюдений их станет 100. Это настолько очевидно и так просто сделать, что большинство исследователей, использующих временные ряды, почти автоматически применяют поквартальные данные, если они имеются, вместо ежегодных данных, даже если проблема мультиколлинеарности не стоит, просто для сведения к минимуму теоретических дисперсий коэффициентов регрессии. В таком подходе существуют, однако, и потенциальные проблемы. Можно привнести или усилить автокорреляцию, но она может быть нейтрализована. Кроме того, можно привнести (или усилить) смещение, вызванное ошибками измерения, если поквартальные данные измерены с меньшей точностью, чем соответствующие ежегодные данные. Эту проблему не так просто решить, но она может оказаться несущественной. [8]

Если вы используете данные перекрестной выборки и находитесь на стадии планирования исследования, то можно увеличить точность оценок регрессии и ослабить проблему мультиколлинеарности просто за счет большего расхода средств на увеличение размера выборки. Однако такой подход имеет уменьшающуюся предельную отдачу, поскольку стандартные отклонения коэффициентов регрессии обратно пропорциональны величине в то время как расходы прямо пропорциональны п.

Столь же важно, если вы используете данные перекрестной выборки и находитесь на стадии планирования исследования, максимизировать дисперсию наблюдений независимых переменных в выборке, например путем расслоения выборки.

Далее, можно сократить величину. Случайный член включает в себя объединенный эффект всех переменных, оказывающих влияние на величину уу которые не включены явно в уравнение регрессии. Если вы допускаете мысль о том, что важная переменная могла быть опущена и, следовательно, оказывает влияние на и, то можно сократить величину, если добавить эту переменную в уравнение регрессии.

Если, однако, новая переменная линейно связана с одной или несколькими переменными, уже включенными в уравнение, то ее введение может еще больше усугубить проблему мультиколлинеарности.

Наконец, об использовании самого простого метода. Если вы действительно имеете возможность собрать дополнительные данные, то нужно постараться получить выборку, в которой независимые переменные слабо связаны между собой.

Существуют два типа внешней информации, которая может оказаться полезной: теоретические ограничения и внешние эмпирические оценки. Теоретическое ограничение представляет собой допущение, касающееся величины коэффициента или некоторой связи между коэффициентами. Поясним это на примере. [9]

При построении производственной функции с использованием данных временных рядов следует иметь в виду, что на выпуск продукции, наряду с изменениями в капитальных и трудовых затратах, вероятно, будет оказывать влияние технический прогресс. Если вы имеете дело с агрегированными данными, то невозможно количественно оценить технический прогресс, и проще всего включить экспоненциальный временной тренд в уравнение, записав функцию Кобба--Дугласа.

Оценки величин, незначимо отличаются от нуля, теперь более реалистичны, чем раньше, а стандартные ошибки -- намного меньше, чем в уравнении. Тот факт, что величина незначимо отличается от нуля, подтверждает вывод Ч. Кобба и П. Дугласа о том, что темп увеличения общей производительности факторов в рассматриваемый период был очень низким. Очевидно, что обоснованность этой процедуры зависит от правильности введенного ограничения, поэтому сначала нужно статистически проверить ограничение, что рассматривается в следующей главе.

Наконец, можно использовать внешние оценки. Предположим, что вы решили воспользоваться уравнением в качестве формулы для функции спроса, но имеется проблема мультиколлинеарности, так как располагаемый личный доход и цена имеют ярко выраженные временные тренды, а следовательно, тесно коррелированы. Предположим, однако, что вы также имеете перекрестные статистические данные для у и х, полученные из другой выборки. Если допустить, что все домохозяйства в проводимом анализе платили за данный товар одинаковую цену, то модель примет вид:

logy'=log a'+ b' logx' + w'(1.7)

Получив оценку b' для b' при оценивании регрессионной зависимости у от х вы можете подставить ее в уравнение спроса. Теперь определяется новая переменная logy, равная (log у -- b'·log х), описывающая спрос, скорректированный на изменения дохода. После этого уравнение принимает вид:

log y = log a+ b2 logp +w(1.8)

Рассчитав log y для каждого наблюдения, вы оцениваете его регрессионную зависимость от log p, и, так как здесь имеется только одна независимая переменная, мультиколлинеарность автоматически исключается. При использовании этого метода могут возникнуть две проблемы, которые необходимо учитывать. Во-первых, оценка величины b2 зависит от точности оценки величины Р'р которая, безусловно, подвержена влиянию ошибки выборки.[10]

Во-вторых, вы допускаете, что коэффициент при доходе имеет одинаковый смысл для случаев временных рядов и перекрестных выборок, что, конечно, может быть и не так. Для большинства товаров краткосрочная и долгосрочная эластичность спроса по доходу может значительно различаться. Одна из причин этого состоит в том, что характер расходов подвержен влиянию инерции, которое в краткосрочном периоде может превзойти эффекты дохода.

Другая причина заключается в том, что изменение уровня дохода может оказать на расходы как непосредственное (в виде изменения бюджетного ограничения), так и косвенное влияние (за счет изменения образа жизни), причем косвенное влияние происходит намного медленнее, чем прямое. В качестве первого приближения обычно считается, что регрессии для временных рядов, особенно с небольшими периодами выборки, дают показатели краткосрочной эластичности, в то время как регрессии с использованием данных перекрестных выборок дают показатели долгосрочной эластичности. Последствия мультиколлинеарности: оценки коэффициентов остаются несмещенными; стандартные ошибки коэффициентов увеличиваются; вычисленные t-статистики занижены; неустойчивость оценок (добавление или исключение малого количества информации может привести к очень сильному изменению оценок коэффициентов, при этом резко уменьшается и точность предсказания по модели); численная неустойчивость процедуры оценивания, вызванная ошибками машинного округления и накоплением этих ошибок; высокая коррелированность коэффициентов лишает смысла их интерпретацию; общее качество уравнения, а также оценки переменных, не связанных мультиколлинеарностью, остаются незатронутыми; чем ближе мультиколлинеарность к строгой (совершенной), тем серьезнее ее последствия.[11]

1.3 Методы устранения мультиколлинеарности

Термин "коллинеарность" характеризует линейную связь между двумя объясняющими переменными. "Мультиколлинеарность" означает линейную связь между более чем двумя объясняющими переменными.

На практике всегда используется один термин - мультиколлинеарность.

Термин "мультиколлинеарность" введен Рагнаром Фришем

Рассматривают два вида мультиколлинеарности:

1. Строгая мультиколлинеарность - наличие линейной функциональной связи между объясняющими переменными (иногда также и зависимой).

2. Нестрогая мультиколлинеарность - наличие сильной линейной корреляционной связи между объясняющими переменными (иногда также и зависимой).

Если регрессоры в модели связаны строгой функциональной зависимостью, то имеет место полная (совершенная) мультиколлинеарность. Данный вид мультиколлинеарности может возникнуть, например, в задаче линейной регрессии, решаемой методом наименьших квадратов, если определитель матрицы ATA будет равен нулю. Полная мультиколлинеарность не позволяет однозначно оценить параметры исходной модели и разделить вклады регрессоров в выходную переменную по результатам наблюдений [14]

В задачах с реальными данными случай полной мультиколлинеарности встречается крайне редко. Вместо этого в прикладной области часто приходится иметь дело с частичной мультиколлинеарностью, которая характеризуется коэффициентами парной корреляции между регрессорами. В случае частичной мультиколлинеарности матрица ATA будет иметь полный ранг, но ее определитель будет близок к нулю. В этом случае формально можно получить оценки параметров модели и их точностные показатели, но все они будут неустойчивыми.

Среди последствий частичной мультиколлинеарности можно выделить следующие:

- увеличение дисперсий оценок параметров;

- уменьшение значений t-статистик для параметров, что приводит к неправильному выводу об их статистической значимости;

- получение неустойчивых оценок параметров модели и их дисперсий;

- возможность получения неверного с точки зрения теории знака у оценки параметра

Точные количественные критерии для обнаружения частичной мультиколлинеарности отсутствуют. В качестве признаков ее наличия чаще всего используют следующие:

1. Превышение некого порога модулем парного коэффициента корреляции между регрессорами Xi и Xj

2. Близость к нулю определителя матрицы Xi

3. Большое количество статистически незначимых параметров в модели

Причины возникновения мультиколлинеарности:

- в модель включены факторные признаки, характеризующие одну и ту же сторону явления;

- уравнение регрессии содержит в качестве факторных признаков такие показатели, суммарное значение которые представляет собой постоянную величину;

- в модели использованы факторные признаки, являющиеся составными элементами друг друга;

- в моделирующую функцию включены факторные признаки, по смыслу дублирующие друг друга.

Проблема мультиколлинеарности является обычной для регрессии временных рядов, т.е. когда данные состоят из ряда наблюдений в течение некоторого периода времени. Если две или более объясняющие переменные имеют ярко выраженной временной тренд, то они будут тесно коррелированы, и это может привести к мультиколлинеарности [17]

Если среди парных коэффициентов корреляции независимых переменных существуют такие, значение которых приближается или равно множественному коэффициенту корреляции, то это говорит о возможности существования мультиколлинеарности.

Если в эконометрической модели получено малое значение параметра bk при большом коэффициенте детерминации R2 и при этом F - критерий существенно отличается от нуля, то это говорит о наличии мультиколлинеарности.

Методы исследования мультиколлинеарности

1. Нахождение и анализ корреляционной матрицы

Стохастическая связь между переменными характеризуется величиной коэффициента корреляции между ними. Чем ближе по абсолютной величине значение коэффициента корреляции к единице, тем сильнее мультиколлинеарность. В общем случае, если при оценке уравнения регрессии несколько факторов оказались незначимыми, то нужно выяснить нет ли среди них коррелированных между собой. Для этого формируется матрица коэффициентов парной корреляции, которая является симметричной и называется корреляционной матрицей. Она имеет вид:

, (1.19)

, (1.20)

где - коэффициенты парной корреляции между переменной y и одним из факторов, - коэффициенты парной корреляции между факторами, которые вычисляются по формуле

, (1.21)

где , , .

Анализ корреляционной матрицы позволяет оценить, во-первых, степень влияния отдельных факторов на результативный показатель, во-вторых, взаимосвязь факторов между собой [5]

Если коэффициенты парной корреляции между некоторыми факторами близки к единице, это указывает на тесную взаимосвязь между ними, т.е. на наличие мультиколлинеарности. В этом случае один из факторов необходимо исключить из дальнейшего рассмотрения. Встает вопрос, какой именно. Это зависит от конкретной ситуации. Чаще всего для моделирования оставляют тот фактор, который с экономической точки зрения более весом для изучаемого процесса. Можно также оставить фактор, который имеет большее влияние на результативный показатель (т.е. коэффициент корреляции которого с результативным показателем больше). Такого рода анализ проводится для каждой пары факторов. Результатом анализа корреляционной матрицы является установление группы факторов, мало зависимых между собой - они и должны входить в модель.

2. Вычисление определителя корреляционной матрицы

Если в модели больше двух факторов, вопрос о мультиколлинеарности не может ограничиваться информацией, которую дает корреляционная матрица. Более широкая проверка предусматривает вычисление определителя матрицы . Если , то существует полная мультиколлинеарность. Если , то мультиколлинеарности нет. Чем ближе к нулю, тем увереннее можно утверждать о существовании между переменными мультиколлинеарности.

3. Метод Феррара-Глаубера

Для исследования общей мультиколлинеарности и мультиколлинеарности между отдельными факторами используется корреляционная матрица , вычисляемая по формуле (1.2).

Для исследования общей мультиколлинеарности используется критерий . Рассчитывается величина

, (1.22)

имеющая - распределение с степенями свободы.

По данной надёжности и числу степеней свободы находят табличное значение (приложение А). Если , то можно считать, что мультиколлинеарность между объясняющими переменными отсутствует.

Если , то с заданной надёжностью можно считать, что между факторами существует общая мультиколлинеарность.

Далее исследуется, какая объясняющая переменная порождает мультиколлинеарность, и решается вопрос об ее исключении из дальнейшего анализа.

Для выяснения вопроса, между какими факторами существует мультиколлинеарность, используется статистика или статистика. Для этой цели используют частные коэффициенты парной корреляции между объясняющими переменными, которые вычисляют по формуле

, (1.23)

где - элементы обратной матрицы .

В качестве критерия используется величина

, (1.24)

имеющая распределение Стьюдента с степенями свободы.

По таблицам Стьюдента находят критическое значение . Сравнивают критическое значение с расчетным :

- если, то между объясняющими переменными и коллинеарности нет.

- если , то между объясняющими переменными и существует значительная коллинеарность.

2. Эконометрический анализ мультиколлинеарной модели

2.1 Мультиколлинеарность факторов, влияющих на прибыль

Выделяют семь основных этапов эконометрического моделирования:

1) постановочный этап, в процессе осуществления которого определяются конечные цели и задачи исследования, а также совокупность включённых в модель факторных и результативных экономических переменных. При этом включение в эконометрическую модель той или иной переменной должно быть теоретически обоснованно и не должно быть слишком большим. Между факторными переменными не должно быть функциональной или тесной корреляционной связи, потому что это приводит к наличию в модели мультиколлинеарности и негативно сказывается на результатах всего процесса моделирования;

2) априорный этап, в процессе осуществления которого проводится теоретический анализ сущности исследуемого процесса, а также формирование и формализация известной до начала моделирования (априорной) информации и исходных допущений, касающихся в частности природы исходных статистических данных и случайных остаточных составляющих в виде ряда гипотез;

3) этап параметризации (моделирования), в процессе осуществления которого выбирается общий вид модели и определяется состав и формы входящих в неё связей, т.е. происходит непосредственно моделирование.

К основным задачам этапа параметризации относятся:

а) выбор наиболее оптимальной функции зависимости результативной переменной от факторных переменных. При возникновении ситуации выбора между нелинейной и линейной функциями зависимости, предпочтение всегда отдаётся линейной функции, как наиболее простой и надёжной;

б) задача спецификации модели, в которую входят такие подзадачи, как аппроксимация математической формой выявленных связей и соотношений между переменными, определение результативных и факторных переменных, формулировка исходных предпосылок и ограничений модели.

4) информационный этап, в процессе осуществления которого происходит сбор необходимых статистических данных, а также анализируется качество собранной информации;

5) этап идентификации модели, в ходе осуществления которого происходит статистический анализ модели и оценивание неизвестных параметров. Данный этап непосредственно связан с проблемой идентифицируемостимодели, т.е. ответа на вопрос "Возможно ли восстановить значения неизвестных параметров модели по имеющимся исходным данным в соответствии с решением, принятым на этапе параметризации?". После положительного ответа на этот вопрос решается проблема идентификации модели, т.е. реализуется математически корректная процедура оценивания неизвестных параметров модели по имеющимся исходным данным;

6) этап оценки качества модели, в ходе осуществления которого проверяется достоверность и адекватность модели, т.е. определяется, насколько успешно решены задачи спецификации и идентификации модели, какова точность расчётов, полученных на её основе. Построенная модель должна быть адекватна реальному экономическому процессу. Если качество модели является неудовлетворительным, то происходит возврат ко второму этапу моделирования;

7) этап интерпретации результатов моделирования.

Информационное обеспечение эконометрического исследования мультиколлинеарности в эконометрических моделях множественной регрессии включает входную, промежуточную и результативную информацию.

В качестве входной информации используются любые статистически верные данные, отражающие конкретное событие. В данной работе, в качестве входной информации использованы сведения об анализе факторов, влияющих на прибыль при предоставлении услуг в области добычи сырой нефти и природного газа. Таким образом, исследование проводится по 50 наблюдениям, что обеспечивает более точные результаты.

Для построения и анализа множественной линейной регрессии будет рассмотрена следующая задача: Вехдущему экономисту открытого акционерного общества "Геолого-разведочный исследовательский центр", поступило указание от совета директоров, разработать стратегию развития для компании в направлении предоставление услуг в области добычи сырой нефти и природного газа. Для разработки указанной стратегии, он собрал информацию о работе в данной области различных компаний и определил факторы, влияющие на прибыль: долгосрочные обязательства, краткосрочные обязательства, оборотные активы и основные средства.

Промежуточная информация получается в результате преобразования входной информации, но она не является конечным результатом, а играет вспомогательную роль. В эконометрическом исследовании мультиколлинеарности к промежуточной информации относятся полученные на разных этапах исследования данные, представленные в графическом виде, данные о зависимости показателей, показатели качества модели, параметры регрессии, интерпретация полученных параметров, коэффициенты качества и значимости модели и прочее.

Результатная информация включает в себя промежуточную информацию, на основании которой составляются выводы о наличии мультиколлинеарности в между выбранными факторами.

Информационное и методологическое обеспечение адаптировано на основе таких авторов как Новиков А.И., Бородич С.А., Бэрнд Э.Р., Мангус Я.Р., Катышев П.К., Пересецкий А.А., Балаш В.А., Харламов А.В., Елисеева И. И.

Разработанная методика эконометрического исследования включает в себя следующие этапы:

1) Спецификация

1.1 ) Графический анализ исходных данных

1.2 ) Выбор модели регрессии

2) Параметризация

2.1 ) Оценка и интерпретация параметра

2.2 ) Оценка и интерпретация параметра

3) Верификация

3.1 ) Экспресс-верификация

3.2 ) Анализ предпосылок МНК

3.3 ) Исследование мультиколлинеарности

3.3.1 ) Графический анализ

3.3.2 ) Матрица парных коэффициентов корреляции

3.3.3 ) Расчет частных коэффициентов корреляции

3.3.4 ) Пошаговый метод включения (исключения)

3.4 ) Методы устранения мультиколлинеарности

1) На этапе спецификации происходит выбор формулы связи переменных уравнения регрессии.

1.1) Графический анализ исходных данных

В случае парной регрессии выбор функции обычно осуществляется по графическому изображению реальных статистических данных в виде точек в декартовой системе координат, которое называется корреляционным полем (диаграммой рассеивания). На основании построенной диаграммы выбирается наиболее подходящая форма функциональной связи.

1.2) Выбор модели регрессииосновывается на построении графика зависимости переменных, построении линии тренда и определении коэффициента детерминации (). Для этого необходимо в программе MSExcel исходные данные представить в табличном виде и на их основе создатьточечную диаграмму. Далее с помощью команды "Добавить линию тренда", на графике отражается линия тренда, а так же с помощью определенных команд на графике появляется уравнение и коэффициент детерминации (), характеризующий зависимость Y отx. Для выбора модели, наиболее точно описывающей событие, необходимо добавить помимо линейной линии тренда экспоненциальную, логарифмическую, степенную и полиномиальную линии тренда. То уравнение, которому соответствует наибольшее значение коэффициента детерминации, следует выбрать как модель, наиболее точно описывающую исходные данные.

2) Этап параметризации включает в себя построение линейной регрессии, оценивание ее параметров и их значимости. Значительно быстрее это выполнить при использовании пакета анализа MSExcel (программа "Регрессия").

Для осуществления автоматического расчета необходимо выбратьв меню анализа данных инструмент "Регрессия". В открывшемся окне выбрать входной интервал Y (массив Y) и входной интервал x (массив х), также для проведения дальнейшего анализа необходимо отметить галочкой поля остатки, график остатков и график подбора.

Результаты анализа появятся на новом листе или книге, в зависимости от соответствующего выбора.

Для оценки параметров и , в полученных результатах анализа понадобится третья таблица, в которой указаны:

1. Коэффициенты - значения коэффициентов и .

2. Стандартная ошибка - стандартные ошибки коэффициентов регрессии.

3. t-статистика - расчетные значения t-критерия, вычисляемые по формуле:

t-статистика = Коэффициенты/Стандартная ошибка.

Для проверки значимости полученные значения для всех коэффициентов сравниваются с критическим значением. Критическое значение находится из таблиц распределения Стьюдента или с помощью статистической функции СТЮДРАСПОБР (0,05; n-k-1).

4. Р-значение (значимость t) - это значение уровня значимости, соответствующее вычисленной t-статистике:

Р-значение = СТЬЮДРАСП (t-статистика; n-k-1)

По величине Р-значения возможно определять значимость коэффициентов, не находя критическое значение t-статистики. Если значение t-статистики велико, то соответствующее значение вероятности значимости мало - меньше 0,05, и можно считать, что коэффициент регрессии значим. И наоборот, если значение t-статистики мало, соответственно вероятность значимости больше 0,05 - коэффициент считается незначимым.

5. Нижние 95% и верхние 95% - нижние и верхние границы 95% -ных доверительных интервалов для коэффициентов теоретического уравнения линейной регрессии.

При оценке значимости коэффициента линейной регрессии на начальном этапе можно использовать следующее "грубое" правило, позволяющее на прибегать к таблицам:

Если |t| < 1, то коэффициент статистически незначим.

Если 1 < |t| < 2, то коэффициент относительно значим. В данном случае рекомендуется воспользоваться таблицами.

Если 2 < |t| < 3, то коэффициент значим. Это утверждение является гарантированным при числе степеней н > 20 и б ? 0.05.

Если |t| > 3, то коэффициент считается сильно значимым. Вероятность ошибки в данном случае при достаточном числе наблюдений не превосходит 0.001.

3) Этап верификации заключаются в оценке значимости уравнения в целом.

3.2) Анализ предпосылок МНК.

Метод наименьших квадратов строит оценки регрессии на основе минимизации суммы квадратов остатков. Поэтому очень важно исследовать поведение остаточных величин регрессии. Условия, необходимые для получения несмещенных, состоятельных и эффективных оценок, представляют собой предпосылки МНК, соблюдение которых желательно для получения достоверных результатов регрессии.

Исследования остатков предполагают проверку наличия следующих пяти предпосылок МНК:

1) случайный характер остатков;

2) нулевая средняя величина остатков, не зависящая от;

3) гомоскедастичность - дисперсия каждого отклонения одинакова для значений x;

4) отсутствие автокорреляции остатков - значения остатков распределены независимо друг от друга;

5) остатки подчиняются нормальному распределению.

Если распределение случайных остатков не соответствует некоторым предпосылкам МНК, то следует корректировать модель.

При построении регрессионных моделей чрезвычайно важно соблюдение четвертой предпосылки МНК - отсутствие автокорреляции остатков, т.е. значения остатков , распределены независимо друг от друга. Автокорреляция остатков означает наличие корреляции между остатками текущих и предыдущих (последующих) наблюдений.

Отсутствие автокорреляции остаточных величин обеспечивает состоятельность и эффективность оценок коэффициентов регрессии. Особенно актуально соблюдение данной предпосылки МНК при построении регрессионных моделей по рядам динамики, где ввиду наличия тенденции последующие уровни динамического ряда, как правило, зависят от своих предыдущих уровней.

Проверить гипотезу об отсутствии автокорреляции можно с помощью графического анализа остатков. Для этого необходимо добавить в таблице "Вывод остатка" столбец "Остатки предыдущие" и построить точечную диаграмму зависимости "Остатков" от "Остатков предыдущих", на которой добавить линию тренда.

Если наблюдается линия тренда отличная от нуля, то можно предположить наличие автокорреляции остатков.

Задание.

Анализ факторов, влияющих на прибыль при предоставлении услуг в области добычи сырой нефти и природного газа, в которой в качестве объясняемой выбрана переменная Y - прибыль (убыток) (млн. руб.), в качестве объясняющих переменные выбраны

Х1 - долгосрочные обязательства;

Х2 - краткосрочные обязательства;

Х4 - основные средства;

Х6 - запасы готовой продукции и товаров для перепродажи.

Таблица 1. Исходные данные для задачи.

№ п/п

Y

X1

X2

X4

Х6

5

19513178,0

52034182,0

2411352,0

47002385,0

1696853,0

6

28973,0

602229,0

74839,0

1545052,0

19474,0

7

-780599,0

311268,0

15737048,0

740437,0

176,0

8

2598165,0

464651,0

4381403,0

11925177,0

127937,0

9

628091,0

214411,0

3728587,0

2580485,0

73823,0

10

29204,0

12039,0

738811,0

269908,0

130,0

11

1945560,0

9670,0

716648,0

229855,0

39667,0

12

366170,0

287992,0

239076,0

349643,0

5733,0

13

-20493,0

1105293,0

8855,0

934881,0

3319,0

14

381558,0

27265,0

265569,0

697664,0

5763,0

15

1225908,0

431231,0

1525379,0

2231651,0

430844,0

16

3293989,0

37315847,0

8556455,0

23170344,0

38133,0

17

416616,0

2122138,0

258120,0

3509537,0

28393,0

18

-564258,0

1395080,0

7958766,0

1290245,0

236642,0

19

221194,0

13429,0

105123,0

607249,0

4548,0

20

701035,0

75554,0

497028,0

4616250,0

8773,0

21

62200,0

22195,0

1659245,0

991114,0

0,0

22

123440,0

12350,0

84026,0

438262,0

24866,0

23

55528,0

14686,0

137348,0

75442,0

3949,0

24

422070,0

52443,0

662299,0

1269731,0

8212,0

25

-468,0

239255,0

29880,0

10870,0

940,0

26

225452,0

1292,0

87112,0

227132,0

0,0

27

-61237,0

924951,0

299733,0

110970,0

11218,0

28

-540,0

0,0

46139,0

21278,0

127,0

29

40588,0

1638,0

22683,0

139209,0

7569,0

30

53182,0

54758,0

1909328,0

113113,0

0,0

31

-210,0

8,0

16191,0

12685,0

46,0

32

63058,0

235731,0

563481,0

873886,0

0,0

33

1197196,0

2232742,0

1083829,0

2307478,0

25862,0

34

221177,0

4682,0

40664,0

331954,0

1260,0

35

1548768,0

84262,0

413994,0

1138707,0

14716,0

36

-33030,0

106,0

52575,0

16705,0

0,0

37

-34929,0

103567,0

1769300,0

393717,0

833099,0

38

115847,0

275386,0

432312,0

517290,0

6824,0

39

35198,0

20624,0

169155,0

484228,0

3227,0

40

788567,0

33879,0

647914,0

402613,0

14021,0

41

309053,0

99670,0

211624,0

18776,0

1909,0

42

8552,0

257,0

99815,0

12381,0

2558,0

43

173079,0

6120,0

114223,0

176126,0

16197,0

44

1227017,0

33757,0

1930517,0

2063285,0

63810,0

45

701728,0

381050,0

335238,0

59353,0

3886,0

46

17927,0

53260,0

101834,0

84818,0

963,0

47

2557698,0

4537040,0

21786237,0

3841845,0

26578,0

48

0,0

194091,0

64889,0

33112,0

7,0

49

5406,0

1185,0

27941,0

38560,0

6465,0

50

40997,0

101706,0

39653,0

178604,0

1035,0

51

1580624,0

9285230,0

1476613,0

6546853,0

13516,0

52

9990896,0

1645470,0

5066776,0

2329554,0

391744,0

53

6649,0

82229,0

1486511,0

78526,0

24001,0

54

22868,0

3,0

76455,0

9067,0

0,0

Чтобы оценить тесноту связи между значениями этих переменных, вычислим значение коэффициента корреляции средствами Excel. Для этого можно воспользоваться функцией =КОРРЕЛ (), указав адреса пяти столбцов чисел. Ответ помещен в В56 G62.

Вычислим матрицу коэффициентов парной корреляции, проверим значимость коэффициентов корреляции:

Для построения корреляционного анализа воспользуемся пакетом прикладных программ Microsoft Excel, функцией "Анализ данных".

Выполняем следующие действия:

1. Данные для корреляционного анализа должны располагаться в смежных диапазонах ячеек.

2. Выбрать команду "Сервис" > "Анализ данных".

3. В диалоговом окне "Анализ данных" выбрать инструмент "Корреляция", а затем щелкнуть кнопку "ОК".

4. В диалоговом окне "Корреляция" в поле "Входной интервал" необходимо ввести диапазон ячеек, содержащих исходные данные. Если введены и заголовки столбцов, то установить флажок "Метки в первой строке".

5. Выбрать параметры вывода. В данном случае "Новый рабочий лист".

6. "ОК"

Рисунок 2 Результаты корреляционного анализа.

Анализ матрицы коэффициентов парной корреляции начнем с анализа первого столбца матрицы, в котором расположены коэффициенты корреляции, отражающие тесноту связи, зависимой переменной Объем продаж с включенными в анализ факторами. Анализ показывает, что зависимая переменная, то есть прибыль (убыток), имеет тесную связь с основными средствами (ryx4 = 0,849), запасы готовой продукции и товаров для перепродажи (ryx6 = 0,8199) и долгосрочные обязательства (ryx1 = 0,783). Факторы Х2 имеет слабую связь с зависимой переменной и его не рекомендуется включать в модель регрессии.

Оценим значимость коэффициентов корреляции первого столбца матрицы. Для этого рассчитаем значение t - статистики для всех элементов первого столбца:

Табличное значение критерия Стьюдента равно: tтабл (б = 0,05; k = n - 2 = 48) =2,01. Сравним числовые значения критериев с табличным. Сделаем вывод, что tрасч > tтабл т.е. полученные значения коэффициентов корреляции значимы для долгосрочные обязательства (ryx1 = 0,783), для основных средст (ryx4 = 0,849) и запасы готовой продукции и товаров для перепродажи (ryx6 = 0,8199).

Значимость коэффициентов корреляции можно проверить, используя критическое значение коэффициента корреляции. При условии, что нулевая гипотеза , критическое значение коэффициента корреляции определяется статистикой

,

где критическое значение t-статистики Стьюдента для уровня значимости и количества степеней свободы, равного n-2.

Так как в нашем примере критическое (табличное) значение критерия Стьюдента (б = 0,05; k = n - 2 = 48) равно 2,01, то критическое значение коэффициента корреляции будет равно 0,2787. Коэффициенты парной корреляции краткосрочных обязательств в анализируемой матрице меньше значение 0,2787 по абсолютной величине и следовательно будет не значимым, а все остальные коэффициенты парной корреляции в анализируемой матрице превышающие значение 0,2787 по абсолютной величине будут значимы.

Затем перейдем к анализу остальных столбцов матрицы с целью выявления коллинеарности. Одним из условий регрессионной модели является предположение о линейной независимости объясняющих переменных, т.е., решение задачи возможно лишь тогда, когда столбцы и строки матрицы исходных данных линейно независимы. Для экономических показателей это условие выполняется не всегда. Под мультиколлинеарностью понимается высокая взаимная коррелированность объясняющих переменных, которая приводит к линейной зависимости нормальных уравнений. Один из подходов определения наличия или отсутствия мультиколлинеарности заключается в анализе матрицы коэффициентов парной корреляции. Считают явление мультиколлинеарности в исходных данных установленным, если коэффициент парной корреляции между двумя переменными больше 0,8.Факторы Х1 и Х4 тесно связаны между собой (= 0,956), что свидетельствует о наличии коллинеарности. Из этих двух переменных оставим Х4 - основные средства, так как rx1y = 0,783 < rx4y = 0,849. В нашем примере из двух тесно связанных друг с другом факторов Х1 и Х4 ( = 0,956) один Х1 был исключен.Таким образом, на основе анализа корреляционной матрицы для включения в модель регрессии остаются два фактора - Основные средства и Запасы готовой продукции и товаров для перепродажи (n = 50, k =2).

Согласно разработанной методике, описанной в пункте 2.1 настоящей главы, проводится эконометрическое исследование мультиколлинеарности множественной регрессии.

Для всего этого необходимо провести эконометрический анализ всех данных, создать регрессионные модели, проверить параметры на качество и адекватность.

2.2 Пример эконометрического исследования мультиколлинеарности и ее устранение

В данной работе исследуются данные взаимосвязь курса доллара США с курсами евро, японской иены и английского фунта стерлингов. Имеются данные об официальных курсах валют, установленных Центральным Банком России, за двенадцать дней.

Согласно разработанной методике, описанной в пункте 2.1 настоящей главы, проводится эконометрическое исследование мульколлинеарности множественной регрессии.


Подобные документы

  • Сущность регрессионного анализа и применение его в эконометрике. Инструментарий эконометрического исследования в области мультиколлинеарности, методы ее устранения. Исследование на мультиколлинеарность факторов, влияющих на экономические процессы.

    курсовая работа [711,5 K], добавлен 15.02.2017

  • Разработка проектных решений по информационно-методическому обеспечению исследования в области эконометрического моделирования. Анализ тенденций миграционных процессов в странах ЕС и их зависимость от имеющихся факторов, учитываемых при построении модели.

    курсовая работа [2,6 M], добавлен 30.10.2015

  • Анализ и описание различных подходов к определению вероятности. Примеры стохастических зависимостей в экономике, их особенности и теоретико-вероятностные способы их изучения. Классификация и характеристика основных этапов эконометрического исследования.

    реферат [25,1 K], добавлен 16.04.2009

  • Методологические основы эконометрики. Проблемы построения эконометрических моделей. Цели эконометрического исследования. Основные этапы эконометрического моделирования. Эконометрические модели парной линейной регрессии и методы оценки их параметров.

    контрольная работа [176,4 K], добавлен 17.10.2014

  • Методы исследования и моделирования социально-экономических систем. Этапы эконометрического моделирования и классификация эконометрических моделей. Задачи экономики и социологии труда как объект эконометрического моделирования и прогнозирования.

    курсовая работа [701,5 K], добавлен 14.05.2015

  • Построение и анализ однофакторной и многофакторной эконометрической модели. Вычисление парных и частичных коэффициентов корреляции. Проверка адекватности модели по критерию Фишера. Исследование наличия мультиколлениарности по алгоритму Феррара-Глобера.

    контрольная работа [172,4 K], добавлен 28.05.2010

  • Ознакомление с основами модели простой регрессии. Рассмотрение основных элементов эконометрической модели. Характеристика оценок коэффициентов уравнения регрессии. Построение доверительных интервалов. Автокорреляция и гетероскедастичность остатков.

    лекция [347,3 K], добавлен 23.12.2014

  • Построение корреляционной матрицы. Проведение теста на наличие мультиколлинеарности. Расчет частного коэффициента эластичности для прогноза экономических процессов. Расчет доверительного интервала. F-статистика Фишера проверки модели на адекватность.

    контрольная работа [1,7 M], добавлен 09.07.2014

  • Анализ и выявление значимых факторов, влияющих на объект. Построение эконометрической модели затрат предприятия для обоснований принимаемых решений. Исследование трендов временных рядов. Оценка главных параметров качества эконометрической модели.

    курсовая работа [821,1 K], добавлен 21.11.2013

  • Основные этапы эконометрического исследования. Система совместных, одновременных уравнений. Понятие эконометрических уравнений. Система независимых уравнений. Пример модели авторегрессии. Система линейных одновременных эконометрических уравнений.

    курсовая работа [41,2 K], добавлен 17.09.2009

Работы в архивах красиво оформлены согласно требованиям ВУЗов и содержат рисунки, диаграммы, формулы и т.д.
PPT, PPTX и PDF-файлы представлены только в архивах.
Рекомендуем скачать работу.