Машинное обучение
Понятие и содержание машинного обучения, его разновидности и основные задачи, алгоритмы и сферы практического применения, возможные проблемы и недостатки. Образовательные онлайн-платформы. Модель и принципы предсказания академического успеха студента.
Рубрика | Педагогика |
Вид | дипломная работа |
Язык | русский |
Дата добавления | 30.06.2017 |
Размер файла | 1,1 M |
Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже
Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.
· Pandas - библиотека, позволяющая загрузку данных из текстовых файлов, Excel таблиц и баз данных.
· Scikit-learn - библиотека, представляющая реализацию ряда алгоритмов для задач обучения с учителем и обучения без учителя, то есть позволяет решать задачу классификации.
3.4 Первичная обработка и анализ данных
В первую очередь в единые списки были соединены данные абитуриентов и рейтинги студентов с обоих направлений. После был произведён маппинг данных студентов с абитуриентами по полному совпадению Ф.И.О., то есть для каждого студента из рейтинга до пересдач за второй семестр были подтянуты данные о нём, как об абитуриенте. Мэппинг производился в Microsoft Excel с помощью формулы вертикального подтягивания VLOOKUP. Всего в выборке оказалось 583 студента.
На следующем шаге были определены предметы, по которым студенты получали больше всего незачётов. Такими предметами в первом семестре оказались математический анализ, линейная алгебра и экономическая история. Эти дисциплины изучаются как на направлении «Экономика», так и на направлении «Экономика и статистика» и имеют одинаковые учебные планы.
Именно предметы с самым высоким процентом неудовлетворительных оценок были выбраны по двум причинам:
· Эти дисциплины являются самыми сложными для освоения, поэтому важно заранее знать, кто из студентов находится в группе риска не сдать предмет, чтобы преподаватели могли своевременно оказать дополнительную помощь, а сами студенты имели время на то, чтобы более серьезно заняться предметом.
· При высоком проценте незачётов исчезает проблема несбалансированной выборки. Несбалансированная выборка означает, что объектов одного класса (получил зачёт) в выборке сильно больше, чем объектов другого класса (получил незачёт), вследствие чего алгоритму сложнее на этих данных верно обучиться.
Далее приведены диаграммы, иллюстрирующие процент распределения оценок по линейной алгебре, математическому анализу и экономической истории в первом семестре в порядке убывания доли незачётов.
Самый высокий процент неудовлетворительных оценок в первом семестре оказался за линейную алгебру и составил 24%, что можно увидеть на диаграмме 2.
Диаграмма 2. Распределение оценок по линейной алгебре
Следующим предметом по уровню незачётов оказался математический анализ. Количество неудовлетворительных оценок по нему составило 20%, что продемонстрирована на диаграмме 3.
Диаграмма 3. Распределение оценок по математическому анализу
Количество незачётов по экономической истории составило 14%, что видно их диаграммы 4.
Диаграмма 4. Распределение оценок по экономической истории
Несмотря на то, что большее количество незачётов было по линейной алгебре, в качестве целевой переменной, то есть переменной, которая будет предсказываться, была выбрана оценка по математическому анализу в конце второго семестра, так как этот предмет продолжался до конца года, а линейная алгебра и экономическая история закончились в первом семестре.
На диаграмме 5 представлено распределение оценок по математическому анализу во втором семестре. Процент неудовлетворительных оценок составил 26%, что превысило количество незачётов в первом полугодии.
Диаграмма 5. Распределение оценок по математическому анализу во втором семестре
На следующем шаге было необходимо выявить, по каким переменным следует предсказывать оценку по математическому анализу. Так как данные абитуриентов, такие как баллы за ЕГЭ и как они были получены, доступны для каждого студента с обеих образовательных программ и обоих годов набора, то они были включены в выборку. Однако при анализе рейтингов студентов было обнаружено, что не все предметы одинаковы для программы «Экономика» и программы «Экономика и статистика», к тому же внутри каждой образовательной программы были представлены предметы по выбору, которые проходила только часть студентов с курса. Поэтому в итоговую выборку были включены баллы за обязательные предметы одинаковые для обеих образовательных программ, а также средний балл студента за все предметы.
Таким образом, в итоговом наборе данных присутствовали записи о 583 студентах, содержащие поля, представленные в таблице 4:
Таблица 4. Поля итогового набора данных
Студент |
Ф.И.О. студента |
|
Матем |
Балл за ЕГЭ по математике, от 0 до 100 |
|
Общество |
Балл за ЕГЭ по обществознанию, от 0 до 100 |
|
РуссЯз |
Балл за ЕГЭ по русскому языку, от 0 до 100 |
|
ИнЯз |
Балл за ЕГЭ по иностранному языку, от 0 до 100 |
|
Мат_ЕГЭ |
Как был получен балл по математике: 1 - балл был получен за ЕГЭ 0 - 100 баллов были присуждены за олимпиаду |
|
Общ_ЕГЭ |
Как был получен балл по обществознанию: 1 - балл был получен за ЕГЭ 0 - 100 баллов были присуждены за олимпиаду |
|
Рус_ЕГЭ |
Как был получен балл по русскому языку: 1 - балл был получен за ЕГЭ 0 - 100 баллов были присуждены за олимпиаду |
|
Ин_ЕГЭ |
Как был получен балл по иностранному языку: 1 - балл был получен за ЕГЭ 0 - 100 баллов были присуждены за олимпиаду |
|
ЛинАл |
Оценка за линейную алгебру в 1-ом семестре, от 0 до 10 |
|
МатАн |
Оценка за математический анализ в 1-ом семестре, от 0 до 10 |
|
ЭкономИст |
Оценка за экономическую историю в 1-ом семестре, от 0 до 10 |
|
Ср.балл_1 сем |
Средний балл по всем предметам за 1-ый семестр |
|
МатАн2 |
Оценка за математический анализ в 2-ом семестре, от 0 до 10 |
3.5 Построение модели
Для построения модели классификации итоговый набор данных был загружен и обрабатывался при помощи модуля pandas. Для построения машинного обучения набор данных должен быть представлен в виде матрицы, в которой каждой строке соответствует запись об одном студенте, переменные X1, X2, …, Xn являются характеристиками, а переменная Y является целевой, то есть той, которую необходимо предсказать. Пример матрица проиллюстрирован в таблице 5.
Таблица 5. Матрица в общем виде
X1 |
X2 |
… |
Xn |
Y |
|
X1,1 |
X1,2 |
… |
X1,n |
Y1 |
|
… |
…. |
… |
… |
… |
|
Xm,1 |
Xm,2 |
…. |
Xm,n |
Ym |
В данной модели характеристиками студента являются его баллы ЕГЭ и оценки в университете, а целевая переменная - оценка за математический анализ во втором семестре. Соответственно, описательные характеристики были выбраны в массив X, а целевая переменная была записана в Y. То, как характеристики попадают в переменную X и целевую переменную Y приведено в следующей части кода:
X = file[['Матем', 'Мат_ЕГЭ', 'ЛинАл', 'МатАн', 'ЭкономИст', 'ср балл 1 сем.']]?
y = file['МатАн2']
Далее выборка была псевдо рандомным образом разделена на две части: обучающую и тестовую выборки. Обучающая выборка составила 80%, а тестовая 20%. Для обучающей выборки известны, как переменная X, так и целевая переменная Y. Обучающую выборку алгоритм использует для того, чтобы определить, как входные характеристики влияют на значение целевой переменной. В тестовой выборке алгоритму известны только характеристики каждого студента. Уже обученный на 80% данных алгоритм предсказывает значение целевой переменной. После этого можно проверить верность такого предсказания, так как для этих 20% выборки известен «правильный ответ». Псевдо рандомное разделение выборки на обучающую и тестовую части заключается в том, что разделение происходит рандомно, но оно фиксируется для того, чтобы при выборе различных алгоритмов машинного обучения можно было отследить, какой алгоритм показывает большую точность предсказания на одних и тех же данных.
X_scaled = preprocessing.scale(X)
y_scaled = y
X_train, X_test, y_train, y_test = train_test_split (X_scaled, y_scaled, test_size=0.2,
random_state=42)
Задача десяти классовой классификации, то есть предсказания оценки студента с точностью до балла, не может быть очень точной. Если алгоритм предсказал, что студент получит на экзамене 8, а он получил 7 или 9, нельзя сказать, что это является сильной ошибкой. К тому же задача предсказать точную оценку не имеет смысла. Важно не узнать заранее, какую именно оценку получит студент: 8 или 9, 2 или 3, важно разделить студентов на группы риска: кто скорее всего сдаст, а кто не сдаст. Например, между оценками 8 и 9 практически нет разницы, так как в обоих случаях студент сдал, а между оценками 2 и 3 её нет, так студент не сдал. Однако существует важная грань между оценок 3 и 4, так как они разделяют меду собой зачёт и незачёт. Поэтому было решено ввести три класса:
· Студент с большой вероятностью сдаст
· Студент с большой вероятностью не сдаст
· Группа неопределённости
Границы групп были определены следующим образом:
Таблица 6. Распределение оценок по классам
Предсказанная оценка |
Класс |
Описание класса |
|
5, 6, 7, 8, 9, 10 |
2 |
Студент сдаст |
|
0, 1, 2, 3 |
0 |
Студент не сдаст |
|
4 |
1 |
Неопределённость |
Если алгоритм предсказывает студенту оценку от 5 и выше, он попадает в группу тех, кто с большой вероятностью получит зачёт. Если предсказанная оценка студента ниже 4, то он попадает в группу тех, у кого высокий риск не сдать экзамен. Однако если предсказанная оценка студента равна 4, то он попадает в группу неопределённости, так как ошибка в один балл будет вызывать ошибку классификации. При этом не так страшно классифицировать студента в группу риска, если он сдаст экзамен, чем предсказать, что с большой вероятностью он сдаст, и ошибиться. Также нельзя исключать и человеческий фактор, так оценка за экзамен во многом зависит от студента. Студент с низким уровнем начальных знаний мог хорошо подготовиться в последний момент или списать, а хорошо подготовленный студент мог разволноваться на экзамене и забыть базовые вещи.
Описанная система разделения на классы реализована следующим образом:
def mark_scale(mark):
return {
mark < 4: 0,
4 <= mark <= 4: 1,
mark > 4: 2
} [True]
Далее был протестирован ряд моделей машинного обучения, который включал различные реализации линейной регрессии, метода опорных векторов, наивного байесовского классификатора.
Самую высокую точность показали две модели:
· SVC - Support Vector Classification, линейный алгоритм классификации, основанный на методе опорных векторов.
· Elastic Net - разновидность линейного алгоритма классификации
Ниже представлен код для реализации модели SVC:
clf = svm.SVC()
clf.fit (X_train, y_train)
SVC (C=1.0, cache_size=200, class_weight=None, coef0=0.0,
decision_function_shape=None, degree=3, gamma='auto', kernel='rbf',
max_iter=-1, probability=False, random_state=None, shrinking=True,
tol=0.001, verbose=False)
y_predict = np.array (np.round (clf.predict (X_test)))
А также модели Elastic Net:
clf = sklearn.linear_model. ElasticNet()
clf.fit (X_train, y_train)
ElasticNet (alpha=1.0, copy_X=True, fit_intercept=True, l1_ratio=0.5,
max_iter=1000, normalize=False, positive=False, precompute=False,
random_state=None, selection='cyclic', tol=0.0001, warm_start=False)
y_predict = np.array (np.round (clf.predict (X_test)))
Полностью программные коды для моделей SVC и Elastic Net можно посмотреть в приложениях 4 и 5.
3.6 Точность модели
Метрики в задачах классификации
Для того чтобы оценить точность предсказания необходимо ввести понятия базовых метрик в задачах классификации. Технически в данном исследовании строится модель классификации с тремя классами. Однако одним из этих классов является класс неопределённости, для которого считается, что оценка зависит от самого студента. Поэтому для определения точности модели будем считать, что существуют два класса «студент сдаст» и «студент не сдаст», а группа неопределённости должна быть насколько это возможно маленькой.
Таким образом, для предсказания попадания объекта в один из двух классов можно построить следующую матрицу ошибок, где Y - это класс, предсказанный алгоритмом, а Y - класс, к которому в действительности принадлежит объект.
Таблица 7. Матрица ошибок
Y = 1 |
Y = 0 |
||
Y = 1 |
TP (True Positive) |
FP (False Positive) |
|
Y = 0 |
FN (False Negative) |
TN (True Negative) |
Соответственно значения True Positive и True Negative это верно классифицированные объекты, а False Positive и False Negative это два различных типа ошибок.
Самой очевидной метрикой правильности работы классификатора является Accuracy - доля правильно определённых объектов среди всех предсказаний.
Однако эта метрика не всегда эффективна.
Пусть класс 1 = студент сдаст, а класс 0 = студент не сдаст.
Допустим, что есть 100 студентов, которые сдали экзамен, и 90 из этих 100 студентов мы определили в верный класс, для 10 студентов, получивших незачёт, верно определены были 5.
То есть:
True Positive = 90, False Positive = 5
False Negative =10, True Negative = 5
В таком случае:
При этом, если классификатор будет просто говорить, что все студенты сдадут экзамен, то точность будет такая:
Получается, что данная модель показывает более высокую точность, но не несёт в себе никакой смысловой нагрузки, так как не обладает предсказательной силой.
Чтобы избежать этой ситуации следует оценивать качество работы классификатора для каждой группы отдельно и использовать такие понятия, как Precision и Recall.
Precision - это доля объектов, правильно отнесённых к классу 1, среди всех объектов, классифицированных положительно.
Метрика Recall же демонстрирует, какую часть объектов положительного класса обнаружил алгоритм среди всех объектов положительно класса.
То есть метрика Recall показывает умение алгоритма обнаруживать конкретный класс, а метрика Precision демонстрирует его умение отличать этот класс от других. [36]
Точность модели SVC
Для модели, построенной с помощью метода опорных векторов, были продемонстрированы следующие показатели:
Общий объём выборки 583 студента, тестовая выборка составила 20%, что означает, что предсказания были сделаны для 117 студентов. 23% студентов были отнесены в класс неопределённости, для 68% было предсказано, что они сдадут экзамен, для 9%, что не сдадут.
Диаграмма 6. Распределение предсказаний по классам в модели SVC
Таким образом, из 117 человек для 27 предсказание невозможно, 80 попали в класс тех, кто получит зачёт, а для 10 был предсказан незачёт.
Таблица 8. Распределение студентов по классам в модели SVC
Зачёт |
80 |
|
Незачёт |
10 |
|
Группа неопределённости |
27 |
Для классов «сдаст» и «не сдаст» матрица ошибок выглядит следующим образом:
Таблица 9. Матрица ошибок для модели SVC
Класс 1 (Сдал) |
Класс 0 (не сдал) |
||
Предсказан класс 1 |
TP = 78 |
FP = 2 |
|
Предсказан класс 0 |
FN = 1 |
TN = 9 |
Таким образом, метрики классификатора имеют такие значения:
Несмотря на то, что значения этих метрик высоки, процент класса неопределённости достаточно высок.
Точность модели Elastic Net
В данной модели для 117 человек, для которых было построено предсказание, разбиение на классы выглядело следующим образом:
Диаграмма 7. Распределение предсказаний по классам в модели Elastic Net
Таким образом, из 117 человек предсказание невозможно уже для 17, 87 попали в класс тех, кто получит зачёт, а для 13 был предсказан незачёт.
Таблица 10. Распределение студентов по классам в модели Elastic Net
Зачёт |
87 |
|
Незачёт |
13 |
|
Группа неопределённости |
17 |
Для классов «сдаст» и «не сдаст» матрица ошибок выглядит следующим образом:
Таблица 11. Матрица ошибок для модели Elastic Net
Класс 1 (Сдал) |
Класс 0 (не сдал) |
||
Предсказан класс 1 |
TP = 84 |
FP = 3 |
|
Предсказан класс 0 |
FN = 2 |
TN = 11 |
Таким образом, метрики классификатора имеют такие значения:
Несмотря на то, что в этой модели значения этих метрик немного сократились, существенно уменьшилась доля класса неопределённости. При этом для тех, кто попал в класс неопределённости, в 65% случаев отклонение от предсказанной оценки 4 составило не больше одного балла, то есть оценка студента находилась в промежутке от 3 до 5.
Таким образом, вторая модель оказывается более точной, так как существенно сократилась доля студентов, для которых система не могла предсказать успех сдачи экзамена, а метрики Accuracy, Precision и Recall показывают высокие значения.
Также было выявлено, что баллы за ЕГЭ по русскому языку, иностранному языку и обществознанию не добавляют точности в предсказательную модель. На целевую переменную влияют такие характеристики, как балл за ЕГЭ по математике, был ли этот балл получен за ЕГЭ или за олимпиаду, оценка за математический анализ в первом семестре, оценка за линейную алгебру, экономическую историю, а также средний балл за весь первый семестр. Эти характеристики и были включены в финальные модели.
3.7 Перспективы развития
Данная модель классификации была построена только для двух образовательных программ одного факультета и учитывала лишь данные первокурсников, набранных в 2014 и 2015 годах. При этом были использованы только те данные студентов, которые находятся в открытом доступе, и учитывались оценки студентов из рейтингов в середине года, чтобы предсказать оценку студента в конце года. Однако за годы работы Высшая Школа Экономики собрала гораздо больше данных о своих абитуриентах и студентах. Помимо данных о финальных оценках за модуль или семестр НИУ ВШЭ обладает информацией о всех тех активностях студента, которые привели к этой оценке: это могут быть самостоятельные и контрольные работы, групповые и индивидуальные проекты, посещаемость лекций и семинаров, вовлеченность студента в процесс обучения.
Так как в Высшей Школе Экономики внедрена LMS, все эти данные можно получать с помощью неё. На данный момент LMS используется в различных объёмах на разных факультетах и дисциплинах. То, насколько активно LMS используется в образовательном процессе, во многом зависит от преподавателя и самих студентов. Некоторые преподаватели предпочитают выкладывать в системе все учебные материалы, проводить там тесты и давать студентам проекты, которые необходимо сдавать через LMS, другие же предпочитают привычный способ общения через электронную почту, что может быть удобнее и для многих студентов, так как, например, стираются границы жёсткого дедлайна. Преподаватель может принять выполненную работу после указанного срока, а система такой возможности не даст.
В случае, если все задания и проекты будут сдаваться через LMS, все оценки выставляться в электронном дневнике, а все преподаватели будут выкладывать в системе свои материалы, образуется большая база структурированной информации, которую уже можно использовать для анализа. Для каждого студента будут известны его промежуточные оценки, время, потраченное на просмотр материалов, предложенных преподавателем, места, которые он читал или смотрел более внимательно и места, которые он пропускал, загружает ли студент выполненные задания заранее или отправляет всё в последний момент. Также будут собираться данные об активностях преподавателя: выкладывает ли он материалы, какого типа задания даёт студентам, какие сроки даёт на их выполнение.
Таким образом, при активном использовании LMS можно построить модель, учитывающую все данные, полученные из LMS, для предсказания успешности студента по какому-либо предмету. Такая предсказательная модель становилась бы более точной с каждой новой оценкой, полученной студентом, что позволяло бы предсказывать будущие успехи, опираясь на самые актуальные данные. Подобная система может быть внедрена не для одной образовательной программы, а для каждого факультета. При этом данные об прохождении студентами курсов с одинаковой образовательной программой на разных факультетах могут анализироваться вместе.
В данной главе были описана две реализованные модели предсказания успешности сдачи студентом экзамена в конце первого курса. Были описаны собранные данные, процесс их предварительного анализа, логика построения модели, а также были протестированы различные метрики, определяющие точность предсказательных моделей. Также были приведены перспективы дальнейшего развития.
Заключение
В данной работе были изучены основы машинного обучения, такие как:
· Виды машинного обучения
· Задачи машинного обучения
· Используемые алгоритмы
· Сферы применения
Был проведен анализ опыта применения машинного обучения в образовательных практиках различными образовательными учреждениями.
Результатом данной работы является разработанная модель машинного обучения, позволяющая предсказывать успешность прохождения студентом в конце первого курса дисциплины «математический анализ» на основе данных о его школьных успехах и оценках за первый семестр обучения в университете. Реализованная модель предсказала сдаст или не сдаст студент экзамен для 100 студентов, из которых неверно классифицированы были 5. Таким образом, модель показала точность в 95%.
Список используемой литературы
1. Итоги приемной кампании 2016 года. [Электронный ресурс] / Higher School of Economics Национальный исследовательский университет «Высшая школа экономики» - URL: https://ba.hse.ru/data/2016/11/11/1109560132 / Отчет_2016_бак_Савельева.pdf. (Дата обращения: 25.02.17).
2. Итоги приемной кампании 2012 года. [Электронный ресурс] / Higher School of Economics Национальный исследовательский университет «Высшая школа экономики» - URL: https://ba.hse.ru/data/2012/10/30/1246624257 / Очет_бакалавриат_2012_итог_.pdf. (Дата обращения: 25.02.17).
3. Samuel A.L. Some studies in machine learning using the game of checkers // IBM J. Res. Dev. 1959. Т. 3. №3. С. 210-229.
4. Mitchell T. Machine learning // McGraw-Hill Science/Engineering/Math, 1997. 432 С.
5. Russell S.J. Artificial Intelligence. A Modern Approach., 1995. 106-10 С.
6. Dietterich T. Introduction to Machine Learning // Second Edition Adaptive Computation and Machine Learning, 2010
7. Armstrong J.S. Illusions in Regression Analysis // Forthcom. Int. J. Forecast. 2011.
8. Everitt B., Cluster Analysis // Wiley InterScience. 2011. 330 С.
9. Chandola V., Banerjee A., Kumar V. Anomaly detection // ACM Comput. Surv. 2009. Т. 41. №3. С. 1-58.
10. Yan X., Su X. Linear regression analysis: theory and computing // World Scientific Pub. Co, 2009. 328 С.
11. Freedman D.A. Statistical Models: Theory and Practice. // Cambridge University Press, 2009. 128 С.
12. Quinlan J.R. Simplifying decision trees // Int. J. Man. Mach. Stud. 1987. Т. 27. №3. С. 221-234.
13. Christmann A., Steinwart I. Support Vector Machines. New York, NY: Springer New York, 2008.
14. Gartner's 2016 Hype Cycle for Emerging Technologies Identifies Three Key Trends That Organizations Must Track to Gain Competitive Advantage [Электронный ресурс] / Gartner. - URL: http://www.gartner.com/newsroom/id/3412017 (Дата обращения: 14.05.17).
15. Witten I.H. Data mining: practical machine learning tools and techniques. 621 С.
16. Liu T.-Y. Learning to Rank for Information Retrieval // Found. Trends® Inf. Retr. 2007. Т. 3. №3. С. 225-331.
17. Joachims T., Thorsten. Optimizing search engines using clickthrough data // Proceedings of the eighth ACM SIGKDD international conference on Knowledge discovery and data mining - KDD «02. New York, New York, USA: ACM Press, 2002. С. 133.
18. Lai C.-C. An empirical study of three machine learning methods for spam filtering // Knowledge-Based Syst. 2007. Т. 20. №3. С. 249-254.
19. Sonka M., Hlavac V., Boyle R. Image processing, analysis, and machine vision. // Chapman & Hall Computing, 1993. 555 С.
20. Chintagunta P., Hanssens D.M., Hauser J.R. Editorial-Marketing Science and Big Data // Mark. Sci. 2016. Т. 35. №3. С. 341-342.
21. Jordan M.I., Mitchell T.M. Machine learning: Trends, perspectives, and prospects // Science 2015. Т. 349. №6245.
22. Kruppa J. Consumer credit risk: Individual probability estimates using machine learning // Expert Syst. Appl. 2013. Т. 40. №13. С. 5125-5131.
23. Akoglu L., Faloutsos C. Anomaly, event, and fraud detection in large network datasets // Proceedings of the sixth ACM international conference on Web search and data mining - WSDM «13. New York, New York, USA: ACM Press, 2013. С. 773.
24. Husnjak S. Telematics System in Usage Based Motor Insurance // Procedia Eng. 2015. Т. 100. С. 816-825.
25. Swedloff R. RISK CLASSIFICATION'S BIG DATA (R) EVOLUTION // Connect. Insur. LAW J. Т. 21. №1.
26. Srimani P.K., Koti M.S. Medical Diagnosis Using Ensemble Classifiers - A Novel Machine-Learning Approach // J. Adv. Comput. 2013. Т. 1. С. 9-27.
27. Фадеева Е. BIG DATA в образовании // 2016. С. 20.
28. By The Numbers: MOOCS in 2015 [Электронный ресурс] / Class Central - URL: https://www.class-central.com/report/moocs-2015-stats/ (Дата обращения: 14.05.17).
29. UK «biggest online university course» [Электронный ресурс] / BBC News - URL: http://www.bbc.com/news/education-32721056 (Дата обращения: 14.05.17).
30. Kotsiantis S.B. Use of machine learning techniques for educational proposes: A decision support system for forecasting students' grades // Artif. Intell. Rev. 2012. Т. 37. №4. С. 331-344.
31. Kotsiantis S.B., Pierrakeas C.J., Pintelas P.E. Preventing Student Dropout in Distance Learning Using Machine Learning Techniques // Int. Conf. Knowledge-Based Intell. Inf. Eng. Syst. 2003. Т. 2774. С. 267-274.
32. Knewton: адаптивное обучение в действии [Электронный ресурс] / Newtonew: новости сетевого образования. - URL: https://newtonew.com/tech/knewton-adaptivnoe-obuchenie-v-dejstvii (Дата обращения: 20.05.17).
33. The Future of Big Data and Analytics in K-12 Education [Электронный ресурс] / Education Week - URL: http://www.edweek.org/ew/articles/2016/01/13/the-future-of-big-data-and-analytics.html (Дата обращения: 20.05.17).
34. Osmanbegoviж E., Suljiж M. Data mining approach for predicting student performance // J. Econ. Bus. 2012. Т. X. №1. С. 3-12.
35. Romero C., Ventura S. Educational data mining: A survey from 1995 to 2005 // Expert Syst. Appl. 2007. Т. 33. №1. С. 135-146.
Размещено на Allbest.ru
Подобные документы
Особенности догматического, объяснительно-иллюстративного, проблемного, программированного, развивающего и модульного обучения, их достоинства, недостатки, приоритеты и эффективные сферы применения. Основные задачи учителя при применении метода обучения.
реферат [18,2 K], добавлен 12.09.2011Сущность и классификация технических средств обучения, их разновидности. Особенности применения технических средств обучения в современном мире. Преимущества и недостатки этой сферы образования. Новейшие разработки и технологии будущего в сфере обучения.
реферат [33,2 K], добавлен 27.02.2017Общие и конкретные формы организации процесса обучения, их содержание, сходные и отличительные признаки, оценка преимуществ и недостатков, условия практического применения на современном этапе. Методы психологического обучения в группе и их особенности.
реферат [18,3 K], добавлен 05.03.2013История развития и становления методов обучения. Понятие и сущность процесса обучения, его задачи. Особенности традиционного обучения. Основные представления об обучении в аспекте программированного подхода. Принципы воспитания и их характеристика.
реферат [167,6 K], добавлен 13.01.2011Классификация современных моделей обучения в ВУЗе. Сопоставительный анализ различных моделей обучения. Эффективность применения и тенденции развития американской модели обучения в вузе. Создание условий для становления личности студента как специалиста.
курсовая работа [42,5 K], добавлен 01.02.2014Дидактика как часть педагогики, разрабатывающая проблемы обучения и образования, ее основные категории, закономерности функционирования и назначение. Принципы обучения и существующие в данной сфере технологии, преимущества и недостатки их использования.
презентация [186,8 K], добавлен 25.08.2013Индивидуализация и автоматизация процесса обучения. Бихевиористская теория научения. Основные признаки, принципы, концептуальные основы, задачи и цели программированного обучения, его достоинства и недостатки. Применение алгоритма в дидактике.
презентация [1,2 M], добавлен 23.06.2014Современные инновационные технологии в образовании, их классификация и разновидности, условия и возможности практического применения. Понятие и средства проблемного, программированного, личностно-ориентированного, здоровьесберегающего, игрового обучения.
контрольная работа [33,5 K], добавлен 21.12.2014Понятие творческого мышления и основные факторы, влияющие на его развитие, значение в структуре личности. Средства стимулирования интеллектуальной сферы активными методами обучения. Метод "Мозговой атаки": сущность и содержание, используемые принципы.
контрольная работа [30,5 K], добавлен 17.02.2015Взаимосвязь обучения и развития человека. Основные положения теории развивающего обучения. Принципы дидактической системы. Основополагающие направления развивающего обучения Л.В. Занкова. Содержание и методика обучения. Критерии результатов обучения.
курсовая работа [437,3 K], добавлен 06.02.2015