ОПЫТ ПРОГНОЗИРОВАНИЯ УСПЕВАЕМОСТИ СТУДЕНТОВ ПРИ ПОМОЩИ НЕЙРОСЕТЕВОЙ ТЕХНОЛОГИИ
ЯСИНСКИЙ И.Ф., канд. техн. наук, СЕМЕНОВА М.Б., инж.
Рассмотрен новый способ прогнозирования успеваемости студентов, позволяющий выявить как наиболее одаренных студентов, так и тех, кому могут потребоваться дополнительные занятия.
Ключевые слова: прогнозирование успеваемости, трехслойная нейронная сеть, нейросетевая воронка.
THE EXPERIENCE OF STUDENTS' PROGRESS FORECASTING USING NEURONET TECHNOLOGY
I.F. YASSINSKIY, Ph.D., M.B. SEMEONOVA, engineer
This paper is devoted to a new means of students' progress forecasting, which allows to find both the most capable students and those ones, who need auxiliary studies.
Key words: progress forecasting, three-level neural network, neuronet cup.
Очевидно, что при обучении на успеваемость студента может влиять множество факторов. Разработчики системы прогнозирования успеваемости студентов предложили выделить следующую группу характеристик, на основе которых оценивается перспективность абитуриента:
1) место жительства (г. Иваново / иногородний);
2) номер школы, выпустившей абитуриента (для жителей г. Иванова);
3) выпускная оценка по физике при окончании школы;
4) выпускная оценка по математике;
5) профессия отца; профессия матери (в качестве возможных профессий приняты 10 вариантов: безработный, рабочий, частный предприниматель, служащий, гос. служащий, военнослужащий, врач, инженер, преподаватель (учитель));
6) сведения о семейном доходе.
Система основана на использовании трехслойной нейронной сети прямого распространения (рис. 1).
Входной слой сети состоит из 19-ти элементов. Средний слой (нейросетевая воронка), выполняющий функцию сжатия информации, содержит 13 элементов. Выходной слой представляет собой одну клетку, принимающую значение 1 (перспективный студент) или 0 (студент с низким рейтингом).
Была собрана информация об абитуриентах 2001, 2002, 2003 годов поступления. Перечисленные выше характеристики абитуриентов извлекаются программой из базы данных. Номер школы, место жительства, профессии родителей переводятся в двоичную форму, так как являются качественными показателями. Сведения о семейном доходе и оценки по предметам представлены вещественными числами в долях единицы. После такой обработки данные подаются на входной слой нейронной сети.
I - входной слои
Рис. 1. Структура нейронной сети: , W¡!l - весовые коэффициенты между слоями
В качестве критерия разделения на классы послужил рейтинг студента на 3-м курсе (5-й семестр). Если значение рейтинга превышает 350 баллов, то студента относят к классу перспективных, в противном случае - к классу студентов с низким рейтингом.
Обучение нейронной сети производилось методом обратного распространения ошибки. Задачей сети является разделение представляемых ей образов в виде сочетания характеристик на два класса. Процесс настройки нейронной сети заключается в отыскании значений весов ^ , 4к с помощью определенной
обучающей последовательности (Х, У), где X -предъявляемые образцы, У - двоичные номера их классов, М - общее число образов в обучающей последовательности. Для определения оптимальных значений весов ^ , ^
(1) (2)
(3)
(4)
выполняют следующие действия.
1. Прямое распространение сигнала:
N
0]= 49); ; = 1, 2, - , N ;
1=1
= 1/(1 + ехр(-7/Н;)); N
Ок = ПЛ] М]//0]); к = 1, 2, - , Мк ; ]=1
"к (г) = 1/(1 + ехр(-г/Нк)), где О^ О;, Ок - выходные значения нейронов слоев I, ], к, соответственно; Рк - пороговые сигмоидальные функции слоев ] и к; Н Нк -пороги активационных функций; Ы|, N Ык -число нейронов в слоях I, ^ к, соответственно.
Полученный на выходе результирующий вектор Ок, к = 1,2,-,Ык (Ык = 1), сравнивается с требуемым ответом Ук. Вычисляется составляющая ошибки:
§к/ = ^к - Ок. (5)
2. Обратное распространение сигнала. После прямого распространения выполняется обратный ход, в процессе которого корректируются веса , ^
к
4Г = ] +П1О] 5//;
5/ = 0(1 -
] к 5к ;
к=1
+1 = +^5/,
где верхние индексы г, г+1 означают коррекции.
Прямой и обратный ход выполняются после каждого предъявления очередного образа Х и ответа У. Параметры п и ц2 имеют порядок 0,01 ^ 0,5 и подбираются в процессе вычислений.
Программа имеет интерфейс (рис. 2, а,б).
Согласно приведенным результатам (см. таблицу), обучение нейронной сети до распознаваемости 90 % требует около 1000000 шагов (рис. 3). Обучающее множество состояло из 350 студентов. Данные были предоставлены деканатом ИВТФ и относились к студентам специальностей этого факультета (прикладная математика, программное обеспечение компьютерных систем, информационные технологии).
.//Г
(6)
(7)
(8) номер
Шаг обучения Процент распознаваемости
1000 48,15
10000 49,68
50000 53,41
100000 59,16
200000 68,36
300000 76,42
400000 81,03
500000 83,92
600000 85,88
1000000 89,83
Нейросетевая система классификации абитуриентов (учебная программа версия 8) - Подпрограмма обучения нейронной
Абитуриенты 2001
н kgr fl о IJA NZK p]godf¡ HUDSAM S^j
2 5-47 "агарина Ольга Андреевна 01768 ж 13.11.83
7 5-47 Пленанов Геогий ВалекгиноБич 01773 м 01.05.84
13 5-47 "охрякова Диана Васильевна 011104 ж 15.10.83
► 11 5-47 Успенский Евгений Владимирович 01777 м 07.03.84
3
Абитуриенты 2002
N UÍH -10 JA NZK р gddf! HUDSAM
4 4-47 "амзина Анна Юрьевна 02754 11.01.85
7 4-47 Салина Е катерина Александровна 02757 ж 31.10.85
3 4-47 Сокорин Алексей Сергеевич 02756 м 20.07.83
10 4-47 <очкина Валентина Владимировна 02755 ж 03.01.85
5 4-47 Наумов Юрий Владимирович 02758 м 14.07.85
•
ii—1 -tt
Подготовить значения для нейросети
Абитуриенты 2003
м kgr | fio | ija nzk p|godr ]hudsam sport
7 3-47 морева евгения николаевна 03622 212.10.86
8 3-47 ник0л0г0рская анна владимиров 03623 2 19.4.86
9 3-47 семенова анастасия игоревна 03624 2 Dec 11 1
10 3-47 стрежнев александр иванович 03625 1 Api 221
'1
Ш jJ
Обучить нейронную сеть
Step 985001 Step 986001 Step 987001 Step 9B8001 Step 98S001 Step 980001 Step 991001 Step 992001 Step 983001 Step 984001 Step 995001 Step 996001 Step 987001 Step 998001 Step 999001
pro cent udach procent udach procent udach procent udach procent udach procent udach procent udach procent udach procent udach procent udach procent udach procent udach procent udach procent udach
!85028025352 89,7448379868787 89.7505676286042 89,7572978165002 89,76451 S954984S 89,7710204333127 89.7773059764824 89,7844861043487 89,7883355595815 89,7956843101768 89.8024223091233 89,8080423614033 89,8133502373618 89,8182486781075 89.8254356101746
Вывести веса в файл
BCAvesa_segrn_ábit.tnt
262 М atS r=0,32089552238806 FizSr=0,365671641791045
263 M atS r=0,32089552238806 FizSr=0,365671641791045
264 M atS r=0.32089552238806 FizSr=0.365671641791045
265 M atS r=0,32089552238806 Fiz6r=0.365671641791045
266 M atS r=0,32089552238806 Fiz5r=0,365671641791045
267 M atS r=0,32089552238806 FizSr=0,365671641791045
268 M atS r=0,32089552238806 Fiz6r=0.365671641791045 sigmaMM=0,53135442192025
sigmaM F=0,475941188574517 sigmaFM=0,475941188574517 sigmaFF=0.537926041434619
С
правление базой данны:
■hl I Н-М I IH
Загрузить веса из файла
Обзор
I С: \vesa_segro_abit. tx
Открыть подпрограмму исследования
а)
б)
Рис. 2. Интерфейс подпрограммы: а - подпрограмма обучения нейросети; б - подпрограмма исследования
Рис. 3. Ход процесса обучения нейронной сети
Заключение
Построенная программная система с вероятностью около 90% прогнозирует успеваемость будущего студента.
В качестве метода прогнозирования использована нейросетевая технология. Сеть обучается по способу обратного распростра-
нения ошибки. Информация сжимается с применением нейросетевой воронки.
Список литературы
1. Каллан Р. Основные концепции нейронных сетей: Пер. с англ. - М.: Изд. дом «Вильямс», 2001.
2. Ясинский И.Ф. О двух способах настройки нейронных сетей // Вестник ИГТА. - 2006. - № 4. - С.116-120.
Ясинский Игорь Федорович,
Ивановская государственная текстильная академия,
кандидат технических наук, доцент кафедры прикладной математики и информационных технологий, телефон (4932) 35-78-21.
Семенова Мария Борисовна,
ГОУВПО «Ивановский государственный энергетический университет имени В.И. Ленина», инженер кафедры высокопроизводительных вычислительных систем, телефон (4932) 26-98-29.