Научная статья на тему 'Количественные меры информации и оптимизация группового сотрудничества при обучении'

Количественные меры информации и оптимизация группового сотрудничества при обучении Текст научной статьи по специальности «Компьютерные и информационные науки»

CC BY
89
37
i Надоели баннеры? Вы всегда можете отключить рекламу.

Аннотация научной статьи по компьютерным и информационным наукам, автор научной работы — Фирстов Виктор Егорович

Для эффективной реализации педагогики сотрудничества в обучении предлагается информационная концепция при разбиении учебной группы на коалиции, когда критерием оптимизации разбиения выступает принцип минимальной информационной энтропии.

i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по компьютерным и информационным наукам , автор научной работы — Фирстов Виктор Егорович

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

To realize the conception in pedagogies effectively, an informational conception of separation student's groups is suggested when the optimization criteria of separating represents the principle of minimization of informational entropy.

Текст научной работы на тему «Количественные меры информации и оптимизация группового сотрудничества при обучении»

УДК51:371;510.662;681.3

В.Е. Фирстов

КОЛИЧЕСТВЕННЫЕ МЕРЫ ИНФОРМАЦИИ И ОПТИМИЗАЦИЯ ГРУППОВОГО СОТРУДНИЧЕСТВА ПРИ ОБУЧЕНИИ

Для эффективной реализации педагогики сотрудничества в обучении предлагается информационная концепция при разбиении учебной группы на коалиции, когда критерием оптимизации разбиения выступает принцип минимальной информационной энтропии.

Обучаемый контингент, групповое сотрудничество,

информационная энтропия

V.E. Firstov

INFORMATIONAL CONCEPTION OF OPTIMIZATION OF GROUP COOPERATION IN TEACHING

To realize the conception in pedagogies effectively, an informational conception of separation student’s groups is suggested when the optimization criteria of separating represents the principle of minimization of informational entropy.

Trainee contingent, group cooperation, informational entropy

Наиболее важным моментом педагогики сотрудничества является формирование разбиения обучаемого контингента на коалиции, при котором реализуется оптимальный учебный эффект. Для разрешения данной проблематики предлагаются следующие теоретико-информационные соображения.

Пусть A={a^ a2;...;am} - конечное множество, представляющее некоторый обучаемый контингент, в рамках которого проводится следующее педагогическое измерение: данной аудитории предлагается выполнить некоторое задание, после чего засекается время его выполнения отдельными учащимися. Пусть результат такого измерения дает цепочку неравенств 0<t1<t2<.<tm<T, где t1; t2; ...; tm - моменты времени, соответствующие выполнению задания 1-м; 2-м; ...; m-м учащимся, T - некоторый временной регламент. Предполагая, что данная цепочка неравенств - это результат статистического осреднения по нескольким таким измерениям, далее вводится параметр а = 1-t/T, определяющий распределение вероятностей

p(ai ) = a =-------а-, i = 1; m , (1)

a a,j +а2 +... + am

которые, очевидно, образуют полную систему, характеризующую рейтинги отдельных учащихся при выполнении данного задания.

Пусть теперь для улучшения показателей при обучении контингента A задействована технология группового сотрудничества. Формально это выражается посредством разбиения множества

A = A1 ^ A2 ^...^ An, Aj ^ Ak = 0, j * k, j;k =1 n , (2)

причем параметры этого разбиения, связанные с формированием классов ЛУ^Л, в данном случае выступают как параметры оптимизации рассматриваемой технологии обучения. Проведение самой оптимизации в рамках излагаемой модели осуществляется следующим образом.

Сначала заметим, что для мощностей |ЛУ| классов разбиения (2) должно выполняться соотношение:

|Л| + |Л2 | + ... + К1 = И = т■ (3)

Теперь определим вероятности

Р] =Шаг) , ^аг е И , (4)

Чг ^^Л| , 1 1 П , (5)

которые, учитывая (1)-(3), представляют полные системы. Иными словами, Р] есть вероятность того, что некоторый элемент из А входит в класс Л], а Ч] есть вероятность того, что выбранный наугад класс из разбиения (2) содержит |ЛУ| элементов. Тогда с распределением вероятностей (4) связана энтропия информации

Н(Р) = -^Р] 10§2 Р] , (6)

]=1

а с распределением вероятностей (5) - энтропия

Н(Ч) = -ЪР] 1о§2 Ч] . (7)

]=1

Оптимум в рассматриваемой информационной модели достигается, если минимальна энтропия Н(ч). В работе [1] установлено, что искомый минимум Н(ч) обеспечивается при условии

Р] = ] ] = 1;п . (8)

Условие (8) показывает, что при оптимизации группового сотрудничества в учебном процессе разбиение (2) должно формироваться с учетом рейтингов (1) таким образом, чтобы при определении групповых вероятностей (рейтингов) (4) обеспечивался минимум энтропии Н(р) в (6). Впрочем, помимо «интеллектуальных» (рейтинговых) показателей при формировании групп должна также учитываться психологическая совместимость учащихся в группе и этот фактор можно контролировать методом социометрической матрицы [2].

Покажем на данном примере, что внедрение в учебный процесс технологии сотрудничества повышает его эффективность и теоретически этот факт проявляется в снижении информационной энтропии рассматриваемого учебного процесса, которое в данном случае выражает более глубокое восприятие учебного материала. Для этого рассмотрим разность

АН = Н (Л)-Н (Р )=ЪР] 1о§2 Р] -ЪР(аг )1о§2 Р(аг ) (9)

]=1 ]=1

между информационной энтропией Н(Л) при обучении данного контингента А как целого и энтропией Н(р) при обучении аудитории, разбитой на группы согласно (2). Разворачивая вероятности Р] по компонентам разбиения (2)

Р1 = Р11 + Р12 + ... + Р1 л Р2 = Р 21 + Р 22 + ... + Р2 л

....................... (10)

Рп = Рп1 + Рп2 + ... + РЩп , где _/1+/2+...+/п=т; 1 < _/ь...; _/п < т, после подстановки (10) в (9) получаем

(( + ... + Р11 )1оБ2 (рп + ... + Р л )+ ... + (Р п1 + ... + Рп]п )1о§2 (Рп1 + ... + Рп]п )

- (1 ) 1о§2 Р(а1 )+ .. + Р(ат ) 1о§2 Р(ат )) =

Поскольку, в связи с (10),Рп;...;РЫ - это некоторая перестановкаР(а1); ...;Р(ат), то,

полагая для определенности, например, р11= Р(а1); получаем

(л Р(а2 ) + ... + Р(аУ

Рп1 = Р(ат), и, продолжая (11),

= Р(а1 )1о§;

1 + -

Р(а1)

+ .. + Р(ат )1о§;

(л . Р(ат-1 )+ ... + Р(ат-1 )'

1 + -

Р(ат )

> 0 .

Таким образом, установлено, что Н(Л)>Н(р), т.е., по сравнению с Н(Л), реализация технологии сотрудничества в учебном процессе приводит к снижению соответствующей информационной энтропии до значения Н(Р), поскольку при разбиении на группы учебная информация прорабатывается не отдельным учащимся, а в рамках группы, что снижает неопределенность этой информации и, как следствие, обеспечивает ее лучшее понимание и усвоение.

Помимо условия (8), процесс оптимизации технологии сотрудничества в учебном процессе, естественно, зависит от способа разбиения контингента на группы, для которого параметрами управления выступают количество классов п в разбиении (2), а при фиксированном п (1<п<т) каждое такое разбиение может иметь различную информационную энтропию, в силу особенностей распределения вероятностей (1), и, разумеется, следует выбрать конфигурацию, отвечающую минимуму энтропии (6).

Представленную модель оптимизации технологии сотрудничества при обучении (1)-(8) проиллюстрируем численным примером. Пусть обучаемый контингент представлен множеством А={1;2;3;4;5} и пусть этому контингенту предложено выполнить задание, на которое регламентом отведено Т = 10 мин. Данные по времени (мин) выполнения задания отдельными учащимися приведены в таблице и по ним с помощью соотношения (1) вычислены величины аг и р(/).

Результаты выполнения задания контингентом А

/ 1 2 3 4 5

и 5 3 6 7 9

а/ 0,5 0,7 0,4 0,3 0,1

Р(0 0,25 0,35 0,2 0,15 0,05

Анализ примера начнем с замечания

о том, что в ситуации, когда

рассматривается полная система из т событий, самый неблагоприятный случай возникает, если эти события

равновероятны (каждое с вероятностью

и соответствующая

информационная энтропия оказывается

Р = / ) т

1

1

т

т

максимальной Ншах(т)=т I-------1о§2— I =1о§2 т. В данном случае т=5 и, следовательно,

получается Нтах(5)= 1о§2 5^2,322 бит. Энтропия Н(Л) с учетом табличных данных оказывается равной:

Н(Л) = -£Р(г)1о§2 Р(г) = -(0,251о§2 0,25 + 0,351о§2 0,35 + 0,21о§2 0,2 +

г=1

+ 0,15 1о§2 0,15 + 0,05 1о§2 0,05) « 2,121 бит < Нтах (5) .

Теперь вычислим значения информационной энтропии для различных вариантов разбиения множества А на классы. При т=5 и п=2 возможны два типа разбиений: (1;4) -

1-элементный и 4-элементный классы и (2;3) - 2-элементный и 3-элементный классы. В случае разбиений (1;4) при Л ={1}^{2;3;4;5} информационная энтропия равна:

Нх = -0,25 1о§2 0,25-(0,35+0,2+0,15+0,05) 1о§2 (0,35+0,2+0,15+0,05) « 0,811 бит.

Аналогично находим: Н2^0,934; Н3^0,722; Н4^0,645; Н5^0,29 бит.

В случае разбиений (2;3) при А ={1;2}и{3;4;5} информационная энтропия равна

#(12) = -(0,25+0,35) 1о§2 (0,25+0,35)-(0,2+0,15+0,05) 1о§2 (0,2+0,15+0,05) * 0,971 бит.

Аналогично имеем: #(13)*0,993; #(14)*0,971; #(15)*0,881; #(23)*0,993; #(24)*1,0; #(25)*0,971; #(34)^0,934; #(35)~0,811; #(43)*0,722 бит.

При т=5 и п=3 также возможны два типа разбиений: (1;2;2) - 1-элементный и два

2-элементных класса и (1;1;3) - два 1-элементных и 3-элементный классы. В случае разбиений (1;2;2) при ^={1}^{2;3}^{3;4} информационная энтропия равна:

#К23) = -0,25 1о& 0,25 - (0,35+0,2) ^2 (0,35+0,2) - (0,15+0,05) 1о& (0,15+0,05) * 1,438 бит.

Аналогично вычисляем: #ц24)*1,5; #ц25)*1,471; #2(13)*1,512; #2(14)*1,559;

#2(15)^1,581; #э(12)~1,37; #3(14)*1,522; #3(15)*1,485; #4(12)*1,353; #4(13)*1,458; #4(15)*1,406; #5(12)^1,18; #5(13)^1,235; #5(14)*1,219 бит.

В случае разбиений (1; 1 ;3) при А={1}и{2}и{3;4;5} информационная энтропия

равна:

#12(345) = -0,25 1о§2 0,25 - 0,35 1о§2 0,35 -(0,2+0,15+0,05) 1о§2 (0,2+0,15+0,05) * 1,559 бит.

Аналогично находим: #13(245)* 1,438; #14(235)* 1,353; #Щ234)*1,076; #23(145)*1,5 1 2; #24(135)* 1,441; #25(134)* 1,188; #34(125)* 1,279; #35(124)*0,991; #45(123)*0,887 бит.

При т=5 и п=4 возможен только один тип разбиений вида (1; 1; 1 ;2) - три 1-элементных и 2-элементный классы. В этом случае при А={1}^{2}^{3}^{4;5} информационная энтропия равна

#123 = -0,25 1о§2 0,25 - 0,35 1о§2 0,35 - 0,2 1о§2 0,2 - (0,15+0,05) 1о§2 (0,15+0,05) * 1,958 бит.

Аналогично находим: #124* 1,941; #125*1,776; #134*1,903; #135*1,68; #145*1,719; #234*2,044; #235*1,73 9; #245*1,793; #345*1,727 бит.

По данным вычислениям из 40 вариантов коалиций определяем интересующий минимум энтропии (6), который в рассматриваемом примере равен: шт #(р)=#5=0,290 бит и наблюдается при разбиении А={5}^{1;2;3;4}. Это и есть оптимальное разбиение на коалиции (классы) при обучении контингента А в рамках педагогики сотрудничества, которое в реальных условиях, естественно, должно уточняться с учетом психологической совместимости учащихся.

Отметим, что в реальности поиск оптимальных коалиционных конфигураций, как правило, не требует обработки всех возможных разбиений обучаемого контингента, поскольку обычно всегда имеют место дополнительные ограничения на конфигурации разбиений, обусловленные частными особенностями данного контингента, и, как следствие, объем вычислений при этом заметно снижается. Например, если дополнительно потребовать, чтобы в каждой коалиции было не менее двух учащихся, то, в рамках рассмотренного примера, вместо 40 вариантов разбиений, остается только 5 разбиений вида (2;3), из которых минимальной энтропией обладает разбиение А={4;5} ^{1;2;3} с энтропией #(45)*0,722 бит.

Таким образом, можно констатировать, что в рамках представленной информационной модели (1)-(11) разработан метод рациональной организации педагогики сотрудничества в обучении путем оптимизации процесса разбиения обучаемого контингента на коалиции по принципу минимизации информационной энтропии системы.

ЛИТЕРАТУРА

1. Яглом А.М. Вероятность и информация / А.М.Яглом, И.М.Яглом. М.: Наука, 1973. 511 с.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

2. Лидл Р. Прикладная абстрактная алгебра / Р. Лидл, Г. Пильц; пер. с англ. И.О. Корякова, под ред. Л.Н. Шеврина. Екатеринбург: Изд-во Урал. ун-та, 1996. 744 с.

Фирстов Виктор Егорович -

доцент кафедры «Компьютерная алгебра и теория чисел»

Саратовского государственного университета им. Н.Г. Чернышевского

Статья поступила в редакцию 07.02.08, принята к опубликованию 25.04.08

i Надоели баннеры? Вы всегда можете отключить рекламу.