DOI: 10.18721/JHSS.9406 УДК 378
о понятии «информация» и методологии информатизации образования
Т.Н. Гнитецкая1, Е.Б. Иванова1, Б.Л. Резник1, Л.Л. Афремов1, А.Б. Мартыненко2
1 Дальневосточный федеральный университет, г. Владивосток, Российская Федерация
2 Югорский государственный университет, г. Ханты-Мансийск, Российская Федерация
Низкий уровень развития методологии информатизации образования существенно ограничивает обоснованный отбор и соответственно внедрение информационных технологий в образовательный процесс. Кроме того, информационные образовательные технологии не всегда согласуются с возможностями человека воспринимать и перерабатывать полученную информацию, в том числе и учебную. Статья направлена на развитие методологии информатизации образования в области понятийного аппарата. Проведен анализ определений понятия «информация», данных разными исследователями. На его основе выделены три подхода к определению этого понятия — содержательный, знаниевый и энтропийный. За критерий научности определения понятия выбран признак «операционного» определения, сформулированный Л. Бриллюэном. Делается вывод о невозможности применения вышеназванного критерия к понятию «информация» в рамках интуитивного подхода. Особое внимание уделено энтропийному подходу, когда убыль энтропии (негэнтропия, по Бриллюэну) рассматривается как количественная мера информации. Показано, что в рамках энтропийного подхода дается определение понятия «информация», на основе которого становится возможным выполнение количественной оценки размера передаваемой информации. Это обстоятельство позволяет авторам статьи выделить энтропийный подход к трактовке понятия информации как научный.
Ключевые слова: информатизация образования; информация; энтропия; содержание; знание
Ссылка при цитировании: Гнитецкая Т.Н., Иванова Е.Б., Резник Б.Л. и др. О понятии «информация» и методологии информатизации образования // Научно-технические ведомости СПбГПУ. Гуманитарные и общественные науки. 2018. Т. 9, № 4. С. 49-57. DOI: 10.18721/JHSS.9406
concept of information and methodology of informatization in education
T.N. Gnitetskaya1, E.B. Ivanova1, B.L. Reznik1, L.L. Afremov1, A.B. Martynenko2
1 Far Eastern Federal University, Vladivostok, Russian Federation 2 Ugra State University, Khanty-Mansiysk, Russian Federation
The methodology of informatization in education is rather poorly developed at present, which significantly limits the opportunities for reasonably selecting and, accordingly, actively introducing information technologies in the educational process. In addition, educational
information technologies are not always consistent with a person's ability to perceive and process the perceived information, including educational information. An example is the problem of cyberbullying. This article aims to develop the conceptual framework for the methodology of informatization in education. We have analyzed the definitions ofthe concept of information proposed by different authors, finding three approaches to defining this concept: content-based, knowledge-based and entropy-based. The operational definition given by Brillouin is taken as the criterion for scientific definition of the given concept. We have concluded that it is impossible to apply the above criterion to the concept of information in the framework of the intuitive approach. Particular attention is paid to the entropy-based approach, where the decrease of entropy (which Brillouin termed negentropy) is regarded as a quantitative measure of information. We have confirmed that the entropy approach defines the concept of information, making it possible to perform quantitative assessment of the size of the transmitted information. This has allowed us to identify the entropy-based definition of information as the scientific definition.
Keywords: informatization of education; information; entropy; content; knowledge
Citation: T.N. Gnitetskaya, E.B. Ivanova, B.I. Reznik, L.L. Afremov, A.B. Martynenko, Concept of information and methodology of informatization in education, St. Petersburg State Polytechnical University Journal. Humanities and Social Sciences, 9 (4) (2018) 49-57. DOI: 10.18721/JHSS.9406
Введение
Сегодня никого не удивляют такие термины, как «информатизация образования», «информационные технологии в образовании», «электронный университет», и прочие выражения, связанные с внедрением компьютеров в процессы обучения и управления образованием. Возникло некое подобие моды на использование в учебном процессе разнообразных технологий, основанных на возможностях компьютеров. Совершен качественный скачок в развитии образовательных информационных технологий — от методов программированного обучения тридцать лет назад к дополненной реальности в наши дни.
В настоящее время появилось много исследований, посвященных использованию информационных технологий в области образования. Однако вполне очевиден и не требует доказательств тот факт, что теоретические положения научного открытия и возникшие на его основе технологии должны иметь один и тот же понятийный аппарат. обеспечение этого баланса является одной из важнейших задач методологии. особенно опасно разделять понятийный аппарат теоретического обоснования и технологий в таких областях, как образование и психология, где результаты воздействия их на человека становятся очевидными не сразу, а лишь по
прошествии нескольких лет. Но темп формирования и развития понятийного аппарата в научной области «Информатизация образования» существенно отстает от темпа внедрения информационных технологий в образовательный процесс. Следует признать, что сегодня возникло много шокирующих терминов, используемых преимущественно в ИКТ-образовании. например, часто вместо ясного и точного термина «сформировать» навыки используется термин «прокачать» навыки, смысл которого не поддается критике по той причине, что он абсурден. Вместе с тем данный термин широко используется в новых методах обучения.
По-нашему мнению, целью информатизации образования должно быть научное исследование процессов передачи, хранения, использования и трансформации информации в обучении и воспитании, а также глубокий методологический анализ терминологии и описаний, который позволит сформировать точный и научный понятийный аппарат. ниже мы проведем анализ определений лишь одного понятия — «информация». Оно существенно выделяется в понятийных аппаратах учебного содержания, процесса обучения и информатизации образования, ведь важнейшей особенностью перечисленных областей образования является их информационная природа. Любая
образовательная технология (а таких технологий известно великое множество) обеспечивает передачу обучающимся информации, заключенной в содержании учебных курсов. Данное обстоятельство и выводит понятие информации на первый план педагогических исследований.
Результаты исследования
Определения понятия «информация». Являясь, по А.Д. Урсулу, «неотъемлемым атрибутом материи» [1, с. 25], информация имеет сложный и многоплановый характер. В разных областях человеческой деятельности это понятие наполняется разным смыслом. На основе анализа трудов в областях философии, образования и математики нами был выявлен широкий спектр определений понятия информации (далеко не полный перечень их приведен в табл. 1—3).
Собранные в статье определения мы классифицировали по следующему признаку — наличию в определении понятия информации связи с одним из способов ее трактовки: содержательным, знаниевым или энтропийным (количественным). Каждый из них рассматривается отдельно. Однако есть определения, которые трудно привести к данной классификации. например, описание информации, рекомендованное С.В. Симоновичем для обучения будущих юристов и экономистов: «...продукт взаимодействия данных и адекватных им методов»1. Еще пример: в энциклопедических словарях (не профильных, не специализированных) поясняется, что слово «информация» произошло от латинского слова «information», что в переводе означает «осведомление, просвещение»24. Введенный В.Н. Брюшинкиным термин «глубинная информация» предполагает информацию, которую наше утверждение сообщает о
1 Симонович С.В. Информатика для юристов и экономистов: учеб. для вузов. Стандарт третьего поколения. СПб.: Питер, 2014. 544 с. С. 162.
2 ГрицановА.А. Новейший философский словарь. Мн., 1999 г. 896 с. URL: http://www.rulit.me/ books/novejshij-filosofskij-slovar-read-224106-421. html#section_519 (дата обращения: 28.08.2018).
3 Большой Российский энциклопедический словарь. М.: Большая Рос. энцикл., 2009. 1887 с. URL: https://slovar.cc/enc/bolshoy-rus/1713252.html (дата обращения: 28.08.2018).
4 Крысин Л.П. Толковый словарь иноязычных слов. М.: Эксмо. 2006. 944 с.
внеязыковой действительности, о ходе событий в эмпирическом мире, рассматриваемом независимо от нашего языка и понятийной системы [2, с. 113, 119]. Данные высказывания имеют определенный контекст, их вряд ли можно рассматривать как определение, ведь определение отражает суть понятия независимо от контекста, в котором его рассматривают.
Содержание и информация. Наиболее распространенной является содержательная трактовка понятия информации. Она обусловлена очевидной связью, существующей между информацией и содержанием, и поэтому присутствует практически во всех определениях, даже в отнесенных нами к другой группе. В рассматриваемую группу (табл. 1) вошли определения, в которых констатируется, что информация есть содержание сообщения или некие сведения. Смысл понятия информации как неких сведений об объекте можно найти во многих словарях. например, в новейшем философском словаре A.A. Грицанова: «...сведения, совокупность каких-либо данных, знаний...»5, Большом Российском энциклопедическом словаре 2009 г.: «...сведения, передаваемые людьми...»6, Толковом словаре иноязычных слов Л.П. Кры-сина: «...сведения об окружающем мире и протекающих в нем процессах...»7. Этот смысл внесен в понятие информации и законом РФ «об информации, информатизации и защите информации»: «...сведения о лицах, предметах, фактах, событиях, явлениях и процессах...»8.
Немного по-другому, но всё-таки в социальном контексте дано определение информации в Математическом энциклопедическом словаре: «...содержание сообщения... передачи или восприятия»9 — речь идет о необходимом наборе данных, характеризующем объект при коммуникации. Практически согласуется с предыдущим определение, данное A.A. Дородницыным: «любая совокупность сигналов,
5 Грицанов A.A. С. 421.
6 Большой Рос. энцикл. словарь.
7 Крысин Л.П. С. 314.
8 Об информации, информатизации и защите информации: федер. закон. № 24-ФЗ [принят Гос. думой 25 января 1995 г.] // Рос. газ. 1995. 22 февр.
9 Математический энциклопедический словарь.
М.: Сов. энцикл., 1988. 847 с. С. 821.
воздействий или сведений, которую некоторая система воспринимает из окружающей среды, передает в окружающую среду и хранит в себе» [3, с. 85]. Как «содержание любого символа» интерпретирует информацию В.А. Бубнов [4, с. 69-75].
Понятие информационной ассоциации, введенное М. Мазуром, также имеет социальный характер, потому что ассоциация предполагает реакцию сознания на основе сравнения с каким-либо опытом. А под информационной ассоциацией он понимает ассоциацию сообщений из поперечного множества сообщений [5, с. 70]. И у Н. Винера в описании информации присутствует реакция человека на внешний мир: он присваивает информации «...обозначение содержания, полученного из внешнего мира в процессе нашего приспособления к нему...» [6, с. 15].
таким образом, на основе анализа приведенных выше определений можно сделать вывод о том, что способ определения информации только на основе содержания фактически имеет социально-коммуникационный характер и предполагает либо набор данных об объекте, либо реакцию человека на объект.
Знание и информация. Прежде чем приступить к обсуждению определений понятия «информация», которые можно объединить в рамках знаниевого подхода к ее трактованию, следует заметить, что большинство исследователей разделяют понятия информации и знания (см. табл. 2). Рассуждения ведутся в основном о некой абсолютной, отделенной от знания информации, не включающей в себя человеческих ценностей. Например, Л. Бриллюэн считал, что исключение человеческой оценки информации — путь к ее научному обсуждению. А значительно позднее, в 2000-е гг., В.Н. Спиц-надель прямо заявил: «...информация — не есть само знание»10.
Наряду с этим многие исследователи вносят человеческий фактор в определения этого понятия, которые и объединены нами в знание-вый подход. Например: «...приспособление к внешнему миру...», рассматриваемое как получение информации, по Н. Винеру, вполне мо-
10 Спицнадель В.Н. Основы системного анализа: учеб. пособ. СПб.: Бизнес-пресса, 2000. 326 с. С. 29.
жет быть представлено как получение знаний о внешнем мире.
По мнению Г.М. Коджаспировой и А.Ю. Коджаспирова, информация — это «...совокупность знаний о фактических данных и зависимостях между ними»11. Задолго до начала обсуждений научной теории информации, в 1828 г. в словаре (Webster's English Dictionary) понятие «информация» толкуется с позиций двух подходов — содержательного и знание-вого. Информация трактуется как «...новости, извещения или знания, сообщенные другими или полученные путем личного изучения и расследования...»12. Вводя понятие семантической информации, В.Н. Брюшинкин рассматривает ее как характеристику знания, выражаемого знаковой формой [2, с. 122].
Вместе с тем эти исследователи обращаются и к другим смыслам информации, понимая ее неоднозначность и невозможность ее описания только с помощью знания. Действительно, знание есть результат переработанных человеком данных об окружающем мире, которые он получил из определенных источников. Таким образом, нельзя не согласиться с указанием, представленным в новейшем философском словаре А.А. Грицанова, что само понятие информации обычно предполагает наличие по крайней мере трех объектов — источника, потребителя, передающей среды. информация не может быть передана, принята или хранима в чистом виде13. Поэтому для определения информации недостаточно связать ее с содержанием или знанием, для ее описания требуется «что-то еще».
Анализируя типы определений понятия «информация», введенных в первой половине прошлого века, В.Н. Брюшинкин отмечает, что еще в 1930-х гг. К.Р. Поппером на содержательном уровне была высказана идея устранения неопределенности, обусловливающей возникновение информации и являющейся, по его мнению, характеристикой знания [7, с. 122]. В те давние годы возникла эта важная связь между процессом возникновения информации
11 Коджаспирова Г.М., Коджаспиров А.Ю. Педагогический словарь. М.: Академия, 2003. 176 с.
12 Webster's English Dictionary. 2012. URL: http:// slovar-vocab.com/english/websters-vocab/information-8331178.html (дата обращения: 28.08.2018).
13 Грицанов А.А. С. 421.
и выбором человеком исхода в какой-либо неопределенности.
Энтропия и информация. Именно неопределенность и энтропия стали «чем-то еще» и легли в основу нового взгляда на информацию. К его основному тезису можно отнести высказывание Л. Бриллюэна: «Мы определяем информацию как нечто отличное от знания, для которого у нас нет количественной меры» [8, с. 29] (см. табл. 3).
Л. Бриллюэн вводит негэнтропийный принцип информации, устанавливая, что информация есть негэнтропия — отрицательное слагаемое энтропии системы в противоположность энтропии как мере недостатка информации. Сравнивая потерю негэнтропии или увеличение энтропии в процессе эксперимента над физической системой с количеством полученной информации, Бриллюэн вводит эффективность эксперимента как отношение информации к потере негэнтропии (увеличению энтропии). Значение же эффективности, в соответствии с теоремой Карно, всегда меньше единицы, если опираться на второе начало термодинамики, а энтропия и информация не могут рассматриваться порознь и зависеть от наблюдателей.
Установив, что научная теория информации начинается с точного определения, Брил-люэн пишет о двух методах точного определения слов в научном языке — математическом и «операционном». При математическом методе определение «равносильно словесному переводу формул, данных в символической форме и основанных на постулатах», при операционном — «в научный язык вводятся только те величины, которые могут быть определены операционно. В экспериментальных науках (к которым относится и педагогика. — Авт.) слова, не поддающиеся операционному определению, признаются не заслуживающими доверия и исключаются из научного словаря».
вместе с тем даже в приведенных в статье (более чем двадцати) определениях доля определений информации, которые не относятся ни к операционным, ни к математическим, составляет 87 %. Это еще раз подтверждает присутствующую в настоящее время неоднозначность трактовок этого понятия и актуальность нашего исследования. Мы не будем относить определения, не попавшие в научную категорию, по
Л. Бриллюэну, к ненаучным, но за приоритетные примем те, на основе которых становится возможной количественная оценка информации. Укажем только на приведенные в табл. 3 определения, которые можно отнести к операционным, т. е. на основе которых возможно выполнить количественную оценку информации. Это определения понятия информации, данные Л. Бриллюэном, К. Шенноном и А.Н. Колмогоровым. Оценочно Бриллюэн [Там же] определяет информацию как функцию отношения числа возможных ответов до и после получения информации, содержащейся в независимых ситуациях.
В 1948 г. К. Шеннон опубликовал свою теорию информации, которая свела воедино исследования тех лет по количественной трактовке информации [9]. Обобщая положения теории, можно определить информацию как содержание сообщения, понижающего неопределенность некоторого опыта с неоднозначным исходом; убыль связанной с ним энтропии является количественной мерой информации. Подтверждение этого смысла понятия информации можно найти в работе А.М. Яглом и И.М. Яглом [10].
А.Н. Колмогоров в своей работе [11] описал известные комбинаторный (алфавитный, символьный) и вероятностный (содержательный) подходы к определению понятия «количество информации» и предложил новый, алгоритмический, подход. По его мнению [11, 12], в содержательном подходе возможна качественная оценка информации, определяемая разноверо-ятными событиями. связь между вероятностью события р и количеством информации I в сообщении о нем выражается формулой Шеннона I = — ^2р, или для п событий с различными вероятностями I = -Ткк=1 рк 1о§2 рк.
Комбинаторный (алфавитный) подход основан на положении, что всякое сообщение можно закодировать с помощью конечной последовательности символов — алфавита. Смысл сообщения либо учитывается на этапе выбора алфавита кодирования, либо не учитывается вообще. Если каждый из N символов алфавита равновероятен (р = 1/^, то, согласно Шеннону, количество информации, которое несет каждый символ, равно I = 1о§2Ж
Алгоритмический подход к измерению информации строится на обобщенном опре-
делении вероятности, основанном на теории рекурсивных функций. Как считает его автор, А.Н. Колмогоров [11], существенным недостатком алгоритмического метода является необходимость построения рекурсивных функций для каждого акта передачи информации от одного объекта к другому, что значительно усложняет процесс измерения информации.
Количественные интерпретации понятия информации обладают неоспоримым преимуществом, так как объединены измеряемой характеристикой — энтропией. Вместе с тем многие исследователи хотели бы дополнить энтропийный смысл информации человеческой способностью творить. такие размышления, несмотря на свою привлекательность, приводили ученых в мир интуиции. Например, немецкий биолог Г. Кастлер рассуждал о двойственности природы информации [13, с. 28—29]. По Кастлеру, эта двойственность обусловлена наличием двух механизмов создания информации — запоминания случайного выбора, который коррелирует с шенноновской теорией, и акта свободной воли. Исследователь приводит пример первого механизма создания информации: набор нужного кода, который сформирован случайным образом, открывает сейф. Закрепление этого выбора создает информацию. Подобная ситуация, по мнению Кастлера, возникла и в случайном соединении молекул, называемом геном. запомненный организмом ген передается по наследству и уже является информацией. Это запоминание случайного выбора может быть перенесено на автоматы, саморазвивающиеся в процессе перебора всех возможных путей достижения результата, максимально приближенного к объективно существующей реальности.
Второй механизм создания информации — акт свободной воли — связан с сознанием. Новое творение (художественное или музыкальное произведение) приводит к возникновению информации. Однако рассуждения Кастлера заканчиваются его же сомнениями в том, что разделить эти механизмы очень трудно. требуется привлечение интуиции, без нее невозможно выделение акта свободной воли. Такой весь-
ма субъективный и трудно уловимый фактор, как интуиция, требует глобального описания непрерывно меняющихся условий его реализации, что чрезвычайно затрудняет его использование в качестве научного параметра. Поэтому ученые сочли нецелесообразным выделение четвертого типа определений понятия информации, связанного с интуицией.
Заключение
На основе анализа определений понятия «информация» установлены три подхода к ее трактовке, но лишь один из них, энтропийный, согласно Л. Бриллюэну, обладает признаком научного. Все определения понятия информации, отнесенные к энтропийному типу, в целом не противоречат друг другу. Так, в зависимости от особенностей решаемых задач количество информации может быть определено в рамках основанных на формулах К. Шеннона комбинаторного (алфавитного, символьного) и вероятностного (содержательного) методов, а также в рамках предлагаемого А.Н. Колмогоровым более общего, алгоритмического, метода.
Как уже упоминалось ранее, процесс обучения можно рассматривать как процесс переноса информации, размер которой во избежание перегрузок необходимо оценивать, а для этого требуется разработка количественных методов оценки информации. решить эту задачу можно лишь на основе использования энтропийного подхода к понятию информации.
Умение рассчитывать энтропию поступающей в сознание информации могло бы быть полезно в решении возникшей недавно, но быстро углубляющейся проблемы кибербуллинга. Не секрет, что одной из причин его возникновения являются перегрузки, вызванные переизбытком информации, получаемой детьми с помощью современных информационных технологий. Сознание имеет канал приема информации со своей пропускной способностью, обусловленной физиологическими и психологическими особенностями человека, что накладывает ограничения на объем принимаемой им информации, оценка которого невозможна без количественного определения информации.
Таблица 1
Определения понятия информации (содержательный подход)
Definitions of the concept of information (meaningful approach)
Определение Источник
Информация — одно из наиболее общих понятий науки, обозначающее некоторые сведения, совокупность каких-либо данных, знаний и т. п. Грицанов A.A. Новейший филос. словарь (Мн., 1999)
Информация — сведения, передаваемые людьми устным, письменным или другим способом (с помощью условных сигналов, технических средств и т. д.) Большой Рос. энцикл. словарь (М., 2009)
Информация — сообщение, осведомляющее о положении дел, состоянии чего-нибудь; сведения об окружающем мире и протекающих в нем процессах, воспринимаемые человеком или специальными устройствами и являющиеся объектом хранения, переработки и передачи Крысин Л.П. Толковый словарь инояз. слов (М., 2006)
Информация — сведения о лицах, предметах, фактах, событиях, явлениях и процессах независимо от формы их представления Федеральный закон № 24-ФЗ от 22 февр. 1995 г.
Информация — содержание сообщения. передачи или восприятия (от лат. Шогтайо — разъяснение, изложение) Математ. энцикл. словарь (М., 1988)
Информация — любая совокупность сигналов, воздействий или сведений, которую некоторая система воспринимает из окружающей среды, передает в окружающую среду и хранит в себе Дородницын A.A. [3]
Информация — преобразование одного сообщения информационной ассоциации в другое сообщение той же ассоциации Мазур М. [5]
Информация — обозначение содержания, полученного из внешнего мира в процессе нашего приспособления к нему Винер Н. [6]
Информация — превращенная форма знания, не тождественная как таковому, т. е. информация не есть само знание. Информация передается описаниями, т. е. ответами на вопросы, начинающиеся словами «кто», «когда», «что», «где», «сколько» Спицнадель В.Н. Основы системного анализа (СПб., 2000)
Информация — содержание, заключенное в символе, которым обозначается то или иное понятие как название определенного объекта Бубнов В.А. [4]
Таблица 2
Определения понятия информации (знаниевый подход)
Definitions of the concept of information (knowledge approach)
Определение Источник
Информация — совокупность знаний о фактических данных и зависимостях между ними Коджаспирова Г.М., Коджаспиров А.Ю. Педагог. словарь (М., 2003)
Информация — (v. t.) News, advice, or knowledge, communicated by others or obtained by personal study and investigation; intelligence; knowledge derived from reading, observation, or instruction (Новости, советы извещения или знания, сообщенные другими или полученные путем личного изучения и расследования; интеллект; знания, полученные из чтения, наблюдения или обучения) Webster's English dictionary. 2012
Информация — семантическая информация как характеристика знания, выражаемого знаковой формой (изначально связана с идеей устранения неопределенности) Брюшинкин В.Н. [2]
список литературы
Таблица 3
Определения понятия информации (энтропийный подход)
Definitions of the concept of information (entropy approach)
Определение Источник
Информация — функция отношения числа возможных ответов до и после (получения информации), и мы выбираем логарифмический закон для обеспечения аддитивности информации, содержащейся в независимых ситуациях Бриллюэн Л. [8]
Информация — содержание сообщения, понижающего неопределенность некоторого опыта с неоднозначным исходом; убыль связанной с ним энтропии является количественной мерой информации Шеннон К.Э. [9] Яглом А.М., Яглом И.М. [10]
Снятие энтропии есть сообщение информации. I = ^^ (комбинаторный подход), • уменьшение неопределенности (вероятностный подход), • сложность (длина) алгоритма (алгоритмический подход), • не скалярная величина Колмогоров А.Н. [11, 12]
Информация создается двумя механизмами: запоминанием случайного выбора — одного из нескольких возможных и равноправных, а также актом свободной воли Кастлер Г. [13]
1. Урсул А.Д. Проблема информации в современной науке. М.: Наука, 1975. 386 с.
2. Брюшинкин В.Н. Логика, мышление, информация: моногр. Л.: Изд-во ЛГУ, 1988. 287 с.
3. Дородницын А.А. Информатика: предмет и задачи // Вестн. АН СССР. 1984. № 2. С. 85-89.
4. Бубнов В.А. О толковании понятия «информация» и количественной мере информации // Вестн. МГПУ. Естественные науки. 2009. № 1. С. 69-75.
5. Мазур М. Качественная теория информации / пер. с польск. О.И. Лочмеля. М.: Мир, 1974. 238 с.
6. Винер Н. Кибернетика, или управление и связь в животном и машине. М.: Сов. радио, 1968. 328 с.
7. Поппер К.Р. Логика и рост научного знания. Избранные работы [пер. с англ.]. М.: Прогресс, 1983. 605 с.
Пштецкая Татьяна Николаевна
E-mail: gnitetskaya.tn@dvfu.ru
8. Бриллюэн Л. Наука и теория информации. М.: Физматгиз, 1960. 392 с.
9. Shannon C.E. А Mathematical Theory of Communication // Bell System Technical J., 1948. Т. 27. С. 379-423, 623-656.
10. Яглом А.М., Яглом И.М. Вероятность и информация. М.: Наука, 1973. 511 с.
11. Колмогоров А.Н. Три подхода к определению понятия «количество информации» // Проблемы передачи информации. 1965. Т. 1, вып. 1. С. 3-11.
12. Колмогоров А.Н. Теория информации и теория алгоритмов. М.: Наука. 1987. 304 с.
13. Кастлер Г. Возникновение биологической организации. М.: Мир. 1967. 92 с.
Иванова Елена Борисовна
E-mail: ivanova.eb@dvfu.ru
Резник Борис Львович
E-mail: gnitetskaya.tn@dvfu.ru
Афремов Леонид Лазаревич
E-mail: afremov.ll@dvfu.ru
Мартыненко Андрей Борисович
E-mail: lena---iv@mail.ru
Статья поступила в редакцию 04.09.2018 г.
references
[1] A.D. Ursul, Problema informatsii v sovremennoy nauke [The problem of information in modern science], Nauka, Moscow, 1975.
[2] V.N. Bryushinkin, Logika, myshleniye, infor-matsiya [Logic, thinking, information], LGU Publ., Leningrad, 1988.
[3] A.A. Dorodnitsyn, [Computer science subject and tasks], Vestnik AN SSSR, 2 (1984) 85-89.
[4] V.A. Bubnov, [On the interpretation of the concept of "information" and the quantitative measure of information], Vestnik MGPU. Yestestvennyye nauki, 1 (2009) 69-75.
[5] M. Mazur, Kachestvennaya teoriya informatsii [Qualitative information theory], Mir, Moscow, 1974.
[6] N. Viner, Kibernetika, ili upravleniye i svyaz' v zhivotnom i mashine [Cybernetics, or control and communication in the animal and the machine], Sovetskoye radio, Moscow, 1968.
[7] K.R. Popper, Logika i rost nauchnogo znaniya. Izbrannye raboty [The logic and growth of scientific knowledge], Progress, Moscow, 1983.
[8] L. Brillyuen, Nauka i teoriya informatsii [Science and Information Theory], Fizmatgiz, Moscow, 1960.
[9] C.E. Shannon, A Mathematical Theory of Communication, Bell System Technical Journal, 27 (1948) 379-423, 623-656.
[10] A.M. Yaglom, I.M. Yaglom, Veroyatnost' i infor-matsiya [Probability and information], Nauka, Moscow, 1973.
[11] A.N. Kolmogorov, [Three approaches to the definition of "amount of information"], [Information transfer problems], 1 (1) (1965) 3-11.
[12] A.N. Kolmogorov, Teoriya informatsii i teoriya algoritmov [Information Theory and Algorithm Theory], Nauka, Moscow, 1987.
[13] G. Kastler, Vozniknoveniye biologicheskoy or-ganizatsii [The emergence of a biological organization], Mir, Moscow, 1967.
Gnitetskaya Tatyana N.
E-mail: gnitetskaya.tn@dvfu.ru
Ivanova Elena B.
E-mail: ivanova.eb@dvfu.ru
Reznik Boris L.
E-mail: gnitetskaya.tn@dvfu.ru
Afremov Leonid L.
E-mail: afremov.ll@dvfu.ru
Martynenko Andrey B.
E-mail: lena---iv@mail.ru
Received 04.09.2018.
© Санкт-Петербургский политехнический университет Петра Великого, 2018