Научная статья на тему 'Специфика и направления машинного представления процессов обучения'

Специфика и направления машинного представления процессов обучения Текст научной статьи по специальности «Компьютерные и информационные науки»

CC BY
630
103
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
АЛГОРИТМ / ALGORITHM / МАШИННОЕ ОБУЧЕНИЕ / MACHINE LEARNING / ОБУЧАЮЩАЯ ВЫБОРКА / TRAINING SAMPLE / СЕМАНТИЧЕСКОЕ СОДЕРЖАНИЕ / SEMANTIC CONTENT / КЛАССИФИКАЦИЯ / CLASSIFICATION / НЕЙРОКОМПЬЮТЕРНЫЙ ИНТЕРФЕЙС / NEUROCOMPUTING INTERFACE / НЕЙРОН / NEURON / РАСПРЕДЕЛЕННЫЙ КОД / DISTRIBUTED CODE

Аннотация научной статьи по компьютерным и информационным наукам, автор научной работы — Демиров В. В.

В статье рассматриваются предпосылки и условия возникновения такого направления в рамках искусственного интеллекта как машинное обучение. Раскрываются процедурные моменты реализации машинного обучения на основе алгоритмов, которые при помощи методов теории вероятностей и математической статистики оказываются способны к обучению. Под обучением понимается способность алгоритма работать с данными, которые не входят в обучающую выборку как некую матрицу «признак-объект», элементам которой поставлены в соответствие метки класса или выходы. Раскрываются направления реализации машинного обучения в различных прикладных аспектах компьютерных наук, а также перспективы машинного обучения в рамках понимания реального обучения как ядра интеллектуальной деятельности биологических организмов.

i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по компьютерным и информационным наукам , автор научной работы — Демиров В. В.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Specificity and direction of the machine learning process PRESENTATION

In the article discusses the prerequisites and conditions of such direction of the artificial intelligence as a machine learning. Procedural aspects of the implementation of machine learning, based on the algorithms that capable to learning by using methods of probability theory and mathematical statistics are disclosed. This learning is the ability of the algorithm to work with the data that are not come in to the learning sample as what we know about a certain subject area. Directions of realization of machine learning in various application aspects of computer science, as well as prospects of machine learning in the framework of the understanding of the real learning as the core of intellectual activity of biological organisms are revealed.

Текст научной работы на тему «Специфика и направления машинного представления процессов обучения»

УДК 001.1

СПЕЦИФИКА И НАПРАВЛЕНИЯ

МАШИННОГО ПРЕДСТАВЛЕНИЯ ПРОЦЕССОВ ОБУЧЕНИЯ

В.В. Демиров

Институт философии НАН Беларуси, Центр управления знаниями и компетенциями, Минск, Белоруссия vitaly. demirov@gmail. com

Аннотация

В статье рассматриваются предпосылки и условия возникновения такого направления в рамках искусственного интеллекта как машинное обучение. Раскрываются процедурные моменты реализации машинного обучения на основе алгоритмов, которые при помощи методов теории вероятностей и математической статистики оказываются способны к обучению. Под обучением понимается способность алгоритма работать с данными, которые не входят в обучающую выборку как некую матрицу «признак-объект», элементам которой поставлены в соответствие метки класса или выходы. Раскрываются направления реализации машинного обучения в различных прикладных аспектах компьютерных наук, а также перспективы машинного обучения в рамках понимания реального обучения как ядра интеллектуальной деятельности биологических организмов.

Ключевые слова: алгоритм, машинное обучение, обучающая выборка, семантическое содержание, классификация, нейрокомпьютерный интерфейс, нейрон, распределенный код.

Введение

Все из нас владеют хоть одним естественным языком, кто-то несколькими, а кто-то еще и искусственными языками, используемыми для написания программ. При этом никто не будет отрицать, что ЭВМ не «догадывается» о смысле и назначении написанных человеком программ. Они преимущественно локально-процедурным образом комбинируют символы, которые подчиняются жестким синтаксическим правилам и имеют однозначную семантическую интерпретацию.

В этой связи, первое и ключевое свойство общения на естественном языке, которое бросается в глаза - это то, что мы способны однозначно понять сообщение даже если в нем содержатся неполные, неправильно построенные фразы или же выражения, не имеющие значения (не указывающие на определенные предметы). Очевидно, что такие вольности не допустимы по отношению к ЭВМ, для которых малейшее отклонение от набора жестких правил при построении текста программ делает их «непонятными».

Из этого можно сделать вывод, что человеческий интеллект как продукт эволюции предназначен скорее не для того, чтобы эффективно усваивать определенные знания, состояния событий и положения вещей, но скорее для того, чтобы учиться в условиях неопределенности и неполноты системы событий. И, далее, на основе происходящего обучения вырабатывать новые критерии того, что относить к существенным признакам в рамках данной системы событий.

1 Предпосылки и форма реализации машинного представления процессов обучения

Технические аспекты обучения наиболее полно представлены в таком направлении как машинное обучение (МО). Оформившись на стыке дискретной математики, теории вероятностей, математической статистики и численных методов оптимизации, МО представляет собой направление (подраздел искусственного интеллекта) занимающееся изучением методов построения алгоритмов, способных к обучению, благодаря которым машина способна демонстрировать поведение, незапрограммированное напрямую.

Необходимость в МО вызвана, прежде всего, стремительным ростом знаний, накапливаемых человечеством; знаний, на основе которых экспертам в тех или иных предметных областях (ПрО) приходится принимать решения. Причем, сегодня достаточно редко эксперт принимает решения на основании всего объема, полноты скрытых зависимостей и закономерностей знаний его ПрО.

Известно, что компьютеры обладают колоссальной скоростью вычислений и объемами памяти, которую методы МО стремятся превратить из статического индексированного хранилища файлов в активную информационно-аналитическую систему. Систему, которая на входе получала бы некоторый объём текущих знаний о ПрО, а на выходе бы генерировала ряд гипотез по обнаружению новых для этой ПрО закономерностей.

В качестве необходимых компонентов МО можно назвать появление в 70-х годах символьного вывода, позволяющего осуществлять аналитические преобразования или взаимные преобразования различных логических систем, а также алгоритма построения деревьев решений ^шп1ап ГО3 - один из алгоритмов для построения дерева принятия решений, разработанный Дж. Р. Квинланом и состоящий из трех шагов: подсчета энтропии всех неиспользованных признаков по отношению к тестовым образцам, выбора признака с минимальной энтропией, создания содержащего этот признак узла дерева) [1]. При этом ключевым явилось появление в 90-х годах алгоритма повторного семплирования1. Согласно последнему, выборка из некой генеральной совокупности должна делаться с повторениями, за счет чего можно получить большое количество других множеств, на которых можно обучаться. И все эти множества, несмотря на то, что взяты из одной и той же совокупности, будут разные.

Руководствуясь данными методами, фактическое МО начинается с того, что имеется множество Х (объектов, примеров, ситуаций, входов) и множество У (ответов, откликов, меток, элементов класса, выходов), а также некоторая зависимость, позволяющая по х е X предсказать у е У. Эта зависимость может быть детерминированной и однозначно по каждому х предсказывать у (допустимы и варианты многозначной детерминации в случае многозначной функции), либо иметь вероятностные характеристики. Эта зависимость известна только на объектах обучающей выборки:

{(х(г),у(г)): х(г) е X,у(г) е У (г = 1,..., Я)}

Конечное множество упорядоченных пар обучающей выборки «признак ^ выход» (х(г), у(г)) е X х У называется прецедентом обучающей выборки. Признак в данной паре появляется исходя из того, что объект х е X всегда берется с некоторым у'-м признаком или атрибутом и поэтому объект х представляется как вектор признаков х = (х1, Х2,..., х^), где ху е (у = 1, 2,., ё). Таким образом,

x=Ql х & х... х

На основе прецедентов обучающей выборки необходимо восстановить зависимость или функцию у =/(х), которая для каждого вектора признаков х определяет у, представляющий

1 От английского sample - относительно небольшой оцифрованный звуковой фрагмент.

класс, к которому принадлежит объект x. В зависимости от того, какие значения может принимать ответ y, различают разные классы задач. Например, если множество Y состоит из вещественных чисел, то говорят о задачах восстановления регрессии, конечность множества Y определяет задачи классификации и т.д. Необходимая функция восстанавливается на основе матрицы обучающих примеров (Data Set) из множества возможных моделей F и экстраполируется на новые объекты ПрО как генеральной совокупности. Математической основой, определяющей существенные критерии во взаимосвязи данных в Data Set, являются целевые функции (Target - целевая функция, минимум или максимум которой требуется найти), над которыми надстраиваются решающие функции как методы принятия решения.

Таким образом, специалист по МО набирает большое количество признаков, для которых известен ответ (принадлежность к множеству Y) и на основании которых машине необходимо обучиться. Далее, определяется множество всех возможных потенциальных моделей, которые могут объяснить новые данные тестовой выборки, не входящие в обучающую выборку. Поскольку универсальных методов МО не существует, то в зависимости от количества ошибок на тестовой выборке можно говорить об успешности алгоритма обучения. Но появляется вопрос: как понять, насколько сильно ошибается алгоритм, если для новых объектов неясна их зависимость от элементов множества Y как неких решений, классифицирующих меток или выходов? Какие элементы ПрО наиболее рационально взять в качестве элементов тестовой выборки?

Известно, что получения ответов на подобные вопросы целесообразно обучающую выборку искусственно разделить на новую обучающую выборку и тестовую выборку, называемую еще контрольной. При этом на первой можно обучаться, а на второй получать оценку качества этого обучения. Для преодоления того, что эта оценка получена на ограниченном объеме данных, следует осуществлять дальнейшее деление обучающей выборки на N равных частей и осуществлять скользящий контроль, попеременно выбрасывая каждую из частей, на которой обучились, и, далее, производить контроль и усреднение результатов на остальных. В процессе данного обучения необходимо восстановить или аппроксимировать зависимость (функцию), которая есть между элементами множеств X и Y. Поскольку алгоритм - это метод вычисления функции, то построение функции по заданной обучающей выборке называется алгоритмом или методом обучения. Поскольку функция f выбирается из некоторого множества возможных моделей F, то алгоритм обучения является процессом построения функции по заданной обучающей выборке, возникающим вследствие подгонки (fitting) под нее модели. Наиболее общим способом данной подгонки является описанный метод скользящего контроля и метод потенциальных функций, являющийся частным случаем метода k ближайших соседей - kNN (от англ. k-nearest neighbor algorithm). Данный метод реализуется при помощи метрического классификатора, позволяющего оценить вес или важность объекта обучающей выборки для классификации на основе формализации сходства посредством функции расстояния между объектами. При этом следует отметить, что выбор формального представления такого расстояния - это основная проблема метода kNN, которая является предметом бурных обсуждений и эвристических поисков. Используется и ряд других методов, такие как метод минимизации эмпирического риска, метод группового учета аргументов, байесовский информационный критерий и т.д.2

Таким образом, при помощи данных методов обучения происходит выделение из множества моделей F единственной f, которой на вход можно подавать признаки, которые она никогда «не видела», а она будет выдавать для них решения. Сами алгоритмы обучения, таким образом, можно определить как способы выбора по обучающей выборке и потенциальному

2 По затронутым вопросам рекомендуем читателям обратиться к новой книге члена нашей редакции: Загоруйко, Н.Г. Когнитивный анализ данных / Н.Г. Загоруйко. - Новосибирск: Академическое изд-во «Гео», 2013. - 186 с. (Примеч. ред.)

множеству моделей одной единственной модели, устанавливающей далее функциональное соответствие между «признаком и выходом» [ 1].

Описанные выше методы или алгоритмы обучения в наиболее общем смысле относятся к обучению с «учителем». В случае искусственных нейросетей (ИНС) для данного типа обучения при предъявлении входного вектора признаков, заранее имеется некоторый эталон в качестве вектора целевых выходных значений, в соответствии с которым сравниваются результирующие выходы и корректируются веса связей. Настройка весов на начальном этапе перед подачей входного вектора признаков осуществляется произвольно. Затем, после подачи на вход учебных примеров, в каждом узле происходит вычисление ошибки для учебного примера. Функция ошибки Е выглядит следующим образом:

E =1 - Я)2, p 1 =

где p - количество примеров, которые обработала ИНС; yi - реальный выход ИНС; di - идеальный или определяемый эталоном выход ИНС.

Соответственно главное назначение коррекции весов состоит в минимизации функции ошибки E. Данная функция реализуется за счет алгоритма обратного распространения ошибки, приближающего выходной сигнал сети к идеальному за счет того, что реальный выход сети yi вычитается из идеального di во время повторного входа настраивающего веса в соответствии с правилом коррекции ошибок.

В случае обучения без «учителя» при предъявлении входного вектора сеть самоорганизуется посредством настройки своих весов согласно определенному алгоритму. Классическим в данном случае является алгоритм обучения Хэбба [2], выражающий то, что синапти-ческое соединение двух нейронов усиливается, если оба эти нейрона возбуждены. Это можно представить как корреляционный алгоритм, отражающий усиление синапса в соответствии с корреляцией уровней возбужденных нейронов, соединяемых данным синапсом. Данное соотношение выражается следующим равенством:

w1J(t +1) = wiJ(t) + NET\ х NETj,

где wj(t) - сила синапса от нейрона i к нейрону J в момент времени t; NET (сокращение от Network - сеть) - уровень возбуждения предсинаптического нейрона; NETj - уровень возбуждения постсинаптического нейрона. Заряд нейрона (разность потенциалов по отношению к внеклеточной среде) в состоянии покоя (поляризация) отрицателен: -70 мв (милливольт), -порог возбуждения равен -30 мв, после его заряд нейрона резко возрастает (деполяризация) до +40 мв, а затем падает (гиперполяризация) примерно до -80 мв.

Математические преобразования, осуществляемые в процессе обучения, не ставят своей целью наиболее полно отразить обучающую выборку. Необходимо выявить только общую закономерность данных в этой выборке, при этом сами данные могут либо быть сильно за-шумлены, либо иметь стохастическую природу. Принцип простоты выбираемой модели, воплощающей указанную закономерность, очень важен, т.к. если «модель будет сложней, чем выборка», на которой она обучается, это приведет к так называемой проблеме переобучения - когда система нашла такие зависимости в данных, которых там на самом деле нет. Борьба с данным обстоятельством происходит по двум направлениям: с одной стороны, можно увеличить обучающую выборку так, чтобы число данных было бы адекватно сложности используемой модели, что часто бывает дорого и замедляет действие системы; а с другой стороны, можно следовать так называемому принципу бритвы Оккама по отношению к МО. Этот принцип заключается в том, что нужно найти оптимальный баланс между тем насколько хорошо модель работает на обучающей выборке и тем насколько она проста [3].

2 Направления реализации машинного представления процессов обучения

Особую необходимость в МО испытывают разработчики антивирусных программ. Для того, чтобы написать антивирусную программу, до того как пользователь успел заразиться вирусом, необходимо иметь образцы вредоносного файла. При этом стоит очевидная трудность: откуда взять эти образцы? Ежедневно разработчикам приходиться анализировать огромный поток новых файлов, относительно которых неизвестно к какому классу их отнести: к классу чистых файлов или классу вредоносных. Большое количество действий по классификации являются стандартными и соответственно могут являться автоматизированным компонентом МО, для которого файлы, подлежащие классификации, могут служить в качестве обучающей выборки. В итоге, программный робот знает огромную базу чистых файлов. Роботу даётся семейство похожих вирусов (группа файлов с похожим функционалом), и в результате обучения он должен дать программу, уничтожающую все вирусы определенного семейства и не задевающую ни один чистый файл. Но задача МО в данном случае состоит в том, что программа должна распознавать вирусы не только из предъявленного семейства, но и другие схожие с этим семейством, но не представленные в выборке. Сложность здесь заключается в разделении на классы, каждый из которых существенно неоднороден в выборе информативных признаков: бинарная структура (опкоды, РЕ-структура - название от «Portable Executable», т.е. «портативная», допускающая перенос программ, откомпилированных для Windows, на другие платформы); лог эмулятора (последовательность API - название от «Application Programming Interface», т.е. интерфейс программирования приложений, содержащий набор готовых инструментов для написания различных приложений); связанная статистическая информация в большом потоке новых файлов.

Другой достаточно большой сферой применения МО являются поисковые системы в сети Интернет. На любой даже достаточно нетривиальный запрос пользователь получает большое количество ответов. Но поисковой системе нужно в определенном порядке показать пользователю всё это множество ответов. При этом необходимо в первую очередь показать те ответы, которые с наибольшей вероятностью удовлетворят потребность пользователя в информации по этому запросу. И, соответственно, относительно каждой найденной странички нужно иметь некоторое понимание, насколько она интересна пользователю. На заре Интернета вычисляли несколько простых численных характеристик запроса, странички или их совокупности - насколько и как часто слова запроса встречаются на странице и каково качество этой страницы (Page Rank - статическая характеристика качества страницы в Интернете без привязки к запросу). МО обучение в данном случае заключается в том, что поисковые системы учатся ранжировать сайты по запросам пользователей. Обучающей выборкой, таким образом, является множество запросов и множество результатов по этим запросам. Для каждого из них нужна некоторая оценка - насколько некоторый документ релевантен по определенному запросу. С одной стороны, данная оценка может определяться асессорами (т.е. специалистами, оценивающими релевантность страницы тому запросу, по которому она была представлена в результатах поиска). Асессоры смотрят на результаты поиска по некоторым предлагаемым запросам и ставят им оценку. В итоге асессорская разметка служит в качестве обучающей выборки. Негативной составляющей здесь является то, что асессорам нужно мно го платить и к то му же имеет место элемент субъективизма. С другой стороны, можно брать выборку на основании количества «кликов» пользователей по определенным запросам. Но последние далеко не всегда выбирают релевантные результаты запросов.

Огромные перспективы МО связаны с разработкой нейрокомпьютерных интерфейсов, которая в значительной степени зависит от понимания специфики биологических аспектов обучения. Эти аспекты достаточно тесным образом связаны со спецификой функционирования памяти как на уровне синаптического контакта между нейронами (оперативная память),

так и на уровне изменений в ДНК нейрона (долговременная память). Существенным для первого случая является изменение электрического потенциала (полярности) воспринимающего дендрита на основе выделения из пресинаптического аксонного окончания нейромедиа-тора. Последний, проходя через синаптическую щель, соединяется со специализированными рецепторами, что приводит к открытию ионных каналов, через которые под действием сил диффузии и электростатических сил из клетки выходят ионы Ка+, а внутрь заходят ионы Ыа+ (деполяризация). Активация долговременной памяти связана с работой внутриклеточных посредников и протеинкиназ, фосфорилирующих определенные белки и сигнализирующих об активации групп генов клеточной ДНК. В данном случае активация генов включает стандартный путь синтеза белковых и гликопротеиновых молекул, являющихся важной частью синаптических мембран. Эти молекулы транспортируются к мембране, включаются в нее, в результате чего происходит увеличение постсинаптических шипиков на дендритах и изменяется их форма [4].

На первый взгляд может показаться, что физиологические аспекты памяти не имеют существенных свойств для МО, задачей которого является абстрактное воспроизведение функций, реализующих процесс обучения в той или иной ПрО. Но следует понимать, что в данном случае мы ведем речь о реконструкции универсальных аспектов обучения за счет построения модели его осуществления в биологическом интеллекте. В связи с этим следует учитывать, что «архитектурная» реализация памяти и способ обращения к ней команд могут существенно влиять на то, какие алгоритмы выполнимы в данном случае, а какие нет.

Исследования в области ЭЭГ (электроэнцефалографии) и спектральный анализ показали, что «гибкие связи» в мозге образованы посредством синхронизации на частотах мозговых волн, т.е. определенная частота нейронной активности образует связи между некоторыми популяциями клеток. В свою очередь эти связи сходятся к определенным точкам коры, где осуществляются «жесткие связи» посредством выделения нейромедиаторов в синоптических щелях [5]. К сожалению, на данный момент в рамках МО достаточно сложно предложить единую модель, которая бы учитывала как электрохимические принципы реализации «гибких связей», так и биохимические принципы реализации «жестких связей». Во многом это обусловлено тем, что нет специфической формы кодирования как для тех, так и для других связей. Элементы нейросети управляются распределенным кодом, а не единым для всех элементов системы. Это значит, что каждая из подсетей в отдельности не является носителем, кодирующим выполнение определенной функции. «Буквы» и «слова», кодирующие выполнение определенной функции, не содержатся в определенных локальных сетях, которые, в свою очередь, не воплощают законченные и связанные «произведения» мозга. Произведение и его компоненты («буквы», «слова» и «выражения»), возникают путем синергийного взаимодействия большого количества сетей. В этой синергийности как частотном синхронизаторе распределенного кода, возможно, заключается первостепенный аспект семантического кодирования мозгом (ведь объединять семантически нейтральные элементы необходимо на основе некоторого представления о значении как единого в одновременном существовании его частей), на моделировании которого должно сосредоточиться МО для того, чтобы стать подлинным методом создания искусственного интеллекта.

На данный момент практическое применение МО в рамках создания нейрокомпьютер-ных интерфейсов основано на когнитивной нейробиологии, раскрывающей связь активности нейронов головного мозга с различными формами когнитивной активности: мышлением, обучением, поведением и т.д., - и ее связью с нейрокриптологией, задачей которой является научить компьютер воспринимать содержательную сторону работы мозга. МО в указанной сфере исследования реализуется на основе определенной последовательности действий: 1) испытуемым предлагается к решению два типа задач: пространственные и вербально-

логические;

2) в процессе решения испытуемыми задач записывается их ЭЭГ;

3) производится спектральный анализ ЭЭГ;

4) полученная информация поступает на искусственную нейронную сеть, которая формирует статистическую погрешность, обучаясь на выборках;

5) нейронная сеть выделяет категорирующие паттерны ритмов мозга человека по ЭЭГ. Нейронная сеть в результате распознает по ЭЭГ, какая задача из указанных типов решается испытуемым в конкретный момент с точностью 85-90%, распознание внутри этих типов происходит с вероятностью 66% [6].

Таким образом, основываясь на указанных методах и методе биологической обратной связи, реализуемой мозгом, МО приводит к серьезным результатам в области создания ней-рокомпьютерных интерфейсов. С их помощью, с одной стороны, расширяются возможности управления человеком компьютерными системами (непосредственного управления компьютерными системами посредством нервной активности), а, с другой стороны, углубляется понимание структуры процессов управления и обучения, реализуемой самой биологической системой. Методы МО позволяют компьютеру научиться распознавать семантическое содержание информационных процессов в психике человека, а человеку - использовать эти процессы в качестве фактора управления компьютерными системами.

Заключение

Таким образом, МО является на сегодняшний день динамично развивающимся направлением в области искусственного интеллекта, позволяющим решать достаточно широкий класс задач, таких как совершенствование алгоритмов поисковых систем Интернета, алгоритмов антивирусных программ, создания нейрокомпьютерных интерфейсов, различных моделей когнитивной деятельности и ряда других систем.

Реализация принципа бритвы Оккама по отношению к МО позволяет понять обучение не как отражение специфических закономерностей определенных положений вещей и событий, на которых мы обучаемся, но как оптимизацию между результативностью работы обучающей модели и ее простотой. Акцент на результативность, возникающей вследствие приближающего отражения модели к выборке, приводит к переобученности и обнаружению тех закономерностей, которые изначально в выборке не содержались.

На этой основе специфическая роль обучения, как некой меры между сложностью выборки и простотой модели, показывает свое значение и для биологических систем. В данном случае нейросеть, реализуя гибридный дискретно-аналоговый способ кодирования, основанный на взаимосвязи «жестких» и «гибких» связей, реализует обучение как способ частотной синхронизации распределенного между этими связями кода.

Список источников

[1] Harrington, P. Machine Learning in Action / P. Harrington. - Manning Publications, 2012. - 384 p.

[2] Hebb, D.O. The Organization of Behavior: A Neuropsychological Theory / D.O. Hebb - Wiley, New York, 1949. - 408 p.

[3] Wang, L., Li Cheng, Guoying Zhao Machine Learning for Human Motion Analysis / L. Wang, , L. Cheng, G. Zhao - IGI Global, 2009. - 318 p.

[4] Прибрам, К. Языки мозга. Экспериментальные парадоксы и принципы нейропсихологии / К. Прибрам. -Пер. с англ. Я. Н. Даниловой и Е. Д. Хомской/Под ред. и с пред. А. Р. Лурия. - М.: Прогресс, 1975. - 464 с.

[5] Дойдж, Н. Пластичность мозга. Потрясающие факты о том, как мысли способны менять структуру и функции нашего мозга / Пер. с англ. Е. Виноградовой. - М.: ЭКСМО, 2009. - 544 с.

[6] Комашинский, В.И. Нейронные сети и их применение в системах управления и связи / В.И. Комашинский, Д.А. Смирнов - М.: Горячая линия-Телеком, 2003. - 94 с.

SPECIFICITY AND DIRECTION OF THE MACHINE LEARNING PROCESS PRESENTATION

V.V. Demirov

Institute of Philosophy NAS, Management Centre knowledge and competencies, Minsk, Belarus vitaly. demirov@gmail. com

Abstract

In the article discusses the prerequisites and conditions of such direction of the artificial intelligence as a machine learning. Procedural aspects of the implementation of machine learning, based on the algorithms that capable to learning by using methods of probability theory and mathematical statistics are disclosed. This learning is the ability of the algorithm to work with the data that are not come in to the learning sample as what we know about a certain subject area. Directions of realization of machine learning in various application aspects of computer science, as well as prospects of machine learning in the framework of the understanding of the real learning as the core of intellectual activity of biological organisms are revealed.

Key words: algorithm; machine learning; training sample; semantic content; classification; neurocomputing interface; neuron; distributed code.

References

[1] Harrington, P. Machine Learning in Action / P. Harrington. - Manning Publications, 2012. - 384 p.

[2] Hebb, D.O. The Organization of Behavior: A Neuropsychological Theory / D.O. Hebb - Wiley, New York, 1949. - 408 p.

[3] Wang, L., Li Cheng, Guoying Zhao Machine Learning for Human Motion Analysis / L. Wang, , L. Cheng, G. Zhao - IGI Global, 2009. - 318 p.

[4] Pribram, Karl H. Stanford university. Languages Of The Brain. Experimental paradoxes and principles in neuropsychology. Englewood Cliffs, N. J.: Prentice-Hall. ISBN 0-13-522730-5 New Jersey. 1971 Pribram K. Yazyki mozga. Eksperimental'nyye paradoksy i printsipy neyropsikhologii/ Perevod s angl. - M.: Progress, 1975. -464 p. (In Russia).

[5] Doidge, Norman. Plastichnost' mozga. Potryasayushchiye fakty o tom, kak mysli sposobny menyat' strukturu i funktsii nashego mozga. [Plasticity of the brain. Amazing facts about how the thoughts can influence structure and functions of our brain]. - M.: EKSMO, 2009. -544 p. (In Russia). http://www.normandoidge.com/normandoidge.com/MAIN.html

[6] Komashinskiy, V. I., Smirnov D. A. Neyronnyye seti i ikh primeneniye v sistemakh upravleniya i svyazi. [Neuro grids and their applications in the field of management and communication] - M.: Goryachaya liniya-Telekom, 2003. - 94p. (In Russia).

Сведения об авторе

Демиров Виталий Викторович, 1983 г. рождения. Окончил Белорусский государственный университет в 2006 г. Младший научный сотрудник Центра управления знаниями и компетенциями Института философии НАН Беларуси. В списке научных трудо в о дна мо нэграфия и 7 статей в области философии сознания, когнитивной и компьютерной семантики.

Demirov Vitaliy, (b. 1983). Graduated from the Belarusian State University in 2006, Junior researcher at the Center for knowledge management and competence of the Institute of Philosophy of NAS of Belarus. List of publications includes a monograph and seven articles in the field of philosophy of mind and cognitive computer semantic.

4

i Надоели баннеры? Вы всегда можете отключить рекламу.