Научная статья на тему 'Феномен машинного обучения в современной философской литературе'

Феномен машинного обучения в современной философской литературе Текст научной статьи по специальности «Философия, этика, религиоведение»

CC BY
1480
265
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
МАШИННОЕ ОБУЧЕНИЕ / ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ / АЛГОРИТМ БОГА / ИНДУКЦИЯ / ЭМПИРИЗМ / ОГАС / ТРАНСГУМАНИЗМ / ТЕСТ ТЬЮРИНГА / УМНЫЕ МАШИНЫ / АВТОМАТИЗАЦИЯ / MACHINE LEARNING / ARTIFICIAL INTELLIGENCE / ALGORITHM OF GOD / INDUCTION / EMPIRISM / OGAS / TRANSHUMANISM / TURING TEST / INTELLIGENT MACHINES / AUTOMATION

Аннотация научной статьи по философии, этике, религиоведению, автор научной работы — Клименко Руслан Витальевич

В статье рассмотрены современные подходы к построению разумных вычислительных программ, самообучающихся пропорционально полученному опыту. Исследуются различные определения разумности, в контексте человека и в контексте машины. Проиллюстрирована краткая история вычислительной техники, также как и история мысли об искусственных разумных машинах. Определены ключевые фундаментальные научные области, которые влияют на развитие искусственного интеллекта. Описана история становления искусственного интеллекта как области знания. Перечислены причины, благодаря которым первая волна развития искусственного интеллекта не оправдала ожиданий. Объясняются ключевые факторы, почему сегодня искусственный интеллект является более возможным. Описывается теория П. Домингоса «Алгоритм Бога», согласно которой нет физических причин считать сильный ИИ невозможным, в теории также предоставляются аргументы в пользу возможности сильного искусственного интеллекта. Раскрыта связь между понятиями «искусственный интеллект» и «машинное обучение». Проанализированы философские последствия применения данных подходов на данном этапе развития науки и техники, спрогнозированы философские последствия их применения в будущем. Раскрыта связь между дедукцией и индукцией, а также детерминированными приложениями и искусственным интеллектом

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

The philosophical analysis of phenomenon of machine learning

In this article author explores modern approaches for building of intelligent computational applications, which are learn by experience. Different definitions of explanation of intelligence are analyzed in context of human and in context of machine. A brief history of computational technics is illustrated, as well as a history of thoughts about artificial intelligent machines. The most fundamental science fields which influence the development of artificial intelligence are defined. The history of artificial intelligence becoming a field of knowledge is described. The reasons why the first wave of development of artificial intelligence did not live up to the expectations are listed. The key factors why today artificial intelligence is more real are explained. The theory of «Algorithm of God» by Pedro Domingos according to which there’s no physical reasons why strong artificial intelligence is impossible is described. The arguments how artificial intelligence is possible also provided by Domingos. The relation between artificial intelligence and machine learning is explained. Analyzed philosophical effects of usage of such approachs on given stage of development of science and technology, philosophical implications of usage of such technologies are predicted.The relation between deduction and induction is explained as well as the difference between deterministic applications and artificial intelligence

Текст научной работы на тему «Феномен машинного обучения в современной философской литературе»

Ш1: http://cyberspace.pglu.ru

УДК [004.5+004.8]:304 DOI: 10.17726/philIT.2018.1.3

Феномен машинного обучения в современной философской литературе

Клименко Руслан Витальевич,

аспирант 3-го курса философского факультета, Харьковский Национальный университет им. В.Н. Каразина,

Киев, Украина

unnamzajazy@gmail.com

Аннотация. В статье рассмотрены современные подходы к построению разумных вычислительных программ, самообучающихся пропорционально полученному опыту. Исследуются различные определения разумности, в контексте человека и в контексте машины. Проиллюстрирована краткая история вычислительной техники, также как и история мысли об искусственных разумных машинах. Определены ключевые фундаментальные научные области, которые влияют на развитие искусственного интеллекта. Описана история становления искусственного интеллекта как области знания. Перечислены причины, благодаря которым первая волна развития искусственного интеллекта не оправдала ожиданий. Объясняются ключевые факторы, почему сегодня искусственный интеллект является более возможным. Описывается теория П. Доминго-са «Алгоритм Бога», согласно которой нет физических причин считать сильный ИИ невозможным, в теории также предоставляются аргументы в пользу возможности сильного искусственного интеллекта. Раскрыта связь между понятиями «искусственный интеллект» и «машинное обучение». Проанализированы философские последствия применения данных подходов на данном этапе развития науки и техники, спрогнозированы философские последствия их применения в будущем. Раскрыта связь между дедукцией и индукцией, а также детерминированными приложениями и искусственным интеллектом.

Ключевые слова: машинное обучение, искусственный интеллект, Алгоритм Бога, индукция, эмпиризм, ОГАС, трансгуманизм, тест Тьюринга, умные машины, автоматизация.

The philosophical analysis of phenomenon of machine learning

Klymenko Ruslan V.,

Postgraduate of the 3 course from Philosophical facoulty, Kharkiv National University named after V.N. Karazin, Kiev, Ukraine

unnamzajazy@gmail.com

Abstract. In this article author explores modern approaches for building of intelligent computational applications, which are learn by experience. Different definitions of explanation of intelligence are analyzed in context of human and in context of machine. A brief history of computational technics is illustrated, as well as a history of thoughts about artificial intelligent machines. The most fundamental science fields which influence the development of artificial intelligence are defined. The history of artificial intelligence becoming a field of knowledge is described. The reasons why the first wave of development of artificial intelligence did not live up to the expectations are listed. The key factors why today artificial intelligence is more real are explained. The theory of «Algorithm of God» by Pedro Domingos according to which there's no physical reasons why strong artificial intelligence is impossible is described. The arguments how artificial intelligence is possible also provided by Domingos. The relation between artificial intelligence and machine learning is explained. Analyzed philosophical effects of usage of such approachs on given stage of development of science and technology, philosophical implications of usage of such technologies are predicted.The relation between deduction and induction is explained as well as the difference between deterministic applications and artificial intelligence.

Keywords: machine learning, artificial intelligence, Algorithm of God, induction, empirism, OGAS, transhumanism, Turing test, intelligent machines, automation.

С момента появления электронной вычислительной техники и до недавнего времени общепринятый подход к программированию ЭВМ-устройств основывался на написании дедуктивных алгоритмов, т.е. алгоритмов, результат выполнения которых одинаков для одних и тех же входных данных вне зависимости от полученной в процессе эксплуатации информации. Однако в последние несколько лет привычный способ программирования, бла-

годаря которому человеческая цивилизация достигла огромных успехов в процессе обработки информации, перестал быть монополистом и получил мощного конкурента - «machine learning», подход к написанию программ, которые самообучаются пропорционально опыту (так называемые программы-ученики, «learners»). В научной литературе можно встретить и другие названия: «pattern recognition», «statistical modeling», «data mining», «knowledge discovery», «predictive analytics», «data science», «adaptive systems», «self-organizing systems», и это далеко не все.

В широком смысле машинное обучение - это область искусственного интеллекта, занимающаяся вопросами обучения вычислительной техники. Для того чтобы добиться успеха в этой области, необходимо также понимание процессов обучения как таковых, поэтому важную роль для науки машинного обучения играют многие смежные дисциплины, в их числе - нейробиология, эволюционная теория, физиология, статистика и теория вероятностей.

Ведущие специалисты по проблематике машинного обучения, среди которых Рей Курцвейл, Педро Домингос, Ник Бостром, сходятся во мнении, что эта технология может стать «философским камнем» цифровой эпохи, наиболее полезным изобретением, сопоставимым с изобретением колеса, пороха и Интернета. Перспективы, которые открывает машинное обучение, довольно оптимистичны и предоставляют широчайшие возможности культурных трансформаций общества в самых различных сферах человеческой деятельности.

Тем не менее многие аспекты применения данных методов, в особенности философские, остаются слабо изученными. Решению этих проблем и посвящена данная статья.

Цель статьи - изучить текущее положение дел в области искусственного интеллекта и машинного обучения, оценить последствия применения описанных методов, проиллюстрировать философское значение «революции» машинного обучения.

Для начала следует разобраться в том, что такое искусственный интеллект, осветить основные вехи его развития и перспективы.

В книге «Современный подход к искусственному интеллекту», вышедшей в 2010 году [1], С. Рассел и П. Норвиг выделяют следующие четыре категории определений, которые наиболее ча-

сто можно встретить в среде исследователей искусственного интеллекта:

1. Машины, мыслящие аналогично человеку. «ИИ- это множество активностей, которые мы традиционно ассоциируем с человеческой деятельностью. Размышления, принятия решений, решение проблем, обучение» [2: 38].

2. Машины, действующие аналогично человеку. «ИИ - это искусство создания машин, которые выполняют функции человека в обществе» [3: 15].

3. Машины, мыслящие рационально. «ИИ - это исследование вычислений, которые позволят планировать и действовать» (Винстон, 1992) [4: 114].

4. Машины, действующие рационально. «ИИ - область проектирования так называемых «интеллектуальных агентов»» (Пул, 1998) [5: 60].

Само понятие искусственного интеллекта и идеи о разумной машине не раз встречались в истории философской мысли. Первым, кто описал «разумность» формально, был Аристотель. По его мнению, разумным нужно считать того, чьи выводы истинны [6: 172].

В XIV веке Раймонд Луллий выразил убеждение в том, что разумный механизм, такой, который сможет размышлять, возможен в принципе [7: 78].

Двумя веками позже Томас Гоббс предположил, что размышление схоже по своей сути с выполнением арифметических операций над числами: «Мы слагаем и вычитаем в наших безмолвных мыслях» [8: 112].

Около 1500 года Леонардо да Винчи спроектировал, но так и не реализовал механический калькулятор. Современные реконструкции показали, что его изобретение было спроектировано верно.

Первая же действительно работающая вычислительная машина была сконструирована в 1623 году немецким ученым Вильгельмом Шикардтом, а уже через двадцать лет Паскаль повторил подвиг и построил знаменитую «Паскалину», которая выполняла только две арифметические операции - сложение и вычитание. Он так писал о своем детище: «Арифметическая машина производит больший эффект разумности, чем какое-либо из известных мне животных» [9: 55].

Лейбниц же, конкурируя с Паскалем, построил машину, способную не только умножать и делить вдобавок к сложению и вычитанию, но и вычислять квадратный корень. Также заслугой Лейбница является проект машины, оперирующей концептами, а не числами. Но область применения такой машины была очень ограниченной.

В 1651 году, в книге «Левиафан», Гоббс описывает идею «Искусственного животного», у которого, как он пишет, «пружины вместо сердца, а вместо нервов - струны» [8: 55].

К XVIII веку существовало множество поверий, согласно которым дивные машины могут самостоятельно думать. В это время идея о возможности создания искусственного интеллекта распространяется среди всех слоев населения и выглядит в основном отталкивающе и пугающе. В пример можно привести миф о големе -мифическом существе, созданном искусственно и действующем разумно.

В «Трактате о человеческой природе» Юм декларирует принцип индукции, который кратко можно изложить следующим образом: опыт формирует правила, которые могут изменяться при получении нового опыта. Это положение имеет огромное значение при создании и развитии машинного обучения, которое и реализует его в контексте искусственного интеллекта.

Уже в XX веке, основываясь на работах Людвига Витгенштейна и Бертрана Рассела, знаменитый Венский кружок, возглавляемый Карнаппом, разработал доктрину логического позитивизма, в которой утверждалось, что все знание может быть охарактеризовано наблюдением и объединением более мелких логических теорий. Можно сказать, что это была попытка объединить рационализм и эмпиризм. Карнапп работал над созданием вычислительной процедуры для выявления знания из элементарного опыта. Вероятно, это была первая теория разума как вычислительного процесса.

Кроме философов, огромное влияние на развитие машинного обучения оказали и другие ученые.

Первый известный нетривиальный алгоритм изобрел Эвклид (алгоритм поиска НОДа числа). А вот само слово «алгоритм» появилось только в IX веке, благодаря персидскому математику аль Ховаразми [10: 12].

Математическая логика была создана в XIX веке благодаря работам Джорджа Буля, и уже во второй половине того же века

Фреге дополнил булеву логику объектами и отношениями, создав таким образом логику первого порядка, которая используется и по сегодняшний день. В логике первого порядка допускаются высказывания относительно переменных и функций. Как известно, именно из этих примитивов составляются сколь угодно сложные программы. Логика Фреге сыграла значительную роль в теории вычислений.

Альфред Тарский представил теорию ссылок, показывающую, как можно связать логические объекты с объектами из реального мира.

В 1930 году Курт Гёдель показал, что существует эффективный алгоритм для доказательства любого истинного выражения логики первого порядка. Но он же в 1931 году установил, что есть ограничения дедукции. Всегда будут присутствовать элементы системы, которые не могут быть доказаны. Мы называем их аксиомами.

Исследования Гёделя побудили Алана Тьюринга заняться вопросами вычислимости, определением того, что машина может сделать в принципе, используя дедуктивные методы.

Тьюрингом же была спроектирована машина, которая была способна вычислять любую вычислимую функцию. Ее декларация оформлена в тезисе Чарча-Тьюринга. Этот тезис гласит следующее: всякая вычислимая функция вычислима машиной Тьюринга. Машину Тьюринга можно рассматривать как формальное определение понятия алгоритма.

Кроме того, Тьюринг показал ограничения своей машины, выявил те функции, которые эта машина вычислить не может. К примеру, машина не может сказать, вернет функция ответ или будет выполняться вечно.

Алан Тьюринг исследовал класс трудно решаемых задач - задач, время выполнения которых экспоненциально зависит от объема входных данных. Его по праву считают одним из создателей компьютерных наук.

Стоит обратить внимание и на другие области знания.

Большое значение для развития теорий искусственного интеллекта играет теория вероятности.

Кардано, живший в XVI веке, первым выразил идею математической вероятности, описывая ее в терминах возможных исходов азартных игр. Паскаль, независимо от Кардано, работал над

подобными проблемами. Берноули, Лаплас и другие именитые ученые использовали теорию вероятности в связке со статистикой, что дало потрясающие результаты. Томас Байес представил правило, согласно которому следует пересматривать вероятности при получении новых знаний. Также на развитие искусственного интеллекта непосредственно влияют следующие области знания:

• Теория информации

• Теория игр

• Кибернетика

• Лингвистика

• Экономика

• Нейронауки

• Психология

Первые работы в области ИИ появились в 1943 году и связаны с именами Воррена МакКаллоха и Волтера Питтса. Они полагались на знания физиологии, логику Рассела и Вайтхеда и теорию вычислений Тьюринга. Именно они первыми предложили модель искусственных нейронов, в которой каждый нейрон мог находиться в одном из двух состояний - включенном и выключенном. Они доказали, что любые принципиально вычислимые алгоритмы и любые логические операции могут быть выражены на языке множества соединенных нейронов (нейронных сетей). Дональд Хебб в 1949 году предложил присваивать связям между нейронами веса, для того чтобы измерить их значимость.

Марвин Минский и Дин Эдмондс в 1950 году спроектировали первую из известных на сегодняшний день нейронную сеть. Она называлась SNARC.

В основополагающей статье «Computing Machinery and Intelligence» Алан Тьюринг представил общественности идеи машинного обучения и генетического программирования [11: 2].

Другим значительным деятелем в области искусственного интеллекта был Джон Маккарти из Стэнфорда. В 1956 году он собирает команду ведущих ученых из различных областей и организовывает двухмесячный научный лагерь, цели и задачи которого описывались так: «Мы предположили, что двухмесячное обучение десяти человек по теме искусственного интеллекта может дать значительные плоды. Задача состоит в том, чтобы показать, что в основе своей каждый аспект обучения или любое другое свойство разумности может, в принципе, быть

так точно описано, что машина сможет симулировать его. Мы предпринимаем попытку найти способ обучить машины языку, абстракциям и концептам, решению различных типов задач и самоулучшению. Мы считаем, что значительный прогресс может быть сделан в как минимум одной из этих областей, если выбранная группа ученых будет работать совместно этим летом» [12: 8].

Предпринятые усилия оказали значительное воздействие на развитие искусственного интеллекта. Этой темой заинтересовались все ведущие высшие учебные заведения США, крупные корпорации, такие как IBM.

Тем не менее, несмотря на безграничный энтузиазм, реальных успехов в области искусственного интеллекта не было достигнуто вплоть до 80-х годов XX века. Причины тому вполне технические - недостаточные вычислительные мощности и мелкие хранилища данных.

Первой успешной коммерческой системой была R 1, в Digital Equipment Corporation. Программа помогала выбирать оптимальные конфигурации для компьютеров сотрудников компании.

В 1981 году Япония заявила о т.н. проекте «пятого поколения»: планировалось в течение десяти лет создать «умные машины». В свою очередь США приняли соответственные меры и создали Computer Technoligy Corporation, призванную «догнать и перегнать» Японию. К этому времени искусственный интеллект стоял на повестке дня всех крупных государств.

К 1988 году количество средств, инвестированных в искусственный интеллект, превысило миллиард долларов.

Начиная с 2000-х годов происходит бурное развитие сети Интернет, которое вызвало «бум данных». Это позволило во многом пересмотреть подход к программированию, что можно трактовать как некоторую «онтологическую революцию». Она «сдвигала» онтологический и ценностный «вес» элементов программирования. До этого момента большее внимание уделялось алгоритмам, но появление больших данных показало нам, что именно данные правят бал, алгоритмы - дело второстепенное.

Стало очевидным и другое, очень важное явление. Принято считать, что скорость выполнения алгоритма прямо зависит от количества данных, которые нужно обработать. И это действительно так для всех дедуктивных задач. В случае же с задачами, свой-

ственными машинному обучению, мы можем наблюдать прямо противоположную картину.

Хейс и Эфрос в 2007 году опубликовали исследования эффективности алгоритма, который вставляет в вырезанную из фотографии область изображение из другой фотографии по максимальной схожести. Выполнение такого алгоритма будет тем быстрее, чем больше фотографий у нас есть для сравнения.

На данный момент искусственный интеллект настолько глубоко укоренился в нашей жизни, что мы просто не отдаем себе в этом отчета. «Сегодня тысячи приложений с искусственным интеллектом глубоко встроены в нашу повседневность» [13: 89], - пишет Курцвейл.

Аналогичные процессы происходили не только в ведущих капиталистических странах, но и в СССР, где они были не менее, а еще более актуальны и рассматривались как одна из «сверхзадач» советского общества. В частности, еще с середины 60-х годов академиком В. М. Глушковым и его коллегами разрабатывалась Общегосударственная автоматизированная система учета и обработки информации (ОГАС), которая должна была выполнять функции управления, планирования и распределения в советской экономике. В процессе ее создания возникал целый ряд трудностей, связанных с нелинейным характером общественно-экономических, социальных и культурных процессов, с которыми «традиционные» методы программирования не справлялись, их частично компенсировали человеческим трудом, что делало в перспективе создание данной системы весьма дорогой, а саму систему - очень громоздкой. Решить эту проблему как раз и могло бы «машинное обучение», учитывающее «изменение ситуации» в реальном времени и способное на изменение ситуации реагировать [14: 41].

Машинное обучение - это раздел искусственного интеллекта, занимающийся вопросами обучения, обучаемости, эволюции вычислительной техники. Стоит отметить, что эта область также не нова, она появилась вместе с первыми успешными реализациями электронных вычислительных машин - после окончания Второй мировой войны. Однако для практического применения такого рода алгоритмов в то время не хватало ни вычислительной мощности, ни памяти, и поэтому данная технология оставалась в тени достаточно долго.

Лишь спустя почти 60 лет, во многом благодаря прогрессу в области построения компьютерных процессоров и специально сконфигурированных сетей - кластеров, с одной стороны, и астрономическим объемам данных, которые мы передаем по сети Internet, - с другой, появилось все необходимое для использования алгоритмов, действующих на основании индукции.

Машинным обучением называется процесс увеличения эффективности работы алгоритма от опыта. В отличие от традиционного подхода, который производил данные из алгоритмов, машинное обучение производит алгоритмы из данных. Чем больше данных - тем эффективнее алгоритм.

Вы можете не догадываться об этом, но машинное обучение уже повсюду применяется вокруг нас. Когда вы используете поисковую систему google или открываете свою электронную почту, покупаете товар в онлайн-магазине или торгуете на бирже, пользуетесь услугами ведущих мировых клиник или заказываете билет на самолет, принимаете новое лекарство или покупаете недвижимость, играете в компьютерные игры или голосуете на выборах -вы в той или иной мере пользуетесь машинным обучением, поскольку в этих сферах, так же как и во многих других, данные алгоритмы применяются повсеместно. Они умнеют, получая прямую обратную связь от вас, или исследуют косвенные признаки.

Машинное обучение изменяет науку и технологию, бизнес, политику, военное дело. Это технология, которая строит сама себя. Она позволяет предсказывать то, чего мы хотим: результаты наших действий, способы достижения наших целей, глобальные изменения в мире и многое другое. Некогда мы доверяли эту роль шаманам, но они достаточно часто ошибались. Традиционные научные предсказания более достоверны, но они ограничены человеческими возможностями, тем, что мы можем наблюдать. Машинное обучение и эпоха больших данных значительно увеличивают область познаваемого.

Педро Домингос в книге «Алгоритм бога. Как поиски универсальной самообучающейся машины меняют наш мир» [15], которую можно назвать наиболее общей и современной по рассматриваемому вопросу и к которой мы в дальнейшем будем не раз обращаться, утверждает, что для общества является большой ошибкой игнорирование машинного обучения в повседневной жизни или отношение к нему как к некому «черному ящику», непонятно как работающему, но приносящему значимый результат.

Машинное обучение используется при определении личностей террористов и предсказании допустимых значений углекислого газа в атмосфере с целью предотвратить глобальное потепление. Стоимость валюты и, соответственно, труда конкретного гражданина также зависит от алгоритмов машинного обучения, которые совершают сделки на электронных биржах по всему миру. Наша безопасность, жизнь и благосостояние зависят от машинного обучения. И известная истина состоит в том, что мы не можем контролировать то, чего не понимаем.

Домингос пишет, что не каждому водителю нужно знать, как устроен двигатель. Однако всем водителям нужно понимать, как управлять автомобилем, это в интересах самих же водителей. Он предлагает нам разобраться в машинном обучении на концептуальном уровне, понять основные принципы построения данных моделей и те изменения, которые настигнут мир в скором времени в связи с их применением.

Более того, исследование технологий машинного обучения будет сопряжено с попытками дать ответы на такие философские вопросы как:

1. Что такое обучение?

2. Как мы обучаемся и что мы можем знать?

3. Есть ли способ обучаться лучше?

4. Насколько мы можем доверять тем знаниям, которые мы получили в процессе обучения?

Домингос ставит также и глобальную цель своего исследования. Она в обосновании возможности создания универсального самообучающегося алгоритма, т.н. «Алгоритма бога». Этот алгоритм должен быть способен предсказывать все прошлые, настоящие и грядущие явления. В популярной литературе для объяснения этого термина используется более широкое понятие - «искусственный интеллект».

Стоит отметить, что в рамках течения трансгуманизма уже давно высказывались мысли о том, что такой алгоритм не только возможен, но и необходим. Предпринимались попытки предсказания времени возникновения данного алгоритма. В частности, вот что пишет по этой теме Рей Курцвейл, футуролог, сотрудник корпорации Google: «У меня есть устойчивая дата - 2029 год - для этого предсказания. И сюда входит не только понятие логического интеллекта. Сюда входит эмоциональный интеллект, который

может быть веселым, шутливым, милым, любящим, понимающим. Это самое сложное, что мы можем сделать. Это то, что разделяет компьютеры и людей сейчас. Но я верю, что к 2029 году эта пропасть исчезнет» [16: 211].

Создание «алгоритма бога» может привести к технологической сингулярности - такой точке во времени, после которой изменения в окружающем мире будут происходить быстрее, чем наш вид может воспринимать их. То есть по прошествии этой точки мир будет настолько неузнаваемым в привычном понимании, что мы не можем ничего предсказывать о нем исходя из текущего уровня знаний. Однако это не остановит обучение «алгоритма бога».

Домингос же, в отличие от представителей трансгуманизма, размышляет о более привычных проблемах. К примеру, машинное обучение поможет более эффективно бороться с болезнями. Уже сейчас IBM Watson может определять болезни по симптомам и предсказывать их появление на основании ДНК.

В скором времени появится возможность за сравнительно небольшое время создавать лекарства под каждый отдельный организм, минимизировать риски, связанные с применением этих лекарств. Это все достижимо в обозримом будущем, считает До-мингос.

Мы живем в эпоху алгоритмов. Пару поколений назад это слово было неизвестно широкой общественности, но сегодня каждый знает, что это такое. Оно и не удивительно, ведь во многом именно благодаря алгоритмам качество и количество жизни постепенно растет. Алгоритмы оперируют нашими мобильными телефонами и фабриками, электросетями и атомными электростанциями, больницами и космическими шаттлами.

Алгоритм - это множество инструкций, которые прописаны в программе и выполняются компьютером при ее запуске. На наиболее низком уровне все компьютерные операции сводятся к наличию или отсутствию сигналов в транзисторах. Уже с помощью этого мы получаем простой бит информации, который имеет два состояния - true и false, правда и ложь, есть сигнал и сигнала нет. Любой процессор содержит три вида примитивных логических операций -отрицание, конъюнкцию и дизъюнкцию, NOT, AND, OR. И этого вполне достаточно, чтобы выполнить программу любой сложности.

Конечно же, современные процессоры содержат и другие инструкции, и их количество неуклонно растет. Языки программи-

рования становятся все более высокоуровневыми. Если раньше программист напрямую общался с железом, то сегодня программы пишутся на изящных и лаконичных языках, позволяющих делать работу быстрее.

И тем не менее существует пропасть между естественными человеческими языками и языками компьютерными.

Имеются военные и научно-исследовательские разработки интерфейсов типа мозг - компьютер. Их задача - преобразовывать мозговые импульсы человека в компьютерную программу. То есть пользователю будет достаточно подумать о том, что он хочет сделать, и ЭВМ сразу примется за дело. Уже сейчас есть значительные успехи в этой области. Создание таких интерфейсов - вопрос времени.

Стоит отметить, что подобного рода «модификации» - прямая киборгизация человека. Их разработка приведет к очередному пересмотру понятия человека, возродит философские дебаты о «сущности» человека, «человечности», способах распределения средств киборгизации.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

Итак, алгоритм - это подпрограмма, которая получает на вход данные, выполняет над ними некоторое множество операций и затем возвращает результат. Можно сказать, что алгоритм - это реализация некоторой математической функции. Компьютерное же обучение переворачивает все с ног на голову: индуктивная программа получает на вход множество данных, анализирует их и возвращает алгоритм, по которому действовал тот, кто отправлял данные. То есть мы можем показать программе пример того, как «нечто» делается, и она сможет распознать, какими принципами мы руководствовались, чтобы это «нечто» сделать.

Обобщая все вышесказанное, можно сделать ряд философских выводов относительно перспектив развития и применения технологий машинного обучения. Наиболее очевидным является факт бурного развития новых технологий обработки информации и качественный скачок в этом процессе, который приближает искусственный интеллект к человеческому, где проблемой становятся не написание алгоритма, а работа с данными. С точки зрения гносеологии (в широком смысле) это действительно прорыв, поскольку данная ситуация существенным образом расширяет и углубляет наши познавательные возможности. Однако возникает множество открытых этических и юридических вопросов в отношении ИИ.

Будет ли являться ИИ социальным субъектом, будут ли у него права? Если да - то в какой мере и при каких обстоятельствах? Что такое ИИ? Какое приложение можно считать формально и юридически разумным? Также особого внимания заслуживают те риски, с которыми столкнется общество, опирающееся на ИИ во многих областях своей жизни. Вопрос о том, как не занять подчиненное положение по отношению к своей же собственной технологии, должны изучать современные представители философии и технические специалисты.

Литература:

1. Russel S. J., Norvig P. Artifical Intelligence - A modern approach. Massachusetts: Prentice Hall, 2013. 1053 p.

2. Bellman R. E. An Introduction to Artificial Intelligence: Can Computers Think? San Francisco: Boyd & Frazer Pub., 1978. 146 p.

3. Kurzweil R. The Age of Intelligent Machines. Massachusetts: MIT Press, 1990. 580 p.

4. Winston P. H. Artificial Intelligence. Massachusetts: Addison-Wesley, 1992. 640 p.

5. Poole D., Mackworth A. K., Goebel R. Computational intelligence: A logical approach. New York: Oxford University Press, 1998. 576 p.

6. Sachs J. Aristotle's Metaphysics. New York: Oxford University Press, 2002. 365 p.

7. Луллий Р. Книга о любящем и возлюбленном. Книга о рыцарском ордене. Книга о животных. Песнь Рамона. СПб.: Наука, 1997. 284 с.

8. Гоббс Т. Левиафан, или Материя, форма и власть государства церковного и гражданского. М.: Мысль, 1991. 625 с.

9. Паскаль Б. Мысли. М.: REFL-book, 1994. 525 с.

10. Knuth D. The Art of Computer Programming, Volume 1: Fundamental Algorithms. Redwood City: Addison Wesley, 1968. 672 с.

11. Turing A. Computing Machinery and Intelligence. London: Mind, 1950. 59 p.

12. Patrick J. On John McCarthy's 80th Birthday, in Honor of his Contributions. Massachusetts: MIT Press, 2007. 18 p.

13. Kurzweil R. How to create a mind: The secret of human thought revealed. Washington: Viking Penguin, 2012. 352 p.

14. Глушков В. Что такое ОГАС? М.: Квант, 1981. 351 с.

15. Domingos P. The master algorithm: How the quest for the ultimate learning machine will remake our world. Washington: MT Press, 2015. 356 p.

16. Kurzweil R. The age of spiritual machines. Washington: Viking Press, 1999. 400 p.

i Надоели баннеры? Вы всегда можете отключить рекламу.