Научная статья на тему 'ГНОСЕОЛОГИЯ МАШИННОГО ОБУЧЕНИЯ СИЛЬНОГО ИСКУССТВЕННОГО ИНТЕЛЛЕКТА'

ГНОСЕОЛОГИЯ МАШИННОГО ОБУЧЕНИЯ СИЛЬНОГО ИСКУССТВЕННОГО ИНТЕЛЛЕКТА Текст научной статьи по специальности «Философия, этика, религиоведение»

CC BY
0
0
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
искусственный интеллект / машинное обучение / антиномии / практика / AI / AGI / ChatGPT / artificial intelligence / machine learning / antinomies / practice / AI / AGI / ChatGPT

Аннотация научной статьи по философии, этике, религиоведению, автор научной работы — О.Н. Чибисов

В статье рассмотрены основные принципы машинного обучения, проведён их сравнительный анализ с человеческим познанием. Проанализированы идеи, лежащие в основе создания сильного искусственного интеллекта (ИИ). Обоснованы замечания к действующим идеям машинного обучения в вопросе создания сильного ИИ: приравнивание работы головного мозга человека к интеллекту; предустановление искусственному интеллекту априорных форм обработки информации; отсутствие подхода к машинному обучению связанное с принципом активного отражения противоречивой действительности. Исходя из замечаний, предложены идеи машинного обучения для решения проблемы создания сильного ИИ.

i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по философии, этике, религиоведению , автор научной работы — О.Н. Чибисов

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

GNOSEOLOGY OF MACHINE LEARNING FOR ARTIFICIAL GENERAL INTELLIGENCE

The article discusses the basic principles of machine learning, their comparative analysis with human cognition is carried out. The ideas underlying the creation of a strong artificial intelligence (AI) are analyzed. The comments on the current ideas of machine learning in the issue of creating a strong AI are justified: equating the work of the human brain with intelligence; pre-establishment of a priori forms of information processing to artificial intelligence; lack of an approach to machine learning associated with the principle of active reflection of contradictory reality. Based on the comments, machine learning ideas are proposed to solve the problem of creating a strong AI.

Текст научной работы на тему «ГНОСЕОЛОГИЯ МАШИННОГО ОБУЧЕНИЯ СИЛЬНОГО ИСКУССТВЕННОГО ИНТЕЛЛЕКТА»

УДК 159.923.2

ГНОСЕОЛОГИЯ МАШИННОГО ОБУЧЕНИЯ СИЛЬНОГО ИСКУССТВЕННОГО ИНТЕЛЛЕКТА

О Н. Чибисов

Ленинградский государственный университет имени А.С. Пушкина г. Санкт-Петербург, Пушкин e-mail: chibisoleg@ya.ru

В статье рассмотрены основные принципы машинного обучения, проведён их сравнительный анализ с человеческим познанием. Проанализированы идеи, лежащие в основе создания сильного искусственного интеллекта (ИИ). Обоснованы замечания к действующим идеям машинного обучения в вопросе создания сильного ИИ: приравнивание работы головного мозга человека к интеллекту; предустановление искусственному интеллекту априорных форм обработки информации; отсутствие подхода к машинному обучению связанное с принципом активного отражения противоречивой действительности. Исходя из замечаний, предложены идеи машинного обучения для решения проблемы создания сильного ИИ.

Ключевые слова: искусственный интеллект, машинное обучение, антиномии, практика, AI, AGI, ChatGPT.

Искусственный интеллект (ИИ) имеет различные сферы применения. Сферы, в которых он показал свою эффективность (медицина, распознавание языков и пр.), уже достаточно глубоко проработаны, как с теоретической стороны, так и с практической. Однако многих исследователей интересует вопрос создания сильного ИИ (универсального ИИ, AGI - Artificial General Intelligence), который бы обладал способностью к мышлению на человеческом уровне и даже его превосходил бы.

За последнее десятилетние происходит необычайно стремительное развитие технологий в области ИИ, что требует от научного сообщества своевременного осмысления происходящего. Мы рассмотрим ИИ со стороны понятия мышления в философии. В данном случае будем отождествлять мышление с понятием интеллекта, т. к., говоря про AGI, «общий» интеллект понимается разработчиками именно как осознанная целесообразная деятельность, субъектность, осознанность, способность к творчеству, т. е. как мышление в философском смысле.

Компьютерная нейросеть не является классической программой, которая выполняет алгоритм. Изначально она не способна обобщать данные,

классифицировать их, генерировать тексты и т. д. Она может выполнять эти функции только после обучения. Существует множество подходов к машинному обучению. Здесь мы рассмотрим идеи, лежащие в основе самых распространённых способов машинного обучения, проанализируем их с точки зрения гносеологии на предмет схожести с человеческим познанием. Мы исходим из того положения, что вопрос создания AGI прежде всего не технический, а философский, т.к. требует понимания, что делает человеческий интеллект (ЧИ) сильным, универсальным. Решение этого философского вопроса могло бы стать основанием для технической работы в области создания AGI. Данное исходное положение звучит и в других исследованиях ИИ [6; 14], как утверждение, не требующее доказательства. Тем не менее, характер развития непосредственных технологий ИИ показывает, что не обязательно понимать принцип формирования ЧИ, а достаточно обучить машину конечным приёмам обработки информации. Такой подход многие годы даёт результаты, чем обеспечивает отсутствие гуманитарных наук в вопросе непосредственных разработок машинного обучения. Однако следование данному подходу является ограничением в деле создания AGI.

Отсюда вытекает проблема нашего исследования, состоящая в том, что интеллект понимается разработчиками по-разному, за каждым пониманием стоит философская концепция, несмотря на то, что она часто может быть даже неосознанной. Например, основатель компьютерной техники Алан Тьюринг считал, что вопрос мышления следует избегать, при этом достаточно лишь сымитировать человеческий интеллект. Однако даже этот подход игнорирования проблемы заставляет разработчиков ИИ реализовывать на практике априорные формы человеческого мышления, что адресует их к философии Канта.

Таким образом не решать вопрос интеллекта не получается, т. к. отказ от решения будет лишь приводить к тому, что интеллект будет пониматься либо профанно, либо эклектично, либо не сложнее, чем понимался интеллект в эпоху Просвещения. В итоге сегодняшние попытки создать сильный искусственный интеллект, равный человеческому, актуализируют старые философские споры о происхождении интеллекта у человека.

Методологической основой нашего исследования является философский компаративизм, который позволит сравнить различные философские подходы к понятию интеллекта. Также мы будем использовать метод восхождения от абстрактного к конкретному, что позволит нам по

мере рассмотрения предмета, усложнить понятие о нём и конкретизировать. В результате применения данных методов получится выявить основные препятствия, стоящие на пути создания AGI; а также увидеть возможные пути их преодоления. Для этого мы проанализируем идеи, лежащие в основе подходов к машинному обучению, и определим их место в истории философии.

Одним из важнейших видов машинного обучения является обучение с подкреплением, которое развивается многими прикладными исследованиями [12]. Суть обучения с подкреплением состоит в том, что нейросеть взаимодействует с некоторой смоделированной средой, чтобы достичь результата, поставленного программистом. После многократных случайных попыток (переборов), совершенных компьютерной нейросетью для достижения результата, закрепляются те «действия», которые приводят к заданной цели эффективнее предыдущих, нейросеть самообучается. Такой способ обучения формирует распределение «весов» компьютерной нейросети в соответствии с «окружающей средой».

В человеческой деятельности также присутствует «обучение с подкреплением». Отрабатывание навыка и доведение его до умения, до автоматизма свойственно почти всем сферам человеческой деятельности: спорт, игра на музыкальных инструментах, вождение и т. д. В своём пределе автоматическое действие называется мастерством. Однако мастерство побуждается, развивается и, в конечном счёте, служит целям человека, будучи одной из его развившихся способностей. В ИИ мы имеем дело только с голым «мастерством», за которым телеологическая активность принадлежит программисту. Таким образом, мастерство ИИ не является отчуждённым мастерством программиста, который реализовал в машине часть своих сущностных сил.

Также заметим, что в обучении с подкреплением реализуется основной принцип автоматики - наличие обратной связи. То есть значение на выходе прибора поступает на вход, вызывая в нём изменения. Но наличие автоматичности не должно приравниваться к наличию интеллекта. Хотя человеческий интеллект тоже имеет момент автоматичности - это условные рефлексы, в том числе и рефлексы культурных образов - мемы, но не рефлексы есть суть человеческого интеллекта.

В обучении с подкреплением упрощённо реализуется принцип французского материализма «бытие определяет сознание». Так, в философии просвещения доминировало представление о человеке, как о «машине»

(Ламетри), как о продукте воспитания (Руссо), как о «чистом листе», на котором бытие пишет свой текст (Локк), т. е. человек воспринимался, как пассивный объект, формируемый внешней средой.

Таким образом, можно считать, что обучение с подкреплением ИИ базируется на философии Просвещения, неся вместе с достоинствами свои недостатки и ограничения. Идея влияния среды на формирование человека объясняет многое и позволяет многое смоделировать на компьютерных нейросетях, что является достоинством такого подхода, но недостатком является невозможность превратить пассивный объект в субъект, в творца. Как это сделать? - философский вопрос, который встаёт наиболее остро в вопросе создания AGI. Как пассивное отражение «внешней среды» сможет превратить ИИ в творца?

Для ответа необходимо продвинуться дальше по линии истории философии - от Просвещения к немецкому идеализму. Так в философии Канта человек перестал быть tabula rasa и пассивным субъектом познания, став активным творцом мира [1]. Таким образом, в свете проблемы создания AGI, актуализируется классическая немецкая философия, т. к. она рассматривает своим предметом природу человеческого таланта.

Немецкий идеализм привлекает своей проблематикой исследователей ИИ, так, например, И.И. Булычёв, характеризуя различия между ЧИ и ИИ, замечает, что мозг человека оперирует понятиями, суждениями и умозаключениями, имеющими диалектический характер [3]. В свою очередь, для диалектического характера мышления свойственно умение «выносить напряжение противоречий» [8].

Одна из трудностей, которая должна возникнуть на пути создания AGI, состоит в том, что нейросеть является математической, формальнологической моделью, которая не допускает противоречий, т. к. противоречия в формальных системах являются ошибкой. Ввиду чего Т.М. Махаматов предлагает «спрограммировать» в нейронной сети способность мыслить о «вещи в себе» и формировать антиномии [10]. Такой подход к созданию AGI требует от разработчиков столкнуть противоречащие суждения внутри вычислительного процесса. Возможен вариант реализации, что, зафиксировав логическое противоречие, ИИ оповещал бы человека, чтобы он самостоятельно его разрешил. Однако перенос «напряжения противоречия» с ИИ на ЧИ указывает, что это ещё не сильный ИИ. Сильный ИИ мог бы подходить к противоречиям по-гегелевски, т. е. разрешение противоречий не должно быть выбором одного из противоречащих суждений, а должно быть

именно появлением синтетического ответа, который не исключает, а включает противоречия.

Согласно Гегелю в живом мышлении антиномии не предустановлены от рождения, а формируются в процессе развития субъекта (познающего себя духа). Данное обстоятельство должно требовать от AGI такого же противоречивого процесса становления. Следовательно, попытка создать сильный ИИ при помощи предварительного программирования антиномий, приведёт к утрате «силы» интеллекта, нежели приобретения им человечности. Таким образом, используя только кантовское понимание априорных форм мышления, ИИ сможет стать пародией, подражающей создателю, но не сможет обладать мышлением, т. е. быть создателем. Однако выработка умения находить противоречия могла бы стать важным шагом на пути к созданию AGI.

Ещё одним решением, взятым из немецкого идеализма, для создания AGI могло бы стать внедрение в машинное обучение практики, понятой гносеологически, как активное отражение. Гегель вслед за Фихте показывает, что познание является инструментом и поэтому его применение неизбежно изменяет ту вещь, на которую оно воздействует, и только в изменённом виде вещь становится предметом сознания [5, с. 51]. Гегель выделяет активную роль человека в процессе познания. Поэтому принцип активности мог бы быть применим и в процессе обучения сильного ИИ.

Гегель писал, что самое разумное, что может сделать ребёнок - это сломать игрушку. В рамках человеческого познания, игрушка в несломанном виде, становится предметом познания ребёнка, когда он её ломает. Как подчёркивает В.А. Босенко, сломанная игрушка есть не что иное, как нарушение «себе равности» вещи, нарушение закона тождества [2]. Это противоречие фиксируется, как знание предмета.

В обучении с подкреплением как будто реализуется этот принцип. В рамках программной среды нейросеть осуществляет миллионы попыток достичь цели (ломает игрушки). Но здесь, во-первых, цель устанавливается извне программистом, во-вторых, машина не активно добивается цели, а лишь безразлично перебирает варианты и, в-третьих, игрушка не ломается, не происходит нарушение «себе равности» вещи - среда остаётся неизменной.

В данном случае путь к цели автоматизируется и, если удаётся представить условия задачи в цифровом виде, то современные ИИ прокладывают путь к решению во много раз эффективнее человека.

Человеческое мышление отличается тем, что оно само создаёт цели, отражая сложные формы общественной деятельности. Таким образом, вопрос цели в вычислительном процессе ИИ сравним с поведением животных, для которых цель собственного поведения отсутствует, а есть слепая сила инстинкта, выработанная эволюцией.

То есть обучение с подкреплением, как один из важнейших приёмов обучения компьютерных нейросетей, нельзя рассматривать, как моделирование практики, т. к. нейросеть выступает как пассивный объект, как «чистый лист», на который воздействует программист, а единственным источником внутренней активности выступает генератор случайных чисел, перебирающий варианты решения задачи.

Обучение с подкреплением отличается от другого распространенного способа обучения машин - дедуктивного, суть которого состоит в том, что на вход нейросети подаётся огромная последовательность значений, относящихся к некому общему образу. Например, нейросети «показывают» множество медицинских снимков с патологией и без. Такое обучение заканчивается, когда нейросеть способна определять с высокой вероятностью наличие патологии на новом снимке. По этому принципу происходит распознавание текста, голоса, изображений и т. д. Этот способ обучения хорошо применим к аналитическим задачам, однако он будет иметь точно такие же недостатки с точки зрения человеческого познания, как и рассмотренный ранее индуктивный способ обучения.

Различные способы и приёмы машинного обучения хоть и похожи внешне на человеческие способы усвоения информации, но в действительности имеют глубинное отличие, которое стоит препятствием на пути создания AGI. Дж. Сёрл в 1980 году [11] в мысленном эксперименте «Китайская комната» показал, что компьютеры всегда будут вычислительными устройствами, не способными «понимать» содержание, скрытое за знаками (в нашем случае за текстами, картинками и звуками). Дж. Сёрл исходит из трёх предпосылок, которые считает аксиоматическими:

1) компьютерные программы - это формальные (синтаксические) объекты,

2) человеческий разум оперирует смысловым содержанием (семантикой),

3) синтаксис сам по себе не составляет семантику и его недостаточно для существования семантики. Из чего Сёрл делает вывод: «Программы не являются сущностью разума и их наличия недостаточно для наличия разума» [11]. Он считает, что проблема разрыва между синтаксисом и семантикой не может быть преодолена в рамках принципа «машины Тьюринга», а этот

принцип является фундаментом компьютерной техники. Однако «китайская комната» Сёрла была им «построена» в 1980 году, и через неё не могли пройти вычислительные машины того времени. Может быть сегодняшние ИИ смогут?

Коллектив из 16 авторов в 2023 году публикует статью с описанием принципов работы ChatGPT, прибегая к использованию 226 источников, считает развитие больших языковых моделей гигантским скачком для создания AGI [16]. На уровне идеи ChatGPT работает следующим образом. Изначально в базовую модель GPT загружается объем текстов (книг, статей, интернет-источников и т. д.). При этом тексты «усваиваются» моделью по миллиардам параметров, формируется словарь, где каждому слову присваивается вектор. Задача модели предсказывать следующее слово (токен), опираясь на соотнесение векторов. Например, этот алгоритм, относящийся к технологии Self-Attention, позволяет поддерживать тему разговора и следить за контекстом в рамках чата. Он реализован на архитектуре «трансформер», описанной ещё в статье 2017 года «Attention is all you need» [15], которая процитирована более 100 000 раз на начало 2024 года. Изначально эта технология предназначалась для машинного перевода языков. Один из приёмов, который позволяет ей делать наиболее эффективные переводы, состоит в том, что она переводит текст не на прямую с одного языка на другой, а посредством перевода на машинный, а уже потом осуществляет перевод на любой другой язык.

Эта процедура осуществляется при помощи двух блоков: энкодера и декодера. Энкодер превращает изначальный язык в машинный, а затем с машинного переводит на нужный язык при помощи соответствующего этому языку декодера. Далее архитектура «трансформер» будет использоваться не только для машинного перевода, но и, например, для изменения лиц на фото или видео с сохранением мимики, где мимика является тем «смыслом», а лицо «знаком». Из чего можно сделать вывод, что ИИ благодаря данной архитектуре работает именно со смыслом, стоящим за словами, т. о. «трансформер» проходит «китайскую комнату». Однако с этим можно поспорить, т. к. ИИ не имеет связи с действительностью, а оперирует векторами в матрице эмбеддингов, а соотношение между ними, есть машинное вычисление вероятности. В частности, способ составления матрицы эмбеддингов распространился только в 2013 году и Дж. Сёрл не мог о нём знать, но, тем не менее, правила, по которым выстраиваются вектора слов, черпаются нейросетью из текстов, что по большому счёту остаются

лишь правилами работы со знаками. Поэтому пока что нет оснований полагать, что машина понимает смысл, стоящий за знаком.

В ChatGPT используется ещё ряд приёмов. Например, программист (тренер ИИ) производит «тонкую настройку», ранжируя ответы ИИ по массе критериев (этичность, соответствие фактам и т. д.). Из этого создаётся корпус данных, который будет примешан к базовым. Затем начинается обучение с подкреплением через обратную связь с человеком (RLHF - reinforcement learning with human feedback). Здесь человек оценивает варианты ответов, тем самым уточняя «веса» параметров, которые в свою очередь инициализируются с «весами» тонкой настройки. Есть ещё несколько механизмов вознаграждения за ответы, сравнение ответов и т. д., однако из рассмотренного можно ясно увидеть, что одна из моделей ИИ, о которой чаще всего говорят как об AGI, пока что сложно назвать интеллектом. Она является программным алгоритмом, имитирующим конечные результаты человеческого интеллекта в виде текста, созданного по статистическим принципам.

Принцип вознаграждения за хорошие ответы выстраивает связь «стимул-реакция», которая похожа на дрессировку больше, чем на разумное поведение. В конечном счёте, этот недостаток для разума является достоинством для человека, т. к. позволяет использовать предсказуемое поведение нейросети, которую следует понимать как сложный, современный инструмент в руках человека, для достижения человеческих целей -инструмент, на который человек перекладывает часть своих осознанных принципов мышления.

Другая группа авторов, состоящая из 14 исследователей [17] показывает, что современные модели ИИ вдохновлены принципами работы человеческого головного мозга и даже во многом их копируют, основываясь на предпосылке, что копируя мозг человека, удастся создать AGI. Данный подход в философии известен как физикализм. Он понимает интеллект, как продукт мозга. Отсюда проблема создания сильного ИИ представляется решённой, если удастся создать искусственный мозг. Мозг и интеллект отождествляются. Как и у предыдущей группы исследователей, утверждается, что AGI почти создан. При этом решение проблемы создания сильного искусственного интеллекта авторы полагают решить, опираясь на три дисциплины: нейробиологию, психологию и информатику. Участие психологии в их исследовании проявляется только в контексте реализации принципа «внимания» в архитектуре «трансформера», суть которого -

выявлять значимые для смысла слова (токены). Хотя, без ущерба для смысла, авторы могли бы ограничиться понятием «доминанты» из физиологии, тем самым исключив упоминание гуманитарной науки в перечне дисциплин, необходимых для создания AGI.

В вопросе создания сильного искусственного интеллекта наблюдается тенденция исключения гуманитарных наук, что ведёт к игнорированию вопроса о том, что такое интеллект и как он возможен. В упомянутых источниках [16; 17] доминирует физикалистское понимание интеллекта, согласно которому секрет появления, например, «Гамлета» или атомного реактора следует искать в биологическом устройстве человеческого мозга, который его создал. Отсюда вытекает проблема таких исследований, если AGI - это интеллект, равный человеческому, а разработчики его уже почти создали, то, следовательно, человеческий ум функционирует по принципам, изобретённым ими для функционирования ИИ. Хотя даже если полностью понять работу мозга и воспроизвести её на компьютерных нейросетях, то это ни на шаг не продвинет понимание культуры и истории, без которых невозможен современный интеллект человека.

Принципы работы мозга - это лишь часть задачи, причём не самая сложная, т. к. мозг сегодня достаточно хорошо изучен. Сложная часть задачи, как для нейробиологии, так и для разработки AGI, состоит в понимании деятельности человеческого интеллекта во всей его полноте, в том числе деятельности по созданию принципов мышления. Человеческий интеллект отличается от машинного или животного именно своей гибкостью, умением выражать предмет таким, какой он есть, не привнося в него своих собственных принципов, но создавая принципы исходя из логики самого предмета.

Предустанавливая принципы искусственному интеллекту в готовом виде, заставляя его функционировать по ним, AGI лишается своей «G», т. е. универсальности, общности. Гносеологически позиция разработчиков ИИ совпадает с позицией Канта об априорных формах мышления и в пределе ведет к агностицизму ИИ, то есть невозможности отражения мира таким, как он существует до, вне и независимо от сознания.

Отсутствие интеллекта у машин можно проиллюстрировать на примере калькулятора. Операция сложения на калькуляторе отличается от того предметно-образного процесса, который происходит у человека при выполнении такой же операции. Калькулятор преобразует число в двоичный код, затем электронные логические элементы «И», «ИЛИ», «НЕ» оперируют

с наличием или отсутствием электрического тока (логическая «единица» или «ноль») так, что в результате получаются ответы, равные сложению десятичных чисел. Этот трюк, использующий изменение системы счисления, а затем переключение транзисторных ключей, применительно к операции сложения, позволил инженерам заставить электронное устройство давать решения, соответствующие решениям человеческого интеллектуального процесса. Но человеческая способность к счёту осуществляется совершенно иначе и требует предварительного освоения категории качества перед тем, как постичь категорию количества. По тому же самому принципу современные нейросети являются набором технических хитростей, которые позволяют в обход отражения действительности, без постижения категорий, генерировать, например, тексты, в которых спрятана человеческая действительность.

Если опустить предвкушение самосознания ИИ, что в конечном счёте служит, видимо, коммерческим целям, то становится видно, что для ИИ безразлична действительность, а, стало быть, невозможно и самосознание. Решения, которые выдают современные модели ИИ, создаются не по законам реального предмета, который они описывают, а по стохастическим законам, которые можно вычленить из текста.

Принципы функционирования ИИ и ЧИ различны. Притом в среде разработчиков хоть и ставится вопрос о доведении ИИ до ЧИ, но ЧИ понимается лишь со стороны физиологии, но не со стороны мышления, как категории гносеологии. Гносеологическое понимание мышления расширяет поле работы в области создания AGI, подсвечивая проблемы ИИ, свойственные изучению человеческого интеллекта. Однако, непосредственная практика современных технологий ИИ показывает, что создание AGI не состоит в том, чтобы достичь ЧИ или его превзойти, а состоит в том, чтобы выполнить имитацию конечных форм ЧИ. Для данной цели и для такого понимания сильного ИИ, достижения гносеологии не могут быть значимыми. Таким образом, проанализировав современные способы машинного обучения, мы приходим к выводу, что в идее AGI проблема создания интеллекта подменена проблемой создания готовых принципов обработки информации.

Несмотря на оптимизм разработчиков ИИ, способ формирования готовых принципов мышления, готовых схем и подходов для работы с информацией приведёт только к созданию слабого ИИ, в отношении которого С.Н. Мареевым была брошена хлёсткая характеристика:

«быстродействующий идиот» [9]. Умственную отсталость за ИИ замечают и зарубежные исследователи. И. Миллар в книге «Психоанализ ИИ» рассматривает т. н. «искусственный идиотизм». Этот термин означает слишком правильное выполнение задач, которое влечёт за собой ущерб для массы других неучтённых факторов [14, c. 21], которые были бы очевидны для человека.

Помимо того, что понятие интеллекта не соответствует тому содержанию, который вкладывается в «I» разработчиками AGI, заметим, что слово «искусственный», предшествующее слову «интеллект» также неудачно, т. к. человеческий интеллект всегда искусственный, т. е. привнесённый извне, созданный человеком, обществом, историей. Логичным названием для рассмотренной технологии могло бы быть «имитационный интеллект». Такое название исключает одушевление алгоритмов и заставляет воспринимать нейросети, как инструмент, на который человек может переложить часть своих рутинных интеллектуальных функций, не претендующий на то, чтобы превзойти человека. Поэтому на данный момент говорить о создании сильного ИИ можно только с точки зрения более продвинутой имитации конечных результатов человеческих форм интеллекта, которые будут тесно связанны и ограниченны тем, как интеллект человека понимается техническими специалистами.

Основные замечания к действующим идеям машинного обучения в вопросе создания AGI можно свести к следующему: 1) предустановление готовых форм обработки информации; 2) отсутствие активного отражения противоречивой действительности. Это лишает ИИ статуса интеллекта, понимаемого, как мышление в гносеологии. Отсюда возможны следующие решения: переориентация «умных машин» на взаимодействие с действительностью по принципам активного отражения. В свою очередь, для реализации такого подхода требуется союз инженерных и гуманитарных наук, т. к. вопрос создания сильного ИИ, как мы показали, не решается при участии только инженерных наук, требуется участие всего интеллектуального багажа человечества.

За несколько лет до Сёрла о разнице между «знаками» и смыслом, стоящим за «знаками», обратил внимание Э.В. Ильенков. Касательно образования Ильенков пишет, что происходит вовсе не усвоение предмета, а лишь усвоение фраз о предмете, лишь усвоение вербальной оболочки знания вместо знания [7, с. 57]. Таким образом, можно заметить, что проблема разрыва между синтаксисом и семантикой не была решена и лишь

перенеслась из человеческого образования в идеи машинного обучения. Поэтому логично встречаются исследования [13], посвященные внедрению в образовательный процесс ChatGPT-4, как языковой модели, которая запоминает и обрабатывает информацию эффективнее учеников, следовательно, на неё можно переложить часть преподавательских функций. Данный подход исходит из соображения, что смысл образования состоит в запоминании учеником информации, точно так же, как смысл машинного обучения сейчас состоит в насыщении компьютерной нейросети информацией и выработке ответов по этой информации. Притом, как в образовании, так и в машинном обучении игнорируется способность применения полученной информации на деле, то есть использование активного отражения, которое составляет ядро человеческого познания.

Устранить этот разрыв в образовании Э.В. Ильенков предлагает через введение практики в учебный процесс. Однако, как замечает М.Л. Бурик, деятельность оказывается краеугольным камнем для любой философии, т. к. понятие деятельности требует поиска её источника, будь он общественный или индивидуальный [4, с. 37]. Без решения этого философского вопроса не представляется техническое решение вопроса о создании сильного ИИ. Пусть, вопрос источника практики, субъектности и свободы является обсуждаемым, однако необходимость преобразующей деятельности в становлении мышления является однозначной.

Основная проблема создания машинного обучения AGI состоит в том, как научить ИИ активно отражать действительность. Также существует ещё одна старая и насущная проблема - трудность представления задач в виде, понятном компьютерной нейронной сети. По сути, это две проблемы являются одной и той же. Большая часть усилий разработчиков ИИ уходит на то, чтобы найти способ, как представить условия задачи для машины. Но найдя такой способ, машина тут же приобретает свою узкую специализацию и теряет возможность стать универсальной. Решение этой проблемы станет и решением проблемы создания AGI.

На уровне идеи эта проблема могла бы решаться так же, как в архитектуре «трансформатора», но с применением более сложного, универсального энкодера и декодера. Универсальный энкодер преобразовывал бы не только тексты, а действительность в формы машинного языка. Его неотъемлемой функцией должна стать фиксация противоречий практической деятельности. Деятельность же в свою очередь должна осуществляться универсальным декодером. Притом, наличие

обратной связи, от сделанного к усвоенному и от усвоенного снова к сделанному, реализуется в вещи, с которой происходит взаимодействие. Таким образом реализовывался бы принцип активного отражения действительности. Разработка такого энкодера и декодера предположительно должна стать решением вопроса создания универсального ИИ. Для этого требуется, чтобы нейросеть обучалась в первую очередь не синтаксису, а семантике.

Если нужна семантика в том виде, в котором её демонстрирует человек, то для неё необходим и человеческий процесс деятельности в обществе. Для этого компьютерной нейросети нужно тело и общество. Причём тело должно обладать возможностью универсальной, всесторонней деятельности, т. е. копировать тело человека, а общество - копировать человеческое общество. Дальнейшее размышление в данном ключе приведёт нас к тому, что практическая надобность создания такого думающего, деятельного, но искусственного человека не является целесообразной, как это показал Э.В. Ильенков и его соавторы в статье «Машина и человек» [7, с. 143].

В статье «Машина и человек», а также в книге «Об идолах и идеалах» [7, с. 290] разобрана возможность создания «умных машин», которые по старым представлениям совпадают с сегодняшним ожиданием AGI, тем самым идеи середины прошлого века, высказанные Ильенковым, не теряют актуальности. Однако они не рассматривают, и не могли рассмотреть по историческим причинам, аспект функционирования современных ИИ, которые смогли бы ввести в замешательство любой скептицизм в отношении создания действительно «умных машин». Тем не менее, при пристальном рассмотрении становится видно, что сегодняшнее функционирование ИИ хоть и «вдохновлено» головным мозгом человека, но при этом не «вдохновлено» интеллектом человека. Несмотря на прогресс в компьютерной технике, несмотря на появление самообучающихся нейросетей и ChatGPT-4, дело остаётся таким же, как и было пол века назад: «есть - человек, способный, плохо ли, хорошо ли, мыслить. И есть машина, мыслить пока что не умеющая» [7, с. 292].

Список литературы

1. Алушкин, С. В. Желание как источник социальной активности субъекта истории : 033 «философия» : диссертация на соискание ученой степени доктора философии / Алушкин

Сергей Витальевич ; Киев. политехн. ин-т им. И. Сикорского. - Киев, 2021. - 242 с. : ил. -Библиогр.: с. 231-242.

2. Босенко, В. А. Всеобщая теория развития / В. А. Босенко. - Киев : [б. и.], 2001. -468 с. - ISBN 966-622-035-0.

3. Булычёв, И. И. Искусственный интеллект в зеркале настороженного философского дискурса / И. И. Булычёв // Вестник Ивановского государственного университета. - 2021. -№ 2. - С. 5-15. - URL: https://cyberleninka.m/article/n/iskusstvennyy-intellekt-v-zerkale-nastorozhennogo-filosofskogo-diskursa (дата обращения: 14.02.2024).

4. Бурик, М. Л. Проблема начала или предельной единицы сознания как основа становления субъекта исторического действия / М. Л. Бурик // Вестник Бурятского государственного университета. Философия. - 2023. - Вып. 2. - С. 32-39.

5. Гегель, В. Ф. Г. Феноменология духа / В. Ф. Г. Гегель ; пер. с нем. Г. Г. Шпета. -4-е изд. - Москва : Академический проект, 2021. - 494 с. - ISBN 978-5-8291-2145-7.

6. Гутенев, М. Ю. Проблема искусственного интеллекта в философии XX века / М. Ю. Гутенев // Вестник Челябинской государственной академии культуры и искусств. 2012. - № 4 (32). - С. 77-80.

7. Ильенков, Э. В. Идеал : собр. соч. Т. 3 / Э. В. Ильенков. - Москва : Канон+ РООИ «Реабилитация», 2020. - 512 с.

8. Майданский, А. Д. Понятие истины в диалектической логике Ильенкова / А. Д. Майданский // Свободная мысль. - 2009. - № 8. - С. 169-178.

9. Мареев, С. Н. История философии / С. Н. Мареев, Е. В. Мареева. - Москва : Академический проект, 2004. - 880 с.

10. Махаматов, Т. М. Философские основания искусственного интеллекта / Т. М. Махаматов // Гуманитарные науки. - 2019. - Т. 9. - № 4. - С. 52-56.

11. Сёрл, Дж. Разум мозга - компьютерная программа? / Дж. Сёрл // В мире науки. -1990. - № 3. - С. 4-13.

12. Соколова, Е. С. Алгоритмизация мультиагентного обучения с подкреплением в теоретико-игровых задачах поиска оптимальных стратегий / Е. С. Соколова, К. А. Разинкин // Моделирование, оптимизация и информационные технологии. - 2020. -8 (1). - С. 3-12. - URL: https://moit.vivt.ru/wp-content/uploads/2020/02/SokolovaSoavtori_1_20_1 .pdf (дата обращения: 14.02.2024).

13. Latif, E. Artificial general intelligence (AGI) for education / E. Latif et al. // arXiv preprint arXiv: 2304.12479. - 2023.

14. Millar, I. The Psychoanalysis of Artificial Intelligence / I. Millar. - Cham : Palgrave Macmillan, 2021. - 220 p. - ISBN 978-3-030-67980-4.

15. Vaswani, A. Attention is all you need / A. Vaswani et al // Advances in neural information processing systems. - 2017. - Т. 30.

16. Zhang, C. One small step for generative ai, one giant leap for agi: A complete survey on chatgpt in aigc era / C. Zhang et al // arXiv preprint arXiv: 2304.06488. - 2023.

17. When brain-inspired AI meets AGI / L. Zhao, L. Zhang, Z. Wu et al // Meta-Radiology. -2023. - Vol. 1, No. 1. June. - Pp. 1-10. - DOI: 10.1016/j.metrad.2021.100005.

GNOSEOLOGY OF MACHINE LEARNING FOR ARTIFICIAL GENERAL INTELLIGENCE

O.N. Chibisov

Leningrad State University named after A.S. Pushkin, Saint Petersburg

e-mail: chibisoleg@ya.ru

The article discusses the basic principles of machine learning, their comparative analysis with human cognition is carried out. The ideas underlying the creation of a strong artificial intelligence (AI) are analyzed. The comments on the current ideas of machine learning in the issue of creating a strong AI are justified: equating the work of the human brain with intelligence; pre-establishment of a priori forms of information processing to artificial intelligence; lack of an approach to machine learning associated with the principle of active reflection of contradictory reality. Based on the comments, machine learning ideas are proposed to solve the problem of creating a strong AI.

Keywords: artificial intelligence, machine learning, antinomies, practice, AI, AGI, ChatGPT.

i Надоели баннеры? Вы всегда можете отключить рекламу.