Научная статья на тему 'ФИЛОСОФСКО-МЕТОДОЛОГИЧЕСКИЙ АНАЛИЗ ОСНОВ ИНТЕЛЛЕКТУАЛЬНОЙ РОБОТОТЕХНИКИ'

ФИЛОСОФСКО-МЕТОДОЛОГИЧЕСКИЙ АНАЛИЗ ОСНОВ ИНТЕЛЛЕКТУАЛЬНОЙ РОБОТОТЕХНИКИ Текст научной статьи по специальности «Компьютерные и информационные науки»

69
19
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
ИНТЕЛЛЕКТУАЛЬНАЯ РОБОТОТЕХНИКА / ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ / МЕТОДОЛОГИЯ / ФИЛОСОФСКОЕ ОСМЫСЛЕНИЕ / КОГНИТИВНАЯ АРХИТЕКТУРА

Аннотация научной статьи по компьютерным и информационным наукам, автор научной работы — Огурцова Е.Ю., Фадеев Р.Н.

В центре внимания авторов - философско-методологический срез междисциплинарных проблем развития систем робототехники, наделенных искусственным интеллектом. Проведен анализ текущего состояния, перспектив и барьеров развития интеллектуальной робототехники в рамках тьюринговой методологии. Подробно рассмотрен подход в области интеллектуальной робототехники на основе посттьюринговой методологии. Выявлен ряд исследований, обосновывающих способы создания интеллектуальных роботов, обладающих возможностями самостоятельного действия одновременно в различных измерениях - виртуального-физического и невербального-вербального. Рассмотрены предпосылки нового подхода к разработке когнитивных архитектур для технологий интеллектуальной робототехники. Сделан вывод, что сложные робототехнические системы недостаточно рассматривать только в техническом плане, необходимо их изучение с учетом социальных ценностей, мировоззренческих ориентиров и иных составляющих духовной сферы.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

PHILOSOPHICAL AND METHODOLOGICAL ANALYSIS OF THE FUNDAMENTALS OF INTELLIGENT ROBOTICS

The authors focus on the philosophical and methodological dimension of interdisciplinary problems in the development of robotics systems endowed with artificial intelligence. An analysis of the current state, prospects and barriers to the development of intelligent robotics in the framework of the Turing methodology has been carried out. The approach in the field of intelligent robotics based on the post-Turing methodology is considered in detail. A number of studies have been identified that substantiate methods for creating intelligent robots that have the ability to act independently simultaneously in various dimensions - virtual-physical and nonverbal-verbal. The prerequisites for a new approach to the development of cognitive architectures for intelligent robotics technologies are considered. It is concluded that it is not enough to consider complex robotic systems only in technical terms, it is necessary to study them taking into account social values, worldview guidelines and other components of the spiritual sphere.

Текст научной работы на тему «ФИЛОСОФСКО-МЕТОДОЛОГИЧЕСКИЙ АНАЛИЗ ОСНОВ ИНТЕЛЛЕКТУАЛЬНОЙ РОБОТОТЕХНИКИ»

Научная статья

УДК 167:004.896

DOI: 10.46724/NOOS.2022.3.36-46

Е. Ю. Огурцова, Р. Н. Фадеев

ФИЛОСОФСКО-МЕТОДОЛОГИЧЕСКИЙ АНАЛИЗ ОСНОВ ИНТЕЛЛЕКТУАЛЬНОЙ РОБОТОТЕХНИКИ

Аннотация. В центре внимания авторов — философско-методологический срез междисциплинарных проблем развития систем робототехники, наделенных искусственным интеллектом. Проведен анализ текущего состояния, перспектив и барьеров развития интеллектуальной робототехники в рамках тьюринговой методологии. Подробно рассмотрен подход в области интеллектуальной робототехники на основе посттьюрин-говой методологии. Выявлен ряд исследований, обосновывающих способы создания интеллектуальных роботов, обладающих возможностями самостоятельного действия одновременно в различных измерениях — виртуального-физического и невербального-вербального. Рассмотрены предпосылки нового подхода к разработке когнитивных архитектур для технологий интеллектуальной робототехники. Сделан вывод, что сложные робототехнические системы недостаточно рассматривать только в техническом плане, необходимо их изучение с учетом социальных ценностей, мировоззренческих ориентиров и иных составляющих духовной сферы.

Ключевые слова: интеллектуальная робототехника, искусственный интеллект, методология, философское осмысление, когнитивная архитектура

Ссылка для цитирования: Огурцова Е. Ю., Фадеев Р. Н. Философско-методологический анализ основ интеллектуальной робототехники // Ноосферные исследования. 2022. Вып. 3. С. 36—46.

Original article

E. Yu. Ogurtsova, R. N. Fadeev

PHILOSOPHICAL AND METHODOLOGICAL ANALYSIS OF THE FUNDAMENTALS OF INTELLIGENT ROBOTICS

Abstract. The authors focus on the philosophical and methodological dimension of interdisciplinary problems in the development of robotics systems endowed with artificial intelligence. An analysis of the current state, prospects and barriers to the development of intelligent robotics in the framework of the Turing methodology has been carried out. The approach in the field of intelligent robotics based on the post-Turing methodology is considered in detail. A number of studies have been identified that substantiate methods for creating intelligent robots that have the ability to act independently simultaneously in various dimensions — virtual-physical and nonverbal-verbal. The prerequisites for a new approach to the development of cognitive architectures for intelligent robotics technologies are considered. It is concluded that it is not enough to consider complex robotic systems only in technical terms, it is necessary to

© Огурцова Е. Ю., Фадеев Р. Н., 2022

study them taking into account social values, worldview guidelines and other components of the spiritual sphere.

Keywords: intellectual robotics, artificial intelligence, methodology, philosophical comprehension, cognitive architecture

Citation Link: Ogurtsova, Ye. Yu., Fadeyev, R. N. (2022) Filosofsko-metodologicheskiy analiz osnov intellektual'noy robototekhniki [Philosophical and methodological analysis of the foundations of intelligent robotics], Noosfernyye issledovaniya [Noo-spheric Studies], vol. 3, pp. 36—46.

Философско-методологический анализ имеет особое значение, когда речь идет о междисциплинарных проблемах, к которым, несомненно, можно отнести проблему развития систем робототехники, наделенных искусственным интеллектом. На пороге нового этапа развития искусственного интеллекта, когда возникают новые задачи и для их решения необходимы новые методологические подходы, важно философское осмысление предыдущего его этапа.

Принято считать, что впервые над вопросом, как отличить способности человека и машины, задумался Рене Декарт. Он полагал, что невозможно отличить машину от животного, если она ни внешним видом, ни внутренним строением не будет отличаться от него. Но если машина будет иметь полнейшее сходство с телом и поведением человека, то различить возможно, так как человек обладает разумом. Для этого следует протестировать машину на ее способность пользоваться языком, сообщая другим свои мысли, и на ее способность работать в самых различных контекстах. Декарт полагал, что тесты не будут пройдены, хотя в некоторых частных случаях машина может действовать лучше человека.

Концептуальные основы для работы многих поколений разработчиков искусственного интеллекта задала статья британского математика Алана Тьюринга «Вычислительные машины и разум» («Computing Machinery and Intelligence»), написанная более 70 лет назад. Как определить, может ли машина мыслить? Тьюринг предложил тест, придуманный на основе имитационной игры для вечеринок. В этой игре мужчина и женщина находятся в разных комнатах. Гости задают им письменные вопросы и по ответам на них должны определить, в какой комнате кто находится. Мужчина и женщина своими ответами стараются запутать гостей (рис. 1). В первом варианте теста Тьюринг заменяет одного из игроков имитационной игры на компьютер. Компьютер старается ввести в заблуждение человека-судью (рис. 2). В стандартном варианте теста Тьюринга человеку-судье по ответам на вопросы необходимо определить, с кем он общается — с человеком или с компьютерной программой. Компьютер будет пытаться запутать человека-судью, чтобы тот сделал неверный выбор. Если судья не сможет определить, кто из собеседников является человеком, то машина обладает интеллектом. Общение происходит с использованием клавиатуры и монитора через промежутки времени, чтобы судья не смог сделать вывод, исходя из разницы в скорости ответов компьютера и человека (рис. 3).

с? 9

А В

9сГ?1

яг

с

Рис. 1. Схема имитационной игры

■ 9

А В

9с??|

9

С

Рис. 2. Первоначальный тест на основе имитационной игры

9 (9)

■ Я

А В

9

(9 ■ ?

Рис. 3. Стандартная интерпретация теста Тьюринга

В 2014 году в рамках соревнования, организованного университетом в Великобритании, чат-бот под кодовым именем «Евгений Густман», представившийся тринадцатилетним подростком из Одессы, прошел тест Тьюринга и

«выиграл» у экспертов, так как в нем не смогли распознать машину. Возраст подростка был выбран неслучайно. В 13 лет он уже многое знает, но далеко не все, что усложняет задачу судей. Первая версия этого чат-бота появилась еще в 2001 году. Позднее разработчики модифицировали виртуального собеседника, обучили его подбирать примеры ответов в «Твиттере». Соревнование показало, что машина не научилась думать, а научилась обманывать людей и имитировать разговор с человеком. Исследователи в области искусственного интеллекта стали активнее заявлять, что пора дополнить тест Тьюринга новыми проверочными испытаниями, к которым машины еще не адаптировались.

Ученый-когнитивист Гэри Маркус в 2015 году организовал конференцию, посвященную вопросам искусственного интеллекта. Во время выступления на конференции он призывал оставить тест Тьюринга и придумать что-нибудь новое. Маркус выдвинул альтернативное предложение, которое опубликовал в журнале «The New Yorker». Надо создать компьютерную программу, которая после просмотра телевизионных шоу и видео на YouTube могла отвечать на вопросы по их содержанию. Например, могла объяснить, в какие моменты записи следует смеяться. Если компьютер может определить и понять юмор, сарказм и иронию, то он имеет интеллект.

На конференции было еще предложение организовать олимпиаду Тьюринга. В разных сферах (от зрения и визуального распознавания образов до распознавания речи и понимания языка) компьютеры становятся все совершеннее. Любое единичное испытание проверяет наличие интеллекта не полностью, потому что в человеческом интеллекте есть много разных элементов. Поэтому можно организовать целую серию испытаний для машины, каждое из которых будет проверять разные аспекты интеллекта.

После появления первых интеллектуальных роботов, имеющих кибернетическую обратную связь и строящих собственные динамически адаптируемые модели, операционалистский подход Алана Тьюринга стал переноситься на робототехнику — «может ли робот выполнить любое действие не хуже человека?». Список сфер деятельности искусственного интеллекта, составленный Тьюрингом (игры, криптография, изучение языков, переводы, решение математических задач), сейчас значительно увеличился. Возникло большое семейство тестов Тьюринга для попытки найти ответы на частный вопрос: может ли машина выполнить определенное действие?

А.Ю. Алексеев ввел понятие частного теста Тьюринга, который на основе тьюринговой методологии устанавливает степень «когнитивной компетентности систем различной природы — человеческих, биологических, технических, социальных» [Алексеев, 2013: 95]. Таким образом, частный тест проверяет какую-либо одну когнитивную способность машины, а комплексный тест предназначен для ответа на вопрос: может ли машина все?

Рассмотрим исторически сложившуюся совокупность частных тестов Тьюринга.

Параноидальный тест Колби. В качестве судьи выступает врач-психиатр. Двое других участников теста: параноик и компьютер, имитирующий параноика.

Тест леди Лавлейс. В 2001 году трое исследователей (П. Белло, С. Брингсджорд, Д. Феруччи) выдвинули следующую концепцию. Искусственный агент, созданный человеком-разработчиком, проходит тест тогда и только тогда, когда:

• искусственный агент создает на выходе артефакт (поэму, роман, музыкальное произведение и т. п);

• артефакт появляется не в результате случайного стечения обстоятельств или сбоя машины;

• искусственный агент всегда может повторить создание артефакта;

• разработчик не может объяснить, как искусственный агент создал артефакт, даже при условии полной осведомленности об агенте (структуре баз данных, алгоритмах функционирования и т. д.).

Формулировка концепции предполагала следующие допущения:

• созданные на момент разработки теста программы не могут заниматься творчеством и не смогут пройти тест, потому что специфика их умозаключений известна разработчикам теста, что исключает возможность стилизации, рерайтинга и т. п.;

• компьютер должен иметь возможность автономно модифицировать, дополнять свою программу, т. е. ему должно быть доступно самообучение.

Другими словами, чтобы пройти тест леди Лавлейс, компьютер должен создать что-то оригинальное сам по себе.

Схема Винограда. Тест был создан в 2011 году и получил название в честь ученого, профессора Стэнфордского университета Терри Винограда (Terry Winograd). Схема предназначена для проверки возможности систем искусственного интеллекта при ответе на вопросы использовать здравый смысл. Для ответов на вопросы не должны требоваться специальные знания. Люди без подготовки легко могут ответить на них. Например: «Мяч не влезает в новый рюкзак, потому что он слишком большой. Что имеется в виду под «он»? Конечно же, имеется в виду мяч. Но для компьютера это не очевидно, ему в этом случае нужен большой объем общих знаний и способность рассуждать.

Схемы Винограда строятся по следующим правилам:

• во фразе два объекта, выраженные существительными;

• местоимение, которое используется во фразе по отношению к одному из двух объектов, грамматически может быть отнесено и ко второму объекту;

• задача — определить тот объект, к которому относится местоимение;

• во фразе есть «специальное слово». При его замене другим словом («альтернативное слово») грамматический строй предложения остается прежним, но смысл меняется, а значит, меняется и правильный ответ (пример — «Мяч не влезает в новый рюкзак, потому что он слишком маленький»).

Инвертированный тест Ватта. Стюарт Ватт в работе «Наивная психология и инвертированный тест Тьюринга» высказал мнение, что тест Тьюринга может пройти программы, не обладающие свойствами интеллекта, так как людям присуща естественная, наивно-психологическая установка приписывать ментальные свойства любым системам — другим людям, животным, природным явлениям, в том числе и компьютерам. Чтобы избежать этого, он предложил инвертированную версию теста Тьюринга. Судья должен быть судим. Тестированию подлежит судья, т. е. оценивается способность выносить верные суждения по ответам игроков. Вместо одного судьи теперь двое — судья-компьютер и судья-человек. Судья-человек должен сопоставлять ответы игроков «компьютера» и «человека» с решениями второго арбитра. Если судья-компьютер начинает приписывать интеллект игроку, который им не обладает, то судья-компьютер есть машина, а не человек.

Китайская комната. В 1980 году в работе «Разумы, мозги, программы» американский философ Джон Серл бросил тесту Тьюринга вызов своим мысленным экспериментом, известным как «Китайская комната». Он считал, что при проведении теста Тьюринга не существует никакой возможности отличить действительно мыслительную деятельность программы от механического исполнения правильно подготовленной инструкции. Серл утверждал, что способность компьютера вести разговор и убедительно отвечать на вопросы далеко не то же самое, что иметь разум и мыслить, как человек. Предположим, что вы заперты в комнате и не знаете китайский язык. Через щель в стене вы получаете листок с вопросами на китайском. В комнате есть инструкции, какие иероглифы использовать, в каком порядке и в каком случае, чтобы правильно составить ответ. Теоретически вы могли бы ответить на вопросы и убедить собеседников, что вы знаете китайский язык (рис. 4). Таким образом, любые манипуляции с синтаксическими конструкциями не могут приводить к пониманию.

Часть критиков согласна с утверждениями Серла, но считает, что можно достигнуть эффекта понимания, создав робота с самообучающейся программой и с сенсорами для восприятия мира. Тогда робот может познавать мир и способен обучаться, как ребенок. Следовательно, начнет понимать так же, как человек. Серл в качестве контраргумента предлагал поместить человека внутрь робота. Человек в зависимости от увиденных через сенсоры иероглифов выполнял бы движение телом робота. При этом не возникло бы никакого понимания происходящего, а человек лишь выполнял бы синтаксические манипуляции над символами.

Рис. 4. Иллюстрация мысленного эксперимента «Китайская комната»

Психофункциональный тест Блока. Н. Блок скептически высказывался о классическом тесте Тьюринга, утверждая, что игра в имитацию является разновидностью оценки поведения в контексте лингвистического бихевиоризма. Н. Блок предполагал проверку способности интеллектуальных вербальных

реакций на вербальные стимулы. При создании машины, способной к этому, разработчики будут задавать поведение машины, т. е. ее «интеллект» есть интеллект разработчиков. Если библиотека правильных ответов будет достаточно велика, то любой вопрос судьи не поставит машину в тупик. Единственный способ различить компьютер и человека будет «анатомический» по принципу «вскрытие покажет».

Тест Френча. Идея сформулирована Р. Френчем в 1990 году в работе «Субкогнитивные способности и границы теста Тьюринга». Автор утверждал, что тест Тьюринга не способен исследовать глубинные, подсознательные области человеческого интеллекта. В тест Тьюринга следует включить субкогнитивные вопросы, позволяющие, например, идентифицировать подсознательную сеть ассоциаций. Следует заметить, что тест Френча — это не тест на интеллект «вообще», а тест на социокультурную обусловленность человеческого интеллекта.

Тест Харнада. В 2001 году в работе «Разумы, машины и Тьюринг: неразличимость неразличимости» Харнад рассматривает пять уровней тестирования.

Уровень первый — неразличимость человека и компьютера в локальной задаче, например в настольной игре.

Уровень второй — неразличимость человека и компьютера в вербальном диалоге (классический тест Тьюринга).

Уровень третий — неразличимость сенсорно-моторных действий робота и манипуляций человека с предметами, отсутствие различий в процессе общения.

Уровень четвертый — неразличимость на уровне внешних действий и внутренних структур, функций робота, включая нервную систему (искусственный сапиенс).

Уровень пятый — искусственный человек, неотличимый от естественного ни в чем, включая атомы и молекулы.

Комплексный тест Тьюринга — Алексеева. В 2006 году А. Ю. Алексеев предложил комплексный тест, который за счет совмещения коннекционистской и символьной парадигм искусственного интеллекта на базе машины С. Н. Корсакова тестирует весь спектр когнитивных возможностей. В этом тесте проверяется возможность имитации машиной когнитивного поведения, схожего с человеком, в искусственных мирах. Комплексный тест Тьюринга — Алексеева предполагает симуляцию виртуального мира, в котором виртуальный сапиенс проходит тестирование во всех аспектах когнитивного взаимодействия с симуляцией.

Тесты Брукса. В 2018 году Р. Брукс предложил рассматривать в качестве показателя технологического достижения в области искусственного интеллекта и робототехники способности ребенка. Интеллектуальный робот на уровне двухлетнего ребенка должен распознавать объекты, понимать речь на уровне четырехлетнего ребенка, шестилетний ребенок — эталон для уровня ловкости рук и моторики, как восьмилетний ребенок должен владеть навыками социальной коммуникации.

Тест Э.ЛЕНА. В Лаборатории робототехники Сбербанка в 2019 году была создана платформа, названная «Э.ЛЕНА — Электронная Лена». Она преобразовывает текст в видеоизображение теледиктора. Исследователи предлагают тест на сравнение цифрового теледиктора с диктором-человеком.

Тест ImageNet. В 2006 году Ф. Ли предложил использовать огромную базу данных изображений ImageNet для тестирования качества распознавания

образов. В 2012 году произошел прорыв благодаря использованию нейронных сетей глубокого обучения, и сейчас распознавание образов на этой базе превзошло человеческие возможности.

Игровые тесты. А. Ю. Алексеев считает, что игры являются важнейшим аспектом тестового функционализма [Алексеев, 2013]. Например, компании Google (DeepMind) и OpenAI активно используют компьютерные игры для испытаний нейросетевых моделей, включая обучение с подкреплением и обучение без учителя.

Тесты NIST. Национальный институт стандартов и технологий США (NIST) тестирует способности компьютера по распознаванию звука. Голос и распознавание звуков, как и распознавание образов, — важная часть когнитивного инструментария человека.

Тест Ишигуро. Японский исследователь-робототехник Х. Ишигуро видоизменяет тест Тьюринга. Судья выносит свой вердикт не на основе символьного диалога с машиной, а на основе аудиовизуального взаимодействия с роботом-андроидом.

Тест Зимнего города. Конкурс «Зимний город» для беспилотных транспортных средств стартовал в России в 2019 году. Тест проверяет, что автомобиль под управлением интеллектуального робота более безопасен, чем под управлением человека.

Тесты роботов DARPA. Агентство Передовых Оборонных Исследований США организовало конкурс DARPA Robotics Challenge. На конкурсе роботам предлагались сложные манипуляционные и когнитивные задачи, имитирующие действия человека при ликвидации стихийного бедствия.

А.Р. Ефимовым была предложена методологическая классификация тестов Тьюринга в соответствии с двумя измерениями [Ефимов, 2020]. На рисунке 5 частные тесты расположены на плоскости по отношению к осям вербальное-невербальное и виртуальное-физическое. В данной плоскости можно выделить четыре области. Рассмотрим их подробнее.

Вербальное взаимодействие в виртуальном мире. Мы можем увидеть, что большинство тестов расположено в этом квадранте. Объяснение этого факта связано с тем, как происходило развитие информационных технологий и исследований в области искусственного интеллекта. Человек в этих тестах действует в виртуальном мире своего воображения и компьютерной программы. Интерфейс стандартный: экран, клавиатура, мышка. Общение пользователя с банковской программой является примером подобного взаимодействия.

Вербальное взаимодействие в физическом мире. Тестов, основанных на демонстрации вербального взаимодействия искусственного интеллекта и человека в физическом мире, относительно мало. Примеры аналогичного взаимодействия: голосовые команды звуковым колонкам, пылесосам и т. п.; аудиосообще-ния от терминалов или банкоматов человеку.

Невербальное взаимодействие в виртуальном мире. Опять же история становления исследований искусственного интеллекта и развития технологий в данной области дает ответ на вопрос, почему этот квадрант заполнен тестами, предложенными относительно недавно. Распознавание образов, их синтез активно развиваются в последнее время. Примеры невербального взаимодействия в виртуальном мире: поединки между игровыми персонажами в компьютерных играх, действия и/или эмоции виртуальных аватаров.

Невербальное взаимодействие в физическом мире. Исследователи долгое время не предлагали тесты, попадающие в эту область. Создаваемое людьми виртуальное пространство обладает исчисляемыми, программируемыми характеристиками. На этом фоне реальность неисчерпаема, резко возрастает роль случайности. Этот квадрант области тестов является самым сложным. Взаимодействие в нем зависит от сочетания технологий искусственного интеллекта и робототехники. Примеры из этой области: робот должен перемещаться по квартире или больничному коридору, передавать людям предметы и принимать их от человека.

Вербальное взаимодействие

Тест Тест Тест

Колби Лавлейс Ватта

Тест Тью- Тест Тест Серла

ринга Вино- «Китайская

града комната»

Тест Тест Тест

Френча Блока Брукса-2.

Понимание

языка

на уровне

4-летнего

ребенка

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

Виртуальный мир

Тест Харнада Тест Алексеева

Тест Брукса-4. Социальные навыки на уровне 8-летнего ребенка

Физический мир

Тест Э.ЛЕНА Игровые тесты Тест ImageNet

Тест NIST Тест Брукса-1. Распознавание объектов на уровне 2-летнего ребенка

Тест Ишигуро Конкурсы роботов, подобные DARPA Robotics Challenge

«Зимний город» Конкурс беспилотных автомобилей Тест Брукса-3. Манипуляция объектами на уровне 6-ти летнего ребенка

Невербальное взаимодействие

Рис. 5. Пространство тьюрингоподобных тестов

Определение и описание пространства тьюрингоподобных тестов дает возможность рассмотреть некоторые особенности этого пространства сквозь оптику существующих эпистемологических концепций.

А. Р. Ефимов соотносит все пространство частных тестов Тьюринга с понятием техно-умвельт [Ефимов, 2013]. Все созданные ранее или создаваемые в будущем частные тесты Тьюринга образуют пространство человеко-машинного взаимодействия и попадают в какой-либо из четырех техно-умвельтов:

• виртуальное-вербальное;

• виртуальное-невербальное;

• физическое-невербальное;

• физическое-вербальное.

Подобная конструкция была рассмотрена В. Г. Будановым [Буданов, 2016]. Он разделяет умвельты на четыре вида: природный, сетевой, виртуальный, техносредовый.

В его диссертационном исследовании содержится утверждение, что Стена Тьюринга (разделяет судью и объекты испытания — человек или компьютер, робот) является фундаментальным философско-методологическим барьером развития интеллектуальной робототехники [Ефимов, 2020]. Она позволяет разработчикам пренебрегать всеми техно-умвельтами взаимодействия человека и робота, кроме одного — виртуально-вербального. Однако до тех пор, пока робот остается отделен от человека и от мира стеной, он не способен полноценно взаимодействовать с ними и подлинная интеллектуальность машины подменяется сложностью реализуемых ею функций. Деятельность человека и робота противопоставляется в их сравнении. Эта ситуация заставляет исследователей разрабатывать и реализовывать только те задачи, которые могут быть решены роботом в полном отрыве от человека. Однако современные исследования человеко-машинного взаимодействия говорят о том, что максимальный эффект от использования интеллектуальных роботов достигается при коллаборации человека и машины. Автор призывает «ломать стену» и переходить к новой по-сттьюринговой методологии.

Второй аспект проблемы асимметричности взаимодействия человека и интеллектуального робота состоит в том, что в результате чрезмерного, контрпродуктивного разделения функций человек начинает полагаться на интеллектуального робота, искусственный интеллект во всем и утрачивает собственную целостную картину мира и собственное целеполагание. Этот эффект мы можем наблюдать уже сегодня. При символьной человеко-машинной коммуникации люди могут утрачивать навыки запоминания информации, формулировки ответов при очевидных посылках.

Резюмируя вышесказанное, можно отметить, что анализ текущего состояния, перспектив и барьеров развития искусственного интеллекта позволяет по-новому подойти к разработке когнитивных архитектур для технологий интеллектуальной робототехники. При этом сложные робототехнические системы недостаточно рассматривать только в техническом плане. Они приобрели социокультурное измерение, необходимо их изучение с учетом социальных ценностей, мировоззренческих ориентиров и иных составляющих духовной сферы.

Библиографический список /References

Алексеев А. Ю. Комплексный тест Тьюринга: философско-методологические и социокультурные аспекты. М.: ИИнтелл, 2013. 304 с. (Alekseev A. Iu. Comprehensive Turing Test: Philosophical, methodological and socio-cultural aspects, Moscow, 2013, 304 р. — In Russ.)

Буданов В. Г. Новый цифровой жизненный техноуклад — перспективы и риски трансформаций антропосферы // Философские науки. 2016. № 6. С. 47—55. (Budanov V. G. A new digital technological way of life — prospects and risks of transformations of the anthroposphere, Philosophical sciences, 2016, no. 6, рр. 47—55. — In Russ.)

Ефимов А. Р. Философско-методологические основы посттьюринговой интеллектуальной робототехники: дис. ... канд. филос. наук. М., 2020. 165 с. (Efimov A. R. Philosophical and methodological foundations of post-turing intelligent robotics: Dissertation Candidate of Sciences (Philosophy), Moscow, 2020, 165 р. — In Russ.)

Статья поступила в редакцию 22.04.2022; одобрена после рецензирования 01.07.2022; принята к публикации 01.09.2022.

The article was submitted 22.04.2022; approved after reviewing 01.07.2022; accepted for publication 01.09.2022.

Информация об авторах /Information about the authors

Огурцова Елена Юрьевна — кандидат педагогических наук, доцент, доцент кафедры математики, информатики и методики обучения, Ивановский государственный университет (Шуйский филиал), г. Шуя, Россия, ogurcova-elena@mail.ru

Ogurtsova Elena Yurievna — Candidate of Sciences (Pedagogy), Associate Professor, Associate Professor of the Department of Mathematics, Informatics and Teaching Methods, Ivanovo State University (Shuya branch), Shuya, Russian Federation, ogurcova-elena@mail.ru

Фадеев Роман Николаевич — студент, Владимирский государственный университет имени Александра Григорьевича и Николая Григорьевича Столетовых, г. Владимир, Россия, fadeevroman.shua@gmail.com

Fadeev Roman Nikolaevich — Student, Vladimir State University named after Alexander Grigorievich and Nikolai Grigorievich Stoletov, Vladimir, Russian Federation, fadeev-roman.shua@gmail.com

i Надоели баннеры? Вы всегда можете отключить рекламу.