Научная статья на тему 'Искусственный интеллект: опасность завышенных ожиданий'

Искусственный интеллект: опасность завышенных ожиданий Текст научной статьи по специальности «Право»

CC BY
71
11
i Надоели баннеры? Вы всегда можете отключить рекламу.
Область наук
Ключевые слова
искусственный интеллект / глубокое обучение / машинное обучение / гибридный интеллект / адаптивное поведение / цифровая экономика / цифровое право / правосубъектность искусственного интеллекта

Аннотация научной статьи по праву, автор научной работы — Н.Н. Бажанов

В настоящее время цифровизация как технологический инструмент проникает в гуманитарную сферу знаний, связывая технократические и гуманитарные отрасли. Примером может служить правовая информатика, в которой «сопрягаются понятийные аппараты достаточно разных – на первый взгляд – областей человеческих знаний. В работе обсуждаются проблемы, порождаемые поверхностным представлением об искусственном интеллекте. Типичным примером является попытка некоторых авторов в юриспруденции придать компьютерным технологиям, часто именуемым гуманитариями искусственным интеллектом, почти сакральный смысл и наделить его правосубъектностью.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Текст научной работы на тему «Искусственный интеллект: опасность завышенных ожиданий»

Искусственный интеллект: опасность завышенных ожиданий

Н.Н. Бажанов Южный федеральный университет, Таганрог

Аннотация: В настоящее время цифровизация как технологический инструмент проникает в гуманитарную сферу знаний, связывая технократические и гуманитарные отрасли. Примером может служить правовая информатика, в которой «сопрягаются понятийные аппараты достаточно разных - на первый взгляд - областей человеческих знаний. В работе обсуждаются проблемы, порождаемые поверхностным представлением об искусственном интеллекте. Типичным примером является попытка некоторых авторов в юриспруденции придать компьютерным технологиям, часто именуемым гуманитариями искусственным интеллектом, почти сакральный смысл и наделить его правосубъектностью.

Ключевые слова: искусственный интеллект, глубокое обучение, машинное обучение, гибридный интеллект, адаптивное поведение, цифровая экономика, цифровое право, правосубъектность искусственного интеллекта.

Стремление к абстрагированию (формализации) любых знаний является важнейшей задачей при «конвергенции» компьютерных технологий и математических методов в нетрадиционную для них гуманитарную сферу» [1].

Общепринятое (но не всегда правильное) применение некоторых распространенных терминов может нанести ущерб из-за неверного толкования и понимания как юридических фактов, так и возможностей новых продуктов computer science. Например, в работе [2] достаточно убедительно и аргументированно высказывается возражение против введения в законодательный оборот понятия «цифровое право». Высказано мнение о том, что это представляется вредным для отечественного права. Автор отмечает, что в последнее время достаточно легко входят в оборот юристов термины и выражения, которые употребляются не в том смысле, который был изначально в них заложен. Очень часто это «кальки» с иноязычных экономических, социальных и иных терминов. По мнению

автора, например, это «эффективный контракт», «искусственный интеллект» (в дальнейшем ИИ). Речь идет даже не о многозначности терминов, проблеме которой посвящена работа [3]. Не касаясь полисемии юридических терминов, обсудим правомерность юридического оборота термина «искусственный интеллект». Известно, что авторство принадлежит Дж. Маккарти, который в 1956 году озвучил словосочетание artificial intelligence [4]. Но, как и в случае с эффективным контрактом, который на самом деле не эффективный, а лишь действующий, термин intelligence означает вовсе не «интеллект», для которого есть английский аналог intellect.

Чтобы предметно говорить об искусственном интеллекте, необходимо понимание того, что интеллект присущ только живой материи. Существует много глубоких научных исследований функций мозга, но здесь автор сделает ссылку на научный авторитет доктора биологических наук, профессора кафедры биофизики и биокибернетики, ведущего научного сотрудника лаборатории нейротехнологий и психофизиологии Южного федерального университета, профессора Б.М. Владимирского, по мнению которого «представления об ИИ, его возможностях вошли в фазу завышенного ожидания». По словам ученого «сегодня создают много полезных и хороших роботов с ИИ для решения прикладных задач. Это пока что весьма далеко от понимания того, что есть естественный интеллект.

Одно из самых интересных направлений - объединение человека и искусственного интеллекта в единую систему...Этот симбиоз может многое дать науке, поскольку машины ни сейчас, ни в обозримом будущем не будут наделены интуицией. В ближайшие несколько лет обязательно произойдет конвергенция искусственного интеллекта и ИМК (интерфейс «мозг-компьютер», в англоязычном варианте Brain-computer interface, BCI)» [5].

К сожалению, многие юристы не знают различий в понятиях «слабый или узкий ИИ», «глубокое обучение», «гибридный интеллект» и связывают

ИИ с т.н. «цифровым правом» юридическое рождение которого весьма сомнительно. Оставим в стороне дебаты о научной правомерности «цифрового права» (автор считает движение юридической мысли в этом направлении опасным негативным проявлением завышенных ожиданий). Сделаем попытку подчеркнуть, что здравый смысл, «абстрактное мышление» и тем более, эмоции и интуиция не присущи электронно-вычислительной технике (в дальнейшем будем называть «машины» не привнося в обсуждение программистский слэнг «железо» (от англ. hardware)) вообще и IT-технологиям в частности, сколь бы совершенными они ни были. В качестве простого и очевидного примера для читателя инженерной, технической сферы деятельности можно привести пример вердикта присяжных заседателей. Точнее, математическую оценку внутренних факторов (это проявление эмоций и интуиции) при вынесении вердикта. Объектом исследования А.С. Калашниковой и Н.С. Левочкиной был процесс принятия решения присяжными заседателями. «Полученные данные были обработаны с помощью метода математической статистики - коэффициента ранговой корреляции Спирмена (Spearman's rank correlation coefficient) посредством статистического пакета SPSS. Корреляционный анализ уровней правового развития и вердикта показал следующие результаты.

При уровне значимости p<0.05 положительная корреляционная связь (коэффициент корреляции - 0.374) была выявлена между вторым уровнем правосознания - уровнем правоподдержания, и обвинительным приговором по уголовным делам о преступлениях, не связанных с насильственными действиями, а также положительная связь (коэффициент корреляции - 0.332) данного уровня правосознания со склонностью испытуемого считать, что подсудимый заслуживает снисхождения по уголовным делам о преступлениях насильственного характера» [6]. Процитированные результаты, на мой взгляд, разрушают доводы адептов эффективного

применения ИИ в такой психологически сложной, деликатной, использующей вместо клише здравый смысл, сочувствие, в определенной степени веру в человека, сфере, как правосудие.

Весной 2020 года законодатели сочли необходимым запустить экспериментальный правовой режим в Москве «в целях создания необходимых условий для разработки и внедрения технологий искусственного интеллекта в субъекте Российской Федерации... и достижения результатов, сопоставимых, как минимум, с результатами интеллектуальной деятельности человека» (Федеральный закон от 24 апреля 2020 г. № 123-Ф3 "О проведении эксперимента по установлению специального регулирования в целях создания необходимых условий для разработки и внедрения технологий искусственного интеллекта в субъекте Российской Федерации - городе федерального значения Москве и внесении изменений в статьи 6 и 10 Федерального закона "О персональных данных").

Обратим внимание, что здесь сравниваются результаты (курсив мой), а не инструменты, с помощью которых они были получены. Однако желание чуда порождает околонаучные публикации на тему ИИ. В законотворчестве это может привести к очень серьезным негативным последствиям. Например, публично обсуждаются такие темы, как «Субъектность» роботов versus субъектность человека: этические пределы», правосубъектность искусственного интеллекта и даже «Сможет ли искусственный интеллект заменить человека?». Например, в работе [7] авторы дискутируют о перспективах признания искусственного интеллекта субъектом права, а в работе [8] обсуждается вопрос о наличии авторских прав у искусственного интеллекта. Однако, прежде чем серьезно говорить о правосубъектности ИИ, нужно знать, что в настоящее время научные исследования ИИ ведутся на уровне адаптивного поведения и никакими признаками субъекта (это должно быть лицо) не обладают. В лучшем случае, ИИ и технология машинного

обучения в настоящее время становятся удобным современным инструментом для подбора похожей судебной практики.

Главная идея, философия и научный тренд состоят в «конструировании и исследовании искусственных (в виде компьютерной программы или робота) «организмов», способных приспосабливаться к внешней среде. Эти организмы называются «аниматами» (от англ. animal + robot = animat). Поведение аниматов имитирует поведение животных. Исследователи направления «Адаптивное поведение» стараются строить именно такие модели, которые применимы к описанию поведения как реального животного, так и искусственного анимата» [9,10].

По словам заместителя руководителя Центра оптико-нейронных технологий НИИ системных исследований РАН, доктора физико-математических наук В.Г. Редько, «программа-максимум направления «Адаптивное поведение» - попытаться проанализировать эволюцию когнитивных способностей животных и эволюционное происхождение человеческого интеллекта» [11].

Еще одна проблема, которая в обозримом будущем не позволит говорить о правосубъектности ИИ, лежит в поле объяснимости выводов, поступков и планов действий. И если «здравый смысл» поведения человека частично можно объяснить прагматичными мотивами, то научить компьютер (или нейросеть) здравому смыслу нельзя. Например, многие поступки людей связаны с понятиями чести, достоинства, патриотизма, долга и веры. Эти поступки с точки зрения (?) ИИ алогичны, непродуктивны, опасны (в технологии машинного обучения не заложены, да и не могут быть запрограммированы). Возвращаясь к тандему искусственный интеллект-правосудие можно согласиться с тем, что машина никогда не поймет истинных мотивов многих поступков, которые порождают юридические последствия. А, следовательно, в отличие от опытного адвоката, судьи или

присяжных, о которых мы говорили ранее, механическое следование рекомендациям ИИ с большой долей вероятности приведет к трагедии или ущербу.

По мнению автора, обсуждение современных компьютерных технологий в приведенном выше контексте совершенно не соответствует уровню развития ИИ. Подтверждением этого тезиса являются выводы и результаты XIII Международной научно-практической конференции «Биологически инспирированные когнитивные архитектуры» (BICA 2022).

На основе вышеизложенного и личного опыта (автор является инженером по направлению computer science и магистром публичного права), сформулированы выводы, обосновывающие правомерность заглавия статьи.

1. В настоящее время, между научными результатами и их инженерной реализацией в области моделирования искусственного интеллекта и поспешным применением их в некоторых гуманитарных сферах (например, в отраслях права) наблюдается опасная тенденция разрыва. Судя по публикациям гуманитариев и инженеров, она стремительно увеличивается и инициирует абсурдные дискуссии и прогнозы.

2. К сожалению, «завышенные ожидания» порождают у части юридического сообщества почти религиозную веру в возможности компьютерных технологий глубокого машинного обучения нейроноподобных сетей. Специалисты же избегают введенного в оборот американским ученым термина «искусственный интеллект» и предпочитают ему более объективный термин: «биологически вдохновленные когнитивные архитектуры (BICA)». Поясним, это - совокупность подходов к моделированию для создания интеллектуальных агентов и наиболее научное толкование ИИ.

3. Более научный (хотя и более сложный) термин подчеркивает главное: различные подходы к моделированию мозга «вдохновляются биологическим

интеллектом». Следовательно, ИИ это, конечно, не самостоятельный субъект права, не виртуозный инструмент, который «перестает быть помощником человека и становится полноправным участником правоотношений», а в будущем, в лучшем случае - партнерская с человеком система, способная к самостоятельному наращиванию своих возможностей. Возможностей, а не интеллекта!

4. Важно подчеркнуть то, что если искусственный интеллект пытается моделировать (воспроизводить) когнитивные функции мозга homo sapiens, то говорят об архитектуре ИИ. Однако известно, что многие высшие когнитивные функции мозг выполняет преимущественно каким-то одним полушарием. Моделировать функциональную асимметрию в робототехнике («робот» - это очень многоликая оболочка ИИ) в обозримом будущем пока не представляется возможным. Поэтому говорить о правовом статусе роботов и обсуждать нормы, регулирующие ответственность роботов, не научно.

5. Искусственный интеллект лишен эмоций, чувств и интуиции.

6. С учетом приведенных в статье аргументов и пояснений о природе, предназначении и архитектуре ИИ, автор делает вывод о том, что искусственные нейронные сети (ИНС) и роботы должны быть предметом исследования в нейрофизиологии, нейробиологии и некоторых IT-технологиях, но не социологии, экономике или области права.

Литература

1. Бажанов Н.Н. От leges к software // Известия ТРТУ. Таганрог: Изд-во ТРТУ, 1999. №1 (11). С. 148 -150.

2. Рожкова М.А. Цифровые активы и виртуальное имущество: как соотносится виртуальное с цифровым // Закон. ру. 2018. 13 июня. URL: zakon.ru/blog/2018/06/13/cifrovye_aktivy_i_virtualnoe_imuschestvo_kak_sootnos itsya_virtualnoe_s_cifrovym.

3. Шишканова Л.П. К проблеме многозначности юридических терминов. URL: cyberleninka.ru/article/n/k-probleme-mnogoznachnosti-yuridicheskih-terminov/viewer.

4. A proposal for the Dartmouth summer research project on artificial intelligence. URL: formal .stanford.edu/j mc/history/dartmouth/dartmouth.html.

5. Владимирский Б.М. Свободного человека превратить в робота невозможно. URL: sfedu.ru/press-center/news/67271 .

6. Калашникова А.С., Левочкина Н.С. Внутренние факторы, влияющие на вердикт присяжных заседателей // Психология и право. 2013. Том 3. № 2: 2222-5196 (online). URL: psyjournals.ru/journals/psylaw/archive/2013_n2/61013.

7. Кастальский В.Н., Авакян Е.Г. Правосубъектность искусственного интеллекта. URL: legalacademy.ru/course/3104532.

8. Васильева А.С. К вопросу о наличии авторских прав у искусственного интеллекта // Журнал Суда по интеллектуальным правам. Декабрь 2022. Вып. 4 (38). С. 107-116. DOI: 10.58741/23134852 2022 4 107.

9. Непомнящих В.А. Поиск общих принципов адаптивного поведения живых организмов и аниматов // Новости искусственного интеллекта. 2002. № 2. С. 48-53.

10. Donnart J.Y., Meyer J.A. Learning reactive and planning rules in a motivationally autonomous animat // IEEE Transactions on Systems, Man, and Cybernetics - Part B: Cybernetics, 1996. V. 26. № 3. pp. 381-39.

11. Редько В.Г. Модели адаптивного поведения - биологически инспирированный подход к искусственному интеллекту // Искусственный интеллект и принятие решений. № 2, 2008. C. 11-23.

References

1. Bazhanov N.N. Izvestiya TRTU. Taganrog: Izd-vo TRTU, 1999. №1 (11). pp. 148 -150.

zakon.ru/blog/2018/06/13/cifrovye_aktivy_i_virtualnoe_imuschestvo_kak_sootnos itsya_virtualnoe_s_cifrovym.

3. Shishkanova L.P. K probleme mnogoznachnosti yuridicheskix terminov [Toward the problem of the polysemousness of legal terms]. URL: cyberleninka.ru/article/n/k-probleme-mnogoznachnosti-yuridicheskih-terminov/viewer.

4. A proposal for the Dartmouth summer research project on artificial intelligence. URL: formal .stanford.edu/j mc/history/dartmouth/dartmouth.html.

5. Vladimirskiy B.M. Svobodnogo cheloveka prevratif v robota nevozmozhno. [It is impossible to turn a free human being into a robot]. URL: sfedu.ru/press-center/news/67271.

6. Kalashnikova A.S., Levochkina N.S. Psixologiya i pravo 2013. Tom 3. № 2 URL: psyj ournals.ru/j ournals/psylaw/archive/2013.

7. Kastalskiy V.N., Avakyan E.G. Pravosub^ektnosf iskusstvennogo intellekta [The legal personality of artificial intelligence]. URL:legalacademy.ru/course/3104532.

8. Vasileva A.S. Zhurnal Suda po intellektuaFny'm pravam. Dekabr 2022. Vyp. 4 (38). pp. 107-116. DOI: 10.58741/23134852 2022 4 107.

9. Nepomnyashhikh V.A. Novosti iskusstvennogo intellekta. 2002. № 2. pp.

10. Donnart J.Y., Meyer J.A. IEEE Transactions on Systems, Man, and Cybernetics - Part B: Cybernetics, 1996. V. 26. № 3. pp. 381-39.

11. Redko V.G. Iskusstvenny'j intellekt i prinyatie reshenij № 2, 2008. pp.11-

2. Rozhkova M.A. Zakon.ru. 2018. 13 iyunya.

URL:

48-53.

23.

М Инженерный вестник Дона, №9 (2023) ivdon.ru/ru/magazine/arcliive/n9y2023/8677

i Надоели баннеры? Вы всегда можете отключить рекламу.