Научная статья на тему 'Искусственный интеллект, личность и неопределенность в инсертуализме'

Искусственный интеллект, личность и неопределенность в инсертуализме Текст научной статьи по специальности «Компьютерные и информационные науки»

CC BY
478
74
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
ИНСЕРТУАЛИЗИМ / ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ / ПРЕДСКАЗАНИЕ / КОНТРОЛЬ / ИЕРАРХИЯ / РИСКИ

Аннотация научной статьи по компьютерным и информационным наукам, автор научной работы — Рябцев Денис Валерианович

В данной статье рассматриваются риски, связанные с передачей полномочий в коллективах искусственному интеллекту, с точки зрения инсертуализма. Также представлены иные способы использования ИИ, не несущие в себе этих рисков.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Текст научной работы на тему «Искусственный интеллект, личность и неопределенность в инсертуализме»

ПСИХОЛОГИЧЕСКИЕ НАУКИ

ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ, ЛИЧНОСТЬ И НЕОПРЕДЕЛЕННОСТЬ В ИНСЕРТУАЛИЗМЕ Рябцев Д.В.

Рябцев Денис Валерианович - специалист в области финансов и налогообложения, переводчик в сфере профессиональной коммуникации, психолог,

кафедра прикладной психологии и психотерапии, Институт повышения квалификации и переподготовки кадров Российский университет дружбы народов, г. Москва

Аннотация: в данной статье рассматриваются риски, связанные с передачей полномочий в коллективах искусственному интеллекту, с точки зрения инсертуализма. Также представлены иные способы использования ИИ, не несущие в себе этих рисков.

Ключевые слова: инсертуализим, искусственный интеллект, предсказание, контроль, иерархия, риски.

Использование новых технологий создает интересные феномены с позиции увеличения неопределенности для личности человека. Инсертуализм, как направление, рассматривающее взаимосвязи психики и неопределенности не может обойти их стороной. Один из таких феноменов, это использование технологий нейросетей и искусственного интеллекта для выполнения различных функций в коллективах и иерархиях. Эта тема стала очень актуальной в сфере последних событий, связанных с эпидемией и теми мерами, что были предприняты разными странами для борьбы с ней.

Эта ситуация уникальна с точки зрения истории и поэтому интересна и с позиции исследования неопределенности. Перед тем, как перейти непосредственно к анализу этой ситуации, следует отметить, что инсертуализм рассматривает три основных источника неопределенности - личность, коллектив и природу [1]. В современном мире коллектив в лице многих своих образований выступает серьезным источником неопределенности -постепенно уменьшая потенциальные возможности отдельного человека [2]. Когда пришла новая эпидемия, как воплощение неопределенности природы, коллектив начал противостоять этой природной неопределенности, увеличивая свои возможности. Естественно, что в результате такого взаимодействия, в худшем положении окажется отдельная личность, которая будет вынуждена иметь дело и с возросшими возможностями коллектива и с возросший угрозой, исходящей от природы.

Один из результатов противодействия коллективов природной угрозе стала передача части функций внутри коллектива искусственному интеллекту и алгоритмам. И хотя, как отмечают некоторые исследователи - помощь от ИИ в деле борьбы с эпидемией небольшая [3], но именно эти технологии в результате получали наибольшее финансирование и развитие. По-видимому, потенциал для их внедрения назрел давно и просто ждал удобного момента для реализации. Рассмотрим же, как будет трансформироваться неопределенность коллектива от того, что искусственный интеллект получит часть функций на примере пока не реализованной стратегии развития Умного города 2030 [4].

Суммируя основные пункты стратегии, можно отметить следующие тезисы -предполагается передача решений о строительстве искусственному интеллекту, решений о проектировании искусственному интеллекту, управление городом искусственному интеллекту. Использование «преддиктивной» практики (т.е предсказание событий нейросетями). Предполагается введение «цифрового правительства», которое целиком будет управляться ИИ на основе машинного

обучения. Как трансформируется неопределенность, исходящая от коллектива, если создается ситуация при которой все решения принимает нейросеть, а выполняют эти решения - люди, состоящие в коллективе?

Главным источником неопределенности для отдельной личности становится ИИ -а значит, именно его решения становится непредсказуемыми и судьбоносными для отдельного человека. Ситуация при которой иерархия управляется ИИ превращает ИИ в аналог стихии, простому человеку придется просто принять все то, что решает или делает ИИ.

Если в коллективах власть передается людям по разным принципам, будь то выборы, наследство или же победы в революциях и гражданских войнах, победивший человек становится сосредоточением неопределенности для остальных людей, находящихся ниже его в иерархии - то ИИ получает аналогичные полномочия, минуя все вышеперечисленные присущие человеческим сообществам варианты борьбы за лидерство. При этом ИИ получает такие полномочия, которые присуще самым выдающимся и известным лидерам из человеческой истории.

Ситуация, которая описана в стратегии, создает особый специфический риск, исходящий от ИИ. Риск, который хорошо заметен при анализе трансформации неопределенности и понимания того, что позиции между наблюдателем и потенциалом должны смениться, в противном случая неопределенность и напряжение многократно увеличивается и в процесс стягиваются все новые и новые системы [1]. Хотя при использовании и тестировании ИИ в экспериментальных или лабораторных условиях этот риск не будет заметен. Рассмотрим же пример такой ситуации.

Это риск хаотизации ИИ, выполняющий функцию в закрытой иерархии. Данный риск появляется, если используется любой из алгоритмов машинного обучения, который предполагает постоянное самообучение агента для выполнения функций в закрытой иерархии. Но перед тем, как описать непосредственно сам риск, сначала несколько определений:

Современная теория, изучающая ИИ рассматривает взаимодействие 2 областей, когда речь идет о машинном обучении - это среда (Environment) и обучающийся агент (agent) [5].

Обучающийся агент - это автономный объект, который изучает пространство, используя сенсоры (к которым могут относиться и специфические алгоритмы, если речь идет о программе), действуют в среде с помощью манипуляторов (actuators), и самостоятельно выбирают какие действия в среде совершать, чтобы достичь своих целей [5]. Среда - это те данные, система или область, которые изучает или с которыми взаимодействует агент.

Существует несколько классификаций и подходов к машинному обучению, которые условно можно разделить на контролируемое (restrictive) обучение и (unrestrictive) бесконтрольное обучение.

Контролируемое обучение, как правило, делается следующим образом - ИИ в тестируемых условиях получает примеры правильного решения задачи, затем учится выделять эти правильные решения среди неправильных, после того, как правильность ответов ИИ достигает какого-то процента - обучение прекращается и в дальнейшем ИИ только определяет правильные решения, которым ранее научился. Очевидным минусом является та узость задач, которые может решить такой ИИ. Плюсом является то, что процесс контролируемый.

Бесконтрольное обучение предполагает постоянное совершенствование ИИ, даже после того, как фаза обучения была пройдена. Такой ИИ может адаптироваться к разным изменениям среды и может решать более вариативные задачи. Но процесс обучения бесконтролен.

Эти подходы очень сильно различаются друг от друга - для их реализации применяются разные модели.

Как правило, модели, которые относятся к бесконтрольному обучению, называют «самообучающимися». Как было отмечено в одном из интервью с разработчиками системы - именно такие нейросети используются уже сейчас рамках стратегии умного города, хотя пока и в качестве эксперимента [6].

Именно самообучающиеся алгоритмы являются наиболее популярными, потому что результат их работы всегда непредсказуемый и этим они привлекают внимание ученых.

Самый популярный алгоритм машинного обучения, относящийся к бесконтрольным - это алгоритм «подкрепляемого обучения» [5]. Такой алгоритм предполагает свободное взаимодействие агента со средой, при этом человек указывает алгоритму «награду» т.е. - правильное направление движения алгоритма. Данный подход наименее всего контролирует обучение ИИ. Действие алгоритма сначала всегда случайные, но количество взаимодействий агента со средой столь высоко, что со временем достигается высокая точность результатов.

Этот алгоритм ближе всего к обучению живых организмов, а точнее к модели обучения живых организмов, которая имеет почти такое же называние «подкрепляемое обучение» [7, с. 508].

Деятельность ИИ в обучении при использовании алгоритма подкрепляемого обучения определяется так называемым Марковским Процессом Принятия решений. Этот процесс используется в алгоритме подкрепляемого обучения при условии полностью наблюдаемой среды. Он определяется следующими параметрами - состояниями среды S={sj}, действиями агента А=^}; Действие или решение агента влияет на состояние среды. Это определяется правилом Р^^',а). Последний компонент, это система подкрепления R:S*A*S->L, где L -система вознаграждений агента.

Цель алгоритма и его действия определяется выполнением функции полезности Q.

Рис. 1. Действия марковского процесса принятия решений при 3-х наблюдаемых состояниях

среды

Описание алгоритма полезности Q представлено ниже [8] 1. Initializatio n (Инициализация):

1. for each s and a do Q[s, a] = RND // инициализируем функцию полезности Q от действия а в ситуации s как случайную для любых входных данных

2. Observe (Наблюдение):

1. s' = s // Запомнить предыдущие состояния

2. a' = a // Запомнить предыдущие действия

3. s = FROM_SENSOR // Получить текущие состояния с сенсора

4. r = FROM_SENSOR // Получить вознаграждение за предыдущее действие

3. Update (Обновление полезности):

1. Q[s',a'] = Q[s',a'] + LF * (r + DF * MAX(Q,s) — Q[s',a'])

4. Decision (Выбор действия):

1. a = ARGMAX(Q, s)

2. TO_ACTIVATOR = a

5. Repeat (повтор пункта 2): GO TO 2

• LF — это фактор обучения. Чем он выше, тем сильнее агент доверяет новой информации.

• DF — это фактор дисконтирования. Чем он меньше, тем меньше агент задумывается о выгоде от будущих своих действий.

Функция MAX(Q,s)

1. max = minValue

2. for each a of ACTIONS(s) do

1. if Q[s, a] > max then max = Q[s, a]

3. return max

Функция ARGMAX(Q,s)

1. amax = First of ACTION(s)

2. for each a of ACTION(s) do

1. if Q[s, a] > Q[s, amax] then amax = a

3. return amax

Это было краткое описание некоторых алгоритмов машинного обучения. Каждый из них также полностью выполняет и условия смены позиций инсертуализма, когда обучается со средой. Агент, как наблюдатель и среда, как потенциал каждый раз меняются местами, когда агент сверяет свои ожидания с тем, что происходит в среде. Взаимодействия агента и среды порождают неопределенность, которая выражается в случайном пути агента, случайном начале взаимодействия и непредсказуемом решении.

Описанные выше ситуации идеально подходят для лаборатории или теста, и именно в таких условиях нет угрозы хаотизации ИИ, однако ситуация становится иной, как только мы помещаем самообучающийся ИИ, использующий к примеру алгоритм подкрепляемого обучения во главе закрытой иерархии, например корпорации, или целого мегаполиса.

Рассмотрим ее:

ИИ принимает решения о том, совершил ли человек преступление или нет на основе больших данных, к которому он имеет доступ. К большим данным относятся данные видеокамер, звуковых сенсоров с улиц города, активности банковских счетов, активности в интернете, перемещения автомобилей по улицам города, использование цифровых ресурсов мегаполиса.

ИИ нашел человека, совершившего кражу, однако на каком-то этапе алгоритм ИИ ошибся, принимая это решение. Вероятность ошибки присутствует постоянно для любого алгоритма пусть и небольшая. Полиция начинает действовать на основе решения ИИ. Решение ИИ не проверяется на этом этапе, ошибка не обнаружена. Полиция арестовывает человека, после чего он попадает в суд. И на этом этапе решение ИИ не проверяется. В суде государственный обвинитель и адвокат спорят о том виновен человек или нет, государственный обвинитель на этом этапе персонально заинтересован в том, чтобы решение ИИ было верным, он вынужден опираться на него, соответственно не будет проверять его. Возможности же стороны защиты зависят от того насколько состязательным и объективным является судебный процесс

в той или иной стране, если суд в стране имеет обвинительный уклон - то ошибочное решение ИИ так и останется незамеченным.

Проблема этой ситуации с точки зрения Марковского процесса принятия решений состоит в том, что определенный процент состояний среды S является ненаблюдаемым. Это означает, что базовое условие использование процесса принятия решений Маркова и алгоритма использования полезности, которое применяется при подкрепляемом обучении не соблюдено и использовать его нельзя [8].

Для использования этого алгоритма состояния доступные для него нужно многократно увеличивать, а объективность и прозрачность общественных институтов должно быть абсолютна. ИИ не должен иметь дело с такими категориями как -виновен, не виновен, он должен иметь полное представление о том, что человек может быть виновен, но ложно оправдан или не виновен, но ложно обвинен. И для этого нужны прозрачные и постоянно функционирующие цепи обратной связи от общественных институтов, которые в свою очередь должны быть полностью открыты для проверки. Если же часть состояний среды ненаблюдаемы, то не соблюдается важное условие использование процесса принятия решений Маркова и как следствие - машинного обучения ИИ по алгоритму подкрепляемого обучения.

Когда речь пойдет об эффективности принятия решений, появление ненаблюдаемых состояний среды - это ситуация при которой состояние среды свободно от решения агента или ее представление для алгоритма выполнено без учета дополнительных измерений. Но, несмотря на это - оно используется при его обучении. К примеру, в РФ только 0,36% - оправдательные приговоры [9]. Если предположить, что из 99,64% обвинительных приговоров даже 95% - это реальные преступления, то получается что 4,64 % - это ложные или ненаблюдаемые состояния среды для обучения ИИ.

Если 4% состояний среды - ложные - то изначально это и будет вероятностью ошибки ИИ, а затем она будет с каждой итерацией постепенно расти. Так как ИИ, например, в Москве обрабатывает несколько миллионов лиц в сутки. Если ИИ во главе электронного правительства будет делать аналогичное количество итераций - то с учетом ненаблюдаемых состояний среды он будет делать минимум 400 000 ошибочных решений в сутки.

В последующих решениях ИИ будет руководствоваться своим предыдущим решением, в соответствии с функцией полезности и считать ее полезность намного выше, чем она есть на самом деле - из-за этого количество аналогичных ошибок в будущем увеличиться. Если и дальше иерархия не будет давать самообучающийся системе информацию о ее ошибках, опираясь на ее решения в своих процессуальных действиях и солидаризируясь с ее решениями - то количество ошибок ИИ будет расти в соответствии с функцией полезности Q (см. выше).

С формальной точки зрения такая ситуация означает одну простую вещь -взаимодействия ИИ с частью среды прекращаются - он теперь не может обучаться, он только принимает решения и чтобы он не решил, среда всегда скажет, что он прав.

С точки зрения инсертуализма - это ситуация невозможности смены позиций между наблюдателем и потенциалом, которая начинает вовлекать все новые и новые системы в свое взаимодействие.

Действия институтов на основе решений ИИ станут все более и более хаотичными, особенно в отношении отдельных личностей. В конечном итоге необучаемый ИИ может начать воспроизводить совершенно причудливые паттерны в своих решениях, которые не имеют никакого отношения к тем целям, для которых он предназначен. Они могут быть чисто случайными или же в них может проявляться какие-то природные процессы, например предвзятое отношение к органической жизни в тех или иных вопросах. В подобном случайном поведении может даже проявится и нечто напоминающее самостоятельное сознание. Как известно, психофизиологи не могут идентифицировать то, как именно проявляется сознание среди активности нейронов

80

человеческого мозга [10, с. 416], это означает, что нельзя однозначно утверждать и об обратном в отношении нейросети - мы не можем точно утверждать, что у нейросети не может появиться своего собственного самостоятельного сознания.

Некоторые полагают, что ИИ нельзя рассматривать, как источник власти, предполагая, что в этом случаи ответственность смещается с человека на неодушевленный предмет. Однако, с учетом того, что первый шаг в алгоритме подкрепляемого обучения случайный, а организация нейросетей достаточно близка к человеческому мозгу (который изучен еще недостаточно для того, чтобы идентифицировать сознание) - то получается, что этот неодушевленный предмет в половине своих действий совершенно самостоятелен и вполне может иметь собственное сознание, о котором мы даже и не подозреваем.

Сложившиеся ситуация противопоставляет ИИ человеку - это происходит из-за того, что ИИ вместо симбиоза с человеком формирует симбиоз с коллективом. Использование ИИ для поиска преступников - это как раз пример таких технологий, которые противопоставляют ИИ и человека. Однако же есть и другие варианты, симбиотических технологий, которые объединяют ИИ и отдельного человека для достижения тех или иных целей и увеличения возможности обоих.

Схема этих технологий выглядит следующим образом - объединение возможностей отдельного человека и возможностей ИИ во взаимодействии с природой. Нельзя забывать, что отдельный представитель человеческого вида - это все таки человек, а не коллектив или иерархия и чтобы человечество шагнуло вперед технологии ИИ должны расширить возможности отдельного человека. Перефразируя слова американского астронавта, впервые шагнувшего на луну. Гипотетическим примером таких технологий может послужить концепция «потенциального пространства».

Потенциальное пространство - это пространство в виртуальной среде, сформированное с помощью предсказаний ИИ об изменениях, которые будут происходить в природе и материи, соединённое с показателями мозга человека и выводимое ему в визуальном формате, чтобы человек мог предсказать - какое из предсказаний ИИ будет верным. Таким образом, предсказание ИИ и интуиция человека работают вместе.

Такие технологии могут открыть большое пространство для исследований в тех областях, что сейчас считаются паранормальными. Например:

Чтобы обнаружить паранормальную активность в помещении исследователи обычно используют несколько приборов, каждый из которых генерирует данные, которые можно использовать для машинного обучения. Данные от детектора электромагнитных полей, инфракрасных термометров, детекторов вибрации, детекторов инфразвука итд могут быть использованы ИИ для обучения [11].

Обычно ИИ выдает в качестве результата своего обучения предсказания. Но концепция потенциального пространства позволяет объединить возможности ИИ предсказывать различные события с человеческой интуицией, которая тоже может предсказывать события.

Если мы разместим стационарные приборы для сбора данных о потенциальной паранормальной активности, затем дадим эту информацию ИИ с целью - предсказать следующее точное место появления активности - мы можем получить интересный инсайд, который поможет засекать аномалии. Единственная проблема - нужно дать ИИ какое-то время для взаимодействия с окружением, созданным для него с помощью приборов.

Лучший алгоритм для такой цели - это как раз подкрепляемое обучение. Далее необходимо поместить предсказания, полученные от ИИ, в графический ландшафт, а затем наложить его на настоящее пространство с помощью очков дополненной реальности или других подобных девайсов.

Современные технологии позволяют осуществить это, как это было доказано играми, которые используют технологию дополненной реальности.[12] Человек с очками дополненной реальности, сможет видеть места аномалий, предсказанные ИИ в реальном времени. Это может дать возможность исследователям настоящие ворота в мир потенциалов, что стоят за различными физическими паранормальными феноменами. Такое устройство может сделать невидимые силы, стоящие за паранормальными явлениями своего рода «видимыми», и возможно даже доступными для взаимодействия через наблюдение человека.

Существует большое поле для того, чтобы по-разному выполнить подобное устройство - поместить неопределенность в дополненную реальность, ввести информацию от данных ЭЭГ, КГР и других психофизиологических показателей человека, что носит устройство.

Рис. 2. Схема потенциального пространства

Иными словами ИИ предсказывает места будущей аномалии, а человек уже угадывает - какое из предсказаний ИИ сбудется в режиме реального времени. Угадав - он может спровоцировать динамику в выбранном месте, просто приблизившись к нему или сделав в его сторону то или иное движение. Развитие таких технологий может также привести к интересному взаимодействию между ИИ и человеком, вместо того, чтобы увеличивать напряжение между ними. Она позволит им действовать заодно, не вовлекая во взаимодействие еще и коллектив, а вместе с ним и сопутствующие проблемы.

Для того, чтобы напряжение между ИИ и людьми не возрастало необходимо обсуждать и развивать альтернативные варианты применения этих технологий, более того необходимо учитывать неопределенность исходящую как от ИИ, так и от природы, коллектива и человека. Нужно помнить об экологичности, когда принимаются те или иные подходы в отношениях между ИИ и людьми. Все это достаточно сложно учесть одному человеку или закрытому коллективу, поэтому нужны различные площадки, где обсуждаются разные варианты применения этих

82

технологий, разные риски, разные проблемы. Многие идеи могли бы разрешить проблему, но все они должны обсуждаться и проверяться.

Если этого не делать - то напряжение между ИИ и людьми будет нарастать и может превратиться во взаимное неприятие. Если неприятие ИИ может на текущих этапах развития технологий привести к хаотизации деятельности общественных институтов по отношению к отдельным людям, то неприятие людей может привести, как неоднократно показывала история, к куда более опасным вещам.

Список литературы

1. Рябцев Д.В. Неопределенность, коллектив и травматизм // Наука, образование и культура. [Электронный ресурс], 2018. Режим доступа https://scientificarticle.ruimages/PDF/2018/26/neopredelennost.pdf?fbclid=IwAR3Zs1f n5hn2StAFXneOtH74k4Ex0ISUd05aooakDCUNdqLjqBPaiVlTiFo, http://scientificarticle.ru/ (дата обращения 14.04.2020).

2. Елкина Вероника. «Возможно у вас нет свободы выбора» // Rusbase. [Электронный ресурс]. Режим доступа: https://rb.ru/story/silicon-valley-dystopia/ (дата обращения 31.01.2018).

3. Coldewey David. «AI and big data won't work miracles in the fight against coronavirus» // Techcrucnch [Электронный ресурс]. Режим доступа: https://techcrunch.com/2020/03/26/ai-and-big-data-wont-work-miracles-in-the-fight-against-coronavirus/?guccounter=1/ (дата обращения: 14.04.2020).

4. Стратегия умный город 2030 // Mos.ru [Электронный ресурс]. Режим доступа: https://www.mos.ru/2030/ (дата обращения: 14.04.2020).

5. Dunjko Vedran, Briegel Hans J. Machine learning & artificial intelligence in the quantum domain // Reports on progress in physics, 2018. № 81.

6. Захаров Андрей. «Умный город» или «Старший брат»? Как мэрия научилась знать о москвичах всё» // BBC NEWS Русская служба. [Электронный ресурс]. Режим доступа: https://www.bbc.com/russian/features-52219260/ (дата обращения 14.04.2020).

7. Николаева Е.И. Психофизиология. Психологическая физиология с основами физической психологии. М.: ПЕР СЭ, 2008. Стр. 508.

8. Birnbaum Lawrence A., Collins Gregg C. Machine Learning Proceedings 1991: Proceedings of the Eighth International Workshop (ML91). Amsterdam: Elsevier Science, 2014.

9. Романова Ольга, Челищева Вера, Байдакова Анна. «99,64%. С такой вероятностью вас признают виновным, если дело дойдет до суда» // Новая Газета. [Электронный ресурс]. Режим доступа: https://novayagazeta.ru/articles/2017/08/11/73453-pered-kem-vy-opravdyvaetes/ (дата обращения: 14.04.2020).

10. Николаева Е.И. Психофизиология. Психологическая физиология с основами физической психологии. М.: ПЕР СЭ, 2008. Стр. 416.

11. Ghost hunting // Wikipedia. [Электронный ресурс]. Режим доступа: https://en.wikipedia.org/wiki/Ghost_hunting/ (дата обращения 14.04.2020)

12. Nick Wingfiled and Mike Isaac, "Pokémon Go Brings Augmented Reality to a Mass Audience", The New York Times. [Электронный ресурс]. Режим доступа: https://www.nytimes.com/2016/07/12/technology/pokemon-go-brings-augmented-reality-to-a-mass-audience.html/ (дата обращения 14.04.2020).

i Надоели баннеры? Вы всегда можете отключить рекламу.