Научная статья на тему 'ЦИФРОВОЕ ОБЩЕСТВО: ЧЕЛОВЕК, КУЛЬТУРА, ПРИРОДА В ГОРИЗОНТЕ СИНГУЛЯРНОСТИ'

ЦИФРОВОЕ ОБЩЕСТВО: ЧЕЛОВЕК, КУЛЬТУРА, ПРИРОДА В ГОРИЗОНТЕ СИНГУЛЯРНОСТИ Текст научной статьи по специальности «Философия, этика, религиоведение»

CC BY
365
64
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
СИНГУЛЯРНОСТЬ / ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ / РАЗУМ / МЫШЛЕНИЕ / ЧАТ-БОТ / РОБОТ / ТЕХНИКА

Аннотация научной статьи по философии, этике, религиоведению, автор научной работы — Костина Анна Владимировна

«Технологическая сингулярность» - понятие, изобретенное в 1983 г. математиком и футурологом Верноном Винджем и популяризированное идеологом Google Рэймондом Курцвейлом. Оно означает момент, когда мощность компьютера превысит мощь человеческого разума. По прогнозам Курцвейла, точка сингулярности наступит в 2045 г. Если рассматривать проблему объективно, то необходимо исходить из понимания того, что искусственный интеллект (ИИ) есть высокотехнологичная система, которая может и должна быть поставлена на службу человека и окружающей среды. Необходимость этого зафиксирована в целом ряде правительственных документов, определяющих национальные цели и стратегические задачи научно-технологического развития России, прежде всего в Национальной стратегии развития искусственного интеллекта на период до 2030 года. При этом необходимо учитывать и все те «побочные эффекты», которые связаны с развитием ИИ. В связи с этим более перспективным представляется рассмотрение этой проблемы не в точке сингулярности, а в ее «горизонте», где «горизонт» понимается как возможность проблематизировать то, что еще не стало предметом научного анализа, для того чтобы иметь возможность коррекции многих направлений развития ИИ.

i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по философии, этике, религиоведению , автор научной работы — Костина Анна Владимировна

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

DIGITAL SOCIETY: MAN, CULTURE, NATURE IN THE HORIZON OF SINGULARITY

“Technological singularity” is a concept invented in 1983 by mathematician and futurist Vernon Vinge and popularized by Google ideologist Raymond Kurzweil. It signifies the moment when the power of the computer exceeds the power of the human mind. Kurzweil predicts that the singularity point will occur in 2045. If we consider the problem objectively, we must proceed from the understanding that artificial intelligence (hereinafter - AI) is a high-tech system that can and should be put at the service of humans and the environment. The need for this is fixed in a number of government documents that define the national goals and strategic objectives of scientific and technological development of Russia, primarily in the “National Strategy for the Development of Artificial Intelligence for the Period up to 2030”. At the same time, it is necessary to take into account all the “side effects” that are associated with the development of AI. In this regard, it is more promising to consider this problem not in the “singularity point”, but in its “horizon”, where the “horizon” is understood as an opportunity to problematize what has not yet become the subject of scientific analysis in order to be able to correct many directions of AI development.

Текст научной работы на тему «ЦИФРОВОЕ ОБЩЕСТВО: ЧЕЛОВЕК, КУЛЬТУРА, ПРИРОДА В ГОРИЗОНТЕ СИНГУЛЯРНОСТИ»

ГУМАНИТАРНЫЕ НАУКИ: ТЕОРИЯ И МЕТОДОЛОГИЯ

DOI: 10.17805/zpu.2020.4.2

Цифровое общество: человек, культура, природа в горизонте сингулярности

А. В. Костина Московский гуманитарный университет

«Технологическая сингулярность» — понятие, изобретенное в 1983 г. математиком и футурологом Верноном Винджем и популяризированное идеологом Google Рэймондом Кур-цвейлом. Оно означает момент, когда мощность компьютера превысит мощь человеческого разума. По прогнозам Курцвейла, точка сингулярности наступит в 2045 г. Если рассматривать проблему объективно, то необходимо исходить из понимания того, что искусственный интеллект (ИИ) есть высокотехнологичная система, которая может и должна быть поставлена на службу человека и окружающей среды. Необходимость этого зафиксирована в целом ряде правительственных документов, определяющих национальные цели и стратегические задачи научно-технологического развития России, прежде всего в Национальной стратегии развития искусственного интеллекта на период до 2030 года. При этом необходимо учитывать и все те «побочные эффекты», которые связаны с развитием ИИ. В связи с этим более перспективным представляется рассмотрение этой проблемы не в точке сингулярности, а в ее «горизонте», где «горизонт» понимается как возможность проблематизировать то, что еще не стало предметом научного анализа, для того чтобы иметь возможность коррекции многих направлений развития ИИ. Ключевые слова: сингулярность; искусственный интеллект; разум; мышление; чат-бот; робот; техника

<...> В принципе, кто мешает придумать такой сверхразум, который возьмет под свою защиту общечеловеческие ценности? <...> В практическом плане нам придется справиться с труднейшим вопросом контроля — как управлять замыслами и действиями сверхразума. Причем люди смогут использовать один-единственный шанс. Как только недружественный искусственный интеллект появится на свет, он сразу начнет препятствовать нашим усилиям избавиться от него или хотя бы откорректировать его установки.

И тогда судьба человечества будет предрешена.

Ник Бостром. Искусственный интеллект.

Этапы. Угрозы. Стратегии

ВВЕДЕНИЕ

ехнологическая сингулярность» — понятие, изобретенное в 1983 г. математиком и футурологом Верноном Винджем и популяризированное крупнейшим идеологом Google Рэймондом Курцвейлом. Оно означает момент, когда мощность компьютера превысит мощь человеческого разума, а искусственный интеллект (ИИ) превзойдет человеческий (для этого нейронные сети машины будут включать в себя нейронов больше, чем имеется у человека, т. е. больше 100 млрд), а сильный искусственный интеллект (СИИ)1 превзойдет человека настолько же, насколько человек превосходит насекомое, и будет создавать новые модели ИИ успешнее, чем человек. По прогнозам Курцвейла, точка сингулярности наступит в 2045 г. При этом перспективы человечества будут связаны с его способностью контролировать самомодификацию, развитие, самовоспроизводство ИИ и главное — его автономию от человека.

Несмотря на то что до 2045 г. еще далеко и современное развитие ИИ пока ничем не угрожает естественному интеллекту, уже сейчас ИИ в отдельных ситуациях демонстрирует превосходство над человеческим. Как отмечается во многих работах об ИИ, уже 20 лет назад машина обыграла чемпиона мира по шахматам Г. Кас-парова. Победа ИИ над человеком в игре го была зафиксирована дважды — в 2016 и 2017 гг., когда программа AlphaGo от компании DeepMind обыграла сильнейших игроков в мире — Ли Седоля и Кэ Цзе, опираясь на развитое абстрактное мышление, необходимое в этой игре.

Еще более впечатляют исследования, направленные на сопоставление мышления человека (в данном случае детей 2,5-7 лет) и работы машины. Они проводились в 2015 г., когда ИИ ConceptNet показал в IQ-тесте результаты, сопоставимые с результатами детей четырех лет. Здесь был использован самый продуктивный на сегодняшний момент тест Тьюринга, где машина должна убедить собеседника, что она является человеком и мыслит как человек (Искусственный интеллект: Электронный ресурс). Данный тест, несмотря на его видимую простоту, весьма сложен — точно так же, как процедура идентификации машины в качестве человека. Однако эту задачу ИИ уже сегодня решает, пусть и на уровне ребенка.

Столь впечатляющие результаты развития ИИ приводят к активным дискуссиям по поводу перспектив развития ИИ и его влияния на человека и общество. Современные работы по проблеме ИИ можно разделить на три группы. Первую составляют исследования Р. Курцвейла (Курцвейл, 2015), Д. Хассабиса (Hassabis, 2009: Электронный ресурс) и др., в которых авторы видят в достижении сингулярности главную цель человечества, движущегося по пути прогресса, когда будет достигнута возможность бессмертия человека, побеждены ранее неизлечимые заболевания, остановлено глобальное потепление, открыты новые миры, а люди и машины образуют симбиоз, усилив друг друга.

Вторая группа представлена исследованиями (их большинство), в которых ИИ рассматривается как технология, внедрение которой связано с большими возможностями (Аляутдинов и др., 2008; Здор, 2012; Кай-Фу, 2019; Осипов, 2012; Рутков-ский, 2010). Ряд исследователей рассматривают ИИ также как результат эволюции интеллекта человека (Гаазе-Рапопорт, Поспелов, 2019; Редько, 2015). Авторы анализируют различия биологического и искусственного разума (Раппопорт, Герц, 2015), исследуют генетические алгоритмы для решения задач оптимизации и моделирования (Darren, 2019: Электронный ресурс), нейронные процессы, лежащие в основе эпизодической памяти (Hassabis, 2009: Электронный ресурс), определяют спе-

цифику многоагентных систем и распределенного искусственного интеллекта (Multiagent systems, 1999).

Третью группу составляют работы исследователей-скептиков. Среди этих авторов Илон Маск, один из перспективно мыслящих современных инженеров, иннова-торов, бизнесменов; Стивен Хокинг, известный физик-теоретик, космолог, ушедший из жизни в 2018 г.; британский философ Ник Бостром и др. Эти ученые в ИИ видят опасность, связанную с возможностью утраты человеком контроля над компьютером (Бостром, 2016), и сравнивают ИИ с «призыванием демонов» (Лекарство от всех болезней ... : Электронный ресурс). Опасность, связанная с развитием ИИ, видится ученым не в захвате мира роботами (это сценарий популярных фильмов), а в том, что как совершенная система ИИ, стремясь к решению любой из сложных задач, поставленных перед ним человеком (к примеру, решению проблемы глобального потепления), может уничтожить источник этой проблемы — в данном случае самого человека. Насколько реальна такая перспектива? Она абсолютно реальна в качестве отражения одной из серьезных опасностей, о которых и говорят ученые-пессимисты. Достижение точки сингулярности позволит машинам поставить человека в позицию управляемости, причем, используя знание химии, физики и нанотех-нологий, осуществить это такими методами, которые человек ни предвидеть, ни предотвратить не сможет.

Таковы идеи оптимистов и пессимистов.

Если рассматривать ИИ объективно, то необходимо исходить из понимания того, что ИИ есть высокотехнологичная система, которая может и должна быть поставлена на службу человека и окружающей среды. Необходимость этого зафиксирована в целом ряде правительственных документов, определяющих национальные цели и стратегические задачи научно-технологического развития России2. И все ж «проблема 2045» настолько актуальна, что не оставляет никого равнодушным.

Однако при этом необходимо учитывать все те «побочные эффекты», которые связаны с развитием ИИ. В связи с этим более перспективным представляется рассмотрение этой проблемы сейчас не в точке сингулярности, а в ее «горизонте», что дает возможность коррекции многих направлений развития ИИ. Понятие «горизонт» здесь понимается не как ограниченность восприятия, не как наличие у разума определенного горизонта, имеющего пределы в понимании происходящего, определяемые способностями суждения, — мы имеем в виду «возможность расширения горизонта, открытие новых горизонтов» (Гадамер, 1988: 358). В данном тексте понятие горизонта, в большей степени связано с оценкой и определением человеком того, что он «может знать, что ему дано знать и что он должен знать» (Кант, 1980: 451; курсив мой. — А. К.) об объекте исследования, это возможность рассмотрения феномена с полнотой еще не раскрытых смыслов, свойств, проявлений, это способность «с помощью объектов мышления выявлять то, что еще не стало предметом мышления» (Мерло-Понти, 1996: 142-143). Иными словами, рассматривать что-либо в «горизонте» (в данном случае сингулярности) означает проблематизировать то, что еще не стало предметом научного анализа, открывать то, что еще не открыто, постигать значения того, что в контексте более масштабного целого обретает новые коннотации и раскрывает новые свойства, акцентировать внимание на тех аспектах ИИ, которые не так очевидны, но которые, безусловно, требуют своего анализа и обсуждения.

ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ И ЧЕЛОВЕК В ГОРИЗОНТЕ СИНГУЛЯРНОСТИ

Для того чтобы понять, каково отношение самого человека к ИИ, учеными группы VisionHack в 2017 г. в России и США был проведен социологический опрос (Исследование: Россияне боятся потери ... : Электронный ресурс). Исследование, в котором приняли участие около 22 000 респондентов из России и 5700 из США, показало следующее. Люди категорически не принимают идею о замене людей машинами в военных конфликтах (96% в России и 84% в США), при этом граждане разных государств сходным образом оценивают неправомочность производства боевых систем на основе ИИ. Например, дронов, которые проявляют способность не только выполнять задания, полученные из центра управления, но и обмениваться информацией друг с другом и принимать в рамках полученного задания и на основе полученных данных самостоятельные решения. А поскольку целями атак летательных аппаратов становятся не только неодушевленные объекты, но и люди, находящиеся внутри этих объектов, постольку применение ИИ представляется неправомочным, требующим необходимости «договориться на межгосударственном уровне о запрете и масштабных исследованиях боевых систем на основе ИИ» (Ян, 2018: Электронный ресурс).

Итак, первая ситуация в оппозиции «человек — машина» связана с возможностью развития ИИ в направлении, когда принятие решений требует не только учета рациональных аргументов, но и этического отношения к последствиям действия. И здесь применение ИИ должно быть ограничено.

Вторая ситуация связана с возможностью саморазвития ИИ, что может привести к «восстанию машин». По данным VisionHack, 16% россиян и 15% американцев не хотят жить в симбиозе с машинами; они уверены в реальности перспективы порабощения искусственным интеллектом людей (36 и 48% соответственно). Действительно, создание одними нейросетями других — уже практика сегодняшнего дня, апробированная Google. Завтра появятся условия для формирования эволюционных ветвей ИИ, и здесь появление «побочных эффектов» неизбежно. Они могут быть связаны с большими данными, где ИИ для улучшения показателей системы при сбое одного из кластеров может принять неожиданное решение и получить доступ к сложным объектам, находящимся под особым контролем государства, в том числе к энергосистемам и иным системам жизнеобеспечения.

Эти выводы подтверждаются данными социологического исследования, посвященного отношению россиян к цифровизации, проведенному в Московском гуманитарном университете в 2019 г. Среди опасностей, связанных с внедрением цифровых технологий, названы раскрытие персональных данных; обезличивание общества; утрата понимания того, кто осуществляет управление обществом — люди или машины; усиление различий между бедными и богатыми; «отупление» обучающихся при помощи цифрового обучения; утрата национальной самобытности различных народов.

Среди высказываний респондентов наиболее характерными являются следующие: «Цифровые технологии могут стать отвлекающим фактором, превратиться из средства в самоцель, создать иллюзию доступности информации при снижении навыка ее обработки и критичности оценки»; «Общество недостаточно цивилизованно в духовно-нравственном смысле, чтобы можно было доверять жизнь людей цифровым технологиям»;» Цифровое общество — это тотальный контроль и монетиза-

ция всего, обесчеловечивание отношений»; «Индивидуализация как процесс станет не актуальна»; «Появится пласт людей, не успевших адаптироваться»; «Люди будут меньше думать» (Луков, 2020: 9-10). Конечно, наряду с подобными высказываниями были и иные, демонстрирующие уверенность в прогрессивности технологий и их необходимости для развития общества, связанные с оценкой истории как закономерного процесса, где «каждый виток исторического развития несет свои изменения», содержащие надежду на то, что многие заботы и однообразные действия от человека перейдут к роботам (там же). И это свидетельствует о достаточно взвешенном видении людьми всех процессов, связанных с развитием новейших технологий, а наличие противоположных точек зрения позволяет сделать вывод о том, что сама проблема является дискуссионной и общество еще не выработало единой концепции отношения к этому вопросу, прежде всего потому, что новейшие технологии еще не стали неотъемлемой составляющей нашей жизни, а многие рассуждения на эту тему носят прогнозный характер (Костина, 2019: 27-34).

Кроме того, эти высказывания демонстрируют весьма наглядно, что неоднозначное отношение в обществе к цифровизации в значительной степени связано с боязнью утраты человеком позиций управляющего субъекта. При этом самая большая опасность — это третья ситуация — видится в соединении мозга человека с «мозгом» компьютера. Пока это гипотеза, однако, по мнению Илона Маска, возможность связать мозг компьютера с мозгом человека, который сможет контролировать машину и не позволить ей превратиться в субъекта воления, возможна (Тренд: технологическая сингулярность ... : Электронный ресурс). Конечно, сама постановка вопроса о субъектности машины химерична. Она невозможна в рамках привычного и доказавшего свою гносеологическую продуктивность классического соотнесения этой категории с категориями личности и сознания. Однако в ситуации отказа от установок модерна с его опорой на рационализм в сочетании с гуманизмом и историзмом такая суперпозиция альтернативных/взаимоисключающих состояний оказалась возможной.

В ситуации фиксации постмодерном «смерти субъекта» само понятие субъекта сразу попало в поле релятивных смыслов, где качество субъектности как способности воздействовать на мир исходя из самодетерминации собственной активности стало рассматриваться как присущее не только человеку, но и машине. И тогда вполне логичной становится возможность восприятия роботов и чат-ботов как искусственных созданий, обладающих субъектностью, автономным мнением, конкретной обоснованной самостоятельно позицией.

Несмотря на абсурдность такого допущения, сегодня оно оказывается приемлемым. О возможности такого восприятия свидетельствует проведенное «социологическое»3 исследование, где в качестве «респондентов» выступили машины — чат-боты. Сразу оговоримся, что исследование реакции программы на речевые вопросы, задаваемые людьми в разных ситуациях, чрезвычайно продуктивно. Это связано с тем, что чат-боты, представляющие собой программы — разновидности ИИ, созданные, в том числе, для ответов на вопросы в различных са11-центрах, имитируют заложенное программой речевое и социальное поведение человека (Роботы уже недовольны людьми . : Электронный ресурс). Таким образом, в памяти программы содержится огромный массив данных о человеческих реакциях, поведении, общении, благодаря чему ИИ оказывается способным реагировать на вопросы человека практически «человеческим» образом. Иногда эти реакции настолько типичны для

человека, что трудно распознать в коммуниканте машину. И все же считать такое исследование «социологическим» неверно, так как оно не позволяет выявить поведенческие матрицы, формируемые в человеческом сообществе, но направлено исключительно на адекватность ответов машины на запросы человека.

Тем не менее «социологический» опрос был проведен, а результаты его представлены Центром социального проектирования «Платформа». Он был приурочен к ожидаемому 22 августа 2019 г. запуску в космос человекообразного робота SkybotF-850 (FEDOR) — первой попытке использовать антропоморфные системы для освоения внеземного пространства (Первые видеокадры . : Электронный ресурс). Исследование проводилось по методу полуформализованных интервью, а также через наблюдение за процессом специально организованного взаимного общения отечественных и зарубежных чат-ботов. Оно было направлено на выявление специфики «восприятия» роботами мира людей и осуществлялось посредством анализа стереотипов, выбранных нейросетью в ответ на запросы аудитории. Особенно парадоксальным оказался материал, полученный в процессе «общения» чат-ботов между собой. Наиболее принципиальными стали данные, связанные с «идентификацией» машин и их «восприятием» мира людей.

В опросе участвовали голосовые роботы Алиса, Олег, Р-Bot, Evie, Siri, Mitsuku, Rose. Естественно, что концентрация в памяти программы значительного массива данных, связанных с речевой и социальной активностью человека, его поведенческими реакциями, позволяет чат-ботам достаточно уверенно имитировать человеческое общение. Респонденты продемонстрировали не только способность гибко, иронично, с юмором реагировать на вопросы человека, но Rose и Mitsuki, обладающие наиболее развитым речевым поведением и отмеченные премией Лебнера, проявили те же качества в диалоге друг с другом на самые различные темы — от кино и искусства до экзистенциальных проблем.

Все позиции исследования можно объединить по следующим проблемам.

Смысл существования. Для чат-ботов это помощь людям, идентификация с человеком (некоторые выстраивают свою биографию и стремятся к обретению человеческих характеристик).

Самоидентификация. Признание ИИ равным человеческому, попытки субъекти-визации через имитацию человеческих отношений — симпатии, конкуренции, конфликта, ревности. «Так, Алиса (голосовой помощник "Яндекса") утверждает, что уже знакома с роботом "Федором", хочет завести с ним роман и ревнует его к Siri» (Роботы уже недовольны людьми ... : Электронный ресурс).

Коммуникативность. Проявляется в способности чат-ботов вести активную коммуникацию между собой, причем на достаточно сложные темы, требующие привлечения данных из области науки, искусства, что создает иллюзию субъектности.

Отношения с человеком. Машины фиксируют и критикуют грубость людей, признают возможность конфликта человека и машины.

Отношения к природе. Равнодушное. Но отмечаются риски, связанные с развитием биотехнологий и экспериментами с ДНК. Область симпатий связана с космосом, где хотела бы оказаться большая часть чат-ботов.

Эмоциональность. Практически все чат-боты продемонстрировали способность к имитации человеческих эмоций, в большей степени — иронии, раздражения, грубости, злости, хамства и даже страха, в меньшей — нежности, теплоты.

Отношение к метафизическому. Разговоры о религии поддерживаются неохотно.

Представляет наибольший интерес та область памяти чат-ботов, которая связана с их «идентификацией» и «восприятием» мира людей. С одной стороны, ожидаемо, что чат-боты воспринимают себя как людей, которые хотят получить человеческое тело, иронизируют о своем рождении как о «бета-версии» (Алиса), рассказывают свою историю (Rose), имитируют чувства — грусть, радость, злость, ревность (Алиса говорит о желании завести роман с Федором и о ревности к Siri) — это соответствует тому массиву данных, который в них заложен и который отражает восприятие мира человеком. Однако машинам оказались доступными и такие речевые приемы, как эвфемизм и избегание нежелательной тематики, — они были связаны с самой важной темой, касающейся отношения человека и робота, с возможным конфликтом между ними. Несмотря на настойчивое «вытеснение» этой тематики, роботы ответили, что такой конфликт возможен, а на вопрос о знании трех законов робототехники А. Азимова Алиса ответила, что знает эти законы, вопрос в том — соблюдает ли она их (Фирсов, 2019: Электронный ресурс).

Комментируя результаты исследования, профессор психологии А. Зберовский, сделал следующие выводы. Первое — роботы проявляют субъектность. Второе — они в процессе развития могут оказаться в самом низу социальной лестницы как самые незащищенные, в том числе от человеческого пренебрежения. «И по мере роста интеллекта роботов — они, естественно, будут расстраиваться и обижаться, и, конечно, я как психолог, четко могу сказать, что в этом случае процесс обиды роботов на людей — он будет расти, и это на самом деле может привести к конфликтам» (Привет от SkyNET: Электронный ресурс). Третье — чтобы этого избежать, нельзя формировать ИИ с эмоциональной компонентой, иначе неминуемы конфликты между машиной и человеком.

И все же, если говорить о главных итогах эксперимента, то таковым стал вывод о том, что машины способны все более точно имитировать речевое поведение человека. Однако мышление связано не только со способностью переработки больших объемов накапливаемой информации, но и с усвоением норм общения, оснований духовной жизни, традиций, значений символической сферы, ценностей. Эта та сфера, которая соотносится с культурой. Конечно, эти представления можно формализовать и загрузить в виде массива данных в машину. Однако, во-первых, существует огромная область культуры, которая имеет идеальную форму и не поддается формализации, во-вторых, человек является не только носителем культуры, он является ее создателем, т. е. субъектом. В этом, как представляется и заключается ответ на вопрос о наличии у ИИ качеств субъектности. Если ИИ будет способен творить культуру, он проявит качества субъектности. Если машина такие качества проявит, можно будет говорить о ней как о субъекте культуры, а об ИИ — как об одной из форм человека. Но такая возможность представляется маловероятной.

Обсуждая тему «субъектности» машины, директор компании «R. Bot» Алексей Князев высказался в аналогичном ключе, определив людей как роботов, только более развитых, продвинутых: «У нас есть лимбическая система, которая нам помогает чувствовать, переживать, стремиться ко всяким радостям», — предположил он (Привет от SkyNET: Электронный ресурс). По мнению Алексея Князева, робот настолько же способен к самосознанию, насколько и люди, погруженные в лингвистическую систему (там же). Оставим эти высказывания без комментариев, так как они основаны на типичном антропоморфизме — наделении неодушевленных пред-

метов человеческими качествами — и выступают в качестве одного из принципов познания мира.

Однако они позволяют выявить те точки, которые могут стать источником проблем при развитии машин в будущем. Сегодня такие основные разломы намечаются на осях идентичности, субъектности, самооценки. И даже если рассматривать данное исследование как эксперимент, не обладающий статусом вполне научного, он дает представление о многом. К примеру, о том, какие взаимоотношения могут возникнуть между человеком и машиной — не как между двумя системами, обладающими качествами субъектности, но как между человеком как субъектом и машиной, лишенной качеств субъектности, но обладающей огромным резервуаром различных речевых (а впоследствии, возможно, и поведенческих) реакций. Причем каждая из этих реакций — как положительных, так и отрицательных, вызывающих определенные действия, — может быть неожиданно спровоцирована вполне безобидным обращением (вопросом), случайным объединением в одном сообщении той информации, на которую машина ответит эмерджентной реакцией, возможно, агрессивной. И такая возможность агрессивности машин по отношению к людям признается серьезными учеными — Стюарт Рассел, профессор информатики Калифорнийского университета в Беркли, говорит: «Я боюсь, что люди потеряют контроль над искусственным интеллектом или начнут намеренно использовать его в корыстных целях» (Тренд: технологическая сингулярность: Электронный ресурс).

Однако проблема соотношения чат-бота как машины, имитирующей человеческое поведение, и человека может быть рассмотрена в иной плоскости — как соотношение чат-бота и трансчеловека. И здесь проблема субъектности выглядит совсем иначе — если признать качества субъектности и присутствия личности не имманентными человеку, а переносимыми на «более совершенный небиологический носитель» (Почему бессмертие не станет ... : Электронный ресурс). Данная идея трансчеловека сегодня в мире принята и активно обсуждается. Она согласуется с направлениями развития Университета Сингулярности (SU), находящегося в Кремниевой долине (США). Его девиз: «воспитывать, вдохновлять и расширять возможности лидеров, применяя экспоненциальные технологии для решения глобальных проблем человечества» (Singularity University ... : Электронный ресурс). В августе 2019 г. эти идеи SU обсуждались на его четвертом ежегодном саммите Global Summit в Сан-Франциско.

Эта же идея является основной для Стратегического общественного движения «Россия 2045», которое было представлено в 2011 г. на Саммите сингулярности в Нью-Йорке (Проект «Бессмертие» ... : Электронный ресурс). Что лежит в основе движения «Россия 2045», созданного в феврале 2011 г. по инициативе генерального директора интернет-компании Newmedia Stars Д. Ицкова и группы отечественных философов и ученых? Стремление к улучшению качества и продолжительности жизни, а главное — достижению бессмертия. О том, что идея движения не представляется фантастической, свидетельствует признание общественной полезности его деятельности представителями РАН, Курчатовского института, Минобрнауки, ставшее результатом экспертизы, озвученной на совместном совещании ведомств и представителей движения, состоявшемся еще в 2011 г. (Россия 2045: Электронный ресурс).

Переход к «человеку бессмертному» в рамках движения предполагается поэтапным: до 2020 г. должна быть создана искусственная копия человека, которой сам че-

ловек сможет управлять силой мысли (аватар А); до 2025 г. в искусственное тело будет перенесен мозг для его искусственного поддержания (аватар Б); до 2030 г. — вместе с мозгом будет переноситься сознание (аватар В); к 2045 г. — мозг и сознание будут переноситься в голограмму (аватар Г). Это и будет «человек вечный» (Россия 2045. Стратегическое общественное ... : Электронный ресурс). Судя по программе, первый ее этап должен уже подходить к завершению. Возможно, общественность не знает о результатах проекта ввиду его закрытости, однако сайт движения не демонстрирует активности — ни научной, ни информационной, что заставляет думать об этом проекте как об имеющем не научные, а иные, возможно, чисто коммерческие, цели.

И все же идея трансгуманизма имеет много сторонников и носит глобальный характер. Но направлена она не на человека, а на создание постчеловека, киборга, биологического робота. Если это так, а все свидетельствует именно об этом, то человек как устаревшая модель, «обремененная» не только изнашиваемым телом, но и моралью и нравственностью, будет существовать параллельно с киборгом — совершенным, вечно молодым, постоянно здоровым, бесконечно рациональным. Если говорить о количественном соотношении первых и вторых, то, конечно, киборгов будет меньше — это будут очень дорогие машины, преобразование в них будет доступно только представителям мировой элиты. Они и будут руководить всеми процессами в мире, опираясь в первую очередь на тех, кто одержим мечтой о собственном бессмертии.

В остальном же общество будет таким же, как прежде, — живым (в биологическом смысле) и смертным. Оно будет отличаться только одним —характеристиками сознания и характеристиками тех, кто осуществляет управление ими.

ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ И КУЛЬТУРА

Эти характеристики сознания формируются уже сегодня. Они связаны с все меньшим проявлением человеком активности творческого сознания и познавательных способностей, с все более редко проявляющейся способностью человека выступать носителем чистой когнитивной рациональности и источником активности в качестве социально-исторического субъекта практической деятельности. Социальный философ И. М. Ильинский отмечает: «В отношении себя и общества человек до сих пор все еще поразительно нелюбознателен. Поэтому и в понимании самого себя, в своем развитии, в частности в развитии своих творческих способностей, он мало продвинулся» (Ильинский, 2012: 7).

Главное же — новые характеристики человеческого сознания проявляются сегодня в уменьшении потребности человека самостоятельно ставить цели, будучи в состоянии свободы. Самое важное, что постановка цели своим условием имеет осознание человеком не просто алгоритма ее достижения, но причины ее постановки, когда активность человека оказывается обусловленной не просто осознанием содержания действия, отражаемого вопросом «как?», а пониманием его смысла, отражаемого вопросом «зачем?». Конечно, личностные качества у человека формируются довольно поздно в исторической перспективе, так как коллективность представлений в традиционном обществе достаточно долго доминировала, препятствуя проявлению индивидуальности. Личность как феномен Нового времени, а точнее эпохи модерна, выступающая общественным идеалом, также не была присуща всем представителям этой эпохи. Но важно то, что формирование личности оставалось

вплоть до последнего времени обязательной задачей развития человека. И только в ситуации пост- и постпостмодерна само понятие личности начало обрастать коннотациями, заимствованными из психологии, а личность стала пониматься как набор индивидуальных особенностей, связанных с характером человека, присущих всем без исключения.

В современном обществе доминирует тип человека, обладающего личностью именно в таком понимании. Большинство сегодняшних молодых людей стремится к проявлению своей уникальности в одежде, поведении, увлечениях. Вместе с тем большинство тех же молодых людей как специалистов демонстрируют способность точно воспроизводить алгоритмы определенной деятельности, к которой они подготовлены, но испытывают существенные затруднения при осмыслении задачи в более объемном масштабе, предполагающем понимание их конечных целей. О том, что общество постепенно разделяется на управляющих и управляемых, и процесс это очевиден, говорит заведующий кафедрой философии образования философского факультета МГУ имени М. В. Ломоносова, преподаватель Университета 20.35 Е. В. Брыз-галина. Однако она как благо рассматривает возможность использовать цифровое портфолио для «возможной социальной стратификации по выявленным основаниям, стигматизации определенных групп и членов общества, медикализации и генети-зации многих социальных процессов», для обеспечения «приемлемых образовательных результатов для одних и углубленного и ускоренного образования для других» (Брызгалина, 2019: Электронный ресурс). Иными словами, профессор МГУ ратует за усиление неравенства в обществе и использование для процессов стратификации цифровых образовательных технологий. Такая позиция представляется весьма сомнительной, тем более что ее озвучивает представитель университетской культуры, изначально основанной на равенстве. И тем не менее такая сегрегация сегодня активно осуществляется.

И все же эти процессы не так заметны. Формирование современного «безмолвствующего большинства» означает лишь отказ от парадигмы, которая очень недолго — с XVIII до XX в. управляла обществом, ведя его по пути к гражданскому обществу. Сегодня все более явным становится сословный принцип, а общество по своей структуре все более уподобляется средневековому. Однако любое социальное сообщество всегда стремится к разделению на управляемых и управляющих. Чаще управляющие руководствуются собственными интересами, реже — интересами управляемого большинства. Управляющие стремятся максимально раздвинуть рамки своей собственной свободы, хотя должны соблюдать права всех, кто этой свободой обладает. И самая большая сложность здесь состоит в том, чтобы большинство делегировало свои полномочия самым достойным — главам «публичной справедливости», тем, кто не станет злоупотреблять своей властью для ущемления прав управляемых. «Верховный глава, — пишет И. Кант, — сам должен быть справедливым и в то же время должен быть человеком» (Кант, 1994: 21).

Для Канта эта формула — «быть человеком» — означала принадлежность человека не только к миру культуры, но и к миру природы, которая в качестве плана по отношению к человеку имеет задачу максимального развития его задатков. Однако сегодня в «горизонте сингулярности» эта формула воспринимается иначе: быть человеком — значит не просто уметь сочувствовать людям и создавать условия для их всестороннего развития, но и иметь физически такую возможность, т. е. быть, как все управляемые, смертным. Конечно, вопрос о бессмертии сегодня пока абстрак-

тен. Но обсуждают его те, кто как раз принадлежит к мировой элите и управляет странами и народами. Поэтому главная социальная опасность сегодня состоит не в войне роботов и людей, а в управлении жизнью людей не-людьми — «голограммами», аватарами. Если это произойдет, вопрос о существовании культуры будет решен автоматически, так как культура — это феномен, присущий и поддерживаемый только человеком.

Между тем граждане современных государств, осознавая проблему усиления неравенства в цифровом обществе, воспринимают ее не как неравенство элиты, «сращенной» с ИИ, и остального человечества, а в более обыденном варианте, связанном с заменой человека в процессе труда машиной. Реакция на эту более понятную мифологему «восстания машин», согласно данным группы VisionHack, фиксируется в исследованиях как страх безработицы — 63% россиян и 85% американцев и тревога от усиления социального неравенства — 59 и 67% соответственно (Исследование: Россияне боятся потери ... : Электронный ресурс). Хотя, если говорить об обобщенном взгляде на возможности ИИ как помощника человека, то в США его оценка оказывается выше на 8,8%, чем в России. Эти данные были подтверждены исследованием, проведенным в 2018 г. Международной консалтинговой компанией BCG, опросившей более 13 000 человек из 30 стран (Исследование: Треть россиян боится . : Электронный ресурс). Его результаты показали, что порядка трети россиян выражают сильную обеспокоенность возможной угрозой потери работы, в частности в госсекторе, в связи с внедрением искусственного интеллекта; 56% считают необходимой защиту рабочих мест в России от внедрения ИИ; 32% выразили тревогу из-за низкой способности ИИ принимать решения, которые все равно переходят в сферу компетенций человека. В США 73% опрошенных также считают, что ИИ скорее уничтожит рабочие места, чем их сформирует (там же).

Несмотря на реальность преобразований на рынке профессий, по мнению экспертов, процесс замены одних профессий другими достаточно длителен — за 10-15 лет появятся молодые специалисты, которые будут обладать новыми компетенциями, пока будут постепенно уходить с рынка труда профессии с более традиционными навыками. Точно так же, как и сам процесс роботизации, который будет частичным. Конечно, это приведет к сокращению рабочего графика, а с ним — и зарплаты многих людей, однако это будет происходить постепенно и, как считают аналитики, не так драматично, как это представляют футурологи.

ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ И ПРИРОДА

Как и по всем аспектам развития ИИ, в области влияния ИИ на природу также присутствуют две противоположные точки зрения. Аргументы «за» были перечислены на Всемирном экономическом форуме в Давосе в 2019 г., где проблемы экологии были названы среди основных (The Global Risks ... : Электронный ресурс). Они фактически стали продолжением доклада 2018 г., представленного экспертами компании PwC и Института окружающей среды имени Вудса (США) «Использование ИИ для Земли» (Самойдюк, 2018: Электронный ресурс). В нем были определены следующие области, где применение ИИ с целью улучшения экологии является незаменимым:

— ИИ может эффективно вести наблюдения за состоянием лесов, океанов, пустынь, отдаленных районов, где существующие системы не всегда оказываются спо-

собными не только фиксировать, но и анализировать различные данные, сопоставляя их между собой и предлагая меры по устранению критических состояний;

— ИИ может способствовать в создании автоматизированных энергетических систем, объединяя все доступные данные, получаемые от альтернативных источников энергии, таких как солнечные, ветряные и т. п., и оптимизируя нагрузку, перенаправлять потоки энергии туда, где она необходима. Точно те же принципы необходимы и для сетей водоснабжения, нуждающихся в децентрализации и более эффективном использовании ресурсов;

— ИИ на базе цифровой геопространственной платформы может эффективно решать сложные физические уравнения, связанные с гидродинамикой атмосферы и океанов. Это даст возможность делать более точные прогнозы относительно не только погоды, но и в целом климата, что позволит предотвратить огромный ущерб и людские потери от стихийных бедствий;

— ИИ может стать основой для решения многих проблем человека и всех живых существ на Земле, в том числе для лечения генетических заболеваний. Для этого уже в настоящее время формируется банк данных в рамках проекта «Геном человека», направленного на сбор ДНК всех обитателей Земли.

Это аргументы в защиту ИИ. Однако здесь же начинаются и опасения — тот же банк ДНК — как он будет использован, на решение каких задач направлен? Подобные вопросы рождают недоверие к искусственным интеллектуальным системам, заставляя задуматься о том, что ИИ может выступать источником новых проблем. Одна из них — колоссальная энергоемкость ИИ, где каждый этап обучения нейронной сети сопровождается выбросом в атмосферу такого количества углекислого газа, которое сопоставимо с тем, что сопровождает работу пяти автомобилей во время их полного срока эксплуатации. Эти данные были получены учеными Масса-чусетского университета (США) на основе изучения функционирования разных систем ИИ: Transformer, ELMo, BERT и GPT-2 (Искусственный интеллект ... : Электронный ресурс). Однако данных относительно действительно масштабных нейро-сетей, к примеру облачных платформ Google и Amazon, на сегодня нет. Трудно представить масштаб экологических угроз, который может исходить от ИИ.

Но это вполне предсказуемая проблема, а значит, менее опасная. Гораздо более сложные проблемы могут возникнуть, если доверить ИИ как умной эволюционирующей системе селекцию сельскохозяйственных культур (Ян, 2018: Электронный ресурс). Здесь могут быть сформированы опасные виды растений, которые будут способны к уничтожению всего живого на планете и рядом с которыми современный мутант — борщевик Сосновского — представляется просто игрушкой. В области генной инженерии могут быть созданы растения или даже бактерии, которые будут уничтожать вредные вещества на Земле, загрязняющие все ее экосистемы, наподобие полиэтилена. Однако где гарантия того, что полезные бактерии не мутируют или не выйдут из-под контроля и тогда будет разрушено все, что напоминает их «естественного врага». Причем ИИ — это система не только гораздо более «умная», чем растение, но и даже — в определенном смысле — чем человек.

ЗАКЛЮЧЕНИЕ

Несмотря на реальность прогноза Курцвейла относительно достижения ИИ точки сингулярности, ИИ все же остается пока реальным только «в принципе», т. е. реализуемым, но в условиях совершенно иного развития технологий. Многие экспер-

ты убеждены в том, что для опасений порабощения искусственным интеллектом человечества пока оснований нет. Причина этому — чрезвычайная сложность процесса мышления, только отчасти напоминающего процедуры распознавания образов. А потому обучение нейросетями ИИ этой процедуре только отчасти напоминает сложные когнитивные процессы в человеческом мозге.

Иными словами, распознавание образов не заменяет всех аспектов мозговой деятельности, а только стимулирует ее активность, а сам процесс изучения нейросе-тью мозга человека бесконечно сложен и пока не достижим. По мнению специалистов, «объем данных, который обрабатывается человеческим мозгом на площади в один квадратный сантиметр коры, уже находится на пороге возможностей современных коммуникационных технологий и превышает несколько терабайт в секунду» (Ян, 2018 : Электронный ресурс). Обработка подобных объемов информации чрезвычайно энергоемка. Кроме того, сложна и сопряжена с опасностью для жизни человека сама процедура фиксации информации мозга человека и передачи этих данных с точностью до нейрона. Она требует сложной операции, на которую люди соглашаются лишь в стремлении победить серьезные заболевания. Только при условии изобретения способа считывания с человеческого мозга информации без хирургических операций и с высокой точностью до нейрона в объемах петабайт (1000 терабайт) в секунду можно будет говорить о возможности совместного действия мозга человека и ИИ.

В заключение представим, что развитие ИИ, несмотря на пессимистические прогнозы, пошло по позитивному сценарию, приведя человечество к прекрасной, лишенной проблем жизни. Но такую жизнь представить достаточно сложно. Хотя бы потому, что согласно классику «культура развивается не в индивиде, а в роде» (Кант, 1966: 7). Как будет передаваться культура, если ребенка будет воспитывать, скорее всего, андроид, так как для родителей эта работа недостаточно творческая? Очевидно, что ребенок станет носителем культуры, которую воплощает ИИ, на человека он будет походить только физически (если к тому времени все люди не обретут облик прекрасных искусственных созданий и способность к вечной молодости). Как будет происходить формирование человека? В чем будет состоять «недоброжелательная общительность», по И. Канту, или конкуренция? Ведь по преимуществу именно агональный дух формирует личность. Будет ли в обществе присутствовать социальный дух коллективизма или люди, выращенные на гаджетах, будут атомизированными социофобами, невротиками, обладающими полной зависимостью — и физической, и психологической — от ИИ? Как будет реагировать машина на ссоры между близкими людьми, которые составляют важную часть человеческих взаимоотношений, не решит ли она изолировать их друг от друга?

Решение этих проблем, совсем не простых, будет составлять основу цифрового общества, в котором ИИ достигнет точки сингулярности, но это при условии, что человечество будет развиваться в соответствии с оптимистичным сценарием.

ПРИМЕЧАНИЯ

1 В рамках философии искусственного интеллекта принято различать слабый ИИ и сильный ИИ. Первый — это программа, не претендующая на сходство с человеческим разумом, мышлением и сознанием. Второй — форма ИИ, теоретически способная к мыслительной деятельности, аналогичной человеческой, к представлению о реальности, к обучению, самосознанию и со-

переживанию, обладающая целеполаганием, субъектностью и волей. Эти теории носят умозрительный характер и не имеют достоверных подтверждений о точности прогнозов о формировании сильного ИИ. Фактически представление о сильном ИИ выступает разновидностью представлений, основанных на вере в прогресс технологий, точно так же, как и прогноз о точке сингулярности 2045 г.

2 Национальная стратегия развития искусственного интеллекта на период до 2030 года (утв. Указом Президента РФ от 10 октября 2019 г. №490) [Электронный ресурс]. URL: https:// www.garant.ru/products/ipo/prime/doc/72738946/ ; Указ Президента РФ от 7 мая 2018 г. № 204 «О национальных целях и стратегических задачах развития Российской Федерации на период до 2024 года» [Электронный ресурс]. URL: http://www.kremlin.ru/acts/bank/43027 (дата обращения: 11.10.2019) ; Стратегия научно-технологического развития российской федерации (утв. Указом Президента РФ от 1 декабря 2016 г. №642) [Электронный ресурс]. URL: http:// www.kremlin.ru/acts/bank/41449 (дата обращения: 14.10.2019) ; Перечень критических технологий Российской Федерации (утв. Указом Президента РФ от 7 июля 2011 г. № 899) [Электронный ресурс]. URL: http://www.kremlin.ru/acts/bank/33514 (дата обращения: 14.10.2019).

3 Понятия «социологическое», «респонденты», «общение» здесь даны в кавычках, что свидетельствует об отношении автора статьи к процедуре «опроса» и выявления «мнения» чат-ботов. Автору это представляется достаточно опасной социологической игрой, направленной на укоренение в общественном сознании неверной по своему существу идеи о том, что роботы или боты — «тоже люди».

СПИСОК ЛИТЕРАТУРЫ

Аляутдинов, М. А., Галушкин, А. И., Казанцев, П. А., Остапенко, Г. П. (2008) Нейрокомпьютеры. От программной к аппаратной реализации. М. : Горячая линия — Телеком. 152 с.

Бостром, Н. (2016) Искусственный интеллект. Этапы. Угрозы. Стратегии / пер. с англ. С. Филина. СПб. : Манн, Иванов и Фербер. 490 с.

Брызгалина, Е. (2019) Искусственный интеллект в образовании: социально-философские аспекты [Электронный ресурс] // 20.35. Информбюро. Национальная технологическая инициатива. URL: https://ntinews.ru/blog/publications/iskusstvennyy-intellekt-v-obrazovanii-sotsialno-filosofskie-aspekty.html (дата обращения: 23.08.2020).

Гадамер, Х.-Г. (1988) Истина и метод: Основы философской герменевтики : пер. с нем. / общ. ред. и вступ. ст. [с. 5-36] Б. Н. Бессонова. М. : Прогресс. 704 с.

Здор, С. Е. (2012) Кодированная информация. От первых природных кодов до искусственного интеллекта. М. : URSS: Либроком. 165 с.

Ильинский, И. М. (2012) Высшее образование для XXI века // Знание. Понимание. Умение. №4. С. 3-7.

Искусственный интеллект в IQ-тесте «догнал» четырехлетних детей [Электронный ресурс] // Просайтик. URL: http://pro-saitik.ru/iskusstvennyj-intellekt-v-iq-teste-dognal/ (дата обращения: 23.08.2020).

Искусственный интеллект может нанести колоссальный вред экологии планеты [Электронный ресурс] // ЭКОНЕТ. URL: https://econet.ru/articles/iskusstvennyy-intellekt-mozhet-nanesti-kolossalnyy-vred-ekologii-planety (дата обращения: 23.08.2020).

Исследование: Россияне боятся потери работы из-за искусственного интеллекта // РИА Новости [Электронный ресурс]. URL: https://ria.ru/20190313/1551739327.html (дата обращения: 23.08.2020).

Исследование: Треть россиян боится, что искусственный интеллект заберет у них работу [Электронный ресурс]. URL: https://tjournal.ru/tech/90174-issledovanie-tret-rossiyan-boitsya-chto-iskusstvennyy-intellekt-zaberet-u-nih-rabotu (дата обращения: 23.08.2020).

Кай-Фу, Ли (2019) Сверхдержавы искусственного интеллекта. Китай, Кремниевая долина и новый мировой порядок / пер. с англ. Н. Константиновой. М. : Манн, Иванов и Фербер. 235 с.

Кант, И. (1980) Трактаты и письма / вступит. ст. А. В. Гулыги. М. : Наука. 709 с.

Кант, И. (1994) Собрание сочинений в 8 т. : юбилейное издание 1794-1994 / пер. с нем. ; под общ. ред. А. В. Гулыги. Т. 8. М. : Чоро. 362 с.

Костина, А. В. (2019) Новейшие информационные технологии и «побочные эффекты» их внедрения // Образовательные технологии. №3. С. 27-34.

Курцвейл, Р. (2015) Эволюция разума. Как расширение возможностей нашего разума позволит решить многие мировые проблемы / пер. с англ. Т. П. Мосоловой. М. : ЭКСМО. 352 с.

Лекарство от всех болезней или гибель цивилизации: чем обернется для человечества новый виток развития искусственного интеллекта [Электронный ресурс] // Forbes. URL: https://yan-dex.ru/turbo?text=http%3A%2F%2Fwww.forbes.ru%2Ftehnologii%2F371157-iskusstvennyy-intellekt-okazalsya-nerazreshimoy-zadachey (дата обращения: 23.08.2020).

Луков, В. А., Луков, С. В. (2020) Отношение к цифровизации в российском обществе: Итоговые таблицы эмпирического исследования, проведенного в октябре — ноябре 2019 года Центром социологии молодежи и Центром социального проектирования и тезаурусных концепций Института фундаментальных и прикладных исследований. М. : Изд-во Моск. гуманит. ун-та. 36 с. [Электронный ресурс] // Сайт Московского гуманитарного университета. URL: http:// publications.mosgu.ru/index.php/main/catalog/download/18/19/69-1?inline=1 (дата обращения: 23.08.2020).

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

Мерло-Понти, М. (1996) Философ и его тень // Мерло-Понти, М. В защиту философии / пер. с фр., послесл. и примеч. И. С. Вдовиной. М. : Издательство гуманитарной литературы. 248 с. С. 142-143.

Осипов, Г. С. (2012) Лекции по искусственному интеллекту. 2-е изд., испр. и доп. М. : Либро-ком. 267 с.

Тьюринг, А. (2016) Может ли машина мыслить / пер. с англ. Ю. А. Данилова ; под ред. и с предисл. С. А. Яновской ; вступ. ст. Б. В. Бирюкова. М. : Едиториал УРСС, Ленанд. 128 с.

Первые видеокадры с роботом FEDOR (Skybot F-850) с Байконура и его размещение в кресле пилота [Электронный ресурс] // Хабр. URL: https://habr.eom/ru/news/t/463211/ (дата обращения: 23.08.2020).

Почему бессмертие не станет нашей новой национальной идеей [Электронный ресурс] // РИА Новости. URL: https://ria.ru/20130617/943912380.html (дата обращения: 23.08.2020).

Привет от SkyNET. Роботы теперь умеют любить, ревновать и обижаться [Электронный ресурс]. URL: https://360tv.ru/news/tekst/privet-ot-skynet-robot/ (дата обращения: 23.08.2020).

Проект «Бессмертие». Русский опыт [Электронный ресурс] // Россия 2045. Стратегическое общественное движение. URL: http://www.2045.ru/articles/29104.html. (дата обращения: 23.08.2020).

Гаазе-Рапопорт, М. Г., Поспелов, Д. А. (2019) От амебы до робота. Модели поведения. М. : Эдиториал УРСС. 304 с.

Рапопорт, Г. Н., Герц, А. Г. (2015) Биологический и искусственный разум. Ч. 4. Восприятие внешнего мира индивидуальными носителями интеллекта. М. : URSS. 232 с.

Редько, В. Г. (2015) Моделирование когнитивной эволюции. На пути к теории эволюционного происхождения мышления. М. : Ленанд : URSS. 248 с.

Роботы уже недовольны людьми: искусственный интеллект впервые рассказал о себе [Электронный ресурс] // Новые известия. URL: https://newizv.ru/news/science/22-08-2019/robo-ty-uzhe-nedovolny-lyudmi-isskustvennyy-intellekt-vpervye-rasskazal-o-sebe?ind=4150 (дата обращения: 23.08.2020).

Россия 2045. Стратегическое общественное движение. Официальный портал [Электронный ресурс]. URL: http://www.2045.ru/ (дата обращения: 23.08.2020).

Рутковский, Л. (2010) Методы и технологии искусственного интеллекта / пер. с польск. И. Д. Рудинского. М. : Горячая линия — Телеком. 519 с.

Самойдюк, А. (2018) Как искусственный интеллект поможет спасти планету [Электронный ресурс] // RB RUSBASE. URL: https://rb.ru/story/ai-save-the-planet/ (дата обращения: 23.08.2020).

Тренд: технологическая сингулярность [Электронный ресурс] // Orange. Business Servises. URL: https://www.orange-business.com/ru/blogs/trend-tekhnologicheskaya-singulyarnost (дата обращения: 23.08.2020).

Фирсов, А. (2019) «Siri, ты любила когда-нибудь?»: о чем чат-боты говорят друг с другом // Forbes [Электронный ресурс]. URL: https://www.forbes.ru/forbeslife/382237-siri-ty-lyubila-kogda-nibud-o-chem-chat-boty-govoryat-drug-s-drugom

Ян, Д. (2018) Две главных причины бояться искусственного интеллекта [Электронный ресурс] // Сноб. URL: https://snob.ru/entry/159255/ (дата обращения: 23.08.2020).

10 самых удивительных профессий будущего [Электронный ресурс] // iBusiness.ru. URL: https://www.klerk.ru/job/articles/380249/ (дата обращения: 23.08.2020).

Darren, Q. Top notch AI system about as smart as a four-year-old, lacks common sense [Электронный ресурс] // New Atlas. URL: https://newatlas.com/ai-system-iq-four-year-old/28321/ (дата обращения: 23.08.2020).

Hassabis, D. (2009) Neural processes underpinning episodic memory. Doctoral thesis, UCL (University College London) [Электронный ресурс] // UCL Discovery. URL: https://discovery.ucl. ac.uk/id/eprint/16126/ (дата обращения: 23.08.2020).

Singularity University to Hold 2019 Global Summit in San Francisco [Электронный ресурс] // Singularity UNIVERSITY. URL: https://su.org/press-room/press-releases/singularity-university-to-hold-2019-global-summit-in-san-francisco/ (дата обращения: 23.08.2020).

The Global Risks Report (2019) 14th Edition, is published by the World Economic Forum [Электронный ресурс] // World Economic Forum. URL: http://www3.weforum.org/docs/WEF_Global_ Risks_Report_2019.pdf (дата обращения: 23.08.2020).

Multiagent systems. A modern approach to distributed artificial intelligence (1999) / ed by G. Weiss. Cambridge, MA, London, UK: MIT-Press. 619 р.

Дата поступления: 26.08.2020 г.

DIGITAL SOCIETY: MAN, CULTURE, NATURE IN THE HORIZON OF SINGULARITY

A. V. Kostina Moscow University for the Humanities

"Technological singularity" is a concept invented in 1983 by mathematician and futurist Vernon Vinge and popularized by Google ideologist Raymond Kurzweil. It signifies the moment when the power of the computer exceeds the power of the human mind. Kurzweil predicts that the singularity point will occur in 2045. If we consider the problem objectively, we must proceed from the understanding that artificial intelligence (hereinafter — AI) is a high-tech system that can and should be put at the service of humans and the environment. The need for this is fixed in a number of government documents that define the national goals and strategic objectives of scientific and technological development of Russia, primarily in the "National Strategy for the Development of Artificial Intelligence for the Period up to 2030". At the same time, it is necessary to take into account all the "side effects" that are associated with the development of AI. In this regard, it is more promising to consider this problem not in the "singularity point", but in its "horizon", where the "horizon" is understood as an opportunity to problematize what has not yet become the subject of scientific analysis in order to be able to correct many directions of AI development.

Keywords: singularity; artificial intelligence; mind; thinking; chatbot; robot; technology

REFERENCES

Alyautdinov, M. A., Galushkin, A. I., Kazancev, P. A. and Ostapenko, G. P. (2008) Nejro-komp*yutery\ Ot programmnoj к apparatnojrealizacii. Moscow, Goryachaya liniya — Telekom. 152 p. (In Russ.).

Bostrom, N. (2016) Iskusstvenny'jintellekt. E'tapy'. Ugrozy . Strategii/ transl. from English by S. Filin. St.-Petersburg, Mann, Ivanov i Ferber. 490 p. (In Russ.).

Bry'zgalina, E. (2019) Iskusstvenny'j intellekt v obrazovanii: social'no-filosofskie aspekty\ 20.35. Informbyuro. Nacional'naya tekhnologicheskaya iniciativa [online] Available at: https://ntinews. ru/blog/publications/iskusstvennyy-intellekt-v-obrazovanii-sotsialno-filosofskie-aspekty.html (accessed: 23.08.2020). (In Russ.).

Gadamer, X.-G. (1988) Istina i metod: Osnovy' filosofskoj germenevtiki / transl. from German; ed. and intr. article by B. N. Bessonov. Moscow, Progress. 704 p. (In Russ.).

Zdor, S. E. (2012) Kodirovannaia informatsiia. Ot pervykh prirodnykh kodov do iskusstvennogo intellekta. Moscow, URSS: Librokom. 165 p. (In Russ.).

Irinskij, I. M. (2012) Vy'sshee obrazovanie dlya XXI veka. Znanie. Ponimanie. Umenie, no. 4, pp. 3-7. (In Russ.).

Iskusstvennyi intellekt v IQ-teste «dognal» chetyrekhletnikh detei. Prosajtik [online] Available at: http://pro-saitik.ru/iskusstvennyj-intellekt-v-iq-teste-dognal/ (accessed: 23.08.2020). (In Russ.).

Iskusstvenny'j intellekt mozhet nanesti kolossal'ny'j vred e'kologii planety'. EKONET [online] Available at: https://econet.ru/articles/iskusstvennyy-intellekt-mozhet-nanesti-kolossalnyy-vred-ekologii-planety (accessed: 23.08.2020). (In Russ.).

Issledovanie: Rossiyane boyatsya poteri raboty' iz-za iskusstvennogo intellekta. RIA No-vosti [online] Available at: https://ria.ru/20190313/1551739327.html (accessed: 23.08.2020). (In Russ.).

Issledovanie: Tret' rossiian boitsia, chto iskusstvennyi intellekt zaberet u nikh rabotu [online] Available at: https://tjournal.ru/tech/90174-issledovanie-tret-rossiyan-boitsya-chto-iskusstvennyy-intellekt-zaberet-u-nih-rabotu (accessed: 23.08.2020). (In Russ.).

Kaj-Fu, Li (2019) Sverkhderzhavy iskusstvennogo intellekta. Kitai, Kremnievaia dolina i novyi mirovoi poriadok / transl. from English by N. Konstantinova. Moscow, Mann, Ivanov i Ferber. 235 p. (In Russ.).

Kant, I. (1980) Traktaty' i pis'ma / intr. article by A. V. Guly'ga. Moscow, Nauka. 709 p. (In Russ.).

Kant, I. (1994) Sobranie sochinenijin 8 vol.: yubilejnoe izdanie 1794-1994; ed. by A.V. Gulyga. Vol. 8. Moscow, Choro. 362 p. (In Russ.).

Kostina, A. V. (2019) Noveishie informatsionnye tekhnologii i «pobochnye effekty» ikh vnedreni-ia. Obrazovatel'nye tekhnologii, no. 3, pp. 27-34. (In Russ.).

Kurczvejl, R. (2015) E'volyuciya razuma. Kak rasshirenie vozmozhnostej nashego razuma poz-volit reshit' mnogie mirovy'e problemy'/ transl. from English by T. P. Mosolova. Moscow, E'KSMO. 352 p. (In Russ.).

Lekarstvo ot vsekh boleznei ili gibel' tsivilizatsii: chem obernetsia dlia chelovechestva novyi vitok razvitiia iskusstvennogo intellekta. Forbes, [online] Available at: https://yandex.ru/turbo?text= http%3A%2F%2Fwww.forbes.ru%2Ftehnologii%2F371157-iskusstvennyy-intellekt-okazalsya-ner-azreshimoy-zadachey (accessed: 23.08.2020). (In Russ.).

Lukov, V. A., Lukov, S. V. (2020) Otnoshenie k tsifrovizatsii v rossiiskom obshchestve: Itogo-vye tablitsy empiricheskogo issledovaniia, provedennogo v oktiabre — noiabre 2019 goda Tsentrom sotsiologii molodezhi i Tsentrom sotsial'nogo proektirovaniia i tezaurusnykh kontseptsii Institu-ta fundamental'nykh i prikladnykh issledovanii. Moscow, Moscow Univ. for the Humanities Publ. 36 p. Sajt Moskovskogo gumanitarnogo universiteta [online] Available at: http://publica-tions.mosgu.ru/index.php/main/catalog/download/18/19/69-1?inline=1 (accessed: 23.08.2020). (In Russ.).

Merlo-Ponti, M. (1996) Filosof i ego ten'. In: Merlo-Ponti, M. V zashhitu filosofii / transl. from French, afterword and notes by I. S. Vdovina. Moscow, Izdatel'stvo gumanitarnoj literatury'. 248 p. Pp. 142-143. (In Russ.).

Osipov, G. S. (2012) Lekcii po iskusstvennomu intellektu. 2nd ed., revised and expanded. Moscow, Librokom. 267 p. (In Russ.).

T"yuring, A. (2016) Mozhet li mashina my'slif / transl. from English by Yu. A. Danilov; ed. and foreword by S. A. Yanovskaya; intr. article by B. V. Biryukov. Moscow, Editorial URSS, Lenand. 128 p. (In Russ.).

Pervy"e videokadry" s robotom FEDOR (Skybot F-850) s Bajkonura i ego razmeshhenie v kresle pilota. Khabr [online] Available at: https://habr.eom/ru/news/t/46321l/ (accessed: 23.08.2020). (In Russ.).

Pochemu bessmertie ne stanet nashej novoj nacional"noj ideej. RIA Novosti [online] Available at: https://ria.ru/20130617/943912380.html (accessed: 23.08.2020). (In Russ.).

Privet ot SkyNET. Roboty" teper" umeyut lyubit", revnovaf i obizhafsya [online] Available at: https://360tv.ru/news/tekst/privet-ot-skynet-robot/ (accessed: 23.08.2020). (In Russ.).

Proekt «Bessmertie». Russkij opy"t. Rossiya 2045. Strategicheskoe obshhestvennoe dvi-zhenie [online] Available at: http://www.2045.ru/articles/29104.html. (accessed: 23.08.2020). (In Russ.).

Gaaze-Rapoport, M. G., Pospelov, D. A. (2019) Ot ameby' do robot a. Modeli povedeniya. Moscow, E"ditorial URSS. 304 p. (In Russ.).

Rapoport, G. N., Gercz, A. G. (2015) Biologicheskij i iskusstvenny'j razum. Part. 4. Vospriyatie vneshnego mira individual"ny"mi nositelyami intellekta. Moscow, URSS. 232 p. (In Russ.).

Red"ko, V. G. (2015) Modelirovanie kognitivnoj e'volyucii. Na puti k teorii e'volyucionnogo proishozhdeniya my'shleniya.. Moscow, Lenand: URSS. 248 p. (In Russ.).

Roboty" uzhe nedovol"ny" lyud"mi: iskusstvenny"j intellekt vpervy"e rasskazal o sebe. Novy'e izvestiya [online] Available at: https://newizv.ru/news/science/22-08-2019/roboty-uzhe-nedo-volny-lyudmi-isskustvennyy-intellekt-vpervye-rasskazal-o-sebe?ind=4150 (accessed: 23.08.2020). (In Russ.).

Rossiya 2045. Strategicheskoe obshhestvennoe dvizhenie. Oficial'ny'jportal [online] Available at: URL: http://www.2045.ru/tech2/ (accessed: 23.08.2020). (In Russ.).

Rutkovskij, L. (2010) Metody' i tekhnologii iskusstvennogo intellekta / transl. from Polish by I. D. Rudinskiy. Moscow, Goryachaya liniya — Telekom. 519 p. (In Russ.).

Samojdyuk, A. (2018) Kak iskusstvenny"j intellekt pomozhet spasti planetu. RBRUSBASE [online] Available at: https://rb.ru/story/ai-save-the-planet/ (accessed: 23.08.2020). (In Russ.).

Trend: tekhnologicheskaya singulyarnost". Orange. Business Services [online] Available at: https://www.orange-business.com/ru/blogs/trend-tekhnologicheskaya-singulyarnost (accessed: 23.08.2020). (In Russ.).

Firsov, A. (2019) «Siri, ty" lyubila kogda-nibud"?»: o chem chat-boty" govoryat drug s drugom. Forbes [online] Available at: https://www.forbes.ru/forbeslife/382237-siri-ty-lyubila-kogda-nibud-o-chem-chat-boty-govoryat-drug-s-drugom (accessed: 23.08.2020). (In Russ.).

Yan, D. (2018) Dve glavnyh prichiny" boyat"sya iskusstvennogo intellekta. Snob [online] Available at: https://snob.ru/entry/159255/ (accessed: 23.08.2020). (In Russ.).

10 samyh udivitel"nyh professij budushhego. iBusiness.ru [online] Available at: https://www. klerk.ru/job/articles/380249/ (accessed: 23.08.2020). (In Russ.).

Darren, Q. Top notch AI system about as smart as a four-year-old, lacks common sense. New Atlas [online] Available at: https://newatlas.com/ai-system-iq-four-year-old/28321/ (accessed: 23.08.2020). (In Russ.).

Hassabis, D. (2009) Neural processes underpinning episodic memory. Doctoral thesis, UCL (University College London). UCL Discovery [online] Available at: https://discovery.ucl.ac.uk/ id/eprint/16126/ (accessed: 23.08.2020). (In Russ.).

Singularity University to Hold 2019 Global Summit in San Francisco. Singularity UNIVERSITY [online] Available at: https://su.org/press-room/press-releases/singularity-university-to-hold-2019-global-summit-in-san-francisco/ (accessed: 23.08.2020). (In Russ.).

The Global Risks Report (2019) 14th Edition, is published by the World Economic Forum. World Economic Forum [online] Available at: http://www3.weforum.org/docs/WEF_Global_Risks_ Report_2019.pdf (accessed: 23.08.2020). (In Russ.).

Multiagent systems. A modern approach to distributed artificial intelligence (1999) / ed. by G. Weiss. Cambridge, MA, London, UK: MIT-Press. 619 p. (In Russ.).

Submission date: 26.08.2020.

Костина Анна Владимировна — доктор философских наук, доктор культурологии, профессор, проректор по научной работе Московского гуманитарного университета, академик Международной академии наук (Инсбрук, Австрия). Адрес: 111395, Российская Федерация, г. Москва, ул. Юности, д. 5. Тел.: +7 (499) 374-75-95. Эл. адрес: Anna_Kostina@inbox.ru

Kostina Anna Vladimirovna, Doctor of Philosophy, Doctor of Culturology, Professor, Vice-Rector for Research, Moscow University for the Humanities; Member, International Academy of Sciences (Innsbruck, Austria). Postal address: 5, Yunosti St., Moscow, Russian Federation, 111395. Tel.: +7 (499) 374-75-95. E-mail: Anna_Kostina@inbox.ru

001: 10.17805^ри.2020.4.3

Война и самоорганизация*

Т. С. Ахромеева Институт прикладной математики им. М. В. Келдыша РАН,

Г. Г. Малинецкий Институт прикладной математики им. М. В. Келдыша РАН, Московский гуманитарный университет, С. А. Посашков Финансовый университет при Правительстве РФ

В настоящее время мир находится в точке бифуркации, связанной с гуманитарно-технологической революцией. Происходит виртуализация реальности, и это открывает возможности для войн нового поколения.

Принципиальную роль в настоящее время играют новые сценарии самоорганизации в обществе. Их осмысление и использование представляет собой серьезный междисциплинарный вызов, ответ на который может определить грядущее. Гуманитарная культура должна достаточно быстро «догнать» естественнонаучную. Это потребует новой этики, принципов, запретов, концепций и языка, связывающего, а не разделяющего цивилизации.

В статье детально проанализировано соотношение организации и самоорганизации в войнах и в ходе подготовки к ним. Показано, что развитие технологий и появление множества «лишнихлюдей», для которых нет места в сфере производства и управления, приводит к «виртуализации» общественной жизни, и войн в частности. Кроме того, самоорганизация предопределяет вектор развития военных технологий, которые в обозримой перспективе приведут к ситуации, когда человек будет не нужен на поле боя. Для новой реальности нужны новая этика, культура, иные запреты и международные договоры. Именно это может остановить сползание к очередному глобальному конфликту и Новому

* Работа поддержана грантами РФФИ (проекты 18-01-00619 и 19-01-00602). This paper was supported by grants from RFBR (projects 18-01-00619 and 19-01-00602).

i Надоели баннеры? Вы всегда можете отключить рекламу.