Научная статья на тему 'К ВОПРОСУ О ФУНКЦИОНИРОВАНИИ ТЕРМИНА ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ В СОВРЕМЕННОМ НАУЧНОМ И ПУБЛИЦИСТИЧЕСКОМ ДИСКУРСЕ'

К ВОПРОСУ О ФУНКЦИОНИРОВАНИИ ТЕРМИНА ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ В СОВРЕМЕННОМ НАУЧНОМ И ПУБЛИЦИСТИЧЕСКОМ ДИСКУРСЕ Текст научной статьи по специальности «Языкознание и литературоведение»

CC BY
0
0
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
искусственный интеллект / научный дискурс / публицистический дискурс / реальный дискурс / виртуальный дискурс / artifi cial intelligence / scientifi c discourse / socialpolitical discourse / virtual discourse / real discourse

Аннотация научной статьи по языкознанию и литературоведению, автор научной работы — Алёна Александровна Клементьева

В статье рассматриваются особенности языкового представления искусственного интеллекта как элемента новой реальности в эпоху цифровой культуры. На материале научных статей и материалов с интернет-сайтов СМИ, посвящённых проблемам использования искусственного интеллекта и осмыслению его роли в жизни общества, описываются разноуровневые языковые средства (словообразовательные, лексические, морфологические, синтаксические), направленные на создание его двух прямо противоположных образов (положительного и отрицательного). Отмечается активное использование средств функционально-семантического поля интенсивности в рассматриваемых текстах, анализируются их прагматические характеристики. В зависимости от коммуникативных целей авторы публицистических текстов представляют искусственный интеллект как антропоморфное существо, угрожающее человеку либо приносящее ему пользу, в то время как учёные предупреждают об опасности его использования. Формирование тех и других представлений оценивается автором статьи и самими разработчиками технологий как языковая манипуляция, приводящая к когнитивному искажению. Обсуждается проблема разграничения реального и виртуального дискурсов, описывающих уже существующие явления или только воображаемые. В качестве возможного решения данной проблемы предлагается вводить в текст специальные маркеры, которые бы указывали адресату на статус высказывания по отношению к действительности, уделять особое внимание субъектно-объектной организации предложений, использованию акциональных предикатов в тех конструкциях, где субъектом является искусственный интеллект. Констатируется отсутствие точной и общепринятой дефиниции для термина искусственный интеллект, что также создаёт почву для языковых манипуляций. Формирование новой цифровой реальности посредством придания антропоморфных черт современным технологиям оценивается как концептуальный сдвиг, приводящий к искажению представлений о реальности действительной.

i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по языкознанию и литературоведению , автор научной работы — Алёна Александровна Клементьева

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

ON THE ISSUE OF THE TERM ARTIFICIAL INTELLIGENCE FUNCTIONING IN MODERN SCIENTIFIC AND SOCIAL-POLITICAL DISCOURSE

Th e article examines the features of linguistic representation of artifi cial intelligence considering it as an element of a new reality in the digital culture era. Th e multilevel linguistic means (word-formation, lexical, morphological, syntactic) aimed at creating two directly opposite images of artifi cial intelligence (positive and negative) are studied through scientifi c and online media articles devoted to the issues of artifi cial intelligence usage and its role in society. Th e paper indicates the active use of linguistic means within the functional and semantic fi eld of intensity in the texts in question and analyzes their pragmatic features. Depending on the communicative goals, the authors of socio-political texts present artifi cial intelligence as an anthropomorphic being that either threatens humans or benefi ts them, while scientists warn of the danger of its use. Th ese polarized ideas are viewed by both the author of the article and the technology developers themselves as a language manipulation tool leading to cognitive distortions. On this basis, the problem of distinguishing between real and virtual discourses that describe already existing phenomena or only imaginary ones is largely discussed. As a possible solution, the author proposes to introduce special markers into the text that would indicate to the addressee the status of the statement in relation to reality, pay special attention to the subjectobject organization of sentences and use of action predicates in the constructions where artifi cial intelligence is the subject. Th e author states that there is no precise and generally accepted defi nition for the term artifi cial intelligence, which gives grounds for language manipulation as well. Th e new digital reality characterized by describing modern technologies through anthropomorphic features can be seen as a conceptual shift towards a distorted picture of the reality we live in.

Текст научной работы на тему «К ВОПРОСУ О ФУНКЦИОНИРОВАНИИ ТЕРМИНА ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ В СОВРЕМЕННОМ НАУЧНОМ И ПУБЛИЦИСТИЧЕСКОМ ДИСКУРСЕ»

^^^ [лингвистика]

А. А. Клементьева doi: 10.24412/1811-1629-2022-4-14-23

К ВОПРОСУ О ФУНКЦИОНИРОВАНИИ ТЕРМИНА ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ В СОВРЕМЕННОМ НАУЧНОМ

И ПУБЛИЦИСТИЧЕСКОМ ДИСКУРСЕ

ALENA A. KLEMENTIEVA ON THE ISSUE OF THE TERM ARTIFICIAL INTELLIGENCE FUNCTIONING IN MODERN SCIENTIFIC AND SOCIAL-POLITICAL DISCOURSE

Алёна Александровна Клементьева

Аспирант ► aklementyeva@mail.ru

Московский государственный университет им. М. В. Ломоносова 119991, Россия, Москва, Ленинские горы, 1, стр. 51

Alena A. Klementieva

Moscow State University 1, str. 51, Leninskie Gory, Moscow, Russia, 119991

В статье рассматриваются особенности языкового представления искусственного интеллекта как элемента новой реальности в эпоху цифровой культуры. На материале научных статей и материалов с интернет-сайтов СМИ, посвящённых проблемам использования искусственного интеллекта и осмыслению его роли в жизни общества, описываются разноуровневые языковые средства (словообразовательные, лексические, морфологические, синтаксические), направленные на создание его двух прямо противоположных образов (положительного и отрицательного). Отмечается активное использование средств функционально-семантического поля интенсивности в рассматриваемых текстах, анализируются их прагматические характеристики. В зависимости от коммуникативных целей авторы публицистических текстов представляют искусственный интеллект как антропоморфное существо, угрожающее человеку либо приносящее ему пользу, в то время как учёные предупреждают об опасности его использования. Формирование тех и других представлений оценивается автором статьи и самими разработчиками технологий как языковая манипуляция, приводящая к когнитивному искажению. Обсуждается проблема разграничения реального и виртуального дискурсов, описывающих уже существующие явления или только воображаемые. В качестве возможного решения данной проблемы предлагается вводить в текст специальные маркеры, которые бы указывали адресату на статус высказывания по отношению к действительности, уделять особое внимание субъектно-объектной организации предложений, использованию ак-циональных предикатов в тех конструкциях, где субъектом является искусственный интеллект. Констатируется отсутствие точной и общепринятой дефиниции для термина искусственный интеллект, что также создаёт почву для языковых манипуляций. Формирование новой цифровой реальности посредством придания антропоморфных черт современным технологиям оценивается как концептуальный сдвиг, приводящий к искажению представлений о реальности действительной.

Ключевые слова: искусственный интеллект; научный дискурс; публицистический дискурс; реальный дискурс; виртуальный дискурс.

The article examines the features of linguistic representation of artificial intelligence considering it as an element of a new reality in the digital culture era. The multilevel linguistic means (word-formation, lexical, morphological, syntactic) aimed at creating two directly opposite images of artificial intelligence (positive and negative) are studied through scientific and online media articles devoted to the issues of artificial intelligence usage and its role in society. The paper indicates the active use of linguistic means within the functional and semantic field of intensity in the texts in question and analyzes their pragmatic features. Depending on the communicative goals,

the authors of socio-political texts present artificial intelligence as an anthropomorphic being that either threatens humans or benefits them, while scientists warn of the danger of its use. These polarized ideas are viewed by both the author of the article and the technology developers themselves as a language manipulation tool leading to cognitive distortions. On this basis, the problem of distinguishing between real and virtual discourses that describe already existing phenomena or only imaginary ones is largely discussed. As a possible solution, the author proposes to introduce special markers into the text that would indicate to the addressee the status of the statement in relation to reality, pay special attention to the subject-object organization of sentences and use of action predicates in the constructions where artificial intelligence is the subject. The author states that there is no precise and generally accepted definition for the term artificial intelligence, which gives grounds for language manipulation as well. The new digital reality characterized by describing modern technologies through anthropomorphic features can be seen as a conceptual shift towards a distorted picture of the reality we live in.

Keywords: artificial intelligence; scientific discourse; social-political discourse; virtual discourse; real discourse.

Введение

Актуальные направления современной лингвистики определяются тем, какие вопросы стоят перед обществом в целом. Являясь «службой понимания» мира [Аверинцев 1987: 468], филология обеспечивает доступ к пониманию его артефактов, в том числе тех, которые ещё не существуют, а только проектируются. В этом состоит отличие филологии от многих других наук, которые изучают уже существующие объекты. Наличие артефактов двух типов (реальных и потенциальных) становится предпосылкой для разграничения дискурсов — константного, описывающего явления объективной реальности, и виртуального, используемого для высказываний о воображаемом, предполагаемом [Волков 2020: 747].

Жизнь в эпоху цифровой культуры (digital culture) заставляет нас иметь дело с новой, цифровой реальностью, которая «существует поверх рамок и норм физического, биологического, психологического пространств» [Подопригора 2019: 15]. В этом новом «квазифизическом» пространстве акторами являются уже «не собственно люди и физические объекты, а синтетические информационные структуры, сетевые сообщества, алгоритмы и программы» [Подопригора 2019: 15]. Одним из таких акторов в современной культуре является искусственный интеллект (далее — ИИ),

технологии которого внедряются почти во все сферы общественной жизни.

Вопросы о расширении возможностей ИИ, наделении его способностью к самостоятельному принятию социально значимых решений поначалу обсуждались лишь представителями специальных научных направлений — техноэтики [Jonas 1973], ставшей её частью этики ИИ [Weizenbaum 1976], которая в свою очередь разделилась на робоэти-ку [Veruggio 2007] и машинную этику [Moo 2006]. Однако сейчас проблемы применения систем ИИ вышли за рамки философской рефлексии.

Ещё в 2014 году шведский философ Ник Бостром констатировал отсутствие какого-либо внимания со стороны органов власти к области разработки ИИ и объяснял это неимением перспектив «взрывного развития» у данного направления [Бостром 2016: 140]. В настоящее же время проблемам использования ИИ пытаются найти законодательное решение на государственном уровне. Так, в 2021 году в России был предложен законопроект, регулирующий отношения робота и человека1, в Китае разработан Кодекс этики искусственного интеллекта2. В том же году по проведении международного форума «Этика искусственного интеллекта: начало доверия» крупнейшие технологические компании России подписали Кодекс, где утвердили необходимость «осознавать ответственность при создании и использовании ИИ», обеспечивать «правдивость в информировании об уровне развития технологий ИИ, их возможностях и рисках», повышать уровень доверия к технологиям [Кодекс 2021: 3, 7].

Регламентация использования технологий ИИ из-за увеличения степени его автономного участия в медицине, образовании, культуре, охране окружающей среды, транспорте, экономике, предпринимательстве и др. становится «важнейшей задачей современного отечественного правоведения» [Лаптев 2019: 79]. Решая проблему «ответственности за вред, который может быть причинен устройством, обладающим искусственным интеллектом», правоведы рассматривают возможность присвоения системам ИИ статуса субъекта права [Соменков 2019: 75].

Всё это говорит о превращении ИИ в фе-

номен, являющийся неотъемлемой частью жизни современного общества, способный влиять на него: с одной стороны, ускорять его развитие, с другой стороны, приносить вред. Помимо этого, ИИ становится необходимым условием для моделирования новой цифровой реальности в эпоху цифровой культуры, отличительными чертами которой являются преобладание «технократического мышления» и «усиление техно-дискурса» [Елькина 2018: 195-196].

В данной статье мы ставим перед собой цели проанализировать функционирование термина искусственный интеллект и синонимичных ему номинаций (технология, машина, робот) в современном научном и публицистическом дискурсе, выявить и описать языковые средства, с помощью которых формируются те или иные представления об ИИ, дать им оценку.

Теоретическую базу исследования составляют положения коммуникативной грамматики о моделях предложения [Золотова, Онипенко, Сидорова 1998] и функциональной грамматики о функционально-семантическом поле интенсивности [Бондарко, Шубик 2005], а также работы Л. О. Чернейко, посвящённые анализу абстрактного имени и языка науки [Чернейко 2011, 2019].

Материалом для исследования послужили новостные статьи с интернет-сайтов СМИ, а также научные статьи последнего десятилетия, по-свящённые осмыслению роли ИИ в современном мире и угрозам его использования. За рамками нашего анализа остались статьи разработчиков ИИ, посвящённые техническим вопросам его создания, поскольку цель разработчиков — создать сам объект, а не представления о нём.

Образ искусственного интеллекта в научном дискурсе

По замечанию Л. О. Чернейко, «и логические отношения стоящей за термином сущности, и её символика» выводятся посредством анализа «его употребления в научном тексте», в том числе анализа «глагольно-атрибутивной сочетаемости» [Чернейко 2011]. Именно такая практика «способна стать опорой в лингвистической (и логической!) обработке научного объекта». У нас есть

возможность проанализировать употребление термина искусственный интеллект и синонимичных ему замен (машина, технология) в современном научном дискурсе и определить, каким в нём представляется феномен, обозначаемый данным терминологическим словосочетанием.

В первую очередь обращает на себя внимание обилие акциональных предикатов со значением угрозы (угрожать, вытеснять, отнимать, уничтожать, ставить под угрозу, наносить вред и пр.) при неодушевлённых субъектах, что противоречит существующей в языке субъектно-предикатной взаимообусловленности [Золотова, Онипенко, Сидорова 1998: 106] (более подробно см. в [Клементьева 2022]): ...искусственный интеллект вытесняет интеллект человеческий (Корнилов Г. А. Стратегия развития интегрированных маркетинговых каналов и е-маркетинг); ...новые технологии угрожают принципам профессии [Иванов 2017]; ...искусственный интеллект может совершенно уничтожить человечество к 2075 году [Сидоренко 2017]. В результате использования этих предикатов ИИ а) приобретает антропоморфные черты; б) воспринимается как нечто опасное, способное угрожать человеку и его существованию. Среди причин, по которым абстрактные имена (в рассматриваемых нами примерах это искусственный интеллект и технологии) могут употребляться с предикатами предметных имён (в широком смысле, включая собственно предметные и личные), Л. О. Чернейко называет «эмпирическую пустоту абстрактной сущности» и «её переживаемость социумом» [Чернейко 2019]. Это суждение иллюстрируют и проанализированные нами тексты, в центре внимания которых находится ИИ — относительно новый и плохо изученный научный объект, для описания которого ещё не сформировался отдельный терминологический аппарат.

Констатируя, вопреки расхожему мнению, присутствие в научном стиле речи эмоционально-оценочных средств, А. Н. Васильева в 1976 году отмечала существующую тенденцию к уменьшению «удельного веса субъективного элемента в научной речи» [Васильева 1976: 46]. Однако в современных статьях по проблемам ИИ мы наблюдаем широкое использование атрибутивов, выражающих отри-

цательную оценку ИИ и возможных последствий его применения (отрицательные, негативные, тяжелые последствия; разрушительная, дизруп-тивная технология; побочный эффект, опасное оружие и др.): Предполагается, что дизруптив-ной технологией является и ИИ [Себекин 2022]; Высказываются сомнения о возможности полной компенсации негативных последствий роботизации в обозримом будущем [Ракитов 2019]; Масштаб внедрения этих потенциально разрушительных технологий очень велик уже сегодня [Костина 2019]. Данные определения предлагают читателям интерпретировать тот или иной объект в соответствии с авторской позицией, формируют представления о негативных последствиях использования ИИ.

Также среди лингвистических особенностей рассматриваемых текстов стоит отметить частую встречаемость показателей категории интенсивности — высокой степени проявления признака. На лексическом уровне мы видим прилагательные-интенсификаты(оры) (всеобщая цифровизация, повальная роботизация, массовая безработица, чрезмерная зависимость от ИИ и т. д.) и существительные-интенсификаты (господство, засилие, экспансия ИИ), «в значении которых сема интенсивности содержится имплицитно» [Бондарко, Шубик 2005: 160]: результатом таких изменений человечества может стать повальная, массовая безработица, которую учёные называют технологической [Гулевский, Филиппов 2022], возможность господства машин и искусственного интеллекта над человеком нельзя полностью сбрасывать со счетов [Шкляе-ва 2015]; Экспансия искусственного интеллекта угрожает самой основе человеческой цивилизации, вытесняя человека из созданного им самим мира [Мамедова 2021]. На словообразовательном уровне выделяются префиксальные интенсификаторы супер- и сверх- (суперинтеллект, супермощный, сверхразум, сверхчеловек, сверхспособность, сверхсильный и проч.): Суперинтеллект может рассматриваться как создающий угрозу превосходству и даже выживанию человеческого вида [Манужева 2018]; искусственный интеллект — «сверхразум», основанный на цифре [Артамонова, Зенов 2020].

Введение в текст интенсифицирующих средств, по замечанию Е. М. Вольф, говорит о высокой «степени включённости субъекта в высказывание» [Вольф 2002: 43] и служит осуществлению определённых коммуникативных целей — «сделать высказывание более убедительным», «усилить его перлокутивный эфффект», «более эффективно воздействовать на адресата» [Вольф 2022: 111]. Результатом такого воздействия, по нашему мнению, должно стать внушение страха перед картиной будущего, где человеку из-за «засилия» ИИ не найдётся места. Мы имеем дело с гипостазиро-ванием, т. е. с овеществлением абстрактной сущности, целью которого является «изменение русской концептосферы», «искажение когнитивного пространства русского языка и русской картины мира» [Петрухина 2014].

Итак, анализ современного научного дискурса показывает, что при помощи различных языковых средств авторы статей по проблемам ИИ намеренно создают особый образ ИИ — угрожающий существованию человека и человечества в целом — с целью сформировать к нему соответствующее отношение адресата.

Представления об искусственном интеллекте, формируемые в публицистическом дискурсе

В другой сфере, где также активно обсуждаются проблемы ИИ, — публицистическом дискурсе — мы наблюдаем две совершенно противоположные тенденции.

С одной стороны, ссылаясь на результаты научных исследований и мнения учёных, СМИ говорят об опасности, которую представляют для человечества ИИ и его технологии, и используют те же языковые средства, о которых мы писали выше, анализируя научные тексты. В тех конструкциях, где ИИ, технологии, машины являются субъектами, активно употребляются предикаты с пейоративной окраской: новая технология способна в скором времени ухудшить жизни миллионов людей, а в перспективе — погубить человеческую цивилизацию [Газета.ш 2022]; искусственный интеллект может полностью заменить людей, машины в погоне за эффективностью могут

захотеть избавиться от людей [РИА Новости 2017]. Также используются различные средства интенсификации: всё больше исследователей сомневаются в нашей способности управлять сверхразумом [Hi-News.ru 2021]; в условиях безудержного роста возможностей машин; потенциал ИИ огромен [Ведомости 2015]. Помимо этого, в сообщениях СМИ присутствуют оценочные определения: может ли ИИ в какой-то момент стать неконтролируемым и опасным для человечества [Hi-News.ru 2021]; мир «стоит на грани совершенно чудовищных социальных последствий» [Звезда 2016]. Такая лексическая «перекличка» с научным дискурсом говорит о том, что СМИ транслируя мнения и слова учёных, усиливают оценки для привлечения внимания адресата.

С другой стороны, журналисты пишут и о пользе, которую ИИ приносит уже сейчас представителям различных профессий — медикам, бизнесменам, педагогам, менеджерам и самим учёным. Как правило, в подобного рода текстах мы замечаем обилие передающих положительную оценку глаголов (помочь, избавить, облегчить, обеспечить и пр.) и определений (идеальный учёный, любой проект, высокое качество, максимальный спрос): ИИ найдет идеального учёного для любого проекта, искусственный интеллект обеспечит высокое качество научных исследований [Известия 17.04.2022]; машинное обучение избавит учителей от рутинной проверки работ, искусственный интеллект поможет учащимся, любая ИИ-разработка, позволяющая сократить издержки в образовательной программе, получит максимальный спрос [Известия 10.02.2022].

Создание «дружелюбного имиджа» ИИ — часть информационной кампании, направленной на реализацию национального проекта «Цифровая экономика». Авторы проекта хотят обеспечить ИИ «эмоциональный характер проводника справедливости для человека», а также донести до людей мысль о том, что ИИ «приносит больше справедливости в их жизни, обеспечивая равный доступ к новым возможностям» [РБК 2021]. Ярким примером уже начавшейся реализации данной кампании может послужить отрывок из новостного материала РБК: Сервисы искус-

ственного интеллекта помогают московским врачам находить на изображениях компьютерной томографии признаки рака легкого... Нейросети позволяют выявлять даже незначительные отклонения, что повышает качество диагностики, а также значительно сокращают время на получение результата исследования, помогая пациенту быстрее получить необходимое лечение [РБК 2021]. Обратим внимание на лексическое окружение субъектов высказывания — сервисы ИИ и нейросети. Это предикаты помогают, позволяют выявлять, сокращают время, повышают качество, наречие-интенсификатор значительно, усилительная частица даже перед деинтесифика-тором незначительные отклонения, компаратив быстрее. Нет сомнений в том, что коммуникативная цель рассмотренного отрывка — формирование положительного образа ИИ.

По справедливому замечанию А. В. По-допригоры, «общественный дискурс об искусственном интеллекте <...> обретает сегодня ме-танаучный характер» и «становится зеркалом возможностей самопознания, самоорганизации и моделирования человеком сценариев этого мира» [Подопригора 2019: 8]. Относительно проанализированных нами материалов из СМИ можно сказать, что в них предлагаются два таких сценария. Первый сценарий продиктован представителями научного сообщества, осмысливающими социальные и гуманитарные последствия использования ИИ. Второй же предлагают разработчики систем ИИ, представители бизнеса и государственного аппарата, которым важно как можно скорее внедрить новые технологии в жизнь общества. Так или иначе в текстах, принадлежащих и к первому, и ко второму типу, посредством различных языковых механизмов персуазивности реализуется основная функция публицистического стиля — воздействие на адресата.

Проблема разграничения реального и виртуального

Проанализированные нами научные и публицистические тексты объединяет то, что в них формируется или уже сформировался особый образ ИИ. Он представляется не просто технологией,

а активным, одушевлённым существом, способным оказать влияние на человечество, принести ему или гибель, или необыкновенное развитие. Об этом говорит и построение субъектно-объектных отношений в рассмотренных нами предложениях. Там, где ИИ, технологии, роботы, машины занимают позицию субъекта, объектом является человек или его функции и атрибуты: ...искусственный интеллект заменит человека [Известия 2018]; Они [роботы] отнимают рабочие места у людей [Харланова 2018]. Таким образом, ИИ стоит даже не на одной ступени с человеком, а находится выше его. Люди находятся в подчинении у машины, а не наоборот, хотя на сегодняшний день это не так.

Кроме того, использование акциональных предикатов в соседстве с ИИ можно оценивать как языковую манипуляцию, приводящую к «когнитивному искажению» [Завтра.ру 2022], нацеленную в том числе и на утверждение идей трансгуманизма. Профессор РАН, профессор кафедры математических методов прогнозирования ВМК МГУ К. В. Воронцов предлагает вовсе запретить употреблять глаголы активного действия применительно к ИИ (обыграл чемпиона мира, научился диагностировать рак, находит ошибки в школьных сочинениях и т. д.), так как «подобные фигуры речи» порождают мифы, искажают действительность [Завтра.ру 05.11.2021]. ИИ не может действовать самостоятельно, поскольку именно люди закладывают в него программы, ставят перед ним задачи.

Иллюстрацией формируемого у нас когнитивного искажения может быть новость о том, что разработчик ИИ обнаружил у него сознание3. Человек начинает видеть в машине антропоморфные черты не только потому, что её обучили хорошо их имитировать, но ещё и потому, что мы имеем дело с лингвистически сконтруированной реальностью, перестаём видеть грань между действительным и возможным, реальным и фантазийным. Учёные настаивают на том, что машина не может иметь разума, воли, сознания, прав, поэтому об «интеграции инженерной системы в общество не может быть и речи» [Завтра.ру 15.12.2021]. Всё чаще в научном сообществе звучит призыв «заду-

маться над отношением между моделью и моделируемой реальностью», между «доказанным и всего лишь гипотетичным» [Успенский 2012: 31, 37].

Нам представляется важным при обсуждении проблем ИИ и его возможностей отличать константный дискурс («с профессиональной точностью отражающий реальное положение дел») от виртуального («"наивный" дискурс предположений и домыслов»), объективную реальность от воображаемой [Волков 2020: 747]. Проведение чёткой границы между реальным и потенциально возможным позволит адресату и научных, и публицистических текстов, посвящённых ИИ, определить а) статус того или иного высказывания по отношению к реальности и, как следствие, б) наличие в тексте речевых манипуляций.

Говоря об ИИ в общественном поле, прежде всего необходимо точно сформулировать, что стоит за этим термином, поскольку обыденное языковое сознание склонно воспринимать содержание слова «как содержание (объективного) мира», в том числе отождествлять искусственный интеллект с человеческим [Волков 2020: 753]. Об этой проблеме говорят и сами разработчики ИИ. «Люди воспринимают слова и не замечают, что реальное наполнение научных терминов может отличаться от обывательских ожиданий. Мы говорим "искусственный интеллект", но это не сам интеллект, а лишь название области научных исследований, компьютерная имитация обучения по прецедентам. Мы говорим "нейронная сеть", но это мало похоже на человеческий мозг», — отмечает профессор К. В. Воронцов, обсуждая проблему бытования научных понятий в общественном сознании. ИИ — не единственное абстрактное имя, которое требует лингвистического осмысления. Ускоренное развитие технологий заставляет также переосмыслять содержание термина реальность, бывшего ранее «ключом к философии человека» [Heim 1993].

Решение перечисленных выше лингвистических проблем мы видим в использовании в текстах по вопросам ИИ специальных маркеров. Так, в дефиницию самого термина искусственный интеллект необходимым представляется включение семы 'имитация', что позволит определять его

как нечто вторичное по отношению к естественному интеллекту. Помимо этого, рациональным видится предложение К. В. Воронцова об ограничении на использование глаголов активного действия в высказываниях, где ИИ является субъектом, поскольку пока что именно люди (на этом настаивают сами разработчики ИИ) управляют технологиями, и ответственность за результаты работы систем ИИ должна лежать на тех, кто их разрабатывает. «Мы не сотрудничаем с машинами так же, как не сотрудничаем с овцами, мы просто их используем», — замечают когнитивисты, отрицая возможность рассматривать ИИ как субъект, с которым можно взаимодействовать в достижении общих целей [Сломан, Фернбах 2017: 166]. Поэтому особого внимания требует субъектно-объектная организация предложений в научном и публицистическом дискурсе по вопросам ИИ. Высказывания Московские врачи будут ставить диагнозы с помощью ИИ/систем ИИ, с помощью ИИ учёные обеспечат высокое качество исследований будут иметь большее отношение к реальности, нежели ИИ поможет московским врачам ставить диагнозы, ИИ обеспечит учёным высокое качество исследований.

Всё это послужит формированию в общественном сознании более адекватных, соответствующих действительности представлений об ИИ, а также поможет избежать различных языковых манипуляций.

Итоги

Говоря о возможностях применения технологий ИИ, ставшего феноменом современной цифровой культуры, и следующих за этим последствиях, авторы научных и публицистических текстов конструируют новую цифровую реальность, которая являет собой конструкт над реальностью физической и имеет с ней мало общего. Это иллюстрируют рассмотренные нами тексты, в которых ИИ посредством определённых языковых средств представляется активно действующим агентом, превосходящим по возможностям человека, представляющим ему угрозу либо приносящим ему большую пользу. Такая тенденция вызывает у нас концептуальные возражения, поскольку

«технократическое мышление, лишенное рефлексии, ведет к усилению Технологии и ослаблению Человека» [Елькина 2018: 195]. Преодолением наметившегося разрыва с действительностью, по нашему мнению, может стать более внимательное отношение к использованию и декодированию языковых знаков: а) разграничение константного и виртуального дискурса; б) введение в текст специальных маркеров, указывающих на вторичность искусственного интеллекта по отношению к человеческому; в) «понижение» ранга ИИ в высказывании, вытеснение его с позиции субъекта на позицию инструмента или подобную.

ПРИМЕЧАНИЯ

1 https://letaibe.media/news/v-rossii-sozdan-zakonoproekt-reguliruyushhij-otnosheniya-robota-i-cheloveka/

2 https://letaibe.media/news/v-kitae-izdan-eticheskij-kodeks-dlya-iskusstvennogo-intellekta/

3 https://www.rbc.ru/rbcfreenews/62a533a09a79477ec60a8870

ЭЛЕКТРОННЫЕ ИСТОЧНИКИ

Ведомости 2015 — Известные ученые и инвесторы предупредили об угрозах искусственного интеллекта. Ведомости, 2015. URL: https://www.vedomosti.ru/technology/ articles/2015/01/13/ugrozy-iskusstvennogo-razuma (дата обращения: 15.08.2022)

Газета.ру 2022 — Какая новая технология погубит человечество? Отвечают ученые. Газета.ги, 2022. URL: https://www. gazeta.ru/tech/2022/02/22/14564425.shtml (дата обращения: 15.08.2022)

Завтра.ру 05.11.2021 — Имитация интеллекта. Завтра.ру,

2021. URL: https://zavtra.ru/blogs/imitatciya_intellekta (дата обращения: 05.11.2022)

Завтра.ру 15.12.2021 — Нужен ли этический кодекс искусственному интеллекту? Завтра.ру, 15.12.2021. URL: https:// zavtra.ru/blogs/nuzhen_li_eticheskij_ko deks_iskusstvennomu_ intellektu (дата обращения: 17.08.2022)

Завтра.ру 2022 — Тайны «бога из машины». Завтра.ру,

2022. URL: https://zavtra.ru/blogs/tajni_boga_iz_mashini (дата обращения: 17.08.2022)

Звезда 2016 — Последствия от развития искусственного интеллекта будут чудовищны - академик. Звезда, 2016. URL: https://tvzvezda.ru/news/201611271044-dkdu.htm (дата обращения: 15.08.2022)

Известия 2018 — Ученые рассказали, когда искусственный интеллект заменит человека. Известия, 2018. URL: https:// iz.ru/728335/2018-04-04/uchenye-rasskazali-kogda-iskusstvennyi-intellekt-zamenit-cheloveka (дата обращения: 11.08.2022)

Известия 10.02.2022 — Педагог из машины: как искусственный интеллект поможет учащимся. Известия, 10.02.2022. URL: https://iz.ru/1288522/mariia-nemtceva/pedagog-iz-mashiny-kak-iskusstvennyi-intellekt-pomozhet-uchashchimsia (дата обра-

щения: 10.08.2022)

Известия 17.04.2022 — Естественный подбор: ИИ найдет идеального ученого для любого проекта. Известия, 17.04.2022. URL: https://iz.ru/1320761/olga-kolentcova/estestvennyi-podbor-ii-naidet-idealnogo-uchenogo-dlia-liubogo-proekta (дата обращения: 11.08.2022)

Кодекс 2021 — Кодекс этики в сфере искусственного интеллекта. М. 2021 URL: https://a-ai.ru/code-of-ethics/ (дата обращения: 15.08.2022)

РБК 2021 — Власти проведут кампанию по улучшению репутации искусственного интеллекта. РБК, 2021. URL: https:// www.rbc.ru/technology_and_media/26/10/2021/6176bb949a7947b faeb3db7d (дата обращения: 10.08.2022)

РБК 2022 — В Москве начали выявлять инсульт с помощью искусственного интеллекта. РБК, 2022. URL: https://www. rbc.ru/rbcfreenews/6257bd809a794786e9f928eb (дата обращения: 10.08.2022)

РИА Новости 2017 — Хокинг объяснил, за что роботы могут уничтожить человечество. РИА Новости, 2017. URL: https:// ria.ru/20171103/1508119087.html (дата обращения: 15.08.2022)

Hi-News.ru 2021 — Что будет, когда Искусственный интеллект достигнет пика своего развития? Hi-News.ru, 2021. URL: https://hi-news.ru/technology/chto-budet-kogda-iskusstvennyj-intellekt-dostignet-pika-svoego-razvitiya.html (дата обращения: 15.08.2022)

ИСТОЧНИКИ

Аверинцев 1987 — Аверинцев С. С. Филология. Литературный энциклопедический словарь. М.: Советская энциклопедия, 1987: 467-468.

Артамонова, Зенов 2020 — Артамонова Я. С., Зенов П. Е. Экспертное сообщество и трансгуманизм современного общества. Гуманитарные, социально-экономические и общественные науки. 2020, (4): 15-17.

Гулевский, Филиппов 2022 — Гулевский Я. Е., Филиппов Д. В. Правовые методы борьбы с технологической безработицей. Вопросы российской юстиции. 2022, (19): 180-191.

Иванов 2017 — Иванов А. Д. Транспарентность роботизированной журналистики: как новые технологии угрожают принципам профессии. Вестник ЧелГУ. 2017, (8): 28-33.

Корнилов 2014 — Корнилов Г. А. Стратегия развития интегрированных маркетинговых каналов и е-маркетинг. Известия СПбГЭУ. 2014, (3): 103-106.

Костина 2019 — Костина А. В. Цифровое общество: новые возможности — новые угрозы. Знание. Понимание. Умение. 2019, (3): 172-183.

Мамедова 2021 — Мамедова Н. М. Человек в эпоху цифро-визации: на грани реального и виртуального. Век глобализации. 2021, (3): 74-85.

Манужева 2018 — Манужева О. М. К вопросу об этическом регулировании процесса применения информационных технологий. В сб.: Искусственный интеллект: этические проблема «цифрового общества». Материалы международной научно-практической конференции. Шелекета В. О. (ред.). Белгород: Белгородский государственный технологический университет

им. В. Г. Шухова, 2018. С. 9-14.

Ракитов 2019 — Ракитов А. И. Философия, роботы, автоматы и зримое будущее. Философия и общество. 2019, (3): 35-48.

Себекин 2022 — Себекин С. Страх перед искусственным интеллектом как фактор информационно-психологической дестабилизации. В сб.: Существующие и перспективные угрозы международной информационно-психологической безопасности посредством злонамеренного использования искусственного интеллект и возможные пути их нейтрализации: материалы научного семинара молодых исследователей. Базаркина Д. Ю. (ред.). М.: Международный центр социально-политических исследований и консалтинга, 2022. С. 35-37.

Сидоренко 2017 — Сидоренко Л. П. Экология философии как проблема научного мышления. Право и практика. 2017,

(3): 176-181.

Харланова 2018 — Харланова Ю. В. Этико-психологические проблемы настоящего и будущего при использовании систем искусственного интеллекта в «цифровом обществе». В сб.: Искусственный интеллект: этические проблемы «цифрового общества». Материалы международной научно-практической конференции. Шелекета В. О. (ред.). Белгород: Белгородский государственный технологический университет им. В. Г. Шухова, 2018. С. 48-54.

Шкляева 2015 — Шкляева М. А. Техника и цивилизация: скрытая угроза. Система ценностей современного общества.

2015, (41): 33-36

ЛИТЕРАТУРА

Бондарко, Шубик 2005 — Проблемы функциональной грамматики: Полевые структуры. Бондарко А. В., Шубик С. А. (ред.). СПб.: Наука. 2005. 480 с.

Бостром 2016 — Бостром Н. Искусственный интеллект. Этапы. Угрозы. Стратегии. Пер. с англ. С. Филина. М.: МИФ,

2016. 490 с.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

Васильева 1976 — Васильева А. Н. Курс лекций по стилистике русского языка. Научный стиль речи. М.: Русский язык, 1976. 189 с.

Волков 2020 — Волков В. В. Искусственный «интеллект» и человеческий ум: футуристическая синекдоха и реальность (лингвистический и лингвоментальный аспекты). Вестник РУДН. Серия «Теория языка. Семиотика. Семантика». 2020,

(4): 745-759.

Вольф 2002 — Вольф Е. М. Функциональная семантика оценки. М.: УРСС, 2002. 260 с.

Елькина 2018 — Елькина Е. Е. Цифровая культура: понятие, модели и практики. Информационное общество: образование, наука, культура и технологии будущего. 2018, (2): 195-203.

Золотова, Онипенко, Сидорова 1998 — Золотова Г. А., Они-пенко Н. К., Сидорова М. Ю. Коммуникативная грамматика русского языка. М.: Изд-во МГУ им. М. В. Ломоносова, 1998. 528 с.

Клементьева 2022 — Клементьева А. А. Лингвистические особенности междисциплинарного диалога по проблемам искусственного интеллекта. Филология и человек. 2022, (в печати).

Лаптев 2019 — Лаптев В. А. Понятие искусственного ин-

теллекта и юридическая ответственность за его работу. Право. Журнал Высшей школы экономики. 2019, (2): 79-102.

Петрухина 2014 — Петрухина Е. В. Образование новых слов в русском языке: теоретические аспекты и когнитивно-дискурсивный анализ. В сб.: Slavische Wortbildung im Vergleich: Theoretische und pragmatische Aspekte. Серия Reihe Slavica varia Halensia. Berlin: LIT Münster, 2014, том 12: 417-435.

Подопригора 2019 — Подопригора А. В. Искусственный интеллект как дискурс самопознания и самоорганизации цифрового социума. Социум и власть. 2019 (1): 7-20.

Сломан, Фернбах 2017 — Сломан С., Фернбах Ф. Иллюзия знания: почему мы никогда не думаем в одиночестве. Пер. с англ. А. Сатунина. М.: КоЛибри, 2017. 336 с.

Соменков 2019 — Соменков С. А. Искусственный интеллект: от объекта к субъекту? Вестник университета им. О. Е. Кутафина (МГЮА). 2019 (2): 75-85.

Успенский 2012 — Успенский В. А. Апология математики. СПб.: Амфора, 2012. 554 с.

Чернейко 2011 — Чернейко Л. О. М. В. Ломоносов и язык науки. Филологические науки. Научные доклады высшей школы. 2011: 3-14.

Чернейко 2019 — Чернейко Л. О. Понятия «проекция» и «проективный смысл» в терминосистеме когнитивной лингвистики. Критика и семиотика. 2019 (2): 158-170.

Jonas 1973 — Jonas H. Technology and Resposibility: Reflections on the New Tasks of Ethics Reflections. In: Social Research. Vol. 40. 1973. P. 31-54.

Heim 1993 — Heim M. The Metaphpysics of Virtual Reality. New York: Oxford University Press, 1993. P. 109-128.

Moor 2006 — Moor J. H. The Nature, Importance, and Difficulty of Machine Ethics. In: IEEE Intelligent Systems. Vol. 21. 2006. P. 1821.

Veruggio 2007 — Veruggio G. EURON Roboethics Roadmap. In: IEEE. Vol. 6. 2006.

Veruggio 2007 — Veruggio G. EURON Roboethics Roadmap. In: IEEE. Vol.6. 2006. URL: http://www.roboethics.org/index_file/ Roboethics%20Roadmap%20Rel.1.2.pdf. (дата обращения: 15.08.2022).

Weizenbaum 1976 — Weizenbaum J. Computer Power and Human Reason: From Judgement to Calculation. New York: WH. Freeman & Company, 1976. 300 p.

ELECTRONIC SOURCES

Ведомости 2015 — Well-known scientists and investors warned about the threats of artificial intelligence. Vedomosti, 2015. URL: https://www.vedomosti.ru/technology/articles/2015/01/13/ugrozy-iskusstvennogo-razuma (date of access: 15.08.2022). (In Russian)

Газета.ру 2022 — What new technology will destroy humanity? Scientists answer. Gazeta.ru, 2022. URL: https://www.gazeta.ru/ tech/2022/02/22/14564425.shtml (date of access: 15.08.2022). (In Russian)

Завтра.ру 05.11.2021 — Imitation of intelligence. Zavtra.ru, 2021. URL: https://zavtra.ru/blogs/imitatciya_intellekta (date of access: 05.11.2022). (In Russian)

Завтра.ру 15.12.2021 — Does artificial intelligence need an

ethical code? Zavtra.ru, 15.12.2021. URL: https://zavtra.ru/ blogs/nuzhen_li_eticheskij_kodeks_iskusstvennomu_intellektu (date of access: 17.08.2022). (In Russian)

Завтра.ру 2022 — Secrets of the "God from the machine". Zavtra.ru, 2022. URL: https://zavtra.ru/blogs/tajni_boga_iz_ mashini (date of access: 17.08.2022). (In Russian)

Звезда 2016 — The consequences of the development of artificial intelligence will be monstrous - academician. Zvezda, 2016. URL: https://tvzvezda.ru/news/201611271044-dkdu.htm (date of access: 15.08.2022). (In Russian)

Известия 2018 — Scientists have told when artificial intelligence will replace humans. Izvestiia, 2018. URL: https://iz.ru/728335/2018-04-04/uchenye-rasskazali-kogda-iskusstvennyi-intellekt-zamenit-cheloveka (date of access: 11.08.2022). (In Russian)

Известия 10.02.2022 — Teacher out of the car: how artificial intelligence will help students. Izvestiia, 10.02.2022. URL: https:// iz.ru/1288522/mariia-nemtceva/pedagog-iz-mashiny-kak-iskusstvennyi-intellekt-pomozhet-uchashchimsia (date of access: 10.08.2022). (In Russian)

Известия 17.04.2022 — Natural selection: AI will find the perfect scientist for any project. Izvestiia, 17.04.2022. URL: https://iz.ru/1320761/olga-kolentcova/estestvennyi-podbor-ii-naidet-idealnogo-uchenogo-dlia-liubogo-proekta (date of access: 11.08.2022). (In Russian)

Кодекс 2021 — Code of Ethics in the field of Artificial Intelligence. М. 2021. URL: https://a-ai.ru/code-of-ethics/ (date of access: 15.08.2022). (In Russian)

РБК 2021 — The state will make a campaign to improve the reputation of artificial intelligence. RBK, 2021. URL: https://www. rbc.ru/technology_and_media/26/10/2021/6176bb949a7947bfaeb3 db7d (date of access: 10.08.2022). (In Russian)

РБК 2022 — They began to detect stroke with the help of artificial intelligence in Moscow. RBK, 2022. URL: https://www. rbc.ru/rbcfreenews/6257bd809a794786e9f928eb (date of access: 10.08.2022). (In Russian)

РИА Новости 2017 — Hawking explained why robots can destroy humanity. RIA Novosti, 2017. URL: https://ria. ru/20171103/1508119087.html (date of access: 15.08.2022). (In Russian)

Hi-News.ru 2021 — What will happen when Artificial Intelligence reaches its peak? Hi-News.ru, 2021. URL: https://hi-news.ru/technology/chto-budet-kogda-iskusstvennyj-intellekt-dostignet-pika-svoego-razvitiya.html (date of access: 15.08.2022).

SOURCES

Аверинцев 1987 — Averintsev S. S. Philology. Literary Encyclopedic Dictionary. Moscow: Sovetskaia entsiklopediia Publ., 1987: 467-468. (In Russian)

Артамонова, Зенов 2020 — Artamonova Ia. S., Zenov P. E. Expert community and transhumanism of modern society. Gumanitarnye, sotsialno-ekonomicheskie i obshchestvennye nauki. 2020, (4): 15-17. (In Russian)

Гулевский, Филиппов 2022 — Gulevskii Ia. E., Filippov D. V Legal methods of combating technological unemployment. Voprosy rossiiskoi iustitsii. 2022, (19): 180-191. (In Russian)

Иванов 2017 — Ivanov A. D. Transparency of robotic journalism: How new technologies threaten the principles of the profession. Vestnik ChelGU. 2017, (8): 28-33. (In Russian)

Корнилов 2014 — Kornilov G. A. Strategy for the development of integrated marketing channels and e-marketing. Izvestiia SPbGEU. 2014, (3): 103-106. (In Russian)

Костина 2019 — Kostina A. V. Digital society: new opportunities — new threats. Znanie. Ponimanie. Umenie. 2019, (3): 172-183. (In Russian)

Мамедова 2021 — Mamedova N. M. Man in the era of digitalization: on the verge ofthe real and the virtual. Vek globalizatsii. 2021, (3): 74-85. (In Russian)

Манужева 2018 — Manuzheva O. M. On the issue of ethical regulation of the process of using information technologies. In: Iskusstvennyi intellekt: eticheskie problemy «tsifrovogo obshchestva». Materialy mezhdunarodnoi nauchno-prakticheskoi konferentsii. Sheleketa V. O. (ed.). Belgorod: Belgorodskii gosudarstvennyi tekhnologicheskii universitet im. V. G. Shukhova. 2018: 9-14. (In Russian)

Ракитов 2019 — Rakitov A. I. Philosophy, robots, automata and the visible future. Filosofiia i obshchestvo. 2019, (3): 35-48. (In Russian)

Себекин 2022 — Sebekin S. Fear of artificial intelligence as a factor of informational and psychological destabilization. In: Sushchestvuiushchie i perspektivnye ugrozy mezhdunarodnoi informatsionno-psikhologicheskoi bezopasnosti posredstvom zlonamerennogo ispol'zovaniia iskusstvennogo intellekt i vozmozhnyeputi ikh neitralizatsii: materialy nauchnogo seminara molodykh issledovatelei. D. Iu. Bazarkina (ed.). Moscow: Mezhdunarodnyi tsentr sotsial'no-politicheskikh issledovanii i konsaltinga Publ., 2022: 35-37. (In Russian)

Сидоренко 2017 — Sidorenko L. P. Ecology of Philosophy as a problem of scientific thinking. Pravo i praktika. 2017, (3): 176-181. (In Russian)

Харланова 2018 — Kharlanova Iu. V. Ethical and psychological problems of the present and the future when using artificial intelligence systems in a "digital society". In: Iskusstvennyi intellekt: eticheskie problemy «tsifrovogo obshchestva». Materialy mezhdunarodnoi nauchno-prakticheskoi konferentsii. Sheleketa V. O. (ed.). Belgorod: Belgorod State Technogical Universityt Press, 2018: 48-54. (In Russian)

Шкляева 2015 — Shkliaeva M. A. Technology and civilization: a hidden threat. Sistema tsennostei sovremennogo obshchestva. 2015, (41): 33-36. (In Russian)

REFERENCES

Бондарко, Шубик 2005 — Problems of Functional Grammar: Field Structures. Bondarko A. V., Shubik S. A. (red.). St. Petersburg: Nauka Publ.. 2005. 480 p. (In Russian)

Бостром 2016 — Bostrom N. Superintelligence. Paths, Dangers, Strategies. Moscow: MIF Publ., 2016. 490 p. (In Russian)

Васильева 1976 — Vasil'eva A. N. A course of lectures on the stylistics of the Russian language. Scientific style of speech. Moscow: Russkii iazyk Publ., 1976. 189 p. (In Russian)

Волков 2020 — Volkov V. V. Artificial «intelligence» and the

human mind: futuristic synecdoche and reality (linguistic and linguistic aspects). Vestnik RUDN. Seriia «Teoriia iazyka. Semiotika. Semantika». 2020, (4): 745-759. (In Russian)

Вольф 2002 — Vol'f E. M. Functional semantics of evaluation. Moscow: URSS Publ., 2002. 260 p. (In Russian)

Елькина 2018 — El'kina E. E. Digital culture: concept, models and practices. Informatsionnoe obshchestvo: obrazovanie, nauka, kul'tura i tekhnologii budushchego. 2018, (2): 195-203. (In Russian) Золотова, Онипенко, Сидорова 1998 — Zolotova G. A., Onipenko N. K., Sidorova M. Iu. Communicative grammar of Russian. Moscow: Moscow State University Press, 1998. 528 p. (In Russian)

Клементьева 2022 — Klement'eva A. A. Linguistic features of interdisciplinary dialogue on artificial intelligence. Filologiia i chelovek. 2022, (in print). (In Russian)

Лаптева 2019 — Laptev V A The concept of artificial intelligence and legal responsibility for its work. Pravo. Zhurnal Vysshei shkoly ekonomiki. 2019, (2): 79-102. (In Russian)

Петрухина 2014 — Petrukhina E. V. Formation of new words in the Russian language: theoretical aspects and cognitive-discursive analysis. In: Slavische Wortbildung im Vergleich: Theoretische und pragmatische Aspekte. Seriia Reihe Slavica varia Halensia. Berlin: LIT Münster Publ., 2014, tom 12: 417-435. (In Russian)

Подопригора 2019 — Podoprigora A. V Artificial intelligence as a discourse of self-knowledge and self-organization of digital society. Sotsium i vlast'. 2019 (1): 7-20. (In Russian)

Сломан, Фернбах 2017 — Sloman S., Fernbakh F. The illusion of knowledge: why we never think alone. Moscow: KoLibri Publ., 2017. 336 p. (In Russian)

Соменков 2019 — Somenkov S. A. Artificial intelligence: from object to subject? Vestnik Universiteta imeni O. E. Kutafina (MGIuA). 2019 (2): 75-85. (In Russian)

Успенский 2012 — Uspenskii V. A. The apology of mathematics. St. Petersburg: Amfora Publ., 2012. 554 p. (In Russian)

Чернейко 2011 — Cherneiko L. O. M. V. Lomonosov and the language of science. Filologicheskie nauki. Nauchnye doklady vysshei shkoly. 2011: 3-14. (In Russian)

Чернейко 2019 — Cherneiko L. O. The concepts of «projection» and «projective meaning» in the terminological system of cognitive linguistics. Kritika i semiotika. 2019 (2): 158-170. (In Russian)

Jonas 1973 — Jonas H. Technology and Resposibility: Reflections on the New Tasks of Ethics Reflections. In: Social Research. Vol. 40. 1973. P. 31-54.

Heim 1993 — Heim M. The Metaphpysics of Virtual Reality. New York: Oxford University Press, 1993. P. 109-128.

Moor 2006 — Moor J. H. The Nature, Importance, and Difficulty of Machine Ethics. In: IEEE Intelligent Systems. Vol. 21. 2006. P. 1821.

Veruggio 2007 — Veruggio G. EURON Roboethics Roadmap. In: IEEE. Vol.6. 2006. URL: http://www.roboethics.org/index_file/ Roboethics%20Roadmap%20Rel.1.2.pdf. (data obrashcheniia: 15.08.2022).

Weizenbaum 1976 — Weizenbaum J. Computer Power and Human Reason: From Judgement to Calculation. New York: W.H. Freeman & Company, 1976. 300 p.

i Надоели баннеры? Вы всегда можете отключить рекламу.