Научная статья на тему 'БОЛЬШИЕ ДАННЫЕ И БОЛЬШИЕ ВЫЗОВЫ СОЦИАЛЬНОМУ ВООБРАЖАЕМОМУ'

БОЛЬШИЕ ДАННЫЕ И БОЛЬШИЕ ВЫЗОВЫ СОЦИАЛЬНОМУ ВООБРАЖАЕМОМУ Текст научной статьи по специальности «Философия, этика, религиоведение»

CC BY
59
12
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
большие данные / большие языковые модели / искусственный интеллект / социальное воображаемое / искусственная социальность / big data / large language models / artificial intelligence / social imaginary / artificial sociality

Аннотация научной статьи по философии, этике, религиоведению, автор научной работы — Коваль Екатерина Александровна

Большие данные – технология, которая оказала и продолжает оказывать существенное влияние не только на информационные процессы, машинное обучение, но и на социальные нормы и практики. С появлением алгоритмических инструментов обработки больших данных стало возможным создание принципиально новых технологий, в частности, больших языковых моделей. Большие языковые модели способны общаться с человеком на естественном языке, благодаря чему часто наделяются человеческими характеристиками, генерируют свои нарративы в социальном воображаемом, формируя уникальный дискурс Другого и существенно влияя на способы взаимодействия людей между собой в условиях искусственной социальности. Чем чаще в социальном воображаемом воспроизводятся антропоморфные представления о больших языковых моделях, тем сильнее их влияние не только на коммуникативные практики, но и на социальную нормативность. Возможно, они просто являются своеобразным зеркалом пользователя: чем выше интеллект вопрошающего, тем умнее выглядит модель. Но чем умнее выглядит модель, тем больше нарративов, историй, образов, мифов, очеловечивающих большие языковые модели, появляется в социальном воображаемом. Для того чтобы защитить интересы человека в условиях искусственной социальности и сохранить в социальном воображаемом образы будущего, в которых реализуются преимущественно человеческие сценарии и практики социального бытия, необходима разработка норм и правил, регулирующих дизайн и применение технологий больших данных и искусственного интеллекта в различных сферах жизни общества, ориентированных не на максимизацию прибыли бизнеса или совершенствование технологий государственного управления, но на сохранение автономии самых обычных людей, на которых держится социальное воображаемое.

i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по философии, этике, религиоведению , автор научной работы — Коваль Екатерина Александровна

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

BIG DATA AND BIG CHALLENGES TO THE SOCIAL IMAGINARY

Big data is a technology that has had and continues to have a significant impact not only on information processes, machine learning, but also on social norms and practices. It has become possible to create fundamentally new technologies, in particular, large language models, with the advent of algorithmic tools for processing big data. Large language models are able to communicate with humans in natural language, which is why they are often given human-like characteristics. Models generate their narratives in the social imaginary and form a unique discourse of the Other, influencing the ways people interact with each other in conditions of artificial sociality. The more often anthropomorphic ideas about large language models are reproduced in the social imaginary, the stronger their influence not only on communicative practices, but also on social normativity. Perhaps they are simply a kind of mirror of the user: the higher the intelligence of the questioner, the smarter the model looks. But the smarter the model looks, the more narratives, stories, images, myths that humanize large language models appear in the social imaginary. In order to protect human interests in the conditions of artificial sociality and preserve images of the future in the social imaginary, in which predominantly human scenarios and practices of social existence are realized, it is necessary to develop norms and rules governing the design and application of big data and artificial intelligence technologies in various spheres of society. These norms and rules should ensure, first of all, not the maximization of business profits or the improvement of public administration technologies, but the preservation of the autonomy of the most ordinary people on whom the social imaginary rests.

Текст научной работы на тему «БОЛЬШИЕ ДАННЫЕ И БОЛЬШИЕ ВЫЗОВЫ СОЦИАЛЬНОМУ ВООБРАЖАЕМОМУ»

УДК 179

DOI: 10.24412/2713-1033-2023-3-54-63

Е. А. Коваль

Средне-Волжский институт (филиал) ФГБОУ ВО «Всероссийский государственный университет юстиции (РПА Минюста России)», Национальный исследовательский Мордовский государственный университет им. Н. П. Огарева, Саранск, Россия, e-mail: [email protected]

БОЛЬШИЕ ДАННЫЕ И БОЛЬШИЕ ВЫЗОВЫ СОЦИАЛЬНОМУ

ВООБРАЖАЕМОМУ1

Большие данные - технология, которая оказала и продолжает оказывать существенное влияние не только на информационные процессы, машинное обучение, но и на социальные нормы и практики. С появлением алгоритмических инструментов обработки больших данных стало возможным создание принципиально новых технологий, в частности, больших языковых моделей.

Большие языковые модели способны общаться с человеком на естественном языке, благодаря чему часто наделяются человеческими характеристиками, генерируют свои нарративы в социальном воображаемом, формируя уникальный дискурс Другого и существенно влияя на способы взаимодействия людей между собой в условиях искусственной социальности.

Чем чаще в социальном воображаемом воспроизводятся антропоморфные представления о больших языковых моделях, тем сильнее их влияние не только на коммуникативные практики, но и на социальную нормативность. Возможно, они просто являются своеобразным зеркалом пользователя: чем выше интеллект вопрошающего, тем умнее выглядит модель. Но чем умнее выглядит модель, тем больше нарративов, историй, образов, мифов, очеловечивающих большие языковые модели, появляется в социальном воображаемом.

Для того чтобы защитить интересы человека в условиях искусственной социальности и сохранить в социальном воображаемом образы будущего, в которых реализуются преимущественно человеческие сценарии и практики социального бытия, необходима разработка норм и правил, регулирующих дизайн и применение технологий больших данных и искусственного интеллекта в различных сферах жизни общества, ориентированных не на максимизацию прибыли бизнеса или совершенствование технологий государственного управления, но на сохранение автономии самых обычных людей, на которых держится социальное воображаемое.

1 Материалы исследования представлены в докладе на круглом столе «Человек vs технологии в эпоху больших данных и искусственного интеллекта» в рамках XIII Международной Грушинской социологической конференции (Москва, 25-27 мая 2023 г.)

Ключевые слова: большие данные, большие языковые модели, искусственный интеллект, социальное воображаемое, искусственная социальность

Благодарность: Исследование выполнено за счет гранта Российского научного фонда № 23-28-01288, https://rscf.ru/project/23-28-01288/.

E. A. Koval

Mid-Volga Institute (branch) «The All-Russian State University of Justice (RLA of the Ministry of Justice of Russia)», National Research Mordovia State University, Saransk, Russia, e-mail: [email protected]

BIG DATA AND BIG CHALLENGES TO THE SOCIAL IMAGINARY1

Big data is a technology that has had and continues to have a significant impact not only on information processes, machine learning, but also on social norms and practices. It has become possible to create fundamentally new technologies, in particular, large language models, with the advent of algorithmic tools for processing big data.

Large language models are able to communicate with humans in natural language, which is why they are often given human-like characteristics. Models generate their narratives in the social imaginary and form a unique discourse of the Other, influencing the ways people interact with each other in conditions of artificial sociality.

The more often anthropomorphic ideas about large language models are reproduced in the social imaginary, the stronger their influence not only on communicative practices, but also on social normativity. Perhaps they are simply a kind of mirror of the user: the higher the intelligence of the questioner, the smarter the model looks. But the smarter the model looks, the more narratives, stories, images, myths that humanize large language models appear in the social imaginary.

In order to protect human interests in the conditions of artificial sociality and preserve images of the future in the social imaginary, in which predominantly human scenarios and practices of social existence are realized, it is necessary to develop norms and rules governing the design and application of big data and artificial intelligence technologies in various spheres of society. These norms and rules should ensure, first of all, not the maximization of business profits or the improvement of public administration technologies, but the preservation of the autonomy of the most ordinary people on whom the social imaginary rests.

1 The research materials were presented in a report at the XIII International Sociological Grushin Conference "Reconstruction of the World: Research of (in) a New Reality" (Moscow, May 27, 2023)

Keywords: big data, large language models, artificial intelligence, social imaginary, artificial sociality

Acknowledgment: The study was supported by the Russian Science Foundation (RSF) (project no. 23-28-01288, https://rscf.ru/project/23-28-01288/)

Введение

Большие данные представляют собой сложную технологию, которая предполагает быстрое накопление, анализ огромных объемов разнообразной информации, использование ее в определенных целях. Большие данные часто описываются при помощи моделей, которые включают в себя разные наборы слов, начинающихся на «V». Первая модель включала в себя только три «V» (Volume, Velocity, Variety). Предполагалось, что большие данные характеризуются большим объемом, большой скоростью прироста и большой вариативностью. В настоящий момент в научной литературе предлагается модель 9V, включающая помимо упомянутых выше трех параметров также ценность данных, их достоверность, надежность, вязкость, которая предполагает трудность навигации по большим датасетам, визуализацию, позволяющую наблюдать несколько измерений больших данных, и вирусность, демонстрирующую скорость распространения данных в сети [Khurshid, Khan, Siddiqi, Rashid, 2018: 30]. Профессиональное сообщество обсуждает и модель 10V, куда включена, помимо прочего, уязвимость1. Данная характеристика особенно актуальна для наборов данных, включающих персональные данные.

Следует отметить, что большие (относительно большие) данные были и раньше, но не было специальных эффективных инструментов для их обработки и использования. В настоящее время появились инструменты, которые могут обрабатывать большие объемы данных и при этом «учиться» чему-то новому.

Большие данные оказали существенное влияние на процессы машинного обучения и позволили появиться тем продуктам, которые представляют из себя совершенно уникальные технологические конструкты, позволяющие оперировать естественным человеческим языком, образами, символами, понятными человеку. Речь идет о больших языковых моделях (Large Language Models), которые маркируются как большие по двум параметрам: объем данных, на которых они обучались, и объем параметров модели (GPT-3 - 175 миллиардов параметров).

Большие языковые модели: искусственный интеллект или зеркало пользователя?

Большие языковые модели часто маркируются как искусственный интеллект (ИИ), или даже общий (универсальный) искусственный интеллект

1 См., например, Vulnerability - Introducing 10th V of Big Data. URL: https://www.datasciencecentral.com/vulnerability-introducing-10th-v-of-big-data/ (accessed

02.10.2023).

(Artificial General Intelligence). Апологеты наличия у больших языковых моделей способности к пониманию языка утверждают, что такое понимание позволяет моделям ориентироваться и в социальных ситуациях [Mitchell, Krakauer, 2022]. Однако существуют и противоположные позиции. В частности, нейробиолог Т. Сейновски сравнивает большие языковые модели с зеркалом Еиналеж из «Гарри Поттера» [Sejnowski, 2023: 316]. То, что кажется интеллектом в больших языковых моделях, - это зеркало, которое отражает интеллект интервьюера. Фактически, это обратный тест Тьюринга. У вопрошающего субъекта есть определенные запросы, и модель реагирует сообразно этим запросам.

Группа исследователей из Санкт-Петербургского государственного университета, занимающихся этическим анализом в области искусственного интеллекта, не признает за большими языковыми моделями агентности или, тем более, признаков личности. Они полагают, что агент должен быть активной сущностью, то есть уметь оказывать влияние на внешний мир, быть носителем моральных качеств, обладать способностью к целеполаганию [Перов, Глебова, 2023; Ларионов, Перова, 2023]1.

Однако насколько важен вопрос, является ли языковая модель, обученная на больших данных, искусственным интеллектом или нет, в контексте социальных исследований? Если большинство пользователей склонно к наделению таких моделей человеческими качествами, то в социальном воображаемом они будут фигурировать как антропоморфные сущности.

Социальное воображаемое в условиях искусственной социальности

Исследователи социального воображаемого, как правило, сходятся на том, что это сложное явление не является полной противоположностью социальной реальности [Herbrik, Schlechtriemen, 2019: 4].

В концепции К. Касториадиса социальное воображаемое определяется как «.. .непрерывное, по сути своей необусловленное творчество (как общественно-историческое, так и психическое) символов/форм/образов, которые только и могут дать основание для выражения «образ чего-то». То, что мы называем «реальностью» и «рациональностью», суть результаты этого творчества» [Касториадис, 2003]. Реальность с большими данными и технологиями их обработки уникальна, как и символы, формы, образы, творящие ее. Нам пока не с чем сравнивать текущее, здесь и сейчас образующееся социальное воображаемое, однако это не является препятствием для его изучения и, насколько это возможно, понимания.

Ч. Тейлор, определяя социальное воображаемое, делает акцент на обычных людях и на том, как они определяют себя, свои взаимоотношения с другими людьми, а также на «.тех человеческих ожиданиях, которые обычно

1 См. результаты проекта под руководством В.Ю. Перова, поддержанного РНФ, № 228-00379 «Трансформации морального агентства: этико-философский анализ». URL: https://rscf.ru/prjcard_int?22-28-00379 (дата обращения: 04.10.2023).

оправдываются, и о тех более глубоких нормативных понятиях и образах, которые лежат в основе подобных ожиданий» [Тейлор, 2017: 220].

Однако в текущем социальном воображаемом как результате непрерывного творческого процесса обычные люди оперируют нормативными идеями не только о взаимодействии с людьми, но и с агентами искусственной социальности, представляющей собой «...эмпирический факт участия агентов ИИ в социальных взаимодействиях в качестве активных посредников или участников этих взаимодействий» [Резаев, Стариков, Трегубова, 2020: 4].

Поскольку искусственная социальность постепенно начинает превалировать в социальном воображаемом, оно все больше заполняется идеями, образами, историями, нарративами, созданными агентами искусственной социальности. Так, если первые большие языковые модели обучились на данных, полученных от людей, то следующие поколения моделей обучаются на данных, сгенерированных в условиях искусственной социальности, что существенном образом меняет практики человеко-машинного взаимодействия.

Если социальное воображаемое эпохи Модерна базировалось на идеях прогресса и использования разума и контроля над природой во благо человечества [Buckles, 2018: 25], то в текущем социальном воображаемом эти идеи проблематизируются; помимо человека появляются иные сущности, которые не только в легендах и мифах, но и в социальных теориях способны конкурировать с ним за блага прогресса.

Трансформации социального воображаемого здесь и сейчас происходят и в иных ракурсах. Так, и самые обычные люди, которых Ч. Тейлор наделяет способностью определять и наполнять социальное воображаемое, и их социальное окружение становятся «прозрачными» в условиях непрерывного накопления больших данных. Сбор непосредственно персональных данных в беспрецедентном объеме, обработка с помощью ИИ больших наборов данных, позволяющая деанонимизировать данные и, тем самым, возвращать им статус персональных, аналитика, осуществляемая ИИ и основанная на использовании непредсказуемых для человека взаимосвязях между различными данными, - все это сужает пространство частной жизни, которая хотя бы de jure еще является неприкосновенной.

Впрочем, обычные люди добровольно предоставляют данные о себе государству, бизнесу, ученым в обмен на удобства, которые они получают от использования цифровых продуктов. Однако то, что они предоставили добровольно, соединяется с тем, что берется без их согласия. Например, контент, размещаемый в социальных сетях, IT-организации используют в своих целях: обучение больших языковых моделей, производство таргетированной рекламы, манипуляции политическими или потребительскими предпочтениями, конструирование метавселенных. Бизнес получает прибыль, обычные люди -услуги и продукты, облегающие жизнь. Однако обычные люди часто остаются в убытке (за услуги тоже нужно платить), и речь идет не только о деньгах: в мире

больших данных становится еще более заметным дисбаланс власти человека и государства, бизнеса, ^-экспертов.

В сложившейся ситуации требуются новые нормы и правила, позволяющие защитить обычного человека, который в социальном воображаемом представляет интересы людей в условиях искусственной социальности. Г. Хассельбальх называет такие нормы и правила этикой власти, основанной на данных. Она необходима, чтобы «.. .сделать видимыми властные отношения, встроенные в социотехнические инфраструктуры больших данных и искусственного интеллекта» [Hasselbalch, 2021: 1].

Этика власти, основанная на данных, способна стать значимым элементом социального воображаемого, в котором любой часто повторяющийся нарратив становится более реальным, чем сама реальность. Если постоянно будет транслироваться или воспроизводиться идея о том, что большие языковые модели, обучающиеся на больших данных, обладают агентностью, значит, они станут для нас агентами. Это существенным образом влияет на повседневные практики, а практики влияют на социальное воображаемое, в котором существуют не только ценностно-нормативные представления обычных людей, но и социальные теории, которые тоже меняются и будут меняться под влиянием формирующихся в массовом сознании образов больших языковых моделей.

В условиях воспроизводства искусственной социальности перекраивается ткань социального воображаемого, которое наполняется новыми историями, нарративами, легендами, мифами и, что наиболее существенно, представлениями о новом моральном порядке. Меняются привычные нам моральные ценности, нормы, практики, представления об автономии, приватности, доверии. Появляются новые вызовы соблюдению баланса общего и индивидуального блага. Совершенно по-другому могут быть переосмыслены процессы причинения вреда и возложения ответственности за причиненный вред в том случае, если речь идет о больших данных и нейросетях, которые на них обучены.

Одна из наиболее серьезных трансформаций социального воображаемого происходит в сфере восприятия Другого. С одной стороны, если соглашаться с позицией Т. Сейновски, то языковые модели, обученные на больших данных, просто отзеркаливают запросы пользователя. Формируется образ большой языковой модели как профессионала, надежного партнера или даже друга, приятного собеседника, субъекта, которому можно довериться и который не способен к предательству. Большие языковые модели умеют говорить то, что хочет автор промпта, главное, правильно его сформулировать. Но, с другой стороны, большие языковые модели обучены на больших данных, а это значит, что они представляют некоего усредненного Другого. Это своеобразные чудовища Франкенштейна, собранные из частей разных Других, точнее, из разных частей человеческих (пока еще в основном человеческих) историй и нарративов. Они фигурируют в социальном воображаемом и существенно воздействуют на наши коммуникативные практики и иные взаимодействия друг с другом. Более того, Другой во многом определяет ценностно-нормативное

пространство, в котором мы существуем. Как пишет К. Касториадис, «Другой есть начало и воображаемый источник неких «надо» и «не надо», зародыш нормы» [Касториадис, 2003]. Если мы воспринимаем большие языковые модели и технологии как Другого, то этот Другой получает возможность влиять на социальную нормативность и различные ее варианты. Чем больше мы наделяем человекоподобными чертами технологии, тем серьезнее будут последствия для статуса человека в условиях искусственной социальности.

К. Касториадис провидчески называет мир, в котором «автономизация техники, утратившая всякую меру и не служащая более никаким точно определенным целям, обретает непосредственно ощущаемые формы», жертвой систематического бреда [Касториадис, 2003]. Социальное воображаемое здесь проигрывает технологическому воображаемому, в котором социальные проблемы решаются трансформацией инфраструктуры данных [Lehtiniemi, Ruckenstein, 2019].

В таких условиях агенты искусственной социальности, как и люди, попадают во власть дискурса Другого, и, хотя они не могут формировать отношение к чему-либо, в том числе, к социальному воображаемому, но способны опосредованно конструировать дискурс Другого. И чем выше степень рационализации, тем сильнее подчиненность воображаемому [Касториадис, 2003].

Сами агенты искусственной социальности на запросы о возможности воздействия на социальные нормы и практики отвечают, что цели и намерений такого рода у них нет (ChatGPT, см. рис. 1), но, в то же время, есть инструменты влияния на публичный дискурс (GigaChat, см. рис. 2). Ответственность при этом возлагается на людей (разработчики, специалисты, ответственные за разворачивание и дообучение модели на специально подготовленных данных, пользователи, формулирующие запросы и принимающие социально значимые решения на основе ответов модели) и более широкий социальный контекст.

Таким образом, в текущем социальном воображаемом появился новый Другой, который, как и любой иной Другой, всегда воображаем. Этот Другой -не человек, но мы сами вменяем ему человеческие черты и чувства, причины действий, эмоции, способности к эмпатии и пр. Тем самым мы делегируем ему право быть «зародышем нормы» или источником социальной нормативности и оказываемся в положении ребенка, которому необходимо показать, что ничто и «.. .никто из всех тех, кого бы он ни повстречал, не может быть источником и безусловным хозяином означивания» [Касториадис, 2003].

Памятуя об этом, следует также учитывать, что языковые модели, обученные на больших данных, оперируют воображаемыми смыслами, сгенерированными преимущественно в той культуре, которая послужила источником данных, но это не делает алгоритмы носителями этой культуры. Осуществляя очередную переработку воображаемых символов, большие языковые модели меняют преимущественно периферическое воображаемое. Пока волна трансформаций не докатилась до центрального воображаемого, у нас еще есть время на воспроизводство привычной социальности.

As an Al language model can you influence the social imaginary?

As an AI language model, my purpose is to assist and provide information rather than actively shape the social imaginary. While I can generate text and engage in discussions, I dont possess agency or Intentions of my own. I can present different perspectives, ideas, and information based on the data I've been trained on, but the interpretation and influence of that information ultimately depend on the individuals who engage with it.

The social imaginary is primarily shaped by the collective beliefs, values, and interactions of individuals within a society. It is Influenced by a wide range of factors, including cultural, historical, political, and economicforces. While Al technology, Including language models like myself, can have an impact on society and shape public discourse to some extent, the responsibility for interpreting and critically engaging with the information lies with individuals and the broader social context.

It's Important to recognize that Al technologies are tools that can be used to support and enhance human decision-making, creativity and problem-solving. Ultimately, it is the users and society at large who have the agency to shape the social imaginary based on their own values, perspectives, and interactions with technology and information.

Рис. 1. Ответ ChatGPT (OpenAI) на запрос о возможности влияния на

социальное воображаемое

—Да, языковая модель искусственного интеллекта может влиять на социальное воображаемое. Например, если модель использует термины или понятия, которые не являются общепринятыми или широко используемыми, это может изменить то, как люди представляют себе определенные социальные сценарии. Кроме того, языковые модели могут также влиять на то, как люди интерпретируют и понимают язык и коммуникацию в целом.

Рис. 2. Ответ GigaChat (Сбер) на запрос о возможности влияния на социальное воображаемое

Выводы

Итак, когда мы рассуждаем о специфике влияния больших данных, искусственного интеллекта и иных технологий на социальное воображаемое, необходимо понимать, чего мы больше боимся: того, что в социальном сценарии изменятся роли и, например, искусственный интеллект отберет у нас работу; или же принципиального изменения самого сценария, в котором, возможно, не будет ни работы, ни человека, но появятся какие-то совершенно иные агенты и формы взаимодействия. Рационализация текущих вызовов и угроз - первый шаг на пути

к определению оптимальных способов выживания и развития человека в условиях искусственной социальности.

Прошлое оживает и довлеет над настоящим, воздействуя на будущее. Сегодня у общества появляется прошлое с искусственной социальностью, но оно еще помнит прошлое без подобного рода «изюминки» и может конструировать в социальном воображаемом образы будущего, в котором агенты искусственной социальности довольствуются статусом требующих тонкой настройки инструментов.

Список литературы (References)

1. Касториадис К. Воображаемое установление общества. М.: Гнозис; Логос, 2003. URL: library.khpg.org/files/docs/1385716028.pdf (дата обращения: 01.10.2023).

Castoriadis C. (2003) The Imaginary Institution of Society. Moscow: Gnosis; Logos Publ. URL: library.khpg.org/files/docs/1385716028.pdf (accessed 01.10.2023). (In Russ.)

2. Ларионов И.Ю., Перова Н.В. «Машина бога» Дж. Савулеску как моральный агент и проблема ответственности // Человек. 2023. Т. 34. № 3. С. 2440. DOI 10.31857/S023620070026101-8.

Larionov I.Yu., Perova N.V. (2023) "Mashina boga" Dzh. Savulesku kak moral'nyy agent i problema otvetstvennosti (J. Savulescu's "The God machine" as a moral agent and the problem of responsibility). Chelovek. Vol. 34. No. 3. P. 24-40. DOI 10.31857/S023620070026101-8. (In Russ.)

3. Перов В.Ю., Глебова С.В. Моральная ответственность морального агента: дескриптивный и нормативный подходы // Человек. 2023. Т. 34. № 3. С. 41-59. DOI 10.31857/S023620070026102-9.

Perov V.Yu., Glebova S.V. (2023) Moral'naya otvetstvennost' moral'nogo agenta: deskriptivnyy i normativnyy podkhody (Moral responsibility of a moral agent: descriptive and normative approaches). Chelovek. Vol. 34. No. 3. P. 41-59. DOI 10.31857/S023620070026102-9. (In Russ.)

4. Резаев А.В., Стариков В.С., Трегубова Н.Д. Социология в эпоху «искусственной социальности»: поиск новых оснований // Социологические исследования. 2020. № 2. С. 3-12. DOI 10.31857/S013216250008489-0.

Rezaev A., Starikov V., Tregubova N. (2020) Sotsiologiya v epokhu «iskusstvennoy sotsial'nosti»: poisk novykh osnovaniy (Sociology in the Age of 'Artificial Sociality': Search of New Bases). Sotsiologicheskie issledovaniya. No. 2. P. 3-12. DOI: 10.31857/S013216250008489-0 (In Russ.)

5. Тейлор Ч. Секулярный век. М.: ББИ, 2017.

Taylor Ch. (2017) A Secular Age. Moscow: BBE Publ. (In Russ.)

6. Buckles J. (2018) Education, Sustainability and the Ecological Social Imaginary. Palgrave Macmillan Cham. https://doi.org/10.1007/978-3-319-74442-1.

7. Hasselbalch G. (2021) Data Ethics of Power. A Human Approach in the Big Data and AI Era. Cheltenham, UK; Northampton, MA, USA: Edward Elgar Publ.

8. Herbrik R., Schlechtriemen T. (2019) Editorial for the special issue "Scopes of the Social Imaginary in Sociology" in the ÖZS. Österreichische Zeitschrift für Soziologie. No. 44. P. 1-15. https://doi.org/10.1007/s11614-019-00370-3.

9. Khurshid K., Khan A.A., Siddiqi H., Rashid I. (2018) Big Data-9Vs, Challenges and Solutions. Technical Journal. Vol. 23. No. 3. P. 28-34.

10. Lehtiniemi T., Ruckenstein M. (2019) The social imaginaries of data activism. Big Data & Society, 6. P. 1-12. D0I:10.1177/2053951718821146.

11. Mitchell M., Krakauer D.C. (2022) The debate over understanding in AI's large language models. Proceedings of the National Academy of Sciences of the United States of America, 120. P. 1-13. D0I:10.1073/pnas.2215907120.

12. Sejnowski T.J. (2023) Large Language Models and the Reverse Turing Test. Neural Computation. No. 35 (3). P. 309-342. doi: https://doi.org/10.1162/neco_a_01563.

Сведения об авторе

Коваль Екатерина Александровна - доктор философских наук, профессор кафедры уголовного права и процесса Средне-Волжского института (филиала) Всероссийского государственного университета юстиции (РПА Минюста России), ведущий научный сотрудник Института корпоративного обучения и непрерывного образования Национального исследовательского Мордовского государственного университета. Занимается изучением вопросов нормативности морали, права, религии. Автор более 170 научных и учебно-методических работ. E-mail: [email protected]. https://orcid.org/0000-0003-0069-5335

About the author

Koval Ekaterina Alexandrovna - Doctor of Philosophical Sciences, professor of the Department of Criminal Law and Procedure of Middle-Volga Institute (branch) of Russian State University of Justice (RLA of the Ministry of Justice of Russia), leading researcher of the Institute for Corporate Education and Continuing Education of National Research Mordovia State University. Engaged in studying the problems of moral, law and religion normativity. The author of over 170 scientific and educational works.

E-mail: [email protected] https://orcid.org/0000-0003-0069-5335

Поступила 06.10.2023; одобрена после рецензирования 10.11.2023; принята к публикации 01.12.2023.

i Надоели баннеры? Вы всегда можете отключить рекламу.