Научная статья на тему 'РИСКИ ИСПОЛЬЗОВАНИЯ НЕЙРОСЕТЕВЫХ ТЕХНОЛОГИЙ В КОММУНИКАЦИЯХ МОЛОДЕЖИ'

РИСКИ ИСПОЛЬЗОВАНИЯ НЕЙРОСЕТЕВЫХ ТЕХНОЛОГИЙ В КОММУНИКАЦИЯХ МОЛОДЕЖИ Текст научной статьи по специальности «СМИ (медиа) и массовые коммуникации»

CC BY
223
46
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
нейросети / массовые коммуникации / молодежь / медиаграмотность / общественное мнение. / neural networks / mass communications / youth / media literacy / public opinion.

Аннотация научной статьи по СМИ (медиа) и массовым коммуникациям, автор научной работы — Медведева Мария Владимировна

В статье представлен качественный анализ литературы по рискам использования нейросетевых технологий в коммуникациях молодежи, а также дана их классификация. Исследование было нацелено на изучение проблематики рисков от использования нейросетевых технологиях в коммуникациях современной молодежи. Значительный массив современных исследований оставляет проблематику рисков «за скобками» и больше сконцентрирован на возможностях, которые искусственный интеллект и нейросети могут дать. В результате проделанной работы были выделены манипулятивные, репутационные риски и риски, связанные с социальной напряжённостью. Кроме того, отдельно выделены риски будущие, которые ещё не указаны подробно, но многие авторы обращают внимание на то, что с развитием технологий они непременно будут появляться.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

RISKS OF USING NEURAL NETWORK TECHNOLOGIES IN YOUTH COMMUNICATIONS

The article presents a qualitative analysis of the literature on risks of using neural network technologies in youth communications, as well as their classification. The research was aimed at studying the risks caused by the use of neural network technologies in the communications of modern youth. Most of the tome the issue of risks is left beyond the scope of investigations which are primarily focused on the opportunities that artificial intelligence and neural networks can provide. The paper identifies manipulative, reputational risks and risks associated with social tension. In addition, future risks, which have not so far been specified in detail, are singled out specifically. Many authors pay attention to the fact that with the development of technologies the risks of this kind will inevitably appear.

Текст научной работы на тему «РИСКИ ИСПОЛЬЗОВАНИЯ НЕЙРОСЕТЕВЫХ ТЕХНОЛОГИЙ В КОММУНИКАЦИЯХ МОЛОДЕЖИ»

УДК 659 ББК 76. ГРНТИ 19.01.11 ВАК 5.9.9

Б01: 10.24412/2949-2513-2023-30-139-151

Медведева М.В.

Санкт-Петербург, Россия

РИСКИ ИСПОЛЬЗОВАНИЯ НЕЙРОСЕТЕВЫХ ТЕХНОЛОГИЙ В КОММУНИКАЦИЯХ МОЛОДЕЖИ

Аннотация. В статье представлен качественный анализ литературы по рискам использования нейросетевых технологий в коммуникациях молодежи, а также дана их классификация. Исследование было нацелено на изучение проблематики рисков от использования нейросетевых технологиях в коммуникациях современной молодежи. Значительный массив современных исследований оставляет проблематику рисков «за скобками» и больше сконцентрирован на возможностях, которые искусственный интеллект и нейросети могут дать. В результате проделанной работы были выделены манипулятивные, репутационные риски и риски, связанные с социальной напряжённостью. Кроме того, отдельно выделены риски будущие, которые ещё не указаны подробно, но многие авторы обращают внимание на то, что с развитием технологий они непременно будут появляться.

Ключевые слова: нейросети, массовые коммуникации, молодежь, медиаграмотность, общественное мнение.

Мапа V. Меёуеёеуа

RISKS OF USING NEURAL NETWORK TECHNOLOGIES IN YOUTH

COMMUNICATIONS

Abstract. The article presents a qualitative analysis of the literature on risks of using neural network technologies in youth communications, as well as their classification. The research was aimed at studying the risks caused by the use of neural network technologies in the communications of modern youth. Most of the tome the issue of risks is left beyond the scope of investigations which are primarily focused on the opportunities that artificial intelligence and neural networks can provide. The paper identifies manipulative, reputational risks and risks associated with social tension. In addition, future risks, which have not so far been specified in detail, are singled out specifically. Many authors pay attention to the fact that with the development of technologies the risks of this kind will inevitably appear.

Keywords: neural networks, mass communications, youth, media literacy, public opinion.

Постановка проблемы

Тема искусственного интеллекта и нейросетей на сегодняшний день одна из самых обсуждаемых, как в медийном поле, так и в научных кругах. Однако важный вопрос о рисках использования технологий искусственного интеллекта молодежью, которая в настоящее время является их основным пользователем, до сих пор не получил должного рассмотрения.

Частным и наиболее популярным на сегодня способом реализации этих технологий являются нейросети. Молодое поколение в свою очередь использует их особенно активно. Согласно исследованиям ВЦИОМ, типичный россиянин, одобряющий использование нейросети сегодня - это мужчина возрастной категории от 18 до 24 лет или от 25 до 34 лет с высшим образованием и активно использующий Интернет [ВЦИОМ, 2023]. С большой долей вероятности можно говорить, что он хотя бы раз использовал искусственный интеллект или нейросети для решения своих задач.

Примечательно, что именно молодежь - активный пользователь искусственного интеллекта, но при этом она сегодня может совершенно не задумываться о существовании медиаграмотности и иногда не обладать медиакомпетентностью. Проблема, конечно, не нова, однако, в разрезе возможностей искусственного интеллекта приобретает, возможно, большой вес. Согласно нашим исследованиям значение индекса МЬА1 (осведомлённости о медиаграмотности) для России составляет всего лишь 5,4 из 9 максимальных [Медведева, 2022]. Это больше половины, что в целом не так много, особенно, если принять во внимание то, что медиаграмотность - это только первый уровень, не подразумевающий глубоких навыков, а только указывающий на то, что индивид осведомлен о ней.

Что это может повлечь за собой? Вполне логично, что люди, не обладающие навыками медиаграмотности или владеющие ими на низком уровне, могут стать жертвой разного рода манипуляций в рамках различного рода коммуникаций, создаваемых именно при помощи искусственного интеллекта или нейросетей. Они также могут не отличить созданную (придуманную) нейросетью информацию от действительно существующих фактов, особенно если у них нет привычки к фактчекингу.

В масштабе отдельного индивида проблема, возможно, не кажется такой уж и глубокой, особенно если он не наделён властью или как минимум не использует данные от нейросети в своей профессиональной деятельности. Другое дело, если он наделён властью и является, например, молодёжным политическим лидером или готовит материалы для того, кто наделён властью. В этом случае можно говорить о том, что информация, создаваемая при помощи искусственного интеллекта, может быть использована для введения в заблуждение масс, при этом не всегда со злым умыслом, а фактически по воле случая, из-за низкого уровня медиаграмотности молодежного политического лидера.

В руках же специалистов искусственный интеллект в целом и нейросети, в частности, могут быть использованы как инструмент по созданию

дипфейков, от которых вообще мало кто может защититься самостоятельно. Исследователи сходятся во мнении, что именно фейки, созданные при помощи нейросетей довольно затруднительно распознать в силу их аутентичности и приближенности к реальности [Фалалеев, Ситдикова, Нечай, 2021]. Кроме того, ситуацию усугубляют такие факторы, как скорость распространения информации в современном мире, которая фактически мгновенна благодаря новым технологиям, слабая восприимчивость людей к информации, противоречащей их убеждениям, а также эмоциональное воздействие на человека со стороны СМИ [Смирнов, 2019].

Таким образом, очевидно, что использование искусственного интеллекта влечет за собой риски, особенно для молодого поколения, поскольку последнее в силу возраста ещё не защищено личным опытом и не имеет навыков медиаграмотности и медиакомпетентности. Такие риски могут провоцировать различные последствия, в том числе и в сфере медиакоммуникаций всех уровней, как локальных, так и глобальных, в зависимости от масштаба применения технологий искусственного интеллекта, а также аудитории воздействия.

История и обзор литературы

Проблематика искусственного интеллекта, в целом, в научной литературе не нова и разрабатывается достаточно давно. Начало теории нейронных сетей положила работа американских нейрофизиологов У. Маккалока и У. Питтса ещё в 1943 году. Однако это была лишь математическая концептуализация и разработка алгоритма, которая только позднее оформилась в отдельную концепцию в нейрофизиологии и нашла воплощение в конкретном работающем продукте - программном обеспечении, имитирующем алгоритмы работы человеческого мозга, который мы сегодня называем «искусственный интеллект», а на бытовом уровне -«нейросети», [Большая российская энциклопедия, 2017].

Чуть позднее Европейский Парламент начинает задумываться об ограничении использования искусственного интеллекта и нейросетей на

территории ЕС, в частности, в связи с относительно невысоким уровнем медиаграмотности населения. Согласно мониторингам большинству граждан Европы не хватает базовых цифровых навыков. [Европейский парламент, 2023]. Эта тема до сих пор остаётся в проработке и, возможно, в ближайшем будущем мы увидим законодательно принятый документ, так или иначе описывающий риски, возникающие при обращении с искусственным интеллектом в целом и нейросетями, в частности.

В России в 2019 году для регулирования деятельности искусственного интеллекта была принята соответствующая стратегия до 2030 года, в рамках которой искусственный интеллект понимается как «комплекс технологических решений, позволяющий имитировать когнитивные функции человека (включая самообучение и поиск решений без заранее заданного алгоритма) и получать при выполнении конкретных задач результаты сопоставимые с результатами интеллектуальной деятельности человека» [Национальная стратегия развития искусственного интеллекта на период до 2030 года]. Данный документ отмечает довольно важное значение искусственного интеллекта для развития российского общества и положительно характеризует возможности, которые он открывает для человека.

Однако текст совершенно не говорит о рисках использования ИИ, особенно молодежью. Этот аспект, вероятно, был ещё недостаточно изучен на момент принятия стратегии, кроме того, свою роль сыграл общий энтузиазм, с которым воспринималось всё, что было связано с искусственным интеллектом в то время. В любом случае уже совсем в скором времени можно будет говорить о необходимости принятия более актуальной стратегии по данному направлению.

Что касается использования искусственного интеллекта молодежью, в стратегии об этом вообще ничего не сказано, основной акцент ставится на поощрении различных технологических разработок. Научная литература по

данной проблематике фрагментарна. Сам феномен искусственного интеллекта в некотором роде всё еще продолжает осмысливаться в гуманитарных науках.

Рассмотрим некоторые научные работы, представляющие интерес для более детального описания проблематики рисков.

Примечательно в этой связи исследование роли влияния искусственного интеллекта на формирование мировоззрения молодежи. Н. М. Печенкин и В. Э. Туриев на основе эмпирических исследований в 2022 году пришли к выводу, что роль искусственного интеллекта и нейросетей увеличивается. Кроме того они отмечают и позитивные меры: «Среди ключевых потенциалов развития технологий искусственного интеллекта и нейросетей в аспекте их влияния на мировоззренческую картину человека были выделены создание информационного щита для недопущения деструктивных идей, персонализация контента и, как следствие, погружение в персональную виртуальную реальность, а также увеличение масштаба охвата аудитории» [Печенкин, Туриев, 2023: 14]. Здесь также можно отметить, что возможные риски и другие негативные факторы как бы «выведены за скобки» или на них не сделан акцент в рамках исследования. Нельзя не подчеркнуть, что сама молодежь довольно оптимистично смотрит на искусственный интеллект, особо не ощущая опасности со стороны чего-то нового [Пинчук, Тихомиров, 2019].

Другой автор, Н. С. Ладыжец, в работе 2023 года довольно подробно описывает историю развития ChatGPT - чат-бота на основе искусственного интеллекта. Автор довольно подробно описывает риски, связанные с использованием ИИ, и пути их предотвращения. Одним из первых и наиболее значимых указан именно риск неправильного или злонамеренного использования ИИ с целью манипуляции общественным мнением или нарушения прав человека, в том числе в рамках медиакоммуникаций; при этом в качестве средства борьбы автором предложено создание всевозможных этических кодексов и т.д. [Ладыжец, 2023]. Однако в этом исследовании молодёжь также не является центром внимания.

Описывая риск злонамеренного использования искусственного интеллекта в контексте молодежи, исследователи указывают на фактическое отсутствие контроля за искусственным интеллектом и информацией, которую он создаёт (в частности и от имени государства). Все это, в конечном счёте, может привести к антиобщественным и даже террористическим последствиям. И именно молодежь может оказаться максимально подвержена влиянию [Магомедов, 2022].

Исследователь К. Б. Мухамадиева обращает внимание на то, что нейросети и программные продукты, разработанные с использованием искусственного интеллекта, сегодня создают своеобразный риск подрыва частной жизни молодежи. Например, компании, создавая тот или иной продукт, не всегда чётко очерчивают, как именно они используют данные пользователей, где они хранятся и где могут всплыть потом. В таких случаях на первый план выходят вопросы, связанные с предвзятостью, безопасностью и конфиденциальностью и пр., особенно актуальные в рамках личных коммуникаций молодых людей.

Ещё одна важная проблема, на которой автор делает акцент - это разделение общества по причине цифрового неравенства: у молодежи в разных регионах неодинаковый доступ к Интернету, нейросетям и т.д, что в свою очередь может создавать в мире будущего определённое интеллектуальное неравенство [Мухамадиева, 2021].

Описание методики исследования

В рамках исследования мы провели качественный разбор литературы по проблематике рисков использования искусственного интеллекта в медиакоммуникациях молодежи, а также составили небольшую классификацию тех рисков, которые чаще всего встречаются в разных исследованиях.

В процессе поиска литературы по теме мы использовали материалы законодательных баз России и Европейского союза, а также научную литературу электронных библиотек, таких как Elibrary и КиберЛенинка. Для

нас представляли интерес источники, которые, так или иначе, описывали возможности, риски или механику работы с искусственным интеллектом. В них мы искали упоминания о рисках непосредственно для молодежи и смотрели на них через призму медиакоммуникаций. Мы также искали документы по прямым запросам (нейросети и молодежь, искусственный интеллект и молодежь).

Далее при изучении упоминаний в источниках мы классифицировали их на позитивные и негативные непосредственно в описании нейросетей и искусственного интеллекта. Большинство позитивных пришлось отмести ввиду очевидного отсутствия упоминания рисков вообще.

Затем при более детальном знакомстве с оставшимися источниками мы отдельно выписали риски и подразделили их следующим образом. Мы выделили манипулятивные, репутационные риски, риски, связанные с повышением социальной напряженности, и риски будущего, которые в текущее время довольно непросто спрогнозировать, но о них также уже косвенно говорится в некоторых источниках.

Результаты исследования

Значительное количество исследований, проанализированных нами на предмет рисков, связанных с использования искусственного интеллекта молодежью, показало, что многие авторы довольно позитивно относятся к проблематике и тема рисков фактически не фигурирует (даже в Национальной стратегии). Тем не менее, они существуют, и некоторые авторы отмечают их.

Одним из самых часто упоминаемых рисков является риск использования искусственного интеллекта для манипулирования, в том числе мнением молодежи. Уже ни для кого не секрет, что сегодня существует значительное количество нейросетей, технологий и программных продуктов, использующих искусственный интеллект. Дипфейки и дезинформация, которую они создают, отличаются от фейков, созданных человеком, высоким «качеством»; их довольно трудно отличить от информации о реальных фактах. Но это всего лишь один из наиболее очевидных примеров того, какой риск

могут представлять нейросети и искусственный интеллект в контексте медиакоммуникаций молодежи.

Другая категория рисков - это риски, связанные с приватностью, конфиденциальностью и использованием персональных данных. Для молодого поколения этот риск, наверное, представляет отдельную опасность в связи с тем, что: а) они - наиболее активные пользователи искусственного интеллекта и оставляют там довольно много персональных данных; б) никто не знает, как эти данные могут быть использованы в дальнейшем, как правило пользователи не дают себе труда вникнуть, как именно различные соглашения регламентируют их использование. Это всё в свою очередь создаёт определённые репутационные риски или риски использования персональных данных против самих пользователей, в том числе и в рамках различных коммуникативных ситуаций.

Ещё одной достаточно большой категорией являются риски, связанные с повышением социальной напряжённости. Неравный доступ к технологиям ИИ может порождать социальное разделение среди молодого поколения. В силу цифрового неравенства в разных регионах молодежь неодинаково использует программные продукты на основе искусственного интеллекта.

К этой категории также можно отнести риски, связанные с отсутствием контроля со стороны государства за нейросетями, которые способны создавать не только дипфейки, но и вовлекать молодежь в разного рода деструктивные отношения, коммуникации и организации, например, секты или экстремистские организации, что, в свою очередь, также может провоцировать создание социальной напряжённости. Если смоделировать ситуацию, то, вероятно, первоначально напряжённость будет проявляться именно в коммуникационном поле, а затем может вылиться в реальные беспорядки и, возможно, даже акции протеста.

И наконец, отдельную категорию составляют риски, обусловленные дальнейшим развитием технологий, или будущие риски. Мы связываем их прежде всего с молодежью как самой продвинутой в ИИ категорией

населения. Не стоит также забывать, что для последующих поколений цифровой мир будет всё более первичен. Уже сейчас многие исследователи говорят о том, что социализацию молодежь во многом проходит в цифровом пространстве.

Перспективы дальнейшей исследовательской работы

Отмечая перспективы дальнейшей исследовательской работы, можно сказать, что последующее описание и разработка темы рисков использования искусственного интеллекта в медиакоммуникациях молодежи будет в значительной степени связана именно с развитием технологий и научно-техническим прогрессом. При этом следует отметить, что появление новых рисков и вызовов, к сожалению, неизбежно.

Отдельную тему для исследований могут представлять риски использования искусственного интеллекта в медиакоммуникациях молодежи различных поколений, поскольку они могут быть неодинаковы. Подобные исследования могут быть проведены эмпирическими методами в рамках фокус-групп или социологических опросов.

В-третьих, выявленная нами на основе изучения литературы по теме классификация, вероятно, неидеальна и нуждается в доработке и уточнении, возможно, в рамках экспертных интервью или посредством других эмпирических методов.

Библиография

Большая российская энциклопедия: [в 35 т.] / гл. ред. Ю. С. Осипов. М.: Большая российская энциклопедия, 2004—2017.

Ладыжец Н.С. Социальные аспекты управления рисками и возможностями опережающего развития нейростей // Вестник Удмуртского университета. 2023. № 7 (5). С.189- 197.

Национальная стратегия развития искусственного интеллекта на период до 2030 года // Официальный интернет-портал правовой информации. Дата размещения 11.10.2019. Дата обращения 19.11.2023. URL:

http://publication.pravo.gov.ru/Document/View/0001201910110003?index=4

Нейросети и человек: начало пути // ВЦИОМ. Дата размещения 5.04.2023. Дата обращения 28.10.2023. URL: https://wciom.ru/analytical-reviews/analiticheskii-obzor/neiroseti-i-chelovek-nachalo-puti

Смирнов А. А. «Глубокие фейки». Сущность и оценка потенциального влияния на национальную безопасность. // Журнал «Свободная мысль». 2019. № 5. С. 63-84.

Магомедов М.Н. Возможности использования инфокоммуникационных технологий в сфере противодействия терроризму // Пробелы в российском законодательстве. 2022. № 15 (4). С.141-144.

Медведева М. В. Медакомпетентность как компонент политической культуры молодежи России. Диссертация канд. Пол. Наук. Санкт-Петербург, 2022. - 693с.

Мухамадиева К. Б. Искусственный интеллект в развитии молодежи // Образование и проблемы развития общества. 2021. №.2 (15). С. 27-33.

Печенкин Н. М., Туриев В. Э. Формирование мировоззрения молодёжи в цифровой среде // Социальные и гуманитарные знания. 2023. №.9. С.6-17.

Пинчук А.Н., Тихомиров Д. А. О взаимодействии человека и искусственного интеллекта: новая социальная реальность в представлении московских студентов // Знание. Понимание. Умение. 2019 № 3 С.85-93.

Фалалеев М.А., Ситдикова Н.А, Нечай Е.Е. Дипфейк, как феномен политической коммуникации // Вестник Забайкальского государственного университета. 2021. №.27(6). С. 101-106.

Shaping the digital transformation: EU strategy explained // European Parliament. Дата размещения 22.04.2021. Дата обращения 19.11.2023. URL:

https://www.europarl.europa.eu/news/en/headlines/society/20210414STO02010/shaping-the-digital-transformation-eu-strategy-explained

References

Bol'shaya rossijskaya enciklopediya [Great Russian Encyclopedia]: [v 35 t.] / gl. red. YU. S. Osipov. M.: Bol'shaya rossijskaya enciklopediya, 2004—2017.

Ladyzhec N.S. (2023) Social'nye aspekty upravleniya riskami i vozmozhnostyami operezhayushchego razvitiya nejrostej [Social aspects of managing risks and opportunities for advanced neurodevelopment].In: Vestnik Udmurtskogo universiteta 7 (5): 189-197.

Nacional'naya strategiya razvitiya iskusstvennogo intellekta na period do 2030 goda [National strategy for the development of artificial intelligence for the period until 2030]. At: Oficial'nyj internet-portal pravovoj informacii. URL:

http://publication.pravo.gov.ru/Document/View/0001201910110003?index=4 (accessed:

19.11.2023)

Nejroseti i chelovek: nachalo puti [Neural networks and humans: the beginning of the journey]. At: VCIOM. URL: https://wciom.rn/analytical-reviews/analiticheskii-obzor/neiroseti-i-chelovek-nachalo-puti (accessed: 28.10.2023)

Smirnov A. A. (2019) «Glubokie fejki». Sushchnost' i ocenka potencial'nogo vliyaniya na nacional'nuyu bezopasnost' ["Deep fakes." Nature and assessment of potential impact on national security.]. In: ZHurnal «Svobodnaya mysl'» 5: 63-84.

Magomedov M.N. (2022) Vozmozhnosti ispol'zovaniya infokommunikacionnyh tekhnologij v sfere protivodejstviya terrorizmu [Possibilities of using infocommunication technologies in the field of countering terrorism] In: Probely v rossijskom zakonodatel'stve15 (4):141-144.

Medvedeva M. V. (2022) Medakompetentnost' kak komponent politicheskoj kul'tury molodezhi Rossii [Medical competence as a component of the political culture of Russian youth.] Sankt-Peterburg.

Muhamadieva K. B. (2021) Iskusstvennyj intellekt v razvitii molodezhi [Artificial Intelligence in Youth Development ]. In: Obrazovanie iproblemy razvitiya obshchestva 2(15): 2733.

Pechenkin N. M., Turiev V. E. (2023) Formirovanie mirovozzreniya molodyozhi v cifrovoj srede [Forming the worldview of young people in the digital environment]. In: Social'nye i gumanitarnye znaniya 9:6-17.

Pinchuk A.N., Tihomirov D. A. (2019) O vzaimodejstvii cheloveka i iskusstvennogo intellekta: novaya social'naya real'nost' v predstavlenii moskovskih studentov [About the interaction between man and artificial intelligence: a new social reality in the minds of Moscow students]. In: Znanie. Ponimanie. Umenie. 3: 85-93.

Falaleev M.A., Sitdikova N.A, Nechaj E.E. (2021) Dipfejk, kak fenomen politicheskoj kommunikacii [Deepfake as a phenomenon of political communication]. In: Vestnik Zabajkal'skogo gosudarstvennogo universiteta 27(6): 101-106.

Shaping the digital transformation: EU strategy explained. At: European Parliament. URL: https://www.europarl.europa.eu/news/en/headlines/society/20210414STO02010/shaping-the-digital-transformation-eu-strategy-explained (accessed: 19.11.2023)

Сведения об авторе

Медведева Мария Владимировна - кандидат политических наук, ассистент института «Высшая школа журналистики и массовых

коммуникаций», Санкт-Петербургский государственный университет, Санкт-Петербург, Россия; m.medvedeva@spbu.ru

Medvedeva Maria V. - PhD in Political Sciences, assistant at the Institute "Higher School of Journalism and Mass Communications", St. Petersburg State University, St. Petersburg, Russia; m. medvedeva@spbu.ru

i Надоели баннеры? Вы всегда можете отключить рекламу.