Научная статья на тему 'Искусственный интеллект и проблема приоритизации медиаконтента'

Искусственный интеллект и проблема приоритизации медиаконтента Текст научной статьи по специальности «СМИ (медиа) и массовые коммуникации»

CC BY
158
44
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
искусственный интеллект / новые медиа / приоритизация медиаконтента / рекомендательные алгоритмы / artificial intelligence / new media / media-content prioritization / recommendation algorithms

Аннотация научной статьи по СМИ (медиа) и массовым коммуникациям, автор научной работы — Шестерин Н. О.

Развитие технологий искусственного интеллекта в значительной степени трансформирует технологии создания медиатекста. Современный журналист должен учитывать параметры настроек рекомендательных алгоритмов не только при выборе темы, но и при формировании языка произведения и подборе выразительных средств. Это рождает немало проблем – как творческих, так и технико-технологических. В настоящей статье мы предпринимаем попытку на основе анализа рекомендательных алгоритмов социальных сетей (ВКонтакте, Дзен, Twitter), видеохостинга (YouTube, Tiktok) и основных поисковых систем конкретизировать характер их воздействия на процесс создания, распространения, а затем и восприятия медиатекста. С опорой на метод анализа контента и историко-функциональный метод мы выявляем ключевые проблемы, рождаемые рекомендательными алгоритмами, и предлагаем пути их решения.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Artificial intelligence and the problem of media content prioritization

The development of artificial intelligence technologies significantly transforms the process of creating media-texts. The modern journalist must consider the mechanisms behind recommendation algorithms not only when choosing their subject but also when choosing means of expression within the text. This creates many problems both creative and technical-technological ones. In this article, we attempt to analyse the recommendation algorithms of social networks (Vkontakte, Dzen, Twitter), video-hosting sites (YouTube, Tiktok) and major search engines, determine their influence on the creative process, outreach, and consumption of media-texts. Relying on the method of content-analysis as well as the historical-functional method, we highlight key issues that result from recommendation algorithms and suggest possible solutions.

Текст научной работы на тему «Искусственный интеллект и проблема приоритизации медиаконтента»

DOI: 10.34680/2411-7951.2023.5(50).402-409 Специальность ВАК: 5.9.9.

УДК 070 ГРНТИ 19.21.07

Н. О. Шестерин

ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ И ПРОБЛЕМА ПРИОРИТИЗАЦИИ

МЕДИАКОНТЕНТА

Аннотация. Развитие технологий искусственного интеллекта в значительной степени трансформирует технологии создания медиатекста. Современный журналист должен учитывать параметры настроек рекомендательных алгоритмов не только при выборе темы, но и при формировании языка произведения и подборе выразительных средств. Это рождает немало проблем - как творческих, так и технико-технологических. В настоящей статье мы предпринимаем попытку на основе анализа рекомендательных алгоритмов социальных сетей (ВКонтакте, Дзен, Twitter), видеохостинга (YouTube, Tiktok) и основных поисковых систем конкретизировать характер их воздействия на процесс создания, распространения, а затем и восприятия медиатекста. С опорой на метод анализа контента и историко-функциональный метод мы выявляем ключевые проблемы, рождаемые рекомендательными алгоритмами, и предлагаем пути их решения.

Ключевые слова: искусственный интеллект, новые медиа, приоритизация медиаконтента, рекомендательные алгоритмы

Для цитирования: Шестерин Н. О. Искусственный интеллект и проблема приоритизации медиаконтента // Ученые записки Новгородского государственного университета. 2023. № 5(50). С. 402-409. DOI: 10.34680/2411-7951.2023.5(50).402-409

Искусственный интеллект находит применение в широком спектре задач, решающих проблемы сортировки, классификации и оптимизации. Применительно к новым медиа это задачи подбора контента отдельным читателям, зрителям, слушателям или группам аудитории, а также поддержания здоровья экосистемы веб-платформы, эксплуатирующей пользователей для создания контента, цензуры и модерации контента - множества фундаментальных аспектов функционирования новых медиа вплоть до автокоррекции текста.

Как и у любых алгоритмов, у алгоритмов, используемых в сфере медия, есть свои слабости, ограничения и несовершенства: некоторые позволяют находчивым пользователям эксплуатировать эти алгоритмы неочевидными путями, вредящими здоровью платформы; некоторые несправедливо усложняют или облегчают труд создателей контента; а некоторые и вовсе деструктивно влияют на развитие социума - в рамках рассматриваемой платформы и в целом в масштабах человечества. Все эти проблемы заставляют исследователей медиа активно обращаться к теме Искусственного Интеллекта и анализировать последствия его развития в контексте трансформации медиасистемы [Кривуля, 2022; Шестерин, Шестерина, 2022; Шестерина, 2023; Каминская, Томмингас, 2020]. Так, ученых волнует этическая сторона проблемы [Лукина и др., 2022; Фролова и др., 2020]. Ряд исследователей касается возможностей использования технологий искусственного интеллекта для анализа пользовательского поведения [Спивакова, 2017]. Однако процессуально ситуация с рекомендательными алгоритмами, их потенциалом и рисками, связанными с активизацией их вторжения в медиасферу, еще не получила достаточного освещения. В данной статье мы на основе анализа рекомендательных алгоритмов социальных сетей (ВКонтакте, Дзен, Telegram), видеохостинга (YouTube) и основных поисковых систем с применением метода анализа контента и историко-

функционального метода попытаемся определить функциональные особенности работы такого рода алгоритмов и найти возможные причины и пути решения вызываемых ими проблем.

Типичным примером использования алгоритмов сортировки в новых медиа являются алгоритмы приоритезации популярного контента. Здесь следует заметить, что технологическая природа таких алгоритмов в данном контексте маловажна: в большинстве современных алгоритмов рекомендации используется комбинация гибких обученных методов на основе нейросетей и жестких математических процедур, рассчитанных и настроенных людьми [Herrmann, Saltonstall, 2023]. Как станет очевидно дальше, главные проблемы алгоритмов приоритизации происходят не из их технической организации, а из самого факта существования системы, решающей, какие медиа предлагаются к потреблению какому конкретно пользователю. Поэтому термин «искусственный интеллект» в данной статье используется в общем смысле, как набор автономных методов, решающих задачи и реагирующих на изменения в их условиях [Ильясов, 1986]. В случае онлайн-видеохостингов такой алгоритм отбирает видео для отображения в ленте поиска или на главной странице сайта. На первый взгляд, задача этого алгоритма обезоруживающе проста - более популярные видео должны появляться в ленте более часто большему числу пользователей. На практике же для поддержания здоровья платформы и сохранения качества контента, показываемого зрителю, такому алгоритму приходится учитывать сотни факторов и выполнять множество требований. К наиболее существенным можно отнести:

1. Предотвращение экспоненциального роста популярности. Чем больше людей смотрят видео, тем более популярным оно становится и тем больше людей увидят его на сайте, что может привести к эффекту снежного кома и не только сделать видео незаслуженно популярным, но и помешать другим видео попасться на глаза пользователям.

2. Предоставление шанса на успех видео с небольшим числом просмотров или от каналов с небольшим числом подписчиков. Чтобы у новых создателей контента был шанс на успех, их видео должны попасть на глаза минимально необходимому числу зрителей - иначе только известные и устоявшиеся каналы будут получать всё пространство ленты и главной страницы сайта, приводя к стагнации.

3. Предотвращение излишней гомогенизации контента и предоставления пользователям популярного контента вне их круга интересов. Помимо популярных видео, рассчитанных на массовую аудиторию, должны существовать видео, отвечающие узким нишевым интересам индивидуальных пользователей. В противном случае платформа рискует потерять существенную часть своей аудитории, а популярный контент рискует стать излишне однородным. При этом следует ограничивать показ таких нишевых видео широкой аудитории, так как это также может привести к потере интереса у среднего зрителя и, как следствие, потере этой самой большой группы аудитории.

4. Предотвращение манипуляции алгоритмом. Если видео отбираются по популярности, основываясь на какой-то одной метрике, и эту метрику возможно подделать, пользователи монетизированных платформ, несомненно, воспользуются такой возможностью, причём при обнаружении такой возможности большое число

403

пользователей станут эксплуатировать её одновременно, чтобы обогнать конкурентов, что приведёт к лавинному падению качества рекомендованного контента на платформе.

5. Необходимость модерации и цензуры. Большинство стран накладывают те или иные ограничения на то, какой контент может демонстрироваться их аудитории. Если платформа получает прибыль от показа рекламы, заказчики также, скорее всего, потребуют определенных ограничений на то, какие видео будут показываться рядом с их рекламными объявлениями. И, в отличие от случаев, когда законодательные требования площадки могут игнорировать с незначительными последствиями, требования рекламодателей чаще всего ставятся превыше любых других факторов. При этом вовсе убирать нежелательные видео с платформы или даже существенно их деприоритизировать также непрактично - это может привести к существенному оттоку аудитории и создателей контента. Под ограничения попадает не только объективно вредный контент, но и видео непрофессионального качества. Сами требования часто меняются или иногда выдвигаются правительствами стран в состоянии диктатуры - алгоритму нужно поддерживать хрупкий баланс и отбирать, какой контент показывается каким пользователям, причём, в большинстве случаев, автоматически.

Итак, алгоритм приоритизации контента состоит из множества иногда противоречивых инструкций, каждая из которых необходима для функционирования платформы и, как следствие, должна находиться в балансе с остальными. При этом у создателей платформы остаётся существенная степень свободы в определении приоритетов алгоритма в целом: будет ли алгоритм играть на пользу крупным создателям или большому числу небольших, в том числе новых, каналов; будет ли алгоритм приоритизировать прибыль создателей или прибыль платформы; будет ли алгоритм потакать требованиям могущественных, но морально обанкротившихся сил или гуманистическим принципам морали; будет ли алгоритм выступать в роли полиции нравов и ограничивать контент, который создатели платформы по тем или иным причинам считают нежелательным, или оставаться морально нейтральным? Все эти вопросы напрямую касаются как законодательной, так и этической сторон работы медиа. Стоит также отметить, что та или иная стратегия, выбранная платформой, будет реализована людьми, программистами и, как следствие, неизбежно будет иметь недостатки.

Таким образом, алгоритмы приоритизации контента имеют три потенциальных уязвимости: нарушение баланса приоритетов отбора, выбор создателями платформы неудачных практик и ограничений и эксплуатация несовершенств алгоритма злоумышленниками.

Первая из этих уязвимостей - нарушение баланса - может привести к падению качества контента на платформе, несправедливому распределению аудитории и возможностей между небольшими и крупными каналами, сатурации однотипным контентом в результате лавинных трендов, несправедливой или чрезмерно жесткой деприоритизации «нежелательного» контента. Вторая - неудачные практики - может привести к несправедливому обращению с создателями контента (жесткие или вовсе ошибочные баны или страйки, низкая оплата труда, перекладывание обязанностей контроля качества с платформы на создателей (самомодерации) с неопределёнными

404

правилами), нарушению человеческих прав (блокировка или деприоритизация контента или создателя по признакам религиозной принадлежности, гендерной идентичности, национальности или политической аффилиации), массовому оттоку аудитории и рабочей силы (например, в результате жесткого бана программ, позволяющих пользователям блокировать рекламу на сайте) и даже к юридическим проблемам. Третья уязвимость - программные ошибки - может спровоцировать проблемы, схожие с первыми двумя, но также позволяет злоумышленникам эксплуатировать алгоритм (посредством ботов, незаконного доступа к скрытой статистической информации, личным данным пользователей и т.д.).

Некоторые из этих проблем в определённой степени неизбежны. Например, программные ошибки - неотъемлемая часть процесса разработки цифровых продуктов. Так как онлайн-видеохостинги и в целом онлайн социальные платформы постоянно развиваются и адаптируются к переменам в медиасфере и обществе, эти ошибки будут всегда. Также в большой степени неизбежна проблема модерации и цензуры - даже при условии, что алгоритм реализует эти практики идеально и с результатами, задуманными разработчиками, противоречивые и часто негуманные требования иногда враждующих государств, социальных групп и общественных организаций продолжат вызывать прения, долговременные и острые кризисы, выходящие далеко за пределы платформы и в целом онлайн-медиасферы. Однако многие из этих проблем происходят не из фундаментальных свойств алгоритма, но из корыстных мотивов его создателей.

Проблемы первого рода можно если не решить, то купировать - найти решения, сводящие их эффекты к минимуму. Конкретно, проблема сатурации, понижения качества контента и деприоритизации нишевого контента решаются алгоритмами рекомендации, подбирающими видео непосредственно под вкусы конкретного зрителя. Эти алгоритмы работают в тандеме с глобальным алгоритмом приоритизации контента и вместе вычисляют вероятность того, что то или иное видео попадётся на глаза тому или иному пользователю. Эти алгоритмы сами также уязвимы и имеют сходные с неспециальными алгоритмами приоритизации несовершенства, однако последствия этих недостатков всё же менее деструктивны. Проблема модерации нежелательного контента также отчасти решается ими -пользователи, находящие тот или иной контент оскорбительным или психически дестабилизирующим, скорее всего, не встретят его в своих лентах. Главной уязвимостью здесь является то, что сложнейшие взаимоотношения этого множества факторов легко расстраиваются и могут, например, привести к тому, что определенный тип контента не показывается почти никому по произвольным причинам и, как следствие, изживается с платформы, или наоборот, создаёт социальные пузыри - частично замкнутые сообщества заинтересованных людей, изолированных от глобального медиапространства. Проблемы второго рода -проблемы, вызванные корыстной природой таких платформ, сложнее и не могут быть исправлены изнутри. Платформы онлайн-видеохостингов, социальных сетей и т.д. в подавляющем большинстве случаев обеспечиваются владеющими ими бизнесами. Как правило, это огромные корпорации, превыше всего ставящие прибыль и рост, которые, в свою очередь, обеспечиваются рекламодателями - часто сотнями разношерстных бизнесов и организаций, каждая из которых выдвигает свои

405

требования, в том числе политического и идеологического характера, но, по большому счету, также мотивирована прибылью и, прежде всего, хочет обеспечить безопасность своей рекламе.

В идеальных условиях, когда бизнес получает «достаточно» прибыли и платформа может позволить себе вести себя в соответствии с нормами морали и гуманности, разработчики постараются учесть интересы маргинальных групп, создателей контента, аудитории. Однако на практике такие условия недостижимы. Помимо финансовых кризисов, вызванных рыночными трендами и происходящими за пределами среды онлайн-медиа, сама финансовая модель, которой следуют видеохостинги, подобные YouTube или Tiktok, социальные сети, подобные Twitter или ВКонтакте, требуют постоянного роста, постоянного увеличения прибыли. Это, в конечном итоге, то, чего хотят инвесторы, и это - единственный интерес, общий для всех инвесторов. Как следствие, более тонкие, человечные интересы различных групп, в том числе тех, к которым принадлежат члены инвестиционной группы, теряют приоритет. Остаётся лишь корпоративная жадность.

Добиться роста можно несколькими способами, в том числе теми, которые не навредят, а даже улучшат пользовательский опыт обитателей платформы за счет увеличения аудитории посредством улучшения сервиса, культивации качественного контента, облегчения трудового процесса создателей медиаконтента. Но эти способы приносят результат в долговременной перспективе, и часто сложно доказательно определить, что именно эти практики привели к росту прибыли.

В то же время краткосрочные жесткие практики, выжимающие из платформы максимальный доход, дают моментальные, хорошо заметные результаты: увеличение числа рекламных вставок, увеличение числа типов рекламных вставок (реклама, прерывающая потребление контента, реклама, сопровождающая потребление контента, реклама платной версии сервиса, предоставляемого платформой), приоритизация и продвижение крупных каналов с брендовыми контрактами на рекламу, приоритизация контента, вызывающего наиболее активную реакцию и наиболее явный эффект снежного кома. Всё это приводит к пропорциональному увеличению прибыли, что намного проще «продать» на совещании с инвестиционной группой или советом директоров. Точно так же работают жёсткие деструктивные практики немедленного действия - то, что инвесторы часто требуют прямо в случаях, когда их рекламируемая собственность находится под реальной или вымышленной угрозой. В случае, когда независимый создатель контента, по мнению одного из рекламодателей или владельца интеллектуальной собственности, нарушает их права копирайта или вредит их брендовому имиджу, платформа почти всегда встанет на сторону денег и будет эксплуатировать собственную систему разрешения конфликтов для того, чтобы сделать выигрышный исход для создателя контента практически невозможным. Такое поведение естественно и ожидаемо - бизнесы оперируют бесчеловечной логикой, и в ситуации, когда одна сторона обладает всеми финансовыми и юридическими ресурсами для защиты своих интересов, держит в своих руках рычаги давления на самый важный для платформы ресурс - прибыль, - а другая сторона приносит им сравнительно мизерный доход, не обладает такими ресурсами и из

рычагов давления имеет только разве что непостоянное и забывчивое общественное мнение, выбор владельцев платформы будет очевиден [Daniel, 2023].

Возможные решения этой проблемы далеко выходят за пределы самого алгоритма приоритизации. Основываясь на прошлом опыте, действенными решениями являются правительственные ограничения и / или передача управления платформой коллективу независимых создателей. Первое решение показало себя успешным применительно к проблеме эксплуатации IT-компаниями своих поисковых сервисов и негласной продажи приоритизации третьим лицам (компании искусственно завышали приоритет своих сайтов, сервисов и рекламных объявлений или таковых третьих лиц за существенную плату). Проблема была решена глобально посредством наложения законных ограничений законодательствами США и нескольких других стран (США здесь отдаётся приоритет, поскольку большинство крупных IT-компаний во время кризиса базировались в США). Второе решение показало эффективность в среде видеохостингов. Так, платформа Nebula и подобные ей сервисы, созданные и управляемые самими создателями контента, дают участникам пропорциональную степень влияния на принимаемые решения и обеспечивают защиту их прав как авторов [Nebula, 2023].

Итак, в данной статье мы провели обзор основных методов искусственного интеллекта, лежащих в основе алгоритмов поиска и приоритизации онлайн-медиаконтента. Мы описали их основные функции и уязвимости, определили основные вытекающие из них проблемы. Мы выделили два типа проблем -врождённые неизбежные проблемы конфликтующих требований и проблемы, вызванные финансовой моделью владеющих алгоритмами организаций. Мы предложили возможные решения, в том числе с уже существующими успешными примерами реализации. В итоге можно сделать вывод о том, что неизбежное внедрение технологий искусственного интеллекта в практики производства и распространения медиаконтента неизбежно сопряжено с целым рядом проблем. Эти проблемы невозможно устранить окончательно на каком-либо этапе развития медиасферы в силу динамичности протекающих в ней процессов. Только постоянное сканирование и контроль ситуации, постоянный поиск «противоядия» против рождаемых новыми технологиями проблем может стабилизировать текущее положение дел. Наряду с этим важно подчеркнуть, что при соблюдении этого условия технологии искусственного интеллекта вообще и алгоритмы приоритизации в частности являются эффективным инструментом в руках медиакриэйторов.

Литература

Ильясов Ф. Н. (1986). Разум искусственный и естественный. Известия АН Туркменской ССР. Серия:

Общественные науки, 6, 46-54. Каминская Т. Л., Томмингас Т. (2020). Яндекс Дзен: новый медийный и обучающий формат. Ученые записки Новгородского государственного университета, 4(29), 1. DOI: 10.34680/2411-7951.2020.4(29).1

Кривуля Н. Г. (2022). Искусственный интеллект и четвертая революция в киноиндустрии. Актуальные

проблемы электронных и интерактивных медиа. М: Издательство ВШТ МГУ, 5-66. Лукина М. М., Замков А. В., Крашенинникова М. А., Кульчицкая Д. Ю. (2022). Искусственный интеллект в российских медиа и журналистике: к дискуссии об этической кодификации. Вопросы теории и практики журналистики, 11(4), 680-694.

407

Спивакова К. С. (2017). Возможности искусственного интеллекта для анализа и прогнозирования поведения потребителей в социальных медиа. Шаг в будущее: Искусственный интеллект и цифровая экономика. М.: Издательство Государственного университета управления, 241-246.

Фролова Т. И., Лукина М. М., Крашенинникова М. А., Замков А. В. (2020). Искусственный интеллект и медиа: новые термины в профессиональном тезаурусе. Актуальные проблемы медиаисследований - 2020. М.: Издательство факультета журналистики МГУ, 124-126.

Шестерин Н. О., Шестерина А. М. (2022). Процесс взаимодействия человека и искусственного интеллекта в медиапространстве компьютерных игр. Неофилология, 8(1), 128-136.

Шестерина А. М. (2023). Потенциал использования технологий искусственного интеллекта в обучении креативным профессиям. Вестник Воронежского государственного университета. Серия: Право, 1(52), 277-282.

Daniel (2023). YouTube [Электронный ресурс]. RTGame. URL: https://youtu.be/Pn4_oD-TJw0 (Дата обращения: 01.06.2023).

Herrmann K., Saltonstall M. (2023). How to provide better search results with AI ranking [Электронный ресурс]. Google Cloud blog. URL: https://cloud.google.com/blog/topics/developers-practitioners/how-provide-better-search-results-ai-ranking (Дата обращения: 01.06.2023).

Nebula (2023). Nebula terms of service [Электронный ресурс]. Nebula. URL: https://nebula.tv/terms (Дата обращения: 01.06.2023).

References

Daniel (2023). YouTube. RTGame. Available at: https://youtu.be/Pn4_oD-TJw0 (Accessed: 01.06.2023).

Frolova T. I., Lukina M. M., Krasheninnikova M. A., Zamkov A. V. (2020). Iskusstvennyy intellekt i media: novye terminy v professional'nom tezauruse [Artificial Intelligence and Media: New Terms in the Professional Thesaurus]. Aktual'nye problemy mediaissledovaniy - 2020. Moscow, 124-126.

Herrmann K., Saltonstall M. (2023). How to provide better search results with AI ranking. Google Cloud blog. Available at: https://cloud.google.com/blog/topics/developers-practitioners/how-provide-better-search-results-ai-ranking (Accessed: 01.06.2023).

Il'yasov F. N. (1986). Razum iskusstvennyy i estestvennyy [Mind artificial and natural] Izvestiya AN Turkmenskoy SSR. Seriya: Obshchestvennye nauki, 6, 46-54.

Kaminskaya T. L., Tommingas T. (2020). Yandeks Dzen: novyy mediynyy i obuchayushchiy format [Yandex Zen: a new media and training format]. Memoirs of NovSU, 4(29), 1. DOI: 10.34680/2411-7951.2020.4(29).1

Krivulya N. G. (2022). Iskusstvennyy intellekt i chetvertaya revolyutsiya v kinoindustrii [Artificial intelligence and the fourth revolution in the film industry]. Aktual'nye problemy elektronnykh i interaktivnykh media. Moscow, 5-66.

Lukina M. M., Zamkov A. V., Krasheninnikova M. A., Kul'chitskaya D. Yu. (2022). Iskusstvennyy intellekt v rossiyskikh media i zhurnalistike: k diskussii ob eticheskoy kodifikatsii [Artificial Intelligence in Russian Media and Journalism: Toward a Discussion on Ethical Codification]. Voprosy teorii i praktiki zhurnalistiki, 11(4), 680-694.

Nebula (2023). Nebula terms of service. Nebula. Available at: https://nebula.tv/terms (accessed: 01.06.2023).

Shesterin N. O., Shesterina A. M. (2022). Protsess vzaimodeystviya cheloveka i iskusstvennogo intellekta v mediaprostranstve komp'yuternykh igr [The process of human interaction and artificial intelligence in the media space of computer games]. Neofilologiya, 8(1), 128-136.

Shesterina A. M. (2023). Potentsial ispol'zovaniya tekhnologiy iskusstvennogo intellekta v obuchenii kreativnym professiyam [The potential of using artificial intelligence technologies in teaching creative professions]. Vestnik Voronezhskogo gosudarstvennogo universiteta. Seriya: Pravo, 1(52), 277-282.

Spivakova K. S. (2017). Vozmozhnosti iskusstvennogo intellekta dlya analiza i prognozirovaniya povedeniya potrebiteley v sotsial'nykh media [Artificial Intelligence Capabilities for Analyzing and Predicting Consumer Behavior in Social Media]. Shag v budushchee: Iskusstvennyy intellekt i tsifrovaya ekonomika. Moscow, 241-246.

Статья публикуется впервые. Поступила в редакцию 30.07.2023. Принята к публикации 05.09.2023.

Об авторе

Никита Олегович Шестерин - аспирант, НИУ Высшая школа экономики, факультет медиа и дизайна; ORCID: 0000-0003-2134-8412; nshesterin@gmail.com

N. O. Shesterin

ARTIFICIAL INTELLIGENCE AND THE PROBLEM OF MEDIA CONTENT

PRIORITIZATION

Abstract. The development of artificial intelligence technologies significantly transforms the process of creating media-texts. The modern journalist must consider the mechanisms behind recommendation algorithms not only when choosing their subject but also when choosing means of expression within the text. This creates many problems - both creative and technical-technological ones. In this article, we attempt to analyse the recommendation algorithms of social networks (Vkontakte, Dzen, Twitter), video-hosting sites (YouTube, Tiktok) and major search engines, determine their influence on the creative process, outreach, and consumption of media-texts. Relying on the method of content-analysis as well as the historical-functional method, we highlight key issues that result from recommendation algorithms and suggest possible solutions.

Keywords: artificial intelligence, new media, media-content prioritization, recommendation algorithms

For citation: Shesterin N. O. (2023). Artificial intelligence and the problem of media content prioritization. Memoirs of NovSU, 5(50), 402-409. DOI: 10.34680/2411-7951.2023.5(50).402-409

i Надоели баннеры? Вы всегда можете отключить рекламу.