Научная статья на тему 'Журналистика с искусственным интеллектом'

Журналистика с искусственным интеллектом Текст научной статьи по специальности «СМИ (медиа) и массовые коммуникации»

CC BY
4385
737
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
СМИ / СРЕДСТВА МАССОВОЙ ИНФОРМАЦИИ / МЕДИА / ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ / АЛГОРИТМИЗАЦИЯ / БОЛЬШИЕ ДАННЫЕ / ЭХОКАМЕРА / ИНФОРМАЦИОННЫЙ ПУЗЫРЬ / ИНФОРМАЦИОННАЯ ЗАВИСИМОСТЬ / MASS MEDIA / ARTIFICIAL INTELLIGENCE / ALGORITHMIZATION / BIG DATA / ECHO CHAMBER / FILTER BUBBLE / INFORMATION ADDICTION

Аннотация научной статьи по СМИ (медиа) и массовым коммуникациям, автор научной работы — Суходолов Александр Петрович, Бычкова Анна Михайловна, Ованесян Сергей Суренович

Статья посвящена использованию средствами массовой информации технологий, основанных на алгоритмах искусственного интеллекта. Раскрыты принципы действия машинного обучения, глубинного обучения, основанного на нейросетях, и рекомендательных систем. Сделан аналитический обзор применения этих технологий в таких сферах, как обработка и анализ данных; автоматическое продуцирование информации о текущих событиях и фактах (сообщения о чрезвычайных происшествиях, результатах спортивных соревнований, ходе избирательных кампаний и т.д.); интерактивное общение с аудиторией; отслеживание информационных поводов; проверка фактов на достоверность (факт-чекинг); распознавание изображений; производство видеоконтента и пр. Приведены примеры конкретных технологий: Reuters News Tracer, Wordsmith, Heliograf, интерфейс прикладного программирования Perspective, Newswhip, Quackbot, Guardian Chatbot, Wibbitz, Factmata и др. Пример компании Factmata представлен как комплексный подход к алгоритмизации медиасферы, включающий такие направления, как контекстуализация утверждений, аргументов и историй; ведение черного списка, в который по решению алгоритма попадают домены, характеризуемые как hateful (возбуждающие ненависть), hyperpartisan (чрезмерно политизированные, выступающие в пользу какой-либо политической партии), toxic (токсичные, вредные), fake news (распространяющие фейковые новости). Отмечено, что машинное обучение алгоритмов для генерации и анализа текстов становится чрезвычайно доступным. Указано, что новое поколение алгоритмов, основанных на искусственном интеллекте, способно распознавать эмоциональную окраску текста. Проанализировано воздействие медиасферы на потребителей информации, в том числе с учетом таких факторов, как влияние «эхокамеры» и «информационного пузыря» («пузыря фильтров»). Авторы констатируют, что информация стала своего рода наркотиком, легкодоступным для любых слоев населения и практически легальным, а ее адресаты благодаря таргетированию и персонализации превращаются в идеальных потребителей.

i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по СМИ (медиа) и массовым коммуникациям , автор научной работы — Суходолов Александр Петрович, Бычкова Анна Михайловна, Ованесян Сергей Суренович

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Journalism Featuring Artificial Intelligence

The article deals with mass media techniques based on the algorithms of artificial intelligence, principles of machine learning and deep learning based on neural networks, and recommenders. The authors provide an analytical review of experiences of applying these techniques in various spheres, namely, data processing and analysis, automated production of reports on current events and facts, interactive communication with audience, tracking newsworthy events, fact-checking, visual discovery, video content production, and others. The mass media techniques are demonstrated by the list of examples of Reuters News Tracer, Wordsmith, Heliograf, Perspective (an interface of applied programming), Newswhip, Quackbot, Guardian Chatbot, Wibbitz, Factmata, et al. Factmata is given special attention to as a complex approach to algorithmization of the Media that includes such methods as contextualization of statements, arguments and stories, and keeping a blacklist of domains which the algorithms mark as hateful, hyperpartisan, toxic, or fake news. The authors note that machine learning of algorithms for generating and analyzing texts is becoming easily accessible. Moreover, the new generation of algorithms based on artificial intelligence is able to identify text sentiment. The analysis of the impact of the media environment, including such factors as echo chamber and filter bubble, on information users shows that information can now be compared to a drug which is almost legal and easily available for use by any social group, and its users, due to targeting and personalization, are transforming into its «ideal consumers».

Текст научной работы на тему «Журналистика с искусственным интеллектом»

Вопросы теории и практики журналистики. 2019. T. 8. № 4

ТЕОРИЯ ЖУРНАЛИСТИКИ И СРЕДСТВ МАССОВОЙ ИНФОРМАЦИИ THEORY OF JOURNALISM AND MASS MEDIA

УДК 070:004.9 DOI 10.17150/2308-6203.2019.8(4).647-667

Суходолов Александр Петрович

Профессор, член Союза журналистов Москвы Байкальский государственный университет, 664003, Российская Федерация, г. Иркутск, ул. Ленина, 11, e-mail: [email protected] Alexander P. Sukhodolov Professor, Member of Moscow Union of Journalists

Baikal State University,

11 Lenin Str., Irkutsk, 664003, Russian Federation, e-mail: [email protected]

Бычкова Анна Михайловна

Эксперт Федеральной службы РФ по надзору в сфере связи, информационных технологий и массовых коммуникаций, кандидат юридических наук, доцент

Байкальский государственный университет, 664003, Российская Федерация, г. Иркутск, ул. Ленина, 11, e-mail: [email protected] Anna M. Bychkova

Expert, Federal Service for Supervision of Communications, Information Technology and Mass Communications, PhD in Law, Associate Professor

Baikal State University, 11 Lenin Str, 664003, Irkutsk, Russian Federation, e-mail: [email protected]

Ованесян Сергей Суренович

Профессор, доктор экономических наук Байкальский государственный университет, 664003, Российская Федерация, г. Иркутск, ул. Ленина, 11, e-mail: [email protected]

Sergey S. Ovanesyan

Professor, D.Sc. in Economics

Baikal State University, 11 Lenin Str, 664003, Irkutsk, Russian Federation, e-mail: [email protected]

ЖУРНАЛИСТИКА С ИСКУССТВЕННЫМ ИНТЕЛЛЕКТОМ

Аннотация. Статья посвящена использованию средствами массовой информации технологий, основанных на алгоритмах искусственного интеллекта. Раскрыты принципы действия машинного обучения, глубинного обучения, основанного на нейросетях, и рекомендательных систем. Сделан аналитический обзор применения этих технологий в таких сферах, как обработка и анализ данных; автоматическое продуцирование информации о текущих событиях и фактах (сообщения о чрезвычайных происшествиях, результатах спортивных соревнований, ходе избирательных кампаний и т.д.); интерактивное общение с аудиторией; отслеживание информационных поводов; проверка фактов на достоверность (факт-чекинг); распознавание изображений; производство видеоконтента и пр. Приведены примеры конкретных технологий: Reuters News Tracer, Wordsmith, Heliograf, интерфейс прикладного программирования Perspective, Newswhip, Quackbot, Guardian Chatbot, Wibbitz, Factmata и др. Пример компании Factmata представлен как комплексный подход к алгоритмизации медиасферы, включающий такие направления, как контекстуализа-ция утверждений, аргументов и историй; ведение черного списка, в который по решению алгоритма попадают домены, характеризуемые как hateful (возбуждающие ненависть), hyperpartisan (чрезмерно политизированные, выступающие в пользу какой-либо политической партии), toxic (токсичные, вредные), fake news (распространяющие фейковые новости). Отмечено, что машинное обучение алгоритмов для генерации и анализа текстов становится чрезвычайно доступным. Указано, что новое поколение алгоритмов, основанных на искусственном интеллекте, способно распознавать эмоциональную окраску текста. Проанализировано воздействие медиасферы на потребителей информации, в том числе с учетом таких факторов, как влияние «эхокамеры» и «информационного пузыря» («пузыря фильтров»). Авторы констатируют, что информация стала своего рода наркотиком, легкодоступным для любых слоев населения и практически легальным, а ее адресаты — благодаря таргетированию и персона-лизации — превращаются в идеальных потребителей.

Ключевые слова. СМИ, средства массовой информации, медиа, искусственный интеллект, алгоритмизация, большие данные, эхокамера, информационный пузырь, информационная зависимость.

Информация о статье. Дата поступления 1 сентября 2019 г.; дата принятия к печати 2 октября 2019 г.; дата онлайн-размещения 26 октября 2019 г

JOURNALISM FEATURING ARTIFICIAL INTELLIGENCE

Abstract. The article deals with mass media techniques based on the algorithms of artificial intelligence, principles of machine learning and deep learning based on neural networks, and recommenders. The authors provide an analytical review of experiences of applying these techniques in various spheres, namely, data processing and analysis, automated production of reports on current events and facts, interactive communication with audience, tracking newsworthy events, fact-checking, visual discovery, video content production, and others.

The mass media techniques are demonstrated by the list of examples of Reuters News Tracer, Wordsmith, Heliograf, Perspective (an interface of applied programming), Newswhip, Quackbot, Guardian Chatbot, Wibbitz, Fact-mata, et al. Factmata is given special attention to as a complex approach to algorithmization of the Media that includes such methods as contextualization of statements, arguments and stories, and keeping a blacklist of domains which the algorithms mark as hateful, hyperpartisan, toxic, or fake news.

The authors note that machine learning of algorithms for generating and analyzing texts is becoming easily accessible. Moreover, the new generation of algorithms based on artificial intelligence is able to identify text sentiment. The analysis of the impact of the media environment, including such factors as echo chamber and filter bubble, on information users shows that information can now be compared to a drug which is almost legal and easily available for use by any social group, and its users, due to targeting and personalization, are transforming into its «ideal consumers».

Keywords. The Mass Media, artificial intelligence, algorithmization, Big Data, echo chamber, filter bubble, information addiction.

Article info. Received September 1, 2019; accepted October 2, 2019; available online October 26, 2019.

Современный медиарынок представлен не только средствами массовой информации и потребителями информации. На этом рынке возник и с каждым годом занимает все больше места принципиально новый участник — искусственный интеллект, меняющий привычный облик традиционной журналистики и переформатирующий некогда привычное нам медиапространство. Если представить ситуацию схематически (рис.), то мы увидим систему, в которой уже не только СМИ коммуницируют с потребителем, а

Средства массовой _

информации -

потребитель — со СМИ; во взаимодействие с ними все чаще и больше включается искусственный интеллект. Функционал и значение этого своеобразного посредника, как и сам процесс становления и развития искусственного интеллекта в сфере СМИ, требуют серьезного научного изучения и осмысления.

Современные средства массовой информации, как никогда ранее, активно взаимодействуют с потребителем массовой информации. С появлением Интернета это взаимодействие приобретает все более

_Потребитель массовой

информации

Искусственный интеллект

Искусственный интеллект в цикле производства и потребления информации

интерактивный характер, а средства массовой информации превращаются в глобальные средства массовой информации и массовой коммуникации. Если ранее пользователь СМИ осуществлял обратную связь с ними в виде «писем в редакцию», то теперь спектр такого взаимодействия существенно расширился и качественно изменился. Он включает уже не только комментарии, лайки, репосты, обсуждения в социальных сетях (в том числе и при непосредственном участии авторов информационных материалов), но и возможность формирования самими пользователями своей колонки новостей, создания ими контента для СМИ путем передачи фотографий, видео- и аудиозаписей с места событий и др.

Высокотехнологичные компании, стремительно внедряющие в деятельность современных СМИ искусственный интеллект и принципиально меняющие практику журналистской работы, по сути, становятся новым игроком на поле массмедиа, превращая 1Т-индустрию едва ли не в главную фигуру на рынке средств массовой информации, затмевающую собой таких традиционных и важных его участников, как государство и крупный бизнес [1].

Медиабизнес берет на вооружение искусственный интеллект, возможности которого существенно превышают возможности человеческого интеллекта в таких сферах, как обработка и анализ данных; автоматическое продуцирование информации о текущих событиях и фактах (сообщения о чрезвычайных происшествиях, результатах спортивных соревнований, ходе избирательных кампаний и т.д.); интерактивное общение с аудиторией; отслеживание информа-

ционных поводов; проверка фактов на достоверность (факт-чекинг); распознавание изображений; производство видеоконтента и др.

В свою очередь, с потребителем искусственный интеллект взаимодействует в целях составления его персонального профиля для предложения именно тех информационных материалов, которые с большей вероятностью заинтересуют пользователя и обеспечат переход на сайт разместившего их СМИ, гарантируя последнему просмотры и обратную связь.

Важно обратить внимание на то, что системы искусственного интеллекта принято делить на «слабые», предназначенные для решения вполне определенных, конкретных задач, и «сильные», универсальные, способные решать любые задачи, какими бы сложными они ни были. Предметом настоящего исследования является применение в журналистике первых систем и попытка ответить на вопрос, с чем же мы имеем дело, сталкиваясь с возможностями искусственного интеллекта в журналистике и сравнивая их с возможностями журналиста-человека.

Авторство словосочетания «искусственный интеллект» принадлежит Джону Маккарти. Именно ему это направление обязано появлением такого названия, которое — по системе ассоциаций — позволяет понять, о чем идет речь. «Идея названия состояла не в прямой связи, не в замене и даже не в дополнении человеческого интеллекта искусственным (хотя уже тогда это и стало происходить), а в аналогии: у человека есть некая интеллектуальная функция принятия решений, и у машины есть нечто подобное —

неживое, как и сама машина, искусственное», — пишет А.В. Курпатов [2, с. 96]. В 1956 г. математики, собравшиеся в рамках Дартмутского летнего исследовательского проекта, организованного Джоном Мак-карти при финансовой поддержке Фонда Рокфеллера, проголосовали за предложенное название, и словосочетание «искусственный интеллект» ворвалось в нашу жизнь.

«Сам термин "искусственный интеллект" имеет двести официальных определений», — констатирует С.В. Карелов, являющийся одним из выдающихся российских экспертов в данной области [3, с. 40]. Это понятие, используемое для широчайшего круга областей техники, бизнеса, различного рода гуманитарных, социальных, политтехно-логических процессов, наполняется разным содержанием.

Как бы то ни было, основными компонентами того, что в настоящее время принято называть искусственным интеллектом, являются:

- машинное обучение;

- глубинное обучение, основанное на нейросетях;

- рекомендательные системы.

Машинное обучение — одно из

направлений развития искусственного интеллекта, основной принцип которого заключается в том, что машины получают данные и обучаются на них, обнаруживая определенные закономерности. Это наиболее перспективный инструмент для бизнеса, науки и принятия важных управленческих решений. Системы машинного обучения способны быстро применять знания, полученные при обучении на больших наборах данных, что позволяет им преуспевать в решении таких задач, как распозна-

вание лиц, речи, объектов, перевод и многие другие. В отличие от программ с закодированными вручную инструкциями для выполнения конкретных задач, машинное обучение позволяет системе учиться самостоятельно распознавать шаблоны и делать прогнозы [4].

Например, для того чтобы обучить машину классифицировать данные (присваивать теги) при наличии информационных поводов, публикаций или прочих текстов с большим количеством слов, не нужно искать ключевые слова, чтобы сделать выводы на их основе. Вместо этого машине демонстрируется как можно большее количество уже имеющихся размеченных текстов с большим количеством классов, и впоследствии, получая новый — неразмеченный — текст, машина уже сама классифицирует его.

Таким образом, при появлении, к примеру, нового информационного повода обученная машина понимает его тематику, передаваемое им настроение и определяет потенциальную аудиторию, которой он будет интересен, а также может спрогнозировать его популярность, рейтинг и т.п.

Глубинное обучение является подмножеством машинного обучения. Оно применяет некоторые методы машинного обучения для решения реальных задач, используя нейронные сети, которые могут имитировать принятие решений человеком.

Нейронные сети возникли в результате исследований в области искусственного интеллекта, в ходе которых появилась идея воспроизвести способность биологических нервных систем обучаться и исправлять

ошибки, моделируя низкоуровневую структуру мозга. Теория искусственных нейронных систем зародилась в 1940-х гг., и спустя 20 лет уже были разработаны однослойные нейронные системы (перцептроны), которые в ряде случаев оказались способны обучаться, осуществлять предсказания и распознавать образы. В конце 1970-х — начале 1980-х гг. в академическом сообществе считалось, что развитие теории искусственного интеллекта перестало иметь научно-практическую значимость. В то время, которое называют «зимой искусственного интеллекта», объективно существовали три причины, делавшие невозможным дальнейшее его развитие: низкая вычислительная мощность оборудования, «нисходящий» подход, основанный на стремлении ученых воспроизвести аналог человека в виде машины, а не создать искусственный интеллект с нуля, и физическое отсутствие того, что сегодня называется большими данными (или Big Data).

В 1980-х гг. благодаря революционным работам Джона Хопфилда, Тейво Кохонена и Рода Брукса в этой области произошел прорыв. Так, в 1986 г. Род Брукс, исходя из того, как функционирует наша нервная система, сформулировал «восходящий» подход в рамках создания нейронных сетей. Эволюционно она выполняет свою главную функцию — восприятие изменений в окружающей среде в качестве раздражителя, их идентификация и ответ на них в виде приспособительных реакций, что соответствует целям и задачам системы. Суть подхода Брукса заключалась в том, что устроенная таким образом искусственная сеть, имеющая достаточную сложность ор-

ганизации и запрограммированная на определенный результат, будет сама себя двигать и развивать, оказавшись в той или иной информационной среде. Многослойные нейронные сети нового поколения стали успешно справляться с задачами, недоступными для перцептронов [5, с. 112-113].

В 1988 г. французским ученым Яном Лекуном была предложена идея сверточных нейронных сетей, основанная на том, что зрительная кора имеет небольшие участки клеток, которые чувствительны к конкретным областям поля зрения. Например, одни нейроны активируются, когда воспринимают вертикальные границы, а другие — горизонтальные или диагональные. Все эти нейроны сосредоточены в виде стержневой архитектуры и вместе формируют визуальное восприятие. Данную идею специализированных компонентов внутри системы, решающих конкретные задачи (как клетки зрительной коры, которые ищут специфические характеристики и обобщают их), используют машины, применяющие технологию сверточ-ных нейронных сетей.

Оттолкнувшись от знания о том, что мозг воспринимает информацию не в моменте, а с учетом определенного контекста, ученые в качестве аналогии этого процесса создали так называемые рекуррентные ней-росети, преследующие цель обучить компьютеры анализировать накопленный опыт. Они используют работу предыдущих нейросетей сначала для классификации, а потом для создания некоего контента. Результаты работы рекуррентных нейросетей мы можем наблюдать каждый раз, когда вводим поиско-

вые запросы: поисковая система, обученная на том, что уже спрашивали по этой теме другие пользователи, подбирает нам похожие слова. Рекуррентные нейросети обучают и чат-ботов.

Современная элементная база позволила создать мощные нейрокомпьютеры и программные нейро-пакеты для распознавания образов, текстового поиска, поиска изображений, перевода, прогнозирования, обнаружения спама, мошенничества и решения ряда других задач.

Качество глубинного обучения зависит от величины массивов данных для обучения, так как существует огромное количество параметров, которые необходимо настроить для алгоритмов обучения, чтобы избежать ложных срабатываний. При недостаточности входных данных глубинное обучение может выдавать ошибочные результаты. Например, система распознавания лиц Google на первых этапах запуска помечала много темнокожих лиц как «гориллы». «Это пример того, что произойдет, если у вас нет афроамериканских лиц в вашем наборе обучения, — поясняла Anu Tewary, главный специалист по работе с данными Mint at Intuit. — Если у вас нет афроамериканцев, работающих над системой, если у вас нет афроамериканцев, тестирующих систему, то, когда ваша система сталкивается с афроамерикан-скими лицами, она не будет знать, как вести себя» [4].

Основная область применения рекомендательных систем — пер-сонализация, базирующаяся на двух основных принципах: сравнение потребителей между собой на основе их покупок, просмотров, скачиваний

и т.д. (если два пользователя просмотрели одни и те же публикации, но некоторые просмотрены только одним из них, то их можно порекомендовать и второму) и оценка популярности (чем более весомые с точки зрения рейтинга медиаперсоны или интернет-страницы расскажут о каком-то продукте, тем больше у него шансов быть рекомендованным пользователям).

В таблице приведены примеры технологий с использованием искусственного интеллекта и сферы их применения в журналистике.

Охарактеризуем основные тенденции в применении искусственного интеллекта в журналистике на примере предложений, сконцентрированных в программных продуктах компании Factmata. IT-технологии компании отслеживают контент и общение на всех цифровых платформах (новостные и нишевые сайты, Facebook, Twitter, YouTube и пр.), в Intranet1, на 300 тыс. сайтов, в 30 млн блогов, а также осуществляют мониторинг полицейских отчетов, форумов и дискуссионных площадок.

Factmata предлагает пользователям взаимодействие по трем направлениям: Factmata Intelligence Reports, Factmata Moderation и Factmata API.

Factmata Intelligence Reports кон-текстуализирует все утверждения, аргументы и рассказы, касающиеся любой темы. Углубленный анализ актуальной новостной повестки и обсуждений в социальных сетях

1 Интранет (англ. Intranet, также употребляется термин «интрасеть») — в отличие от Интернета, это внутренняя частная сеть организации или крупного государственного ведомства.

Примеры технологий с использованием искусственного интеллекта и сферы их применения в журналистике

Технология/ разработчик СМИ, использующее данную технологию Сфера применения технологии

Reuters News Tracer / Thomson Reuters Reuters Отслеживание главных событий дня в социальных сетях и проверка достоверности сообщений в Twitter1

Wordsmith / Automated Insights2 Associated Press Создание репортажей на основе финансовых данных [7]

Heliograf / The Washington Post3 The Washington Post Освещение спортивных мероприятий и предвыборных кампаний4

Интерфейс прикладного программирования Perspective / Jigsaw (Alphabet / Google)5 The New York Times Модерирование комментариев читателей [8]

Reuters Connect6 Reuters Платформа отображает весь контент Reuters, включая архив, а также контент меди-апартнеров по всему миру в режиме реального времени

Newswhip Associated Press Программа отслеживает распространение любого контента на семи крупнейших социальных платформах в течение нескольких минут после размещения и позволяет составить прогноз того, что будет волновать аудиторию в ближайшем будущем

Quackbot7 Используется более чем в 1 650 новостных отделах по всему миру, число пользователей превышает 8 тыс. журналистов Бот делает скриншоты любой веб-страницы, может предложить надежные источники данных, учитывая тему журналистского исследования, позволяет загружать PDF-файлы в DocumentCloud, извлекать

1 The making of Reuters News Tracer // Thomson Reuters. 2017. URL: https://blogs. thomsonreuters.com/answerson/making-reuters-news-tracer.

2 Automated Insights. URL: https://automatedinsights.com. Известно, например, что в 2014 г. Wordsmith написал и опубликовал миллиард заметок [6].

3 Arc Publishing. URL: www.arcpublishing.com.

4 The Washington Post leverages automated storytelling to cover high school football // The Washington Post. URL: https://www.washingtonpost.com/pr/wp/2017/09/01/the-washington-post-leverages-heliograf-to-cover-high-school-football/?utm_term=.9779d899278e.

5 Perspective. URL: https://www.perspectiveapi.com/#.

6 Reuters Connect. URL: https://agency.reuters.com/en/reuters-connect.html.

7 Bot Studio. URL: https://bots.qz.com.

8 The Guardian Chatbot // Product Hunt. URL: https://www.producthunt.com/posts/the-guardian-chatbot.

9 Introducing the Guardian Chatbot // Support The Guardian. URL: https://www.theguardian. com/help/insideguardian/2016/nov/07/introducing-the-guardian-chatbot.

10 Wibbitz. URL: https://www.wibbitz.com.

11 Factmata. URL: https://factmata.com.

Таблица (окончание)

Технология/ разработчик СМИ, использующее данную технологию Сфера применения технологии

текст и диаграммы из PDF-файлов,следить за изменениями на веб-сайтах, создавать быстрые диаграммы и многое другое

Guardian Chatbot8 Guardian Бот взаимодействует с читателями, рассказывая о новостях, а также предоставляя самые популярные заголовки или истории9

Wibbitz10 Reuters, USA Today, Bloomberg, Forbes, NBC Автоматическое формирование нарезки коротких видеосюжетов из отснятого видеоматериала

Lynx Insight / Reuters Reuters Анализ данных, предложение идей для сюжетов и автоматическое написание части текста [9; 10]

Factmata11 - Отслеживание актуальных трендов;прогноз относительно тем, которые станут актуальными в ближайшем будущем; обнаружение вредоносного контента

призван «удовлетворить реальные потребности общества с помощью более обоснованных политических решений, защитить от вредных слухов». Использование этого программного обеспечения позволяет определить новые тенденции, источники их появления (включая авторов, создающих «истории»), сгруппировать их, выявить «агентов влияния», проанализировать популярные заявления, претензии и аргументы, а также просчитать, какие

темы будут обсуждаться в ближайшем будущем, чтобы «сыграть на опережение».

Factmata Moderation помогает издателям и брендам избегать коммуникации с дискредитированными платформами и небезопасным программным обеспечением, а рекламодателям и рекламным платформам предлагает использовать пополняемый черный список Factmata, который содержит тысячи доменов, представляющих миллионы URL-

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

адресов, отнесенных искусственным интеллектом к ненавистническим (Hateful), пропагандистским (Propagandist), вводящим в заблуждение (Deceptive) и распространяющим фальшивые новости (Fake News). «Вы можете быть уверены, что список честный и непредвзятый. Наш искусственный интеллект принимает решения, основываясь на реальном контенте каждого веб-сайта, без какого-либо влияния на редактирование. Все результаты проверены нашей командой», — заверяет рекламное сообщение на сайте. Домены помечены как Hateful (возбуждающие ненависть), Hyperpartisan (чрезмерно политизированные, выступающие в пользу какой-либо политической партии), Toxic (токсичные, вредные), Fake News (распространяющие фейковые новости).

Factmata API не только классифицирует контент на основе его источника или языка, но также предлагает контекстное понимание того, что оно может означать: насколько это предвзято, токсично, вредоносно или обманчиво. Обращение к программе или интеграция с интерфейсом Batch анализирует введенный контент, выставляя баллы по девяти параметрам.

Таким образом,технологии, предоставляемые Factmata, по сути, не только определяют, какой контент будет востребован пользователями в текущий момент и в ближайшем будущем, но и представляют собой аналог государственного регулятора, который может, основываясь на «умозаключениях» искусственного интеллекта, определять дальнейшую судьбу медиаресурса.

Генерация контента является одним из самых востребованных ме-

диасферой направлений внедрения искусственного интеллекта. В частности, генерация естественных языков (Natural language generation) — это технология, которая преобразует данные из любой отрасли в понятные человеку описания.

В конце 2015 г. Automated Insights представила новую версию своей платформы Wordsmith, предназначенную для того, чтобы любой профессионал мог легко загружать свои данные и автоматически генерировать собственные тексты. Assosiated Press стала одной из первых компаний, воспользовавшихся предоставленной возможностью. Каждый квартал публичные компании в США публикуют корпоративные отчеты о прибылях и убытках, и каждый квартал репортеры Assosiated Press просматривали эти отчеты, извлекая соответствующие финансовые показатели для составления историй, основанных на этих цифрах. Так как Wordsmith использует генерацию естественного языка, чтобы превратить данные в письменное повествование на простом языке, то в этом случае платформа за доли секунды преобразует данные о доходах из Zacks Investment Research в историю, публикуемую Assosiated Press. Таким образом, команда Wordsmith настроила механизм генерации естественного языка для написания статей в стиле Assosiated Press.

В результате Assosiated Press теперь производит 4 400 квартальных отчетов о доходах — почти в 15 раз больше, чем ранее, когда над ними работали репортеры. Отчеты не только отличает качество, которое читатели ожидают от статей, написанных человеком, в них уменьшилось число ошибок, совер-

шавшихся при составлении отчетов вручную. Помимо пояснительной записки внизу публикации, нет никаких доказательств того, что она была произведена алгоритмом. Персонал агентства воспринял нововведение положительно, так как автоматизация высвободила примерно 20 % времени, которое ранее тратилось сотрудниками на составление отчетов о доходах каждый квартал.

Технология Automated Insights оказала заметное влияние и на фондовый рынок: в результате партнерства между Assosiated Press и Automated Insights у сотен фирм, которым уделялось мало внимания со стороны трейдеров, увеличился объем торгов и возросла ликвидность12.

Журналистка издания Financial Times Сара О'Коннор в мае 2016 г. соревновалась с искусственным интеллектом в написании статьи о занятости в Великобритании на основе официальных данных. Программа действительно оказалась быстрее журналистки: она справилась за 12 минут против 35 минут, которые потребовались О'Коннор, а написанная статья содержала достоверные факты и релевантный контекст. Однако искусственный интеллект «оказался лишен главного журналистского навыка — определить новостную ценность и отличать ее от просто унылой информации»: хотя программа правильно указала, что уровень безработицы не изменился, она упустила из виду, что число соискателей в этом году впервые увеличилось [11].

Следует также учесть, что машинное обучение алгоритмов для

12 Automated Insights. URL: https:// automatedinsights.com/customer-stories/ associated-press.

генерации и анализа текстов становится чрезвычайно доступным. Журнал «Эксперт» сообщает об эксперименте американских ученых Джозефа Баллока и Мигеля Луэнго-Оро-са, в рамках которого они, потратив всего восемь долларов на облачные вычисления Amazon Web Services, за 13 часов создали генератор политических речей на базе более 7 тыс. текстов выступлений в ООН с 1970 по 2015 г. В результате эксперимента в 90 % случаев ученым удалось получить качественные, практически неотличимые от созданных человеком тексты. Как указывают авторы, при незначительном редактировании эти тексты можно публиковать [1, с. 16-17].

Когда обсуждают преимущества журналистов перед искусственным интеллектом, нередко указывают, что только человеку-профессионалу подвластно привнесение в текст контекста или эмоциональной оценки, что отчасти подтверждается некоторыми исследованиями. Например, в США и в Германии группам журналистов показывали большое количество статей соответственно на английском и на немецком языках. Половина текстов была написана людьми, половина — машинами. В среднем люди не могли их различить, а когда испытуемых попросили классифицировать тексты по достоверности и интересности,оказалось, что они находят более достоверными тексты, написанные машиной. При этом опрошенные отметили, что читать их не так интересно, как «человеческие» статьи13.

13 Роботы в журналистике, или Как ис-

пользовать искусственный интеллект для создания контента // habr. 2019. URL: https:// habr.com/ru/company/dataschool/blog/439388.

С. Карелов проанализировал эксперимент, в ходе которого программа IBM Debater соревновалась с чемпионом мира по дебатам англичанином Харишем Натарайаном в дискуссии по проблеме, анализом которой оппоненты предварительно не занимались. В данном случае перед участниками поставили вопрос, нужно ли государству бюджетировать школьное образование. У оппонентов было 15 минут на подготовку, 4 — на изложение своих аргументов (так как у программы нет позиции, то первым выступал человек), 4 — на опровержение чужих и 2 — на резюме. В этом споре человек доказывал, что государство не должно финансировать школьное образование, а машина обосновывала обратное, причем для подготовки своей аргументации за 15 минут IBM Debater проанализировал 4 млрд документов и «выдал очень хорошую речь на основе гигантского опыта семидесяти двух стран за последние шестьдесят лет, обобщив все в цифрах и графиках». Тем не менее в электронном голосовании победил Хариш Ната-райан, причем если в голосовании до начала дебатов большинство телезрителей высказывались за бюджетирование, то по их окончании позиция части голосовавших «за» сместилась к противоположной точке зрения. С. Карелов полагает, что машина проиграла потому, что человек говорит эмоционально, а у компьютера эмоций нет и он по определению проигрывает, хотя IBM Debater, анализируя и разбивая аргументы человека, «просто размазал его»14.

14 Тем не менее С. Карелов справедливо указывает, что технология IBM Debater — очень серьезный прорыв, так как благодаря ей программисты доказали, что «понимание тоже может быть вычислением» [3].

Однако у IBM уже есть приложения, определяющие эмоции, в том числе и иронию. Когнитивная система технологии Expressive Text to Speech, к примеру, способна не просто распознавать речь, но и понимать тон, контекст и ее эмоциональную окраску. IBM Watson Tone Analyzer помогает задать общий тон текстового общения, что образует эмоциональную составляющую сообщения. Разработчики сервиса создали модель для оценки эмоций в тексте, разделив их на три категории: положительные эмоции (радость, оптимизм, вдохновение, счастье, удовлетворенность), отрицательные эмоции (страх, отвращение, отрицание, унижение, вина, отчаяние) и гнев как разновидность негативных эмоций с такими составляющими, как агрессия, ярость, фрустрация, раздражение, враждебность. Более того, приложение способно анализировать социальную составляющую по трем типам: открытость, выражение согласия, честность (добросовестность) — и определять стиль изложения. Аналитический стиль изложения показывает стремление автора сообщения к анализу, осмыслению сути вещей; уверенность отражает степень убежденности в чем-либо; осторожность — склонность к осмыслению поступательного развития событий15.

Оценка восприятия информационного материала (А/Б-тестирование) — также набирающая популярность в СМИ технология. Если автор хочет протестировать, как его материал будет востребован в нескольких целевых группах или как

15 IBM Watson Tone Analyzer помогает сделать общение между людьми более эффективным // habr. 2015. URL: https://habr. com/ru/company/ibm/blog/367747.

будут восприняты различные варианты одной и той же публикации, то решение этой задачи можно полностью автоматизировать: «Алгоритмы могут использовать одни и те же данные, чтобы рассказывать истории на разных языках и под разными углами, тем самым персонализируя их в соответствии с предпочтениями читателей» [1, с. 17].

Выявление фейковых новостей также становится задачей, с решением которой успешно справляются алгоритмы, основанные на искусственном интеллекте [12]. Ли Кай-Фу описывает историю успеха китайской компании Тои^ао. Первоначально она использовала вводящие в заблуждение тексты, о которых сообщали читатели. По существу, это была бесплатная разметка данных. Затем Тои^ао с помощью этих помеченных данных научила алгоритм самостоятельно распознавать фальшивые новости, после чего — отдельный алгоритм такие новости создавать. Далее оба алгоритма заставили соревноваться в том, чтобы обмануть друг друга, и в процессе этой борьбы они совершенствовались. Основанный на искусственном интеллекте подход к контенту принес компании огромную прибыль [13, с. 113].

Одной из ярких особенностей функционирования современных СМИ является вынужденная конкуренция с блогерами, видеоблогера-ми, микроблогерами и прочими интернет-субъектами за внимание потребителя. Чтобы выжить, современной журналистике нужна реклама, а рекламные бюджеты, как известно, приходят туда, где больше всего пользователей, лайков, просмотров, комментариев и перепостов.

Таким образом, невозможно анализировать применение искусственного интеллекта в такой сфере, как журналистика, в отрыве от характеристики потребления произведенного контента, потому что журналистика не существует сама для себя, журналистика (пока еще) нужна обществу. «Мы — плоть от плоти — продукт информационной среды. А сейчас она изменилась не просто содержательно, как это происходило на прежних культурных сломах, но и структурно: современный человек зависим до степени патологии», — пишет А.В. Курпатов [2, с. 385].

В 2017 г. профессор Хюн Сук Сео с группой исследователей Корейского университета в Сеуле провел первое комплексное исследование пациентов с цифровой зависимостью, которое доказало, что речь идет именно о наркомании. Для того чтобы показать наркотическую природу цифровой зависимости, ученые собрали две группы добровольцев: одна группа была представлена подростками, страдающими цифровой зависимостью, вторая — зависимыми от наркотиков и алкоголя. Проведенные с помощью магнитно-резонансного томографа, способного фиксировать химические изменения в различных отделах мозга, тесты показали, что цифровая зависимость приводит к тем же изменениям, что и традиционные виды наркомании.

«Развитие телефонной зависимости ведет к повышению концентрации гамма-аминомасляной кислоты (ГАМК), главного "тормоза" мозга, в передней поясной коре и нарушению баланса между ГАМК и глутаматом, другой важной сигнальной молекулой нервной системы.

Изучение этого процесса может помочь нам понять, как возникают другие виды зависимости», — отмечают авторы исследования. Как показали результаты исследований, развитие телефонной наркомании влияет на работу мозга на химическом уровне и приводит к серьезным изменениям в той части коры мозга, которая отвечает за импульсивное поведение и чувство тревожности16.

Информационная зависимость, возникающая вследствие бесконечного поиска информации по сайтам и ее потребления, сегодня выделяется наряду с такими поведенческими зависимостями, как:

- киберсексуальная зависимость, характеризующаяся непреодолимым влечением к посещению порносайтов и занятию киберсексом;

- пристрастие к виртуальным знакомствам, проявляющееся в наличии избыточного числа знакомых и друзей в Интернете;

- навязчивая потребность в трате денег, выражающаяся в совершении покупок и/или участии в аукционах;

- игровая зависимость как навязчивое желание беспрерывно играть в компьютерные игры [14, с. 23-24].

«Наш мозг не справляется с надвигающимся информационным штормом, наше мышление уплощается и примитивизируется. Вкупе же с утратой всяких социальных иерархий при ложной трактовке понятия «свобода мнений» («личное мнение» должно подкрепляться структурой фактов, а не личным же мнением) это приводит к тотальной

16 Ученые выяснили, какие последствия вызывает телефонная зависимость // РИА Новости. 2017. URL: https://ria. ru/20171130/1509920071.html.

неспособности к обучению и развитию», — предостерегает А.В. Курпа-тов [2, с. 385]. Добавим к этому, что проблемы информационной зависимости и примитивизации мышления серьезно усугубляются под воздействием эффектов «эхокамеры» и «информационного пузыря» («пузыря фильтров»).

«Эхокамера» описывается как социальный паттерн, в котором люди с определенными убеждениями предпочитают общаться друг с другом, благодаря чему эти убеждения многократно усиливаются вследствие постоянного повторения и подкрепления [15, р. 203]. При этом подобные сообщения заглушают другие информационные потоки, и в результате любые высказывания приводят не к дискуссиям, а к поддакиванию и поддержке единомышленников. В эту закрытую систему альтернативная информация не проникает: в социальных сетях пользователи предпочитают окружать себя виртуальными собеседниками, разделяющими их взгляды, что усиливает их убеждения и одновременно с этим искажает общую картину действительности. Адресат формирует сообщение, которое получают его единомышленники, они его повторяют (зачастую преувеличивая и искажая информацию) до тех пор, пока большинство людей не предположат, что некоторые вариации этой истории являются правдой. Складывается ситуация, когда все уже сказано и новая информация может быть допущена «только по принципу калейдоскопа: смешение определенных элементов дает все новые комбинации». Доминирующая логика лишает свободы и «запирает в клетку» взгляды и убеждения от-

дельного человека, заключая его в изолированной и заглушенной «эхо-камере» [16, p. 35].

Что касается средств массовой информации, то эффект «эхокаме-ры» многократно усиливается другим явлением современной меди-асреды — «информационным пузырем». В «эхокамере» пользователи попадают под напор информации от единомышленников, тогда как «пузырь фильтров» — это следствие действия алгоритмов, подбирающих контент на основе предшествующего поведения пользователя в Интернете. Так, издание The Washington Post еще в 2016 г. сообщало о 98 маркерах, за которыми скрываются персональные данные, на основе которых рекламодатели предлагают пользователям Facebook таргетиро-ванную рекламу [17]. В итоге сайты показывают только информацию, которая является производной от предыдущих действий пользователя, и отсекают все не связанные с этими действиями сведения, погружая пользователя в своего рода информационное слепое пятно [18].

Каждое действие пользователя в поисковых системах и социальных сетях приводит к тому, что результаты становятся все более персонализированными. Так, если у пользователя есть два друга в социальной сети, один из которых делает посты с поддержкой президента, а другой — с его критикой, и пользователь делится первыми, а вторые игнорирует, то постепенно в его ленте будут появляться посты со все более ярко выраженной высокой оценкой президента. Соответственно, он получает намного меньше противоречащей своей точке зрения информации и становится интеллек-

туально изолированными в своем собственном «информационном пузыре». И. Парайзер приводит пример, когда один пользователь искал информацию в Google по запросу British Petroleum и в ответ получил только инвестиционные новости о компании British Petroleum; тогда как другой пользователь, отправив такой же запрос, получил в ответ информацию о взрыве нефтяной платформы Deepwater Horizon, и эти страницы с результатами поиска «разительно различались» между собой [18]. Таким образом, «пузырь фильтров» вреден как для отдельной личности, так и для общества в целом, поскольку он влияет на формирование гражданского мнения и делает людей более уязвимыми перед пропагандой и манипуляциями. И если А.В. Курпатов пишет, что «случилось то, к чему прежние элиты государства готовы не были: традиционные СМИ больше не создают единой платформы для общественной дискуссии, не формируют информационную повестку» [2, с. 338], то также можно смело утверждать, что «единую платформу» теперь создает себе сам пользователь при деятельном участии технологий искусственного интеллекта.

Знаменитый изобретатель и футуролог Рей Курцвейл руководит командой, создающей технологию, которая сможет воспроизводить нервную систему человека и, таким образом, превратится в его «компьютерного друга». Р. Курцвейл поясняет, что «система будет знать на семантически глубоком уровне все то, чем вы интересуетесь, а не только основные темы ваших интересов. Я предполагаю, что через несколько лет система сможет дать пользовате-

лю ответы на большинство вопросов раньше, чем эти вопросы будут заданы, ведь система будет досконально знать все то, что интересует вас и что вы хотите увидеть». Иными словами, пользователь будет получать индивидуальные ответы на поисковые запросы, которые будут учитывать и его опыт в Интернете, и контекст его интересов, и даже его характер и темперамент — все это Р. Курц-вейл называет «эмоциональным интеллектом», оказывающим более сильное влияние на интересы, чем жажда информации и аналитические способности. Это приведет к такому симбиозу человека с компьютером, при котором инициатива незаметно перейдет от пользователя к компьютеру, а последний под видом «угадывания» будет формировать и направлять интересы человека [19, с. 49].

Технология Рея Курцвейла не кажется фантастикой после экспериментов в социальных сетях в ходе предвыборной президентской кампании 2016 г. в США. Победу Дональда Трампа на этих выборах отчасти связывают с применением результатов исследований Михаила Козинского. Занимаясь психометрией, М. Козинский в 2008 г. запустил приложение для Facebook под названием MyPersonality, которое предлагало пользователям бесплатно пройти тест OCEAN и получить результаты по пяти показателям: открытость (готовность к новому), добросовестность (перфекционизм), экстраверсия (отношение к социуму), доброжелательность (дружелюбность и готовность к сотрудничеству) и нейротизм (насколько легко человека вывести из себя). Впервые в истории психологических исследований команда М. Козинского по-

лучила информацию по миллионам протестированных пользователей, а затем — поскольку условием прохождения теста значилось предоставление доступа к информации и действиям испытуемых в социальной сети — исследователи изучили их пол, возраст и место жительства, а также лайки и репосты в Facebook и сформировали выводы о наличии связей между особенностями личности и поведением в социальных сетях.

В 2012 г. Козинский доказал, что достаточно анализа 68 лайков в Facebook, чтобы определить цвет кожи испытуемого (с вероятностью в 95 %), его гомосексуальность (88 % вероятности) и приверженность Демократической или Республиканской партии США (85 % вероятности). В ходе дальнейших исследований стало ясно, что модель позволяет сделать выводы об интеллектуальном развитии, религиозных предпочтениях, вредных привычках и пр.

Исследования М. Козинского взяла на вооружение интернет-компания Cambridge Analytica, специализирующаяся на Big Data, отработав эту методологию в ходе референдума по поводу выхода Великобритании из Евросоюза. 19 сентября 2016 г. директор Cambridge Analytica А. Никс, известный также как «digital-специалист Трампа», в ходе презентации деятельности своей компании объявил, что маркетинговый успех Cambridge Analytica основан на трех китах: психологическом поведенческом анализе, изучении Big Data и таргетированной рекламе. «Мы в Cambridge Analytica разработали модель, которая позволит высчитать личность каждого совершеннолетнего гражданина США», — пояс-

нил А. Никс, указав, что его фирма закупает персональные данные из всех возможных источников: кадастровые списки, бонусные программы, телефонные справочники, клубные карты, газетные подписки, медицинские данные. Затем Cambridge Analytica «скрещивает» эти данные со списками зарегистрированных сторонников Республиканской партии и данными по лайкам-репостам в Facebook, в результате чего получается личный профиль по методу OCEAN, и цифровые данные демонстрируют людей со страхами, стремлениями, интересами и адресами проживания. А. Никс также заявил, что у Cambridge Analytica имеются психограммы всех совершеннолетних американцев (220 млн человек), и на примере закона о свободном распространении оружия продемонстрировал, каким образом осуществляется воздействие на отдельных пользователей: «Для боязливых людей с высоким уровнем нейротиз-ма мы представляем оружие как источник безопасности. Вот на левой картинке изображена рука взломщика, который разбивает окно. А на правой картинке мы видим мужчину с сыном, которые идут по полю с винтовками навстречу закату. Очевидно, утиная охота. Эта картинка для богатых консерваторов-экстравертов».

В день третьих дебатов между Трампом и Клинтон команда Трампа отправила в соцсети (преимущественно Facebook) свыше 175 тыс. различных вариаций посланий. Они различались лишь в мельчайших деталях, чтобы максимально точно психологически подстроиться под конкретных получателей информации: заголовки и подзаголовки, фо-

новые цвета, использование фото или видео в посте. Филигранность исполнения позволяет сообщениям находить отклик у мельчайших групп населения. «Таким способом мы можем дотянуться до нужных деревень, кварталов или домов, даже до конкретных людей», — резюмирует А. Никс. Так, чтобы разубедить население квартала Маленький Гаити в Майами отдавать свои голоса за Клинтон, жителям, проживающим в этом квартале, в Facebook демонстрировали информацию об отказе Фонда Клинтон участвовать в ликвидации последствий землетрясения в Гаити. Использовались и так называемые темные посты Facebook: платные объявления посреди ленты новостей, которые могли попадаться только определенным группам лиц. Например, афроамериканцам показывали посты с видео, на котором Клинтон сравнивала чернокожих мужчин с хищниками.

В июле 2016 г. волонтеры кампании Трампа получили приложение, которое подсказывало политические предпочтения и личностные типы жителей того или иного дома. Исходя из этих данных, агитаторы модифицировали свой разговор с потенциальными избирателями. Обратную реакцию волонтеры записывали в это же приложение, и собираемые данные стекались в аналитический центр Cambridge Analytica.

Cambridge Analytica выявила 32 психотипа американских граждан, сконцентрировавшись лишь на 17 штатах. Исследования компании, в частности, доказали, например, что приверженцы американского автопрома, скорее всего, являются сторонниками Трампа, а подобные открытия помогли самому Трампу

понять, какие послания где и когда лучше всего применять. Так, решение предвыборного штаба сконцентрироваться в последние недели на Мичигане и Висконсине было принято на основе анализа данных Cambridge Analytica [20].

Психиатр А.В. Курпатов назвал свою книгу о жизни человека в эпоху искусственного интеллекта «Четвертая мировая война». Ученый констатирует, что в настоящее время мир находится в состоянии третьей мировой войны — с исламским фундаментализмом, а четвертая мировая война будет происходить между человечеством и искусственным интеллектом. «Все дело в том, что нейронное или генетическое программирование предполагает цель, ради которой данный интеллект создается. Любая умная система, движимая своей целью, сделает все возможное, чтобы избежать гибели, — ведь если она «умрет», то ее цель не будет достигнута. То есть искусственный интеллект, вполне возможно, обзаведется скоро не только языком... но и чем-то вроде инстинкта самосохранения. Последующие же итерации его постоянного самосовершенствования сделают совершенно бессмысленными всякие наши попытки его сдержать или выключить. При этом в том, что в какой-то момент нам захочется его сдержать, а потом и выключить, сомневаться не приходится. Дело в том, что инстинкт самосохранения вынудит суперинтеллект создавать новые цели, для достижения которых ему потребуются новые ресурсы, а мы с вами — поскольку состоим из молекул и атомов — и есть, в частности и кроме прочего, такой ресурс, проще говоря, кормовая база.

Да, нам, возможно, очень захочется его выключить. Но мы не сможем» [2, с. 201].

Пока человек еще управляет искусственным интеллектом, он, безусловно, будет использовать его возможности не только во благо, но и во вред, а также стремясь к превосходству над себе подобными. Стоит признать, что средства массовой информации в этой битве в большинстве своем не на стороне человеческого интеллекта. «Кли-кабельность», «читабельность», «смотрибельность», «прослушива-тельность» являются маркерами продаваемости именно потому, что для восприятия такой информации не требуется сделать над собой дополнительное волевое усилие, напротив — усилие воли требуется приложить, чтобы удержаться от потребления: «Мозг последовательно совершает выбор в пользу все более простых "раздражителей", а индустрия, подстраиваясь под этот запрос, предлагает все более примитивный контент» [2, с. 286-287].

Так, в Китае лидером среди программных продуктов, применяющих искусственный интеллект для алгоритмизации и редактирования новостей, является Jinri Тоийао (что означает «Сегодняшние заголовки»). Механизмы искусственного интеллекта Тои^ао ищут в Интернете контент, используя инструменты обработки естественного языка и компьютерного зрения для анализа материалов широкой сети партнерских сайтов и утвержденных источников. Затем они, опираясь на прошлое поведение своих пользователей — их клики, данные о прочтении, мнения, комментарии и т.д., создают персонализированные новости, соответ-

ствующие интересам каждого человека. Алгоритмы приложения даже меняют заголовки, чтобы увеличить число кликов. И чем больше этих кликов, с тем большей точностью Тои^ао будет предлагать им контент, который они хотели бы увидеть. Эта положительная обратная связь позволила создать одну из самых востребованных платформ контента в Интернете, в приложении которой пользователи проводят в среднем по 74 минуты в день [13, с. 112-113].

Таким образом, непроизвольное внимание пользователя обменивается СМИ на рекламные деньги, а реклама — с учетом современных достижений в области таргетирова-ния — попадает точно в цель. Информация стала легкодоступным и

практически легальным наркотиком, а ее адресаты расплачиваются тем, что превращаются в идеальных потребителей.

В этом смысле высказывания В.В. Путина о том, что «скорость создания новых продуктов и решений растет в геометрической прогрессии» и «если кто-то сможет обеспечить монополию в искусственном интеллекте, то станет властелином мира» [21], более чем относятся и к сфере массовых коммуникаций. Вот только средствам массовой информации — совместно с государством и гражданским обществом — еще предстоит осмыслить, к каким последствиям может привести владение этим новым совершенным инструментом.

СПИСОК ИСПОЛЬЗОВАННОЙ ЛИТЕРАТУРЫ

1. Мамедьяров З. Диктатура платформ / З. Мамедьяров // Эксперт. — 2019. — № 28. — С. 13-17.

2. Курпатов А.В. Четвертая мировая война. Будущее уже рядом! / А.В. Курпатов. — Санкт-Петербург, 2019. — 400 с.

3. Гурова Т. Хакнуть человечество / Т. Гурова // Эксперт. — 2019. — № 3. — С. 40-48.

4. Reese H. Understanding the differences between Ai, machine learning, and deep learning / H. Reese // TechRepublic. — 2017. — URL: https://www.techrepublic.com/article/ understanding-the-differences-between-ai-machine-learning-and-deep-learning.

5. Боровская Е.В. Основы искусственного интеллекта / Е.В. Боровская, Н.А. Давыдова. — Москва : Бином. Лаборатория знаний, 2018. — 127 с.

6. Мирошниченко М. Робото-журналистика: вкалывают роботы — счастлив человек? / М. Мирошниченко // TexTerra. — 2015. — URL: https://texterra.ru/blog/roboto-zhurnalistika-vkalyvayut-roboty-schastliv-chelovek.html.

7. Colford P. A leap forward in quarterly earnings stories / P. Colford // Definitive Source. — 2014. — URL: https://blog.ap.org/announcements/a-leap-forward-in-quarterly-earnings-stories.

8. Adams C.J. New York Times: Using AI to host better conversations / C.J. Adams // The Keyword. — 2018. — URL: https://www.blog.google/technology/ai/new-york-times-using-ai-host-better-conversations.

9. Kobie N. Reuters is taking a big gamble on Al-supported journalism / N. Kobie // WIRED. — 2018. — URL: https://www.wired.co.uk/article/reuters-artificial-intelligence-jour-nalism-newsroom-ai-lynx-insight.

10. Chua R. The cybernetic newsroom: horses and cars / R. Chua // Reuters. — 2018. — URL: https://www.reuters.com/article/rpb-cyber-idUSKCN1G00Z0.

11. O'Connor S. My battle to prove I write better than an AI robot called 'Emma' / S. O'Connor // Financial Times. — 2016. — 4 May.

12. Graves L. Understanding the Promise and Limits of Automated Fact-Checking Author / L. Graves // Factsheet. — 2018. — URL: https://agency.reuters.com/content/dam/ openweb/documents/pdf/news-agency/report/reuters-institute-graves-factsheet-180228.pdf.

13. Ли Кай-Фу. Сверхдержавы искусственного интеллекта. Китай, Кремниевая долина и новый мировой порядок / Кай-Фу Ли. — Москва : Манн, Иванов и Фербер, 2019. — 240 с.

14. Социальные факторы риска возникновения интернет-зависимости : монография / Т.Н. Светличная, Е.А. Смирнова, А.П. Суходолов [и др.] ; под ред. Г.А. Ковалевой, А.А. Меховой. — Череповец : Изд-во ЧГУ, 2018. — 200 с.

15. Petrov A. Modeling Propaganda Battle: Decision-Making, Homophily, and Echo Chambers / A. Petrov, O. Proncheva // Communications in Computer and Information Science. — 2018. — Vol. 930. — P. 197-209.

16. Hall J.K. Echo Chamber: Rush Limbaugh and the Conservative Media Establishment / J.K. Hall, J.N. Cappella. — New York : Oxford Univ. Press, 2008. — 320 p.

17. Dewey C. 98 personal data points that Facebook uses to target ads to you / C. Dewey // The Washington Post. — 2016. — 19 Aug.

18. Pariser E. The Filter Bubble: What the Internet Is Hiding from You / E. Parizer. — New York : Penguin Press, 2011. — 304 p.

19. Четверикова О. Трансгуманизм в российском образовании. Наши дети как товар / О. Четверикова. — Москва : Кн. мир, 2018. — 384 с.

20. Grassegger H. Ich habe nur gezeigt, dass es die Bombe gibt / H. Grassegger, M. Krogerus // Das Magazin. — 2019. — 27 Aug.

21. Латухина К. Путин назвал условие господства в мире / К. Латухина // Российская газета. — 2019. — 30 мая.

REFERENCES

1. Mamedyarov Z. Dictatorship of platforms. Ekspert = Expert, 2019, no. 28, pp. 13-17. (In Russian).

2. Kurpatov A.V. Chetvertaya mirovaya voina. Budushchee uzhe ryadom! [World War IV. The Future is Near!]. Saint Petersburg, 2019. 400 p.

3. Gurova T. To Hack the Humanity. Ekspert = Expert, 2019, no. 3, pp. 40-48. (In Russian).

4. Reese H. Understanding the Differences between AI, Machine Learning, and Deep Learning. TechRepublic, 2017. Available at: https://www.techrepublic.com/article/understand-ing-the-differences-between-ai-machine-learning-and-deep-learning.

5. Borovskaya E.V., Davydova N.A. Osnovy iskusstvennogo intellekta [Fundamentals of Artificial Intelligence]. Moscow, Binom. Laboratoriya Znanii Publ., 2018. 127 p.

6. Miroshnichenko M. Robot-journalism: robots are jetting up, but are humans happy? TexTerra, 2015. Available at: https://texterra.ru/blog/roboto-zhurnalistika-vkalyvayut-roboty-schastliv-chelovek.html. (In Russian).

7. Colford P. A leap forward in quarterly earnings stories. Definitive Source, 2014. Available at: https://blog.ap.org/announcements/a-leap-forward-in-quarterly-earnings-stories.

8. Adams C.J. New York Times: Using AI to host better conversations. The Keyword, 2018. Available at: https://www.blog.google/technology/ai/new-york-times-using-ai-host-bet-ter-conversations.

9. Kobie N. Reuters is taking a big gamble on AI-supported journalism. WIRED, 2018. Available at: https://www.wired.co.uk/article/reuters-artificial-intelligence-journalism-news-room-ai-lynx-insight.

10. Chua R. The cybernetic newsroom: horses and cars. Reuters, 2018. Available at: https://www.reuters.com/article/rpb-cyber-idUSKCN1G00Z0.

11. O'Connor S. My battle to prove I write better than an AI robot called 'Emma'. Financial Times, 2016, May 4.

12. Graves L. Understanding the Promise and Limits of Automated Fact-Checking Author. Factsheet, 2018. Available at: https://agency.reuters.com/content/dam/openweb/doc-uments/pdf/news-agency/report/reuters-institute-graves-factsheet-180228.pdf.

13. Li Kai-Fu. Sverkhderzhavy iskusstvennogo intellekta. Kitai, Kremnievaya dolina i novyi mirovoi poryadok [AI Superpowers. China, Silicon Valley and the New World Order]. Moscow, Mann, Ivanov i Ferber Publ., 2019. 240 p.

14. Svetlichnaya T.N., Smirnova E.A., Sukhodolov A.P., Bychkova A.M., Vorobeva I.N.; Kovaleva G.A., Mekhova A.A. (eds). Sotsial'nye faktory riska vozniknoveniya internet-zavisimosti [Social Factors of Internet Addiction Risk]. Cherepovets State University Publ., 2018. 200 p.

15. Petrov A., Proncheva O. Modeling Propaganda Battle: Decision-Making, Homophily, and Echo Chambers. Communications in Computer and Information Science, 2018, vol. 930, pp. 197-209.

16. Hall J.K., Cappella J.N. Echo Chamber: Rush Limbaugh and the Conservative Media Establishment. New York, Oxford University Press, 2008. 320 p.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

17. Dewey C. 98 personal data points that Facebook uses to target ads to you. The Washington Post, 2016, August 19.

18. Pariser E. The Filter Bubble: What the Internet Is Hiding from You. New York, Penguin Press, 2011. 304 p.

19. Chetverikova O. Transgumanizm v rossiiskom obrazovanii. Nashi deti kak tovar [Transhumanism in Russian education. Our children as commodities]. Moscow, Knizhnyi Mir Publ., 2018. 384 p.

20. Grassegger H., Krogerus M. Ich habe nur gezeigt, dass es die Bombe gibt. Das Magazin, 2019, August 27.

21. Latukhina K. Putin names the condition for global leadership. Rossiiskaya gazeta, 2019, May 30. (In Russian).10. Solganik G.Ya. To the Definition of «Text» and «Media Text». Vestnik Moskovskogo universiteta. Seriya 10: Zhurnalistika = Moscow University Journalism Bulletin, 2005, no. 2, pp. 7-15. (In Russian).

ДЛЯ ЦИТИРОВАНИЯ

Суходолов А.П. Журналистика с искусственным интеллектом / А.П. Суходолов, А.М. Бычкова, С.С. Ованесян. — DOI: 10.17150/2308-6203.2019.8(4).647-667 // Вопросы теории и практики журналистики. — 2019. — Т. 8, № 4. — С. 647-667.

FOR CITATION

Sukhodolov A.P., Bychkova A.M., Ovanesyan S.S. Journalism Featuring Artificial Intelligence. Voprosy teorii i praktiki zhurnalistiki = Theoretical and Practical Issues of Journalism, 2019, vol. 8, no. 4, pp. 647-667. DOI: 10.17150/2308-6203.2019.8(4).647-667. (In Russian).

i Надоели баннеры? Вы всегда можете отключить рекламу.