ИНТЕРНЕТ-ТЕХНОЛОГИИ В ЖУРНАЛИСТИКЕ
А. Д. Иванов
РОБОТИЗИРОВАННАЯ ЖУРНАЛИСТИКА
И ПЕРВЫЕ АЛГОРИТМЫ НА СЛУЖБЕ РЕДАКЦИЙ МЕЖДУНАРОДНЫХ СМИ
В статье рассказывается о становлении и развитии автоматизированной журналистики на примере передового опыта крупных международных СМИ («The Guardian», «LA Times», «Forbes», «Associated Press», «BBC»). В статье анализируются результаты работы исследователей в области интернет-журналистики по изучению алгоритмов для написания текстов, роботов-журналистов и других инструментов для автоматизации журналистских процессов. В статье автор предпринимает попытку внедрения актуальной терминологии на русском языке, описывающей новые явления в журналистике.
Ключевые слова: информационное общество, автоматизированная журналистика, алгоритмическая журналистика, вычислительная журналистика, роботизированная журналистика, журналистика данных, технология, робот-журналист, автоматизированный алгоритм, контент.
Сообщения о запуске роботов-журналистов в крупных международных медиа уже мало кого удивляют: одни кибер-журналисты готовят сообщения о землетрясениях, другие - финансовые сводки, а третьи и вовсе создают репортажи, почти не отличимые от человеческих. Неискушенный читатель практически не сможет ощутить разницы между текстом, написанным с использованием математических алгоритмов, и авторским материалом - настолько быстро и качественно развиваются системы автоматизации журналистских процессов.
В эпоху, когда оперативность публикации новостей является одной из главных основ для коммерческой успешности крупного средства массовой информации, счет идет на секунды. И если человеческих возможностей уже недостаточно, чтобы оставаться лидером рейтингов цитируе-мости и сохранять статистику миллионных просмотров онлайн-ресурса, медиагиганты идут на отчаянный шаг - начинают тестировать роботов в своей работе.
Такой сценарий до недавнего времени можно было видеть лишь в футуристических книгах или фильмах, однако современные технологии дают возможность программистам создавать автоматизированные алгоритмы для составления текстов на основе имеющихся данных. В основе всех роботов-журналистов, которые сегодня представлены на медиарынке, лежит, казалось бы, простой механизм «подставления» актуальных данных в заранее заготовленные шаблоны. Но с каждой новой версией робота шаблоны становятся все более нешаблонными, а данные кибер-журналист не просто копирует из оперативного отчета какой-либо службы, а учится самостоятельно находить и обрабатывать информацию.
Для того чтобы приступить к изучению опыта передовых средств массовой информации в использовании алгоритмов и роботов-журналистов, необходимо основательно разобраться в терминологии, поскольку данная область является слабоизученной в силу быстрого развития. В иностранной научной литературе существует несколько терминов, описывающих новый этап журналистики, связанный с использованием компьютерной техники и основ кибернетики для решения различных задач в сфере медиа. Но аналогичной устоявшейся терминологии на русском языке пока не существует.
Термин «computational journalism» («вычислительная журналистика») впервые звучит в 2009 году в работе исследователей из Стэндфордского университета (Стэнфорд, США) профессора Джеймса Гамильтона (James T. Hamilton) и доцента Фреда Тёрнера (Fred Turner) [1]. В их интерпретации «computational journalism» означает комбинацию алгоритмов, данных («data») и знаний в сфере общественных наук, дополняющих т.н. журналистику ответственности («accountability journalism», категория деловой журналистики). Речь в работе американских ученых идет о становлении журналистики, основанной на статистических данных, а также об использовании всевозможных баз знаний для подготовки аналитических материалов на разные темы, которые, по
мнению профессора Гамильтона, увеличивают значимость профессии журналиста в обществе и помогают решать социальные проблемы. В заключении к своей работе ученые делают несколько предположений о том, как дальше будет развиваться новая сфера. По мнению исследователей, компьютеры не смогут заменить людей, а будут лишь расширять их возможности: будут появляться различные инструменты для сбора и анализа больших статистических данных, которые помогут журналистам находить новые темы для публикаций.
Хотя в работе американца и появляется выражение «robotic reporters», современного содержания термин не несет - ученые говорят больше о развитии автоматизированных инструментов для работы с данными, чем об алгоритмах для написания журналистских текстов без участия человека.
Вслед за исследователями из Стендфордского университета о появлении «вычислительной журналистики» и нарастающей важности работы со статистическим данными говорит доцент медиа-культуры городского университета Нью-Йорка Кристофер Андерсон (Christopher W. Anderson) [2].
Все больший интерес к автоматизации журналистики начинает проявлять научное сообщество с появлением первых прототипов роботов-журналистов. Так, в 2010 году, сразу после презентации разработчиками из Токио андройда-журналиста, способного благодаря датчикам и камере анализировать происходящие вокруг него события и готовить информационные отчеты об этом, Росс Доусон (Ross Dawson) публикует в своем блоге материал о возможности автоматизации журналистских процессов (http://rossdawsonblog.com/weblog/archives/2010/04/the_rise_of_ rob.html). Доусон на коммерческой основе выступает спикером на профессиональных форумах и конференциях крупных компаний («ABC», «American Express», «Canon», «Google», «Toyota», «Visa» и др.) и называет себя «всемирно признанным футуристом, предпринимателем, исследователем и автором ряда бестселлеров в области новых технологий». В своих рассуждениях Росс Доусон приходит к выводу о «заменимости» журналистов машинами. Эту же идею в 2012 году разрабатывает датский ученый Арьен ван Дален (Arjen Van Dalen) в своей работе «The algorithms behind the headlines: How machine-written news redefines the core skills of human journalists» («За заголовками стоят алгоритмы: как новости, написанные машинами, заново определяют ключевые навыки людей-журналистов») [3]. В связи с развитием алгоритмов исследователь говорит о том, что автоматизированы будут все процессы, которые в принципе поддаются автоматизации. Это становится поводом для того, чтобы пересмотреть компетенции, которыми должен владеть журналист, а также задачи, которые он должен выполнять.
Ван Дален выделяет как положительные черты роботов-журналистов (низкая стоимость работы и скорость подготовки материалов), так и отрицательные (отсутствие стиля и юмора, шаблонность и невозможность использовать сложный живой язык). Автор считает, что главное оружие журналиста в конкуренции с машинами - его творческие навыки и личность в широком смысле слова, которые позволяют писать глубокие материалы, наблюдать и анализировать события. Соответственно, заключает автор, с появлением роботов-журналистов люди вынуждены создавать более качественный контент, чтобы выжить.
Для описания новых явлении датский исследователь использует в своей работе термины «robot journalism» («роботизированная журналистика») и «automated news content» («автоматизированный новостной контент»).
Российские медиаисследователи, к сожалению, не так активно изучают эту сферу интернет-журналистики, поэтому крупных работ на русском языке по изучению роботов-журналистов нам найти не удалось. Упоминания о перспективах роботизации новостного контента есть в исследовании А. А. Калмыкова и Л. А. Кохановой «Интернет-журналистика». Определяя место интернет-журналистики в постиндустриальном (информационном) обществе, российские ученые говорят о широком использовании в медиа технологий представления (презентации) знаний, а также о роботизации новостных потоков.
Главный редактор русскоязычного издания «Медуза» (medusa.io) Галина Тимченко считает, что никакого противостояния между «human-driven media» и «data-driven media» не существует, а есть противостояние между людьми, которые верят и не верят в симбиоз машины и человека.
«Я действительно считаю, что 90 % черновой работы по подготовке текстов можно отдать машине, но 10 % - самую важную часть - все равно будет выполнять журналист или редактор. Не стоит путать медиасервис и средства массовой информации», - заключила Галина Тимченко
во время дискуссии с Дмитрием Степановым, руководителем направления медиасервисов «Яндекса» 4 декабря на ежегодной конференции «MediaMakers 2015».
По мнению Галины Тимченко, издания не должны выдавать читателю то, что он хочет получить, или то, что ему будет интересно. «СМИ показывают реальную картину, а не то, что хочет видеть читатель. Помимо отбора информации, её переупаковки и осмысления, издания занимаются ранжированием. И именно с этой функцией машины справляются хуже всего, так как робот мыслит понятием «конкретный человек», а не «вся аудитория».
На наш взгляд, важно провести границу между существующими терминологическими единицами, чтобы исключить неправильную трактовку изучаемых явлений.
Под дата-журналистикой («Data Journalism») мы будем понимать направление в журналистике, связанное с обработкой большого массива данных с последующим анализом и представлением для аудитории в понятном виде (текстовом или графическом). Используя термин «вычислительная журналистика» («Computational Journalism»), мы будем делать акцент не на форме и содержании преобразованных данных, а на использовании вычислительных алгоритмов для анализа информации с целью выявления неочевидных фактов.
Совершенно иное значение мы вкладываем в понятия «роботизированная журналистика» «Robotic Journalism»), «автоматизированная журналистика» и «алгоритмическая журналистика» («Algorithmic Journalism»). Семантическое значение этих синонимичных терминов сводится к указанию на использование особых автоматизированных инструментов («роботов», «ботов», и в т. ч. «алгоритмов») для выполнения журналистских функций по сбору и обработке информации, а также для написания готовых текстов без участия человека.
Таким образом, в рамках данной статьи мы будем изучать именно автоматизированную журналистику, связанную с внедрением инструментов, заменяющих журналистский труд роботизированным.
Исследовать практику применения средствами массовой информации алгоритмов для написания текстов мы будем на основе четырех примеров использования роботов-журналистов: «Narrative Science» в «Forbes», «Quakebot» в «Los Angeles Times», «GUARBOT» в «The Guardian», «Wordsmith» в «Associated Press» и в сервисе «Яндекс для медиа».
«Narrative Science»
Одним из самых первых алгоритмов для написания текстов, запущенных в работу реального крупного СМИ, стал «Narrative Science», используемый для подготовки экономических отчетов «Forbes» о перспективах корпораций. Данная система обработки статистических данных (т.н. «big data») была разработана в 2010 году в одноименной чикагской компании «Narrative Science» и первое время предназначалась для создания материалов по спортивной тематике.
В ходе первого публичного тестирования алгоритм «Narrative Science» должен был подготовить небольшой текст по итогам университетского бейсбольного матча (данные об итогах и ключевых событиях игры в программу вносили сами разработчики). Одновременно с роботом работал спортивный репортер. Во время игры питчер (подающий мяч) повторил рекорд 10-летней давности - аналогичный результат был достигнут в 2002 году в матче Национальной ассоциации студенческого спорта США. Информацию об этом журналист поместил в последний абзац, в то время, как программа использовала факт в самом начале заметки: «Tuesday was a great day for W. Roberts, as the junior pitcher threw a perfect game to carry Virginia to a 2-0 victory over George Washington at Davenport Field».
За несколько лет алгоритм «Narrative Science» в значительной степени был усовершенствован, и сегодня умеет не просто структурировать текст по абзацам, параграфам и страницам, но и варьировать стиль написания, используемую лексику и уровень статистической детализации. Кристиан Хаммонд (Kristian Hammond), технический директор и соучредитель «Narrative Science», еще в 2012 году высказал полную уверенность в том, что к 2017 году текст, написанный машиной, получит Пулитцеровскую премию (http://www.wired.com/2012/04/can-an-algorithm-write-a-better-news-story-than-a-human-reporter/all/).
В 2012 году разработкой заинтересовались в Forbes - публикации с пометкой «Narrative Science» до сих пор можно встретить в онлайн-ленте издания (http://www.forbes.com/sites/ narrativescience/). Человек лишь выполняет редакторские функции, поправляя стилистику в соз-
данных алгоритмом текстах. Однако для подготовки отчета с помощью «Narrative Science» необходимо вручную собрать статистическую информацию и загрузить её в программу.
«Quakebot»
В марте 2014 года на сайте о ежедневного онлайн-журнала «Slate» появилось небольшое интервью (http://www.slate.com/blogs/future_tense/2014/03/17/quakebot_los_angeles_times_robot_ journalist_writes_article_on_la_earthquake.html) с журналистом и программистом газеты «Los Angeles Times» Кеном Швенке (Ken Schwencke), который поделился информацией о запуске разработанного им алгоритма по написанию срочных новостей о землетрясениях.
Благодаря «Quakebot» в ленте «LA Times» информация о произошедшем землетрясении появляется в течение 3 минут - зачастую за это время в реальных условиях данные еще не успевают поступать к журналисту, которому требуется дополнительное время для получения подтверждения информации и написания материала. Сам алгоритм, по словам Швенке, был разработан еще пару лет назад и на его базе уже созданы аналогичные роботы, которые, например, подготавливают информацию об убийствах в регионе. В основе механизма - обработка оперативных отчетов конкретных служб (например, Геологической службы США) и размещение полученных данных в заготовленном шаблоне. Дальше написанный текст напрямую попадает в систему управления контентом сайта для утверждения выпускающим редактором (http://www.latimes.com/local/lanow/ earthquake-47-quake-strikes-near-lone-pine-california-s6emrv-story.html).
Такие алгоритмы позволяют снять с журналиста нагрузку в виде написания однообразных рутинных отчетах о повторяющихся событиях, однако подготовить информацию о нанесенном ущербе, жертвах, масштабе события робот пока не способен - для поиска деталей события все еще требуется вмешательство человека.
На данном этапе подобные автоматизированные отчеты все еще подписываются журналистом или редактором «LA Times», который пустил в новостную ленту сообщение. Однако с точки зрения этики - это не совсем корректно, ведь читатель и не догадывается о том, что с ним «общается» робот. В издании планируют помечать подобные материалы специальными метками, чтобы не вводить в заблуждение аудиторию.
«Quakebot» - не единственный алгоритм, который используют в «LA Times». В рамках проекта «The Homicide Report» (http://homicide.latimes.com/) робот готовит оперативные заметки на основе полиции об убийствах в городе. А для проекта «Mapping LA» (http://maps.latimes.com/ neighborhoods/) алгоритм анализирует информацию о жизни районов Лос-Анджелеса: статистику, демографию, местные новости - вся эта информация доступна в виде интерактивной карты города, поделенной на районы.
«GUARBOT»
Еще одного робота, предназначенного для составления криминальной хроники, взяли на работу в электронную версии «The Guardian» в марте 2014 года. Уилл Франклин (Will Franklin), программист английского издания, изучил журналистские материалы и разработал специальные текстовые шаблоны с пробелами, которые автоматизированный алгоритм «GUARBOT» заполнял актуальной информацией о происшествии. В сердце робота - The Guardian Open Platform (http:// open-platform.theguardian.com/), фирменная система работы с данными газеты, вышедшими в свет с 1999 года, а также Natural Language Toolkit (NLTK) - библиотека для символьной и статистической обработки естественного языка. Как отмечает сам Франклин (http://www.lookatme.ru/ mag/live/inspiration-lists/205485-robo), важную роль в создании робота-журналиста сыграл опыт работы системы по генерации поддельных научных статей SCIgen (https://pdos.csail.mit.edu/ archive/scigen/), использующей метод контекстно-свободной грамматики. Идея программиста заключалась в создании текстовых шаблонов со смысловыми пробелами, для каждого из которых работали индивидуальные правила. В итоге получались подобные конструкции: «SENTENCE NNP was last seen RB VB with NNP» («Имя собственное последний раз видели наречие глагол с имя собственное»), где NNP - имя собственное, RB - наречие, а VB - глагол. Одна из созданных ботом заметок выглядит так:
«The crime-ridden family of quinoa has taken US by storm this month. According to Peru, New York has confirmed that quinoa is more story than anything else they've ever seen. Quotes from top Yotam
р i.
Forbes Investing
oct 12. 2015 @ 04:00 PNI 229 views
The Little Black Book of Billionaire Secrets
EPS Estimates Down for J.M. Smucker In Past Month
Narrative Science,
му , . _ .
в Г FOLLOW ON FORBES f }0
Narrative Science . partner
Over the past three months, the consensus estimate has sagged from $1.25. For the fiscal year, analysts are expecting earnings of $5-75 P^r share. A year after being $1.37 billion, analysts expect revenue to fall 1% year-over-year to $1.35 billion for the quarter. For the year, revenue is expected to come in at $5-93 billion.
A year-over-year drop in revenue in the fourth quarter broke a three-quarter streak of revenue increases.
The company has been profitable for the last eight quarters, and for the last four, profit has risen year-over-year by an average of 16%. The biggest boost for the company came in the third quarter, when profit jumped by 32%.
yuc. 1. Каждый отчет на сайте Forbes, подготовленный автоматизированным алгоритмом, имеет особую отметку «Narrative Science».
= SECTIONS Q SEARCH Cos Anodes Simes SUBSCRIBE LOG IN
WEDNESDAY DEC. 9, 2015 MOST POPULAR LOCAL SPORTS GRAMMYS SAN BERNARDINO CLIMATE CHANGE OPINION PLACEANAD -й- 60°
Earthquake: 4.7 quake strikes near Lone Pine
A map shows the approximate location of the epicenter of Monday morning's quake near Lone Pine, Calif. (Bing Maps) By Ken Schwencke
DECEMBER 23, 2013. 5:46 AM
A
shallow magnitude 4.7 earthquake was reported Monday morning 31 miles from Lone Pine, Calif., according to the U.S. Geological Survey. The temblor occurred at 5:39 a.m. PST near the surface.
According to the USGS, the epicenter was 41 miles from Ridgecrest, 53 miles from Porterville and 57 miles from Lindsay.
In the past 10 days, there have been 110 earthquakes magnitude 3.0 or greater centered nearby.
This information comes from the USGS Earthquake Notification Sendee, and this post was created by an algorithm written by the author.
Read more about Southern California earthquakes.
Рис. 2. Первый отчет о землетрясении, подготовленный для «LA Times» роботом «Quakebot», был опубликован 23 декабря 2013 года
Financial Reporting
The
fund_name
| posted gains | reported a loss of >6 in August, compared to last month's return of 6. The fund's year-to-date return increased | decreased toKBIS3%-
[cm_ .retl
pm _ret|
The top sectors were[
top_sector_1 Htop_sector_1_ret
top sector 2llt0D sector 2 reillnHiMtoo sector 3
) andj
(ПЯЯЯ5ВВЯс1ГП>М. which contributed to this overall return. Financials reported a positive | negative return
fnr tha fhirH mncon iti\/Q mnnth \A/hila hr\th tho
Рис. 3. Панель управления алгоритмом «Wordsmith» позволяет программировать его практически под любые задачи.
Ottolenghi eaters suggest that "crop" is currently clear top, possibly more than ground black pepper. Experts say both Salt and University need to traditionally grow to strengthen a common solution. Finally, it is worth slightly rattling that this article was peeled until it made sense».
В результате робот-журналист составил грамматически правильную заметку, однако смысла и связности в ней не хватало. Программист не смог научить бота понимать контекст, чтобы тот использовал слова в правильном значении. И для того, чтобы общими усилиями доработать робота-журналиста, программист «The Guardian» опубликовал исходный код на сервисе GitHub (https:// github.com/wpf500/guarbot), однако особого интереса у программистов это событие не вызвало.
«Wordsmith»
С каждым новым прототипом разработчики делают более совершенных роботов-журналистов, и в октябре 2015 года произошло важное для отрасли событие - для тестирования была открыта система «Wordsmith», автоматически создающая новости.
«Automated Insights» создали программируемый сервис, который может готовить не просто сухие отчеты или обрабатывать сообщения полиции, но и писать самостоятельные тексты. По словам Джеймса Котеки (James Kotecki), пресс-секретаря компании, «Wordsmith» может генерировать до 2000 новостей в секунду, что является самым лучшим результатом среди всех аналогичных алгоритмов.
В конвейерную работу робота-журналиста запустило агентство «Associated Press»: в 2014 году из-под пера алгоритма вышло больше 3000 отчетов об американских корпорациях (https://blog. ap.org/announcements/automated-earnings-stories-multiply). Важной частью работы искусственного интеллекта в редакции агентства является его контролирование редактором. Как заявляют в «Associated Press», во время первых тестирований алгоритм допускал значительное количество ошибок в сообщениях, однако сейчас «Wordsmith» также готовит для американского информационного агентства отчеты о канадских и европейских компаниях. Журналистам и программистам удалось настроить механизмы алгоритма таким образом, чтобы отчеты не только не содержали орфографических и пунктуационных ошибок, но и были написаны живым языком. Сейчас «Associated Press» экспериментирует с подготовкой спортивных новостей с помощью робота-журналиста.
Для работы робота необходимы структурированные количественные данные, которые программа считывает и преобразует в новость. Требуется также практически ювелирная настройка алгоритма, чтобы на выходе получился текст, близкий к журналистскому. В шаблон закладываются переменные, значение которых «Wordsmith» черпает из обрабатываемого отчета. На изображении видно, что алгоритм практически на 90% состоит из системного кода, который составляется совместно журналистом и программистом.
Разработкой «Automated Insights» заинтересовались в российском «Яндексе» и уже начали внедрять американский алгоритм в свой сервис «Яндекс для медиа», о запуске которого было объявлено 10 ноября 2015 года в блоге компании (https://yandex.ru/blog/company/99487). «Информация поступает от сервисов Яндекса - Пробок, Погоды и Поиска, обрабатывается с помощью алгоритмов и отображается в специальном интерфейсе для СМИ или рассылается подписчикам», - сообщается в пресс-релизе. Доступ к сервису предоставляется по запросу СМИ и в тестовом режиме.
Таким образом, можно выделить несколько особенностей роботов-журналистов, работающих в передовых СМИ сегодня:
1. Сверхоперативность. Алгоритм позволяет готовить сообщения с неимоверной скоростью, достичь которой человек никогда не сможет. Если не учитывать время, затраченное на настройку робота, то написание новости занимает несколько секунд.
2. Долгая настройка и обучаемость. Ни один из существующих роботов-журналистов не работает без настройки шаблонов, установки правил, подстройки под конкретные задачи - и это является большим минусов алгоритмов. Не каждая редакция обладает достаточно продвинутым программистом, который сможет правильно настроить робота. Однако если это сделать удалось, внутренний механизм роботов-журналистов позволяет «самообучаться» - алгоритм запоминает наиболее используемые формы, анализирует чужие журналистские тексты и заимствует устойчивые выражения.
3. Отсутствие стиля и юмора. Робот практически не может использовать живой литературный язык (а в большинстве своем работа алгоритмов ограничивается только английским языком). Во время настройки можно постараться сформировать шаблон с удачными оборотами, однако дальше заданных рамок робот-журналист зайти не сможет. Научить алгоритм шутить пока не удалось ни одному разработчику - слишком сложны и неоднородны механизмы человеческого юмора.
4. Стоимость работы. Несмотря на достаточно дорогую разовую стоимость, алгоритм окупает себя со временем: он не требует выходных, больничных и новогодних премий. Поэтому в долгосрочной перспективе робот-журналист экономит бюджет компании.
Исходя из особенности современных роботов-журналистов, можно говорить об отсутствии на данном этапе угроз для людей-журналистов. Формирование смыслов, полноценное использование возможностей языка, анализ контекста событий и, конечно, юмор - все это остается незаменимым оружием био-журналистов. Пока алгоритмы для написания новостей совершенствуются, редакциям нужно задуматься о разграничении обязанностей для роботов и людей в будущем. И как верно заметил главный редактор «Медузы», журналистом важно определиться: готовы они сотрудничать с машинами или нет. Российским журналистам пока беспокоится не стоит. Медиа-рынок, несмотря на запуск сервиса «Яндекс для медиа», к роботизированной журналистике пока не имеет практически никакого отношения. Связано это не только с отсутствием алгоритмов, пишущих новости на русском языке, но и в отсутствии инвесторов и холдингов, заинтересованных в разработке таких роботов.
Список литературы
1. Hamilton, J. T. Accountability through algorithm: Developing the field of computational journalism [Text] / J. T. Hamilton, F. Turner // Report from the Center for Advanced Study in the Behavioral Sciences, Summer Workshop. - 2009. - pp. 27-41.
2. Anderson, C. W. Towards a sociology of computational and algorithmic journalism [Text] / C. W. Andreson // New media & society. - 2013. - Т. 15. - №. 7. - pp. 1005-1021.
3. Van Dalen, A. The algorithms behind the headlines: How machine-written news redefines the core skills of human journalists [Text] / A. Van Dalen // Journalism Practice. - 2012. - Т. 6. - №. 5-6. -pp. 648-658.
4. Flew, T. et al. The promise of computational journalism [Text] / T. Flew // Journalism Practice. -2012. - Т. 6. - №. 2. - pp. 157-171.
5. Clerwall, C. Enter the Robot Journalist: Users' perceptions of automated content [Text] / C. Clerwall // Journalism Practice. - 2014. - Т. 8. - №. 5. - pp. 519-531.
6. Franklin, B. The Future of Journalism: In an age of digital media and economic uncertainty [Text] / B. Franklin // Journalism Practice. - 2014. - Т. 8. - №. 5. - pp. 469-487.
7. Gynnild, A. Journalism innovation leads to innovation journalism: The impact of computational exploration on changing mindsets [Text] / A. Gynnild // Journalism. - 2014. - Т. 15. - №. 6. -pp. 713-730.
8. Carlson, M. The robotic reporter: Automated j ournalism and the redefinition of labor, compositional forms, and journalistic authority [Text] / M. Carlson // Digital Journalism. - 2015. - Т. 3. - №. 3. -pp. 416-431.
9. Dörr, K. Mapping the field of Algorithmic Journalism [Text] / K. Dörr // Digital Journalism. -2015. - pp. 1-23.
10. Dörr, K. Algorithmic Journalism. Einordnung und Konsequenzen [Electronic resource] / K. Dörr // Journalistische Genres. Konstanz: UVK - DFJV (Hrsg.). - 2015. - pp. 2-14 - URL: http://mediachange. ch/media//pdf/publications/ Algorithmic_Journalism_Dörr.pdf (дата обращения: 10.09.2015).
11. Калмыков, А. А. Гипертекст мышления и коммуникативное пространство [Текст] / А. А. Калмыков // Человек: иллюстрированный науч.-популярн. журнал. - 2007. - № 5. -C. 122-129.
12. Калмыков, А. А. Интернет-журналистика [Текст] : учебник / А. А. Калмыков, Л. А. Кохано-ва. - М. : ЮНИТИДАНА, 2005. - 383 с.
13. Калмыков, А. А. Семантическая сеть - будущее медиа [Текст] / А. А. Калмыков // Вестник электронных и печатных СМИ. - 2014. - № 21. - С. 78-86.
A. D. Ivanov
THE ROBOTIC JOURNALISM AND THE FIRST ALGORITHMS ON SERVICE OF EDITIONS OF THE INTERNATIONAL MASS MEDIA
Development ofjournalism is in connection with formation of the scientific and technical sphere and creation of more and more modern mechanisms. On use of new technologies in the work, the journalism traditionally was in vanguard: the telegraph, television, the Internet - for satisfaction of the increasing requirements of audience was necessary to use new technologies. Before the invention only improved work of correspondents, increasing their efficiency, increasing reliability ofpublications. Society for the first time felt threat from equipment in the XVII century when people at the large English enterprises gradually began to be replaced with mechanisms - it appeared that production could exist without person. Of course, the first machines could carry out only monotonous mechanical processes, and workers of creative spheres had not to be afraid of expansion of robots. However today media researchers seriously discuss the next threat for journalism concerning emergence of the automated algorithms of writing of texts. Robots journalists cope with the duties much quicker than people, however yet not ways to advance bio-journalist in the qualitative level of publications. In article, it is told about formation and development of the automated journalism on the example of the best practices of large international mass media ("The Guardian", "LA Times", "Forbes", "Associated Press"). In article results of operation of the existing robots journalists are analyzed, reaction ofprofessional community to the advanced development is investigated. In article, the author makes an attempt of introduction of the actual terminology in Russian describing the new phenomena in journalism.
Keywords: information society, automated journalism, algorithmic journalism, computational journalism, data journalism, technology, robotic journalist, cyber journalist, automated algorithm, content.
References
1. Hamilton, J. T. and Turner, F. (2009) Accountability through algorithm: Developing the field of computational journalism, in: Report from the Center for Advanced Study in the Behavioral Sciences, Summer Workshop, pp. 27-41.
2. Anderson, C. W. (2013) Towards a sociology of computational and algorithmic journalism, in: New media & society, no. 15(7), pp 1005-1021.
3. Van Dalen, A. (2012) The algorithms behind the headlines: How machine-written news redefines the core skills of human journalists, in: Journalism Practice, no. 6 (5-6), pp. 648-658.
4. Flew, T. et al. (2012) The promise of computational journalism, in: Journalism Practice, no. 6 (2), pp. 157-171.
5. Clerwall, C. (2014) Enter the Robot Journalist: Users' perceptions of automated content, in: Journalism Practice, no. 8(5), pp. 519-531.
6. Franklin, B. (2014). The Future of Journalism: In an age of digital media and economic uncertainty, in: Journalism Practice, no. 8(5), pp. 469-487.
7. Gynnild, A. (2014). Journalism innovation leads to innovation journalism: The impact of computational exploration on changing mindsets, in: Journalism, no. 15(6), pp. 713-730.
8. Carlson, M. (2015). The robotic reporter: Automated journalism and the redefinition of labor, compositional forms, and journalistic authority, in: Digital Journalism, no. 3(3), pp. 416-431.
9. Dörr, K. (2015). Mapping the field of Algorithmic Journalism, in: Digital Journalism, pp. 1-23.
10. Dörr, K. (2015) Algorithmic Journalism. Einordnung und Konsequenzen, in: Journalistische Genres. Konstanz: UVK, pp. 2-14, available at: http://mediachange.ch/media//pdf/publications/ Algorithmic_Journalism_D0rr.pdf, accessed 10.09.2015.
11. Kalmykov, A. A. (2007) "Gipertekst myshleniya i kommunikativnoe prostranstvo" [=Hypertext of thinking and communicative space], in: Chelovek: Illyustrirovannyj nauchno-populyarnyj zhurnal [=Person: The illustrated popular scientific magazine], no. 5, pp. 122-129. (In Russ.).
12. Kalmykov, A. A. (2005) Internet-zhurnalistika [=Internet-journalism], Moscow, 384 p. (In Russ.).
13. Kalmykov, A. A. (2014) Semanticheskaya set - budushhee media [=Semantic web - Future of media], in: Vestnik elektronnyx i pechatnyx SMI [=Herald of electronic and print media], no. 21, pp. 78-86. (In Russ.).
Иванов Андрей Дмитриевич - аспирант кафедры журналистики и массовых коммуникаций факультета журналистики Челябинского государственного университета. [email protected]