2017.01.012. КАРАПАПА С., БОРХИ М. ОТВЕТСТВЕННОСТЬ ПОИСКОВОЙ СИСТЕМЫ ЗА АВТОЗАПОЛНЕНИЕ ЗАПРОСА: НЕПРИКОСНОВЕННОСТЬ ЧАСТНОЙ ЖИЗНИ И ЭФФЕКТИВНОСТЬ АЛГОРИТМОВ ПОИСКА.
KARAPAPA S., BORGHI M. Search engine liability for autocomplete suggestions: Рersonality, privacy and the power of algorithm // International journal of law and information technology. - Oxford, 2015. -N 23. - Р. 261-289.
Ключевые слова: ответственность провайдера; клевета; защита данных; правонарушения; торговые марки; интеллектуальная собственность; свобода слова; конфиденциальность; право на забвение.
Статья посвящена вопросам ответственности поисковых систем, использующих алгоритмы, предлагающие пользователю автоматически сконструированные дополнительные значения его запросов. Ответственность может возникать, когда ассоциативно подбираемые смыслы, отражающие определенное отношение к предмету или явлению, оказываются клеветой или связаны с нарушением прав на интеллектуальную собственность. В судах увеличилось число дел, разрешающих конфликты между свободой слова и правом на доступ к информации - с одной стороны, и правом на информационное самоопределение личности - с другой. Опыт Суда ЕС дает основание считать, что многие требования по удалению информации о личных данных частных лиц будут в перспективе удовлетворяться.
Поиск в Google, широко применяющем функцию автоматического заполнения, стал хрестоматийным примером конфликта между свободой информации и защитой личных данных. Более 25 претензий к работе функции автозаполнения уже рассматривались в судах более 10 юрисдикций. Четыре из них дошли до верховных судов - одного в Германии и трех во Франции. Исковые требования в подобных случаях предъявляются на основании общего права, деликтного права и нарушенных законных прав: по фактам клеветы, представления в ложном свете, нанесения ущерба деловой репутации, халатности, нарушения авторских прав, прав на использование торговой марки и на нарушение конфиденциальности.
В отдельных случаях стало возможным урегулирование дел до их рассмотрения в суде.
Технический алгоритм, лежащий в основе работы поисковых модулей, работает по принципу ускорения процесса поиска путем предложения слов пользователю в процессе осуществляемого им набора, которые, как предполагается, он собирается ввести. Подбор слов поисковой системой осуществляется с учетом фактора популярности запроса на основании ранее проиндексированных похожих запросов, также учитываются географическое положение пользователя и предшествующая история поиска.
Правовые проблемы начинаются, когда алгоритм порождает сочетания слов, представляющих собой ложные или вводящие в заблуждение сообщения. Например, имя человека или наименование деловой организации связываются с нечестной деятельностью, такой, как мошенничество, или выявляются нежелательные данные о личности. Предлагаемые ассоциации оказываются неприятными или неудобными для человека или бизнеса, будучи при этом безосновательными или ложными.
Подобные конфликты рассматриваются в судах во всем мире, однако с разными результатами, поэтому в целом можно констатировать ситуацию правовой неопределенности. В одних случаях поисковая система привлекалась к ответственности за клевету после получения пользователем оскорбительных сведений, в других -нет. Суды удовлетворяют иски о нарушении авторских прав, но отклоняют обвинения в нанесении ущерба репутации. При рассмотрении дел и вынесении решений судьи часто оценивают провайдеров интернет-услуг как нейтральных посредников, по сравнению с активной ролью специалистов поисковых систем как поставщиков содержания и контролеров данных.
Несовпадение мнений судей относительно того, на ком лежит ответственность, обусловлено разной логикой, которой они руководствуются при рассмотрении дел. Сегодня не существует однозначной судебной позиции при разрешении дел, связанных с ответственностью поисковых систем. Это происходит не только из-за того, что законодательство разных юрисдикций, регулирующее вопросы защиты личных данных и прав в деловой сфере, различается, но также из-за того, что не ясно, может ли созданное программным алгоритмом словосочетание иметь коннотативное зна-
чение, которое и приводит к правовым последствиям. В отсутствие установленных правовых рамок для определения ответственности в случае онлайн-поиска неизбежно возникают вопросы: правомерно ли наделять смыслом составленные автоматически предложения, которые могут быть оскорбительными, являться клеветой, порочащей деловую репутацию, нарушать авторские права или права на товарный знак? Если правомерно, то каковы обязанности операторов поисковых систем, предлагающих пользователю алгоритмы? И что должно быть мерой их ответственности?
В мае 2014 г. Судом ЕС было вынесено постановление по делу «Испанское агентство по защите данных от несанкционированного сбора против Google». Агентство обвинило американскую компанию в незаконном получении информации об интернет-пользователях для целей своего проекта. В заявлении ведомства было сказано, что Агентство по защите данных Испании начало установленные дисциплинарные мероприятия в отношении компании «Google», подозреваемой в нарушении национальных законов Испании о защите данных, после чего стартовала процедура формального предъявления иска в судебные инстанции. Полученные доказательства были переданы Агентством в суд Мадрида с требованием компенсационных выплат за каждое правонарушение. В свою очередь, в заявлении испанского отделения «Google» сообщалось, что собранные данные не были использованы для какого-либо продукта «Google», и компания не планировала оперировать полученными сведениями. По итогам рассмотрения дела пользователи получили право направлять поисковым системам запросы на удаление результатов поиска с использованием их имени. По решению Суда ЕС поисковые системы обязаны рассматривать такие запросы в индивидуальном порядке и могут отказать в их удовлетворении, если содержание представляет интерес для общества. Однако при отсутствии общего определения ответственности в данной сфере решение не распространяется на случаи, связанные с публичными лицами, недвижимостью или авторскими правами.
Повседневный опыт использования поисковых систем свидетельствует о том, что автоматически предлагаемые слова могут иметь разное функциональное назначение. При наборе слов, как правило, предлагается выбор из дополнительных словосочетаний, что не соответствует изначальному намерению пользователя, рас-
полагает к проявлению любопытства и использованию прочитанных шаблонов. Технология, таким образом, действует по принципу «снежного кома», переориентируя внимание пользователя с нужного ему поиска на предлагаемый. В данном случае речь не идет об облегчении поиска. По мнению авторов, это тот момент, где поисковое предложение может стать юридически значимым.
Должна ли поисковая система нести ответственность за предложенные варианты? В связи с этим определение ответственности во многом зависит от того, как будут истолкованы созданные автоматически фразы, в частности, возможно ли считать их осмысленными на основании утверждения, что «ориентирование» запроса отражает мнение оператора.
Закон, устанавливающий ответственность субъекта, часто учитывает его статус. Например, в США поисковая система приравнивается к СМИ и имеет конституционную защиту как акт высказывания. Противоположное имеет место в других юрисдикциях, где более строгие законы, касающиеся публичной речи (например, в Великобритании в отношении законодательного регулирования клеветы). В таких случаях возможно наложение ответственности на оператора как на «издателя», контролирующего содержание. Однако в той же Великобритании существует разграничение понятий «издатель» и «распространитель информации», кроме того, должно быть доказано намерение публиковать контент, а не только выполнять пассивную роль посредника.
Среди разнообразных методов регулирования информации существует такой, как цензурирование. Цензурирование результатов поиска, разумеется, опасно даже при вероятности нарушения прав частных лиц из-за предоставления поиском ложных сведений. Определение ответственности в контексте автоматически генерируемых предложений ведет к конфликту прав. С одной стороны, существуют аргументы в пользу защиты свободы слова и доступа к информации, в том числе таких размытых принципов, как сетевой нейтралитет и саморегулирование онлайн. С другой стороны, необходимо защищать права личности в Сети, когда персональные данные обрабатываются таким образом, что это противоречит цели облегчения поиска информации. Аргументы за нейтралитет алгоритмов жизнеспособны не во всех юрисдикциях. В США, как упоминалось ранее, суды склонны поддерживать утверждение, что ав-
томатически составленные предложения являются речью, защищенной конституцией. Подобной защиты нет в Европе, где свобода слова не распространяется на цифровую информацию.
Рассматривая случаи, связанные с клеветой, европейские суды выработали подход, в соответствии с которым ограниченная ответственность может быть признана, если приводятся разумные доводы в пользу того, что автоматически предлагаемые слова являются следствием предварительного индексирования поисковой системой данных в сети. Подразумевается, что акцент в этом случае делается не на источнике данных, а на его получателях, которые могут иметь обоснованные претензии после предложения дополнительных сведений, связанных с предметом поиска. Подобное случалось в Верховном суде Германии, где поисковую систему обязали удалить ложные данные после ознакомления с ними пользователя. В других случаях поисковые системы избегали ответственности - когда в качестве весомого аргумента принимался нейтралитет алгоритма, просто выполнявшего свое функциональное назначение. Доводы в пользу свободы информации также воспринимаются положительно, обоснованные тем, что применение соответствующего алгоритма имеет целью облегчить поиск.
Оправдание так называемого содействия имело вес в случаях, связанных с нарушением прав на интеллектуальную собственность. По мнению правообладателей, выдаваемые поисковым алгоритмом ассоциации могут подтолкнуть пользователя к неправомерным действиям, связанным с нарушением авторских прав. Стоит, однако, иметь в виду, что благодаря большим возможностям лоббирования защиты авторских прав поисковая система и правообладатель способны приходить к согласию по поводу слов, подлежащих удалению из числа автоматически предлагаемых.
Суммируя опыт рассмотрения дел, связанных с вопросами ответственности за использование программных алгоритмов автозаполнения, исследователи предполагают, что в будущем возможно распространение практики наложения обязательств на поисковые системы по удалению слов при поступлении жалоб от пользователей на оскорбительные или дискредитирующие сведения.
И.А. Лисицын-Светланов