Научная статья на тему '2016. 01. 004. Флориди Л. Большие данные и их эпистемологический вызов. Floridi L. big data and their epistemological challenge // philosophy and technology. - Berlin, 2012. - N. 25 (4). - p. 435-437'

2016. 01. 004. Флориди Л. Большие данные и их эпистемологический вызов. Floridi L. big data and their epistemological challenge // philosophy and technology. - Berlin, 2012. - N. 25 (4). - p. 435-437 Текст научной статьи по специальности «СМИ (медиа) и массовые коммуникации»

CC BY
58
16
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
ИНФОРМАЦИЯ / "BIG DATA" / ФИЛОСОФИЯ / ЗНАНИЕ / ЭПИСТЕМОЛОГИЯ / ПРОГРЕСС
i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Текст научной работы на тему «2016. 01. 004. Флориди Л. Большие данные и их эпистемологический вызов. Floridi L. big data and their epistemological challenge // philosophy and technology. - Berlin, 2012. - N. 25 (4). - p. 435-437»

скую мощь, человек не сможет обладать сверхчеловеческим разумом, который мог бы направить эту мощь на мирные, созидательные цели. Швейцер стоял у истоков Пагуошского движения ученых в защиту мира. В 1957 г. он поставил свою подпись под воззванием, в котором выдвигалось требование прекращения атомных испытаний в атмосфере.

О. В. Летов

2016.01.004. ФЛОРИДИ Л. БОЛЬШИЕ ДАННЫЕ И ИХ ЭПИСТЕМОЛОГИЧЕСКИЙ ВЫЗОВ.

FLORIDI L. Big data and their epistemological challenge // Philosophy and technology. - Berlin, 2012. - N. 25 (4). - P. 435-437.

Ключевые слова: информация; «big data»; философия; знание; эпистемология; прогресс.

Посчитано, что человечество аккумулировало 180 ЕВ (ЕВ -1 эксабайт = 1000 петабайтов) данных с момента изобретения письма и до 2006 г. Между 2006 и 2011 гг. эта величина выросла примерно в десять раз, достигнув 1600 ЕВ. Эта цифра возрастает примерно в четыре раза каждые три года. Каждый год, пишет Фло-риди, создается достаточно данных, чтобы восемь раз заполнить все библиотеки США. В результате возникает много разговоров о «big data», «больших данных», без которых, например, не была бы возможна современная генетика, являющаяся сейчас одной из самых ресурсоемких наук, в силу чего Американские институты здоровья (National Institutes of Health - NIH) и Национальный научный фонд (National Science Foundation - NSF) определили «big data» как свой программный фокус, имея в виду общие инициативы, направленные на развитие ключевых технических средств и технологий, необходимых для развития науки о больших данных и инжиниринга.

Несмотря на важность самого явления, все еще остается неясным, отмечает ученый, что именно обозначает термин «big data» и к чему он относится. Вышеупомянутый документ определяет его как «фразу, относящуюся к широким, разнообразным, сложным, удлиненным и/или распределенным кластерам данных, генерируемых различными инструментами, сенсорами, интернет-трансакциями, е-мейлами, потоками видео, кликов и/или другими цифровыми источниками, доступными сейчас и в будущем». Не надо быть фи-

лософом аналитической школы, замечает Флориди, чтобы увидеть нечеткость и расплывчатость подобных формулировок. Википедия здесь тоже не помощница - она дает обобщенную дефиницию, которая также неудовлетворительна: «Наборы данных столь обширные и сложные, что с ними неудобно работать, используя имеющиеся для баз данных подручные инструменты». Ученый указывает на проблему круга в определении, когда «big» интерпретируется через «large», а также на связь значений обоих этих терминов лишь по отношению к текущим вычислительным мощностям, что, по его мнению, ведет к заблуждению. «Большой», как и многие другие, является относительным предикатом: пара обуви слишком велика для вас, но мне прекрасно подходит. Тривиально также признание, что в данном случае мы стремимся определять вещи безотносительно чего-либо, а как абсолютно большие, - каждый раз, когда референтный фрейм достаточно велик, чтобы остаться имплицитным. Конь достаточно большое животное, что бы там киты ни думали (с. 435-436).

Эти две простые точки могут создать впечатление, что в действительности нет реальных проблем с «большими данными», неряшливо определяемыми как термин, относящийся к тому факту, что наши современные компьютеры не в состоянии достаточно эффективно обрабатывать столь много «газообразных» данных. Здесь, продолжает Флориди, обе путаницы, кажется, встречаются. Эпистемологическая проблема с «большими данными», во-первых, в том, что их слишком много (этическая проблема в том, как мы ими пользуемся), и, во-вторых, что технологическое решение эпистемологической проблемы в большей и лучшей мере - техническое и технологиями, которые опять «сожмут» большие данные до операбельных размеров. Эпистемологическая проблема иная, она требует эпистемологического же решения. Термин «большие данные» стал формулироваться после других навязчивых выражений, таких как «информационное перенасыщение» («infoglut») или «перегруженность информацией», которые уже начали исчезать, но идея оставалась все той же, относящейся к оглушающему смыслу. Ученый приводит яркий образ людей, которые откусили больший кусок, чем могут сжевать, сравнивая людей с насильно перекормленными гусями, так что их интеллектуальные печенки уже взрываются, что, полагает Флориди, ошибочно. Несомненно, имеет ме-

сто экспоненциальный рост данных во все большем числе областей знания. Но кивать на подобное сверхизобилие - это все равно, что жаловаться на какой-нибудь банкет, на котором предлагается больше, чем мы сможем съесть.

Данные остаются активом, ресурсом для использования. Никто не принуждает нас поедать и переваривать каждый доступный байт. С каждым днем мы все богаче и богаче данными, но это не может быть фундаментальной проблемой. Поскольку она не в увеличении богатства данных, становящихся доступными, решение следует пересмотреть: дело не в количестве данных, которые мы можем обработать. Большие и лучшие технические устройства и технологии приведут только к генерированию еще больших данных. Если бы проблема была в слишком большом количестве данных, компьютеры лишь обострили бы ее. Выращивание все больших систем переваривания информации, которое и имело место, -это не путь вперед.

Подлинная эпистемологическая проблема с большими данными - в маленьких паттернах. Именно потому, что столь много данных сейчас могут производиться и обрабатываться так быстро и так дешево, давление на данные как вновь возникших богатеев, вроде Фейсбук, Уолмарт, Амазон или Гугл (Facebook, Walmart, Amazon, Google), так и на данные уже давно конституированных гигантов потребления активов, вроде генетики, медицины, неврологии, способно помочь отследить, считает Флориди, не только, где лежат новые паттерны с действительно ценной новизной в их безмерно обширных хранилищах данных, но и как они могут быть употреблены для создания и богатства, и прогресса в знаниях.

Эти небольшие паттерны значимы, поскольку репрезентируют новые соревновательные и конкурентные границы, начиная от науки и до бизнеса, от правительственных структур до социальных программ включительно. А на «бэконовском» открытом рынке идей, если кто-нибудь еще может использовать их раньше и успешнее вас, вы вскоре окажетесь не у дел, как произошло с «Кодаком», или же упустите какое-нибудь фундаментальное открытие.

Небольшие паттерны могут таить в себе и риски, поскольку расширяют пределы предсказуемого и поэтому могущего быть предвиденным, - и не только относительно природы, но и людей, их поведения. И это - этическая проблема. Для ее иллюстрации

Флориди приводит пример с фирмой, которая, основываясь на анализе паттернов покупаемости 25 продуктов, отмечала для каждой покупательницы ее черту «предсказанной беременности», оценивала время и сроки, посылая купоны к определенным стадиям ее предполагаемой беременности. Однажды такой подход вызвал серьезные последствия, когда эта компания послала купоны в семью, где дочь-тинейджер не информировала родителей о своем новом положении.

Однако маленькие паттерны, замечает ученый, значимы только если их соответствующим образом объединять, т.е. - в приведенном примере - если надежны и предположения о покупках, и сами расчеты. Аналогично в банковском деле, когда какой-нибудь банк умеет использовать «big data», чтобы бороться с мошенниками и/или учитывать различные временные колебания на финансовых рынках.

Поскольку информация индикативна даже когда она отсутствует, мелкие паттерны значимы и когда их нет. Шерлок Холмс распутал одно из своих дел благодаря молчанию собаки, которая должна была бы лаять. Так и с большими данными: если они «не лают», пишет Флориди, когда должны бы, значит, нечто происходит, - как, должно быть, известно «финансовым сторожевым псам» (с. 436-437).

Все более ценные подводные течения во все более расширяющихся океанах данных невидимы для не вооруженного компьютерами глаза, поэтому количественное увеличение и качественное улучшение техники и технологий оказывают значительную помощь. Однако сами по себе они недостаточны. Простое накапливание данных в ожидании появления более мощных компьютеров и софта не работает: с 2007 г. мир стал производить больше данных, чем имеется возможностей хранения для них. Человечество сместилось от проблемы, что сохранять, к проблеме, что стирать. Что-то здесь должно быть либо уничтожено, либо совсем не сохранено. Автор статьи предлагает своему читателю подумать о своем смартфоне, как переполненном слишком многими фотографиями, -и представить это как глобальную проблему. В нашей инфосфере уже годы, как не осталось памяти даже чтобы просто сваливать свои данные в кучу. Но это не так плохо, как выглядит, ведь половина их - просто мусор, только мы не знаем, какая именно полови-

на. Таким образом, людям требуется лучшее понимание, какие данные заслуживают хранения. А это уже дело понимания, какие вопросы интересны или же будут таковыми в будущем. Что просто другое выражение утверждения, - поскольку проблема с большими данными заключается в маленьких паттернах, что в конце концов игру выиграют те, цитирует Флориди Платона, кто «знает как задавать вопросы и отвечать на них» (Plato, Cratylus, 390 c) и поэтому знают, какие данные могут быть полезными и релевантными, и в силу этого стоят аккумулирования и заботы в целях использования их ценных паттернов (с. 437).

Люди нуждаются как во все больших количествах все лучшей техники и технологиях, чтобы видеть мелкие паттерны данных, так и в больших и лучших эпистемологиях, чтобы отсеивать ценные из них. Большие данные уже здесь и они будут только увеличиваться. И единственный путь совладать с ними - это знать, что вы ищите или будите искать. Сейчас такие эпистемологические умения, иронизирует Флориди, преподаются и применяются черной магией, называемой аналитикой. Не совсем стандартной степенью в университете. Тем не менее столь многое в нашем благосостоянии зависит от нее, что должно прийти время начать философское исследование ее методов. Кто знает, философы, возможно, должны чему-то научиться, но и сами могут преподать пару уроков. Платон бы, заканчивает статью автор, наверное, согласился.

Г.В. Хлебников

2016.01.005. ДЖОХАДЗЕ И.Д. АНАЛИТИЧЕСКИЙ ПРАГМАТИЗМ РОБЕРТА БРЭНДОМА. - М.: ИФ РАН, 2015. - 132 с.

Ключевые слова: Р. Брэндом; аналитический прагматизм; лингвистический идеализм; дефляционизм; инференциализм; дискурсивное обязательство; нормативный статус; холизм; Р. Рор-ти; Дж. Макдауэл.

Роберт Брэндом - известный американский философ, представитель питтсбургской школы неогегельянства. Его философские взгляды формировались под влиянием двух очень разных философов: Р. Рорти и Д. Льюиса. «Как и Рорти, Брэндом считает, что профессиональная философия в США, основы которой закладывались в 30-40-е годы прошлого века "великими эмигрантами" из

i Надоели баннеры? Вы всегда можете отключить рекламу.