Научная статья на тему 'ПРОБЛЕМЫ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА: МИФЫ И РЕАЛЬНОСТЬ'

ПРОБЛЕМЫ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА: МИФЫ И РЕАЛЬНОСТЬ Текст научной статьи по специальности «Философия, этика, религиоведение»

CC BY
1288
191
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
информационно-коммуникационные технологии (ИКТ) / математическая теория вычислений / искусственный интеллект (ИИ) / машинное обучение (МО) / нейронные сети / большие данные (big data) / Интернет вещей (IoT) / закон Мура / компьютерные шахматы / игра ГО / распознавание речи и образов / технологическая сингулярность / постчеловеческий мир / угрозы ИИ / цифровой колониализм / парадоксы теории множеств / гипотеза континуума / кибербезопасность.
i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Текст научной работы на тему «ПРОБЛЕМЫ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА: МИФЫ И РЕАЛЬНОСТЬ»

Артамонов В.А., Артамонова Е.В?

ПРОБЛЕМЫ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА: МИФЫ И РЕАЛЬНОСТЬ2

Ключевые слова: информационно-коммуникационные технологии (ИКТ), математическая теория вычислений, искусственный интеллект (ИИ), машинное обучение (МО), нейронные сети, большие данные (big data), Интернет вещей (IoT), закон Мура, компьютерные шахматы, игра ГО, распознавание речи и образов, технологическая сингулярность, постчеловеческий мир, угрозы ИИ, цифровой колониализм, парадоксы теории множеств, гипотеза континуума, кибербезопасность.

Введение

История искусственного интеллекта, как нового самостоятельного научного направления в области информационно-коммуникационных технологий (ИКТ), начинается в середине XX века. К этому времени уже было сформировано множество предпосылок его зарождения: среди философов давно шли споры о природе человека и процессе познания мира, нейрофизиологи и психологи разработали ряд теорий относительно работы человеческого мозга и мышления, экономисты и математики задавались вопросами оптимальных расчётов и представления знаний о мире в формализованном виде. И наконец, зародился фундамент математической теории вычислений - «теория алгоритмов», что привело к созданию первых компьютеров.

Возможности новых машин в плане скорости вычислений оказались больше человеческих, поэтому в учёном сообществе зародился вопрос: каковы границы возможностей компьютеров и достигнут ли машины уровня развития человека? В 1950 году один из пионеров в области вычислительной техники, английский учёный Алан Тьюринг пишет статью под названием «Может ли машина мыслить?», в которой описывает процедуру, с помощью которой можно будет определить момент, когда машина сравняется в плане разумности с человеком. Эта процедура получила название «тест Тьюринга». Далее, в 1956 году ученый-информатик Джон Маккарти ввел в обиход выражение «искусственный интеллект» (ИИ) для описания науки изучения разума путем воссоздания его ключевых признаков на компьютере. Создание разумной системы с помощью рукотворного оборудования вместо нашего собственного «оборудования» в виде клеток и тканей должно было стать иллюстрацией полного понимания этой проблемы, и повлечь за собой практические применения в виде создания умных устройств или даже роботов.

Со времён Тьюринга и Маккарти ИКТ прошли большой путь, развиваясь по экспоненциальному закону, и ИИ также получил соответствующий эволюционный прогресс. Появились системы машинного обучения (МО), нейронные сети, системы поиска в больших данных, Интернет вещей (IoT), компьютерные игры, системы распознавания речи и образов, роботизированные комплексы, военный ИИ и др.

Однако до настоящего времени нет единой концепции (парадигмы) анализа и синтеза систем ИИ, что породило массу мифов и догматических толкований этого научного направления.

В данной работе мы попытаемся разобраться в части сложившихся предубеждений и дать разумное толкование возникших интерпретаций особенностей ИИ.

Миф 1. Большинство исследований ИИ проводятся так, как если бы вычислительные мощности, доступные учёному, были бы постоянными на определённом отрезке времени, и в данном случае использование человеческих знаний было бы одним из единственных способов повышения результативности научного поиска.

Однако через некоторое время, может быть даже несколько меньшее, чем нужно для типичного исследовательского проекта, по закону Мура, согласно которому производительность и вычислительная мощность компьютеров увеличивается в два раза каждые пару лет, учёным становятся доступными гораздо больше вычислительных ресурсов чем в начале исследований3. В поисках улучшений, которые могут помочь в краткосрочном периоде, ученые пытаются использовать максимум человеческих знаний в этой области, но единственное, что имеет значение в долгосрочной

1 Артамонов Владимир Афанасьевич - д.т.н., профессор, академик Международной академии информационных технологий (МАИТ), г. Минск. Круг научных интересов: информационно-коммуникационные технологии и их безопасность. E-mail: artamonov@itzashita.ru. Сайт: http://itzashita.ru. Для почтовых отправлений: Республика Беларусь, 220100, г. Минск, а/я 102.

Артамонова Елена Владимировна - к.т.н., (PhD), член МАИТ. Руководитель и разработчик Интернет-проекта в области информационной безопасности. Круг научных интересов: Информационные технологии, кибербезопасность, блокчейн и криптовалю-ты, телеком, ИТ-маркетинг, системы E-learning. E-mail: admin@itzashita.ru, Skype: moorhuhn081. Сайт: http://itzashita.ru Для почтовых отправлений: Республика Беларусь, 220100, г. Минск, а/я 102.

2 Доклад, представленный на Международную научную конференцию «Коэволюция техники и общества в контексте цифровой эпохи».

3 Moore G.E. No exponential is forever: but «Forever» can be delayed! - https://ieeexplore.ieee.org/document/1234194/

перспективе - это нарастающее использование вычислительных мощностей. Эти два аспекта не должны идти вразрез друг с другом, но на практике идут. Время, потраченное на один из них, не равно времени, потраченному на другой. Есть психологические обязательства по инвестированию в тот или иной подход. А подход, основанный на знаниях человека, имеет тенденцию усложнять методы таким образом, что они становятся менее подходящими для использования преимуществ общих методов, использующих вычисления.

Вывод. В исследовательских проектах нужно стараться сразу отбрасывать попытку решить задачу ИИ методом «мозгового штурма», потому что пройдет некоторый период времени, и она решится гораздо быстрее и проще, благодаря росту мощности вычислений.

Было много примеров, когда исследователи ИИ запоздало понимали этот горький урок. Рассмотрим некоторые из таких случаев. В компьютерных шахматах методы, победившие чемпиона мира Каспарова в 1997 году, основывались на массивном глубоком поиске. В то время к ним с тревогой относились большинство исследователей компьютерных шахмат, которые использовали методы, основанные на понимании человеком особой структуры шахмат. Когда более простой, основанный на поиске подход со специальным аппаратным и программным обеспечением оказался намного более эффективным, исследователи, отталкивающиеся от человеческого понимания шахмат, не признали поражения. Они сказали: «В этот раз подход грубой силы, может быть, и победил, но это он не станет общей стратегией, и уж точно люди не играют в шахматы таким образом». Эти ученые хотели, чтобы методы, основанные на человеческом способе мышления, победили, и очень разочаровались, когда этого не произошло.

Вывод. Прямое решение проблемы с помощью компьютерной вычислительной мощности возьмет свое, рано или поздно.

Аналогичная картина прогресса в исследованиях была замечена в игре ГО, превосходящей на порядок по сложности шахматы, но только с задержкой на 20 лет. Первоначально, огромные усилия направлялись для того, чтобы используя человеческие знания и особенности игры, достигнуть победы над игроком-человеком. Однако, все эти усилия оказались ненужными или даже вредными, как только исследователи эффективно применили поиск в больших данных (Big data) и вычислительные мощности компьютеров. Также, важно было использовать машинное обучение в процессе самостоятельной игры, чтобы выявить ценностную функцию (как это было во многих других играх и даже в шахматах, только машинное обучение не играло большой роли в программе 1997 года, которая впервые обыграла чемпиона мира). Обучение игре с самим собой, обучение в целом, это как поиск, позволяющий применять огромные массивы вычислений. Поиск и обучение — это два самых важных класса техник, которые задействуют огромные объемы вычислений в исследованиях ИИ.

В компьютерном противоборстве с человеком по игре в ГО1, как и в компьютерных шахматах, первоначальные усилия исследователей были направлены на использование человеческого понимания (чтобы использовать меньше поиска в больших данных), и лишь много позже был достигнут гораздо больший успех — за счет использования поиска и МО.

Вывод. Поиск и машинное обучение, подпитанные вычислительной мощностью, намного превосходят попытки решить задачу «нестандартным подходом мышления».

В области распознавания речи в 1970-х годах был проведен конкурс, спонсируемый DARPA (Управление стратегических исследований министерства обороны США). Участники представляли различные методы, которые использовали преимущества человеческого знания - знания слов или фонем, человеческого голосового тракта и так далее. По другую сторону баррикад были более новые методы, статистические по своей природе, и выполняющие больше вычислений на основе скрытых моделей Маркова. И опять же статистические методы победили методы, основанные на знаниях человека. Это привело к серьезным изменениям во всей технологии по обработке естественного языка, и в итоге, статистика и вычисления начали доминировать в этой области. Недавний рост глубокого обучения в области распознавания речи - это самый последний шаг в этом исследовательском направлении. Методы глубокого машинного обучения еще меньше полагаются на человеческие знания и используют всё больше вычислительных ресурсов, наряду с обучением на огромных наборах данных, и выдают потрясающие результаты при реализации систем распознавания речи и образов.

Как и в играх, ученые всегда пытались создавать системы, которые будут работать так, как они представляли этот процесс в своих головах, т.е. они пытались поместить свои знания в эти системы, однако, все это выходило крайне непродуктивно, ученые просто тратили время, до тех пор, пока вследствие закона Мура, им становились доступными все более мощные компьютеры. Вследствие чего проблема решалась совершенно на другом уровне.

Вывод: нельзя входить в одну и тоже реку дважды, учиться нужно на чужих, а не на своих ошибках.

Похожая картина была и в области компьютерного зрения. Первые методы воспринимались как поиск неких контуров, обобщенных цилиндров, либо с применением возможностей SIFT (масштабно-инвариантной трансформации признаков). Но сегодня все это уже в прошлом. Современные нейронные сети с глубоким обучением используют понятие свертки и определенных инвариантов, это работает намного лучше.

В какую бы область мы ни заглянули, мы везде продолжаем совершать одни и те же ошибки. Чтобы увидеть это и эффективно побороть, нужно понять, почему эти ошибки так привлекательны. Мы должны усвоить «горький урок», состоящий в том, что построение нового, отталкиваясь от того, как мы думаем, не работает в долгосрочной перспективе.

1 Человек отстал от компьютера // Российская газета. -go-proigral-kompiuternoj-programme.html

М., 2016. -331

№ 54 (6922). - https://rg.ru/2016/03/15/chempion-mira-po-

Опыт, основанный на исторических наблюдениях, показывает, что исследователи ИИ часто пытаются встроить знание в своих агентов - это всегда помогало в краткосрочной перспективе и приносило ученым удовлетворение, но в долгосрочной перспективе все заходило в тупик и тормозило дальнейший прогресс. Прорывной прогресс неизбежно приходил с применением противоположного подхода, основанного на масштабировании вычислений за счет поиска в больших данных и машинного обучения. Успех иногда разочаровывал исследователей и зачастую не воспринимался полностью, потому что это был успех вычислений, а не успех ориентированных на человека подходов.

Второе, что следует извлечь из этого горького урока, состоит в том, что фактическое содержание человеческого ума чрезвычайно сложное и кажущееся иногда непознаваемым. Нам стоит перестать пытаться найти простые способы осмыслить содержание ума, похожие на простые способы осмысления пространства, объектов, множественных агентов или симметрий. Все они являются частью произвольно сложного внешнего мира. Нам не стоит пытаться от них отталкиваться, потому что их сложность бесконечна. Нам стоит строить свои стратегии научного поиска в области ИИ на метаметодах, которые могут находить и улавливать эту произвольную сложность. Эти методы могут находить хорошие приближения, но поиск их должен осуществляться нашими методами, а не нами умозрительно. Нам нужны агенты ИИ, которые могут открывать новое в мироздании, как это делают люди, а не содержать то, что мы уже открыли. Построение на наших открытиях только усложняет процесс познания мира и поиска новых сущностей.

Вывод. Нужно опираться на масштабируемые вычисления и поиск, а не пытаться воспроизвести человеческие размышления и догмы в попытках объяснить сложные методы познания простыми схемами, ибо в долгосрочной перспективе сработает первое, а не последнее.

Миф 2: В результате экспоненциального роста производительности компьютеров наступит время «технологической сингулярности», когда вычислительная мощность ИИ сравняется по интеллекту с человеческим разумом, и как поведёт себя этот искусственный разум в «постчеловеческом мире» невозможно предугадать.

Для каждого периода времени развития человечества характерна своя трансформация, которую можно описать как некую совокупность промышленных технологий, позволяющих создать определенный качественный скачок в росте производительности труда. Это определение вписывается в широко принятую концепцию смены технологических укладов, где трансформация на базе ИКТ является одним из этапов (см. рис. 1). Кривая изменения экономического прогресса (роста производительности труда) отображается в виде 8-образной кривой с периодами зарождения (медленного роста), активного роста и зрелости (замедления роста). Совокупность технологических инноваций приводит к смене одного уклада на другой. Каждый из этапов экономического прогресса на рис. 1 (включая стадию ИКТ) можно разделить на более мелкие части, и в каждой выделить свои трансформирующие технологии.

Осмысление экспоненциального роста технологий потребовало некоторого времени, прежде чем они получили полное признание всего за несколько лет. Этой тенденции следуют самые разные области, такие как искусственный интеллект и машинное обучение в качестве одной из ветвей развития ИКТ, робототехника, здравоохранение, электро-и самоуправляемые автомобили, образование, 3Б-печать, промышленность и сельское хозяйство.

Добро пожаловать в 4-ю промышленную революцию. Добро пожаловать в Экспоненциальный Век. Эта концепция была предложена Вернором Винджем, который предположил, что если мы сумеем избежать гибели цивилизации до этого, то сингулярность произойдет из-за прогресса в области искусственного интеллекта, интеграции человека с ИКТ или других методов увеличения разума1. Усиление разума, по мнению Винджа, в какой-то момент приведет к положительной обратной связи: более разумные системы могут создать еще более интеллектуальные системы и сделать это быстрее, чем первоначальные их конструкторы - люди. Эта положительная обратная связь скорее всего окажется столь сильной, что в течение очень короткого промежутка времени (месяцы, дни или даже всего лишь часы) мир преобразится больше, чем мы сможем это представить, и внезапно окажется населен сверхразумными созданиями.

По мнению некоторых учёных-футурологов2 и того же Винджа, придерживающихся концепции сингулярности, она должна наступить около 2030 года и даже по самому пессимистическому сценарию не позднее середины этого века, т.е. в 2050 году. Сторонники теории технологической сингулярности считают, что если возникнет принципиально отличный от человеческого разум (постчеловек), дальнейшую судьбу цивилизации невозможно предсказать, опираясь на человеческую логику. С понятием сингулярности часто связывают идею о невозможности предсказать, что будет после нее.

Постчеловеческий мир, который в результате появится, возможно, будет столь чуждым для нас, что сейчас мы не можем знать о нем абсолютно ничего. Единственным исключением могут быть фундаментальные законы природы, но даже тут иногда допускается существование еще не открытых законов (у нас пока нет теории квантовой гравитации) или не до конца понятых следствий из известных законов (путешествия через пространственные «дыры», рождение «вселенных-карликов», путешествия во времени и т.п.), с помощью которых постлюди смогут делать то, что мы привыкли считать физически невозможным.

Вывод. Вопрос предсказуемости важен, поскольку, не имея возможности предсказать хотя бы некоторые последствия наших действий, нет никакого смысла в том, чтобы пытаться направить развитие в желательном направлении.

1 Vinge V. (1993) The Coming Technological Singularity. - http://www- ohan.sdsu.edu/faculty/vinge/misc/singularity.html/

2 Новоселов А. Технологическая сингулярность как ближайшее будущее человечества. - http://andrzej.virtualave.net/Artic les/singularity.html/

L_

О Q.

U О Ф Q.

^прктпо- У

X *

и

<D 3" S I

0

1

о

1780

1845

1895

1940 1973

Источник: Hilbert M., University of California).

Рисунок 1.

Трансформирующие технологии и технологические уклады

Миф 3. Угрозы ИИ и кризис человечества.

Человечество стоит на пороге не только технологического, но и философского кризиса, считает историк Юваль Харари, автор книги «Sapiens: Краткая история человечества»1. Новые технологии формируют новые формы антиутопии. И общество пока не понимает, как адаптироваться к меняющейся реальности. Харари вывел формулу предстоящего глобального кризиса:

В данном случае B - это познания в биологии, C - это вычислительная мощность, а D - это данные. Если помножить их друг на друга, появится возможность взламывать людей (HH - hack humans).

Под взломом исследователь подразумевает возможность управлять человеком на глубинном уровне, то есть контролировать его желания и стремления. Харари опасается, что правительства и корпорации скоро изучат людей настолько, что смогут с легкостью регулировать их мысли.

Технологии отдаленно будут напоминать таргетированную рекламу, только их действие будет более точным, а эффект - стопроцентным.

Ранее исследователь отмечал, что в сложившихся обстоятельствах привычные философские концепции отмирают. Это касается свободы воли и свободы выбора. Люди ошибочно полагают, что контролируют ситуацию, но на самом деле это не так.

Главное следствие масштабного внедрения искусственного интеллекта - это утрата человеком автономии и авторитета. При этом ИИ не обязательно выходить на один интеллектуальный уровень с людьми и обладать сознанием. Алгоритмам МО достаточно будет изучить личность досконально, чтобы найти самую слабую точку и запустить процесс манипуляций.

Общество подвержено взлому на всех уровнях, но больше всего Харари пугает биологический: «Эксперты по ИИ могут общаться с философами. С историками - да, пожалуйста. С литературными критиками - замечательно. Но меня пугает их общение с биологами», - признал он в интервью изданию Wired. Тем не менее, исследователь подчеркивает, что ИИ обладает и массой преимуществ. Особенно это касается медицины. Харари подчеркивает, что никто не станет препятствовать внедрению технологии - ведь она способна принести столько пользы людям.

Распространение ИИ в комплекте с биотехнологическими открытиями породит два возможных сценария антиутопии.

Первый: надзор-капитализм - даст алгоритмам полную власть над людьми. Машинный интеллект и МО решат за нас, где жить, работать, с кем встречаться и за кого голосовать.

Второй: укрепление тоталитаризма и диктатуры, при котором каждый житель Земли - это объект непрерывной слежки. Особую роль в этом процессе сыграют биометрические и видео-системы, которые не дадут гражданину скрыться от всевидящего ока государства.

Историк подчеркивает, люди могут даже не заметить, как оказались во власти ИИ и МО. Большинство не сможет понять, как работают механизмы алгоритмов и как именно нами манипулируют. Человечество привыкло к тради-

В *c*D= ИИ

1 Харари Ю. Sapiens: Краткая история человечества. - http://www.labirint.ru/books/498309/

333

ционным формам объяснения и повествования, но машинный интеллект работает со статистическими данными и оперирует другими понятиями.

Харари считает, что чрезмерное усложнение систем - одна из главных актуальных проблем. Из-за этого, например, ученым все сложнее объяснять свои теории и доносить до аудитории суть открытий.

Важный побочный эффект этого - расцвет теорий заговора. По этой причине сейчас возникает все больше антиглобалистов и тех, кто не верит в глобальное потепление. То же касается и сферы финансов - с каждым годом она усложняется, и некоторые концепции можно объяснить, только если потратить 10 лет на изучение экономики и математики. «В этом тоже выражается философский кризис», - отмечает Харари.

Он также считает, что сегодня человек борется не с отдельными людьми, а с государствами и корпорациями. Перед лицом таких мощных соперников шансов на успех мало. Более того, влияние некоторых стран выходит за географические рамки. Историк обвиняет развитые государства и крупные корпорации в цифровом колониализме.

Вывод. По мнению некоторых учёных-футурологов, после наступления технологической сингулярности, человечество ожидает технологический и философский кризис. Социум погрузится в эпоху цифрового колониализма.

Нарисованная некоторыми учёными-футурологами довольно пессимистическая картина мира после достижения человеческой цивилизацией временной точки технологической сингулярности скрашивается последними исследованиями учёных-математиков: возможности ИИ оказались небеспредельными1. Подобно человеческому разуму, ИИ ограничен парадоксами теории множеств.

До сих пор считалось, что самой фундаментальной проблемой развитии технологий ИИ является необъяснимость принимаемых им решений.

В январе 2019 к этой проблеме добавилась еще одна фундаментальная проблема - это принципиальная непредсказуемость, какие задачи ИИ может решить, а какие нет.

На пути триумфального развития технологий машинного обучения, как казалось, способных при наличии большого объема данных превзойти людей в чем угодно - в играх, распознавании, предсказаниях и т.д. - встала первая из 23 проблем, поставленных в докладе Давида Гильберта на международном математическом конгрессе в Париже еще в 1900-м году2.

Первой в списке этих 23 проблем, решение которых до сих пор считается высшим достижением для математика, была так называемая гипотеза континуума (континуум-гипотеза или 1-я проблема Гильберта), которую выдвинул и пытался решить (но потерпел неудачу) еще сам создатель теории множеств Георг Кантор.

И вот сейчас, на исходе второго десятилетия XXI века, гипотеза континуума, будучи примененная к задачам машинного обучения, стала холодным отрезвляющим душем для всех техно-оптимистов ИИ.

Машинное обучение оказалось не всесильно. И что еще хуже,- в широком спектре сценариев обучаемость ИИ не может быть ни доказана, ни опровергнута.

Первая же научная сенсация 2019 года оказалась совершенно неожиданной. Опубликованная 7 января того же года в Nature Machine Intelligence статья «Обучаемость может быть неразрешимой» (Learnability can be undecidable) устанавливает предел возможностей машинного обучения - ключевого метода вычислений, на коем стоит весь современный ИИ3.

Этот научный вывод столь важен, что журнал Nature сопроводил статью еще двумя популярно её разъясняющими статьями «Недоказуемость приходит в машинное обучение» (Unprovability comes to machine learning) и «Машинное обучение приводит математиков к неразрешимой задаче» (Machine learning leads mathematicians to unsolvable problem).

Суть всех этих статей в следующем. Обнаружены сценарии, в которых невозможно доказать, может ли алгоритм машинного обучения решить конкретную проблему. Этот вывод может иметь огромное значение как для существующих, так и для будущих алгоритмов обучения. Обучаемость ИИ не может быть ни доказана, ни опровергнута с использованием стандартных аксиом математики, поскольку это связано с парадоксами, открытыми австрийским математиком Гёделем в 1930-х годах.

Парадоксы - это формально-логические противоречия, которые возникают в теории множеств и формальной логике при сохранении логической правильности рассуждения. Парадоксы возникают тогда, когда два взаимоисключающих (противоречащих) суждения оказываются в равной мере доказуемыми.

С точки зрения математики, вопрос «обучаемости» сводится к тому, сможет ли алгоритм извлечь шаблон из ограниченных данных. Ответ на этот вопрос связан с парадоксом, известным как вышеупомянутая континуум-гипотеза (проблема континуума или 1-я проблема Гильберта) и разрешенным в 1963 г. американским математиком Полом Ко-эном.

Решение оказалось весьма неожиданным: то, что утверждается в гипотезе континуума, нельзя ни доказать, ни опровергнуть, исходя из аксиом теории множеств. Гипотеза континуума логически независима от этих аксиом. Неспециалисту довольно трудно понять, почему утверждения такого рода играют для математики столь большую роль и ставятся на первое место в списке важнейших проблем. Отметим лишь, что на самом деле речь идет о вещах принципиальных и фундаментальных, так как континуум - это, по сути, базовая математическая модель окружающей нас

1 Colors collective. - https://www.quantamagazine.org/mathematicians-measure-infmities-fmd-theyre-equal-20170912/

2 Демидов С.С. «Математические проблемы» Гильберта и математика XX века // Историко-математические исследования. -М.: Янус-К, 2001. - № 41 (6). - С. 84-99.

3 Ben-David S., Hrubes P., Moran S., Shpilka A., Yehudayoff A. Learnability can be undecidable // Nature Machine Intelligence. 2019. - N 1. - P. 44-48.

физической, пространственно-временной реальности (частью которой являемся и мы сами), а в математике континуум - еще и синоним совокупности всех действительных чисел, также центрального понятия математики и ее рабочего инструмента.

По сути Гёдель и Коэн доказали, что континуум-гипотеза не может быть доказана ни как истинная, ни как ложная, начиная со стандартных аксиом, утверждений, принятых как истинные для теории множеств, которые обычно принимаются за основу всей математики.

Иными словами,утверждение не может быть ни истинным, ни ложным в рамках стандартного математического языка.

Вывод. Математически доказано, что возможности ИИ не беспредельны. И какими бы огромными вычислительными ресурсами не обладал человек, машинное обучение никогда не приведёт к победе искусственного разума над человеческим.

В пользу данного доказательства говорят и последние исследования нейробиологов в области исследования структуры и возможностей человеческого мозга.

Так учёные Стэнфордского университета потратили несколько лет, разрабатывая новый способ 3Б-скани-рования мозга. Они совместили объёмную компьютерную томографию (array tomography - техника «антенных решёток» из радиоастрономии) и специально разработанный софт, чтобы получить объёмную и реалистичную 3Б-модель. Такую, по которой можно перемещаться, масштабировать и вращать её в разных измерениях.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

Изучив полученную картину, учёные пришли к выводу, что синапсы (соединительные ткани нервных клеток) устроены гораздо сложнее, чем предполагалось раньше. Здоровый человеческий мозг содержит около 200 млрд. нервных клеток, которые соединяются друг с другом сотнями триллионов синапсов. От каждой нервной клетки могут отходить десятки тысяч синапсов. В одной только коре больших полушарий человека находится около 125 трлн. синапсов - в 1500 раз больше, чем звёзд в нашей галактике. По результатам визуальной реконструкции данных учёные обнаружили, что каждый синапс содержит около 1000 молекулярных «переключателей», наподобие аналоговых транзисторов. То есть отдельный синапс можно сравнить с микропроцессором. Получается, что количество «транзисторов» в человеческом мозге теперь нужно увеличить на три порядка. Их больше, чем транзисторов во всех компьютерах на планете и маршрутизаторах вместе взятых1.

Вывод. Получается, что один человеческий мозг по сложности примерно равен всей мировой ИТ-инфраструктуре, а учитывая тот факт, что возможности человеческого мозга задействованы человечеством максимум на 20%, говорить о победе ИИ над человеческим разумом не приходится даже в отдалённой перспективе.

Заключение

Проблемам информационной безопасности ИКТ и защищённости человеческого социума от негативного воздействия ИИ и МО уделено достаточно много внимания в ряде исследований.

Выделяются основные проблемы: нарушение работоспособности технического и программного обеспечения, распространение информационного оружия, непрерывное усложнение информационных и коммуникационных систем, возможность концентрации информационных средств в руках небольшой группы собственников, использование

во вред информационных данных, манипулирование сознанием, использование технологического воздействия на пси-

2

хическую деятельность .

Однако, вместе с этим, технологии искусственного интеллекта рассматриваются как одно из самых действенных средств в области кибербезопасности сейчас и в будущем.

Почему ИИ - это будущее кибербезопасности3.

Обнаружение мошенничества, обнаружение вредоносных программ, обнаружение вторжений, оценка риска в сети и анализ поведения пользователя/машины - это пятёрка самых актуальных способов применения ИИ для улучшения кибербезопасности. ИИ реально меняет привычные аспекты кибербезопасности. Он улучшает способность компаний предвидеть и предотвращать киберпреступления, защищает устройства с нулевым уровнем доверия, может контролировать даже устаревание паролей! Таким образом, искусственный интеллект действительно необходим для обеспечения безопасности периметров любых объектов хозяйственной или финансовой деятельности.

Поиск взаимосвязей между угрозами и анализ вредоносных файлов, подозрительных IP-адресов или необычную деятельность сотрудника длится считанные секунды или минуты. Уже сейчас ИИ помогает человеку обеспечивать кибербезопасность. А в дальнейшем его возможности будут только расширяться, делая участие человека в процессе защиты чисто номинальным.

В банках, благодаря ИИ, антифрод-системы станут работать надёжнее и быстрее, что позволит поддержать доверие и сэкономить деньги как клиентов финансовых учреждений, так и самих банкиров. А, по мнению компании Dell, занимающейся разработкой подобных продуктов, ИИ способен защитить, контролировать и отслеживать данные в гибридных средах, а также предотвращать 99% атак вредоносного ПО.

1 В человеческом мозге столько же «транзисторов», сколько их в мировой ИТ-инфраструктуре. - https://www.cell.com/ пеигопЛиШех1/80896-6273(10)00766-Х/

2 Артамонов В. А. Безопасность информационно-коммуникационных технологий в контексте устойчивого развития социума / В.А. Артамонов, Е.В. Артамонова, Л.А. Кулак // Цифровая трансформация. 2019. -- № 2. - С. 36-45.

3 Кибербезопасность, будущее и ИИ. - https://www.securitylab.ru/contest/500573.php

Кроме того, ИИ вполне можно сделать облачным. Это позволит ему автоматически масштабироваться при резком повышении нагрузки (например, если хакеры пытаются «атаковать» сервер или замаскировать свою активность под лавиной типовых действий в другом направлении). «Облако» позволит расширить безопасный периметр компании, если еще и вся носимая электроника (гаджеты) будет подключена к контролируемой ИИ среде.

i Надоели баннеры? Вы всегда можете отключить рекламу.