Научная статья на тему 'ПРОБЛЕМА ИСКУССТВЕННОГО СОЗНАНИЯ: БУДДИЙСКИЕ ПУТИ РЕШЕНИЯ'

ПРОБЛЕМА ИСКУССТВЕННОГО СОЗНАНИЯ: БУДДИЙСКИЕ ПУТИ РЕШЕНИЯ Текст научной статьи по специальности «Философия, этика, религиоведение»

CC BY
164
42
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
СОЗНАНИЕ / ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ / ИСКУССТВЕННОЕ СОЗНАНИЕ / ФИЛОСОФИЯ СОЗНАНИЯ / КИТАЙСКАЯ КОМНАТА / ТЕСТ ТЬЮРИНГА / ДХАРМАКИРТИ / БУДДИЙСКАЯ ЛОГИКА / CONSCIOUSNESS / ARTIFICIAL INTELLIGENCE / ARTIFICIAL CONSCIOUSNESS / PHILOSOPHY OF CONSCIOUSNESS / CHINESE ROOM / TURING TEST / DHARMAKIRTI / BUDDHIST LOGIC

Аннотация научной статьи по философии, этике, религиоведению, автор научной работы — Воробьёв Валерий Владимирович

В данной статье, посвященной проблемам философии искусственного интеллекта, рассматривается гипотеза о возможности создания искусственного интеллекта, обладающего сознанием, на основании рассмотрения в качестве исходной матрицы концепции буддийской логики и теории познания, изложенной в трудах Дхармакирти и Дхармоттары. Буддийская логика, по сути, является семантической, имеющей дело со значением, а значит - с реальным опытом как источником для умозаключений. Рассматривается возможность создания вычислительных машин на этой основе как в качестве порождающих сознание, так и в рамках трансгуманистических веяний - возможном «доме» для сознания человека и обретения техногенного бессмертия.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

THE PROBLEM OF ARTIFICIAL CONSCIOUSNESS: BUDDHIST SOLUTIONS

This article is devoted to the problems of the philosophy of artificial intelligence. It examines the hypothesis on the possibility of creating an artificial intelligence with consciousness based on the consideration as the initial matrix of the concept of Buddhist logic and the theory of knowledge described in the works of Dharmakirti and Dharmottara. Buddhist logic is semanticdealing with meaning and therefore with real experience, as a source for inferences.The author considers the possibility of creating computers on this basis as generating consciousness and within the framework of transhumanistic trends - a possible "home" for human consciousness and the acquisition of technogenic immortality.

Текст научной работы на тему «ПРОБЛЕМА ИСКУССТВЕННОГО СОЗНАНИЯ: БУДДИЙСКИЕ ПУТИ РЕШЕНИЯ»

УДК 11 ББК Ю153.30

В.В. Воробьёв

Калмыцкий государственный университет им. Б.Б. Городовикова

ПРОБЛЕМА ИСКУССТВЕННОГО СОЗНАНИЯ: БУДДИЙСКИЕ ПУТИ РЕШЕНИЯ

Статья подготовлена при финансовой поддержке Российского научного фонда, проект № 19-18-00118 «Россия и буддийский мир в дискурсе философского востоковедения»

В данной статье, посвященной проблемам философии искусственного интеллекта, рассматривается гипотеза о возможности создания искусственного интеллекта, обладающего сознанием, на основании рассмотрения в качестве исходной матрицы концепции буддийской логики и теории познания, изложенной в трудах Дхармакирти и Дхармоттары. Буддийская логика, по сути, является семантической, имеющей дело со значением, а значит - с реальным опытом как источником для умозаключений. Рассматривается возможность создания вычислительных машин на этой основе как в качестве порождающих сознание, так и в рамках трансгуманистических веяний - возможном «доме» для сознания человека и обретения техногенного бессмертия.

Ключевые слова: сознание, искусственный интеллект, искусственное сознание, философия сознания, китайская комната, тест Тьюринга, Дхармакирти, буддийская логика.

V.V. Vorobyov

Kalmyk State University named after B.B. Gorodovikov

THE PROBLEM OF ARTIFICIAL CONSCIOUSNESS: BUDDHIST SOLUTIONS

This article is devoted to the problems of the philosophy of artificial intelligence. It examines the hypothesis on the possibility of creating an artificial intelligence with consciousness based on the consideration as the initial matrix of the concept of Buddhist logic and the theory of knowledge described in the works of Dharmakirti and Dharmottara. Buddhist logic is semanticdealing with meaning and therefore with real experience, as a source for inferences.The author considers the possibility of creating computers on this basis as generating consciousness and within the framework of transhumanistic trends - a possible "home" for human consciousness and the acquisition of technogenic immortality.

Key words: consciousness, artificial intelligence, artificial consciousness, philosophy of consciousness, Chinese room, Turing test, Dharmakirti, Buddhist logic.

Возможно ли создать искусственный интеллект, обладающий сознанием? В наши дни искусственный интеллект достиг небывалых высот и по своим, сугубо вычислительным, мощностям давно превзошёл человека, подтверждением чего служат многочисленные тесты в виде сложных настольных игр по типу шахмат или японской игры го, где машина показывает нетривиальные решения, выходящие за рамки способностей даже выдающихся шахматистов современности, при этом на само принятие решения уходит, на удивление, мало времени [13].

Искусственный интеллект проявляет блестящий уровень точности при вычислении сложных хаотических процессов, таких, например, как предсказывание погоды [4].

Успешно служит интересам транснациональных корпораций в сборе и обработке грандиозных массивов данных о потенциальных потребителях (так называемые "big data") [12]. Сам по себе искусственный интеллект непрестанно совершенствуется, внедряются новые методы обработки, разрабатываются модели на основании работы нервной системы ("нейронные сети") - тут, очевидно, речь идет об использовании в построении принципа "обратной разработки" (reverse engineering), что значительно увеличивает его эффективность, исследователи даже говорят о разных поколения ИИ (см. главу «Три волны искусственного интеллекта» [14, с.4].

Всё чаще приходится слышать слова беспокойства или, наоборот, одобрения, по поводу возрастающего с каждым днём практически в геометрической прогрессии процесса тотальной автоматизации и роботизации производства. Многие придерживаются пессимистических прогнозов и говорят, что роботы могут принести экономическую дестабилизацию, потому что они оставят человека без работы и, как следствие, - без средств к существованию. Так, один из представителей критики роботизации, успешный разработчик программ и IT-предприниматель Мартин Форд в своей книге привлекает внимание к этим проблемам будущего. Он пишет: «Хуже всего, если нам придётся иметь дело с так называемым «идеальным штормом» - ситуацией, при которой безработица в результате внедрения технологий автоматизации и экологические проблемы будут нарастать параллельно, поддерживая и, возможно, даже усиливая друг друга» [6, с. 377].

Однако существуют некоторые ограничения, за которые, кажется, невозможно выйти в построении искусственного интеллекта, а именно - сделать его обладающим сознанием. Пионерской работой в данном направлении была прорывная статья известного математика и криптографа Алана Тьюринга, опубликованная в 1950 году в журнале «Mind», называлась она в переводе на русский язык «Вычислительные машины и разум». Тьюринг пишет: «I propose to consider the question, 'Can machines think?'» [16, с. 433]. Тогда впервые прозвучала идея, что, вероятно, существуют критерии, на основании которых можно сделать заключение, что вычислительная машина обладает сознанием и был придуман навсегда вошедший в историю искусственного интеллекта тест Тьюринга.

Согласно Тьюрингу, есть способ проверить, обладает ли машина способностью осознавать или хотя бы в достаточной мере имитировать осознанность, чтобы пользователь ни при каких условиях не догадался, что общается с машиной, а думал, что это человек. В чём же была суть эксперимента? В нём участвуют два человека и машина. Один из людей выполняет функцию экзаменатора - он должен принять решение о том, кто из сидящих в другой комнате машина, а кто человек. Другой человек с машиной находится в отдельной комнате и с помощью писем, передаваемых посредником, пытается убедить экзаменатора, что каждый из них - человек, а не машина. Принято считать, что машина прошла тест, убедив экзаменатора, что она человек, если экзаменатор не может по сообщениям точно отличить машину от второго человека.

На наш взгляд, несмотря на кажущуюся эффективность и эвристичность этого метода, он не лишён недостатков и главный из них - это то, что большой упор в нём делается на личность экзаменатора и испытуемого человека, эксперимент не лишен погрешностей, связанных с субъективным фактором, и слишком большое значение приобретают такие факторы, как уровень образования участвующих лиц, их культурный уровень, уровень развития интеллекта. Это лишает эксперимент полной научной ценности и объективности, хотя нужно признать его огромный вклад в область разработки критериев наличия сознания у искусственного интеллекта. В философии

сам факт верного вопрошания, правильной исследовательской установки и поиска бывает подчас эффективнее и приносит больше развития в науку, чем попытка дать ответ на вопрос.

Нужно ещё заметить, что в том способе ответа, который преследовал Тьюринг, можно его назвать, на манер современной философии сознания, - подходом от третьего лица, - обнаруживаются те же парадоксы, с которыми встречается философ при попытке обосновать наличие сознания у другого человека (более подробно см.: «Воробьёв В.В. Конституирование другого сознания в буддизме и феноменологии // Научная мысль Кавказа, 2009. - с.37-43») [3].

В целом же, необходимо отметить, что такой способ исследования вычислительных машин, когда функция мышления понимается как изначально поддающаяся объективному исследованию посредством создания моделей структур, на которых предположительно базируется сознательный опыт, получил первоначальный толчок в кибернетике. При этом моделировалась система «черный ящик», который получает сигнал и выдаёт и исследование которого заключается в установлении взаимнооднозначного соответствия между паттернами входящих и исходящих сигналов. Позже этот метод был взят на вооружение бихевиоризмом. Однако нужно заметить, что при этом была допущена та же ошибка, что и в исследованиях Алана Тьюринга, а именно игнорировалась квалитативная природа сознания, её как бы оставляли за скобками, и в таком случае невозможно утверждать, действительно ли машина обладает сознанием или это имитация сознательного поведения.

Большое развитие идеи кибернетики получили в трудах Уильяма Эшби, который так отвечал по поводу возможности исследования сознания: «Если сознание - самый фундаментальный из всех фактов, то почему он не используется в этой книге? Ответ, я полагаю, состоит в том, что наука имеет дело - может иметь дело - только с тем, что один человек в состоянии продемонстрировать или доказать другому. Каким бы ярким ни было сознание для его обладателя, мы еще не знаем способа, с помощью которого он мог бы продемонстрировать своё переживание другому лицу. А пока такой способ, какой-либо другой его эквивалент, не будет найден, факты сознания не могут быть использованы в научном методе» [7, с. 33].

Мы попробуем наметить пути решения этой проблемы. Для начала нам необходимо понять, в чем тут состоит затруднение. Сознание, в контексте рассуждений об искусственном интеллекте, - это способность машины быть субъектом своих действий и вычислений, способность понимать их смысл и иметь о них отчетливую осведомленность. К примеру, шахматная программа, с легкостью побеждающая человека, не видит перед собой шахмат, не выбирает какой фигурой пойти, всё её решения заранее запрограммированы, и даже если речь идет о технологии нейронных сетей, которые способны к обучению, то в них заданы алгоритмы такого обучения, а поэтому теоретически можно заранее просчитать результат такого обучения, ведь все его условия заранее предустановлены программистом.

Таким образом, выходит, что самый известный критик искусственного интеллекта Джон Сёрль назвал всего лишь оперированием символами, синтаксисом, без осознания их смысла - семантики. Патриарх советского роботостроения и кибернетики, академик Гермоген Сергеевич Поспелов также отрицал возможность создания подлинно мыслящей и сознающей вычислительной машины в рамках существующих традиционных подходов. «Можем ли мы понимать термин «искусственный интеллект» буквально или же это всего лишь некоторое метафорическое наименование целого научного направления, связанного с производством и использованием компьютеров?

Я придерживаюсь последней точки зрения и считаю, что о рождении искусственного интеллекта в буквальном смысле этого слова, или, что то же само, о создании думающих - без кавычек - компьютеров, ни сейчас, ни в обозримом будущем не может быть и речи» [2].

Это реализация сугубо формальных форм и алгоритмов, которые обнаруживают в качестве истока еще первые работы Аристотеля по логике, имеющие общее название «Органон» [1]. «Понимать язык, или иметь ментальные состояния - значит иметь нечто большее, чем просто совокупность формальных символов. Предполагается, что у вас есть интерпретация, или смысл, которым наделены символы, у цифрового компьютера не может быть ничего, кроме формальных символов, потому что работа компьютера, как я уже говорил, состоит в выполнении программ. Эти программы чисто формальны и не имеют семантического содержания» [5, с. 23].

В связи с этим необходимо рассмотреть вопрос о сильном и слабом искусственном интеллекте. В своей книге «Сознающий ум» философ Дэвид Чалмерс спрашивает: «Может ли машина быть сознательной?» [11, с. 389]. Вопрос по существу тот же, который мы поднимаем в данной статье. И здесь Дэвид придерживается точки зрения, явно отличной от той, которую высказывал Сёрль в своих многочисленных работах, посвященных концепции сильного и слабого искусственного интеллекта (автором которой он собственно и является). Он говорит, что, возможно, утверждение Сёрля об исключительной роли биологического фактора в развитии сознания является несколько догматичным и нет твердых оснований утверждать, что невозможно появление сознания на технологической основе. Дэвид выступает против такого редукционизма. «Разумеется, не очевидно, что выполнение надлежащего вычисления должно порождать сознание; но не очевидно и то, что нейронные процессы в мозге должны порождать его. И, на первый взгляд, не ясно, почему компьютеры должны уступать мозгу в этом отношении. Признав удивительный факт порождения мозгом сознания, мы не испытываем нового удивления, обнаружив, что вычисление могло бы порождать сознание. Так что само по себе принятие нередуктивного взгляда на сознание должно было бы оставлять рассматриваемый нами вопрос открытым» [11, с. 391].

Третью точку зрения на проблему, возможно, самую бескомпромиссную, в отношении статуса сознания и возможности его определения, внедрения в круг рассматриваемых в философии сознания и искусственного интеллекта вопросов высказал американский философ Дэниел Деннет. И если рассматриваемое выше мнение Эшби гласит, что сознание может и существовать, но мы выносим его за скобки научного рассмотрения по причине его ненаблюдаемости, то Деннет отрицает сам факт существования сознания в той форме, в какой она была еще положена Декартом и развита последующими философами, дескать, сознание - это некоторое Я, некий автономный наблюдатель, обладающий феноменальным опытом.

Радикализм Деннета по данному вопросу как раз отчетливо проявлен в том месте, когда речь заходит о возможности конструирования вычислительной машины, обладающей сознанием. «Если сознание является не Центральным Наблюдателем, а функционированием информационных процессов, а феноменальный мир ощущений и чувств есть не что иное, как кажимости, возникает вопрос, может ли иммунный к «миражам феноменологического сада», но подражающий человеческому когнитивному поведению робот (или зомби) считаться таким же осознающим бытием, каким является человек? Ответ Деннета: «да» и только «да». Главным признаком сознания является как раз то общее, что имеется у нас с компьютерами, - функционирование когнитивно-информационных процессов» [15, с. 147].

Однако концепция Деннета вызывает многие споры среди философов сознания, прежде всего из-за того, что он отказывается брать в расчёт несводимые ни к чему физическому свойства сознания, которые требуют объяснения. Возможно, исследования в буддийской логике смогут помочь при создании искусственного интеллекта, учитывая аргумент Сёрля, и в некоторой степени преодолевая его. Если будет возможно научить машину строить содержательные умозаключения, руководствуясь буддийскими изысканиями, в частности, в области теории умозаключения, что может заставить ЭВМ не просто выдавать некий результат заранее приготовленных алгоритмических решений, а быть в некотором смысле сознающим субъектом, обучающимся по ходу и организующим свой опыт на основе семантических связей между фиксируемыми явлениями. Это позволит машине еще в большей степени быть способной к самообучению, а значит, к автономной деятельности, если не сказать - свободе.

Что значит «содержательные умозаключения»? Известный российский буддолог Урбанаева И. С. пишет: «еще один важный момент, отличающий буддийскую логику от небуддийской логики предыдущего периода заключался в том, что она является содержательной, а не формальной...» [8, с.1]. Важное значение в буддийской логике приобретает понятие признака, который может в качестве основания умозаключения состоять в трех видах семантических, эмпирических отношений с выводом: 1) отрицательная, 2) аналитическая (родо-видовая) и 3) причинно-следственная. Из них два вида логического признака дают утвердительные суждения, а один даёт суждения отрицательные» [10, с. 159].

Таким образом, учение о правильном логическом признаке делает акцент, прежде всего, на содержательной корректности рассуждения, что выражено в одном из трёх типов связей и подчеркивает скорее гнозисный смысловой аспект между посылкой и следствием, что исключает принцип «из лжи следует что угодно». Итак, особое значение приобретает экспертная осведомленность о предмете рассуждения, степень его фактической познанности, а не равнодушный к своему содержанию формализм силлогистики. Речь идет о семантической, а не о синтаксической связи между посылками, а значит, архитектура ЭВМ, построенная на этих принципах, должна отвечать этим критериям.

Приведем хрестоматийный пример: мы видим дым и на основании этого утверждаем, что где-то поблизости есть огонь. В данном случае мы производим частное утверждение о наличии огня на основании обстоятельства, что огонь всегда сопровождается таким признаком, как дым. Однако само это основание не является чем-то формализуемым, но представляет собой обстоятельство, которое невозможно вывести путем логических формальных операций, безразличных к своему содержанию.

Таким образом, основные виды умозаключений и их структура предполагают семантическую связь как внутри самого основания, так и в связи основания с выводом, а значит, предполагают наличие сознания со стороны субъекта умозаключения. Мы можем допускать, с некоторой долей вероятности, обратную ситуацию, в рамках которой сознание будет возможно реализовать в результате алгоритмизации искусственного интеллекта согласно видам умозаключений, изложенным в произведении Дхармакирти, и дополнительным аргументом в пользу вышеизложенного положения может служить аспект необходимой связи между наличием сознания с одной стороны и таким способом умозаключения с другой, когда вывод имеет непосредственное отношение к своему основанию и соответствует ему, прежде всего, по смыслу, а не по форме.

И, по крайней мере, это может служить если не источником сознания, то необходимой базой, на основании которой существование сознания в рамках архитектуры компьютера станет возможным. То есть это будет новым домом для сознания, ведь было установлено, что данные три типа умозаключения исчерпывают собой все возможные виды семантических, а значит связанных с сознанием умозаключений. Таким образом, сознание, которое будет реализовано на этой платформе, на платформе данных умозаключений, будет реализовано в наибольшем объеме, наилучшим образом доступным на данный момент.

Возможно, данное обстоятельство поможет и будет способствовать дальнейшему развитию теории искусственного интеллекта в аспекте обоснования и развития его квалитативной стороны, что, конечно, позволит открыть перспективы сразу в нескольких направлениях: как минимум это возможность создания машин, изначально обладающих неким программным сознанием, так и возможность переноса сознания человека на новую разработанную платформу, в которой учитываются все возможные из известных отношения сознания к своему объекту, благодаря изложению их в трудах Дхармакирти.

При всём при этом необходимо также отметить, что, с официальной точки зрения буддизма, которая была высказана лидером буддистов, Его Святейшейством Далай Ламой XIX, создание искусственного интеллекта, обладающего сознанием невозможно, по причине того, что это противоречит доктрине буддизма о сознании как о потоке - сантане, претерпевающем череду рождений и смертей. Приведём на этот счёт отрывок из беседы Его Святейшества с учёными-когнитивистами: «Хейворд: Учёные придерживаются мнения, что сознание появляется в силу материальных причин. Далай-лама: С точки зрения буддизма, это утверждение неприемлемо. Материя может быть только сопутствующей причиной. Этот вопрос тесно связан с буддийским взглядом на космологию и эволюцию. В соответствии с этим взглядом, Вселенная - безгранична, в ней каждый из миров проходит цикл разрушения и возрождения. В каждом из миров на любом этапе существования присутствуют более грубые или тонкие формы материи, но нет ни начала, ни конца. Таким образом, живые существа являются основным элементом данного процесса» [9]. Однако позволим себе некое мысленное отвлечение, эксперимент, и представим, что вычислительная машина -это очередное физическое тело, способное стать вместилищем для потока сознания, и в таком случае кажется, что сознание можно не только туда «перенести», но оно может там «родиться», подобно тому, как поток воплощается в теле человека.

Заключение

Исходя из всего вышеизложенного, можно сделать ряд выводов:

Во-первых, в связи с небывалыми ускоренными темпами развития технологий искусственного интеллекта, перед философами настоящего и будущего на первое место должна встать задача - разработать план по обеспечению надлежащего уровня защиты человека от всех возможных опасностей, которые могут за этим стоять (выявить как можно полнее весь этот список - тоже одна из существенных задач), в число которых может входить: спонтанное проявление злой воли со стороны вычислительных машин; опасность того, что контролем над машинами могут завладеть недобросовестные взломщики по причине их недостаточной защищенности и это нанесет огромный урон множеству людей, в силу тотальной сопряженности машин с жизнедеятельностью людей в целом; опасность экономической нестабильности, связанная с перераспределением полномочий в сфере труда, перекладывания рабочих функций людей на машины, что повлечет за собой уменьшение необходимости задействовать людей в

сфере производства и как следствие - тотальной безработице. Очевидно, что научно-технический прогресс не остановить, а значит, на первое место встанет вопрос о преобразовании принципов производственной экономики и изменении способов распределения материальных благ.

Во-вторых, необходима разработка более эффективных критериев в сфере определения сильного искусственного интеллекта, учитывая многочисленные наработки в этой области, такие как «тест Тьюринга» и мысленный эксперимент «китайская комната».

В-третьих, теоретикам искусственного интеллекта в аспекте разработки искусственного сознания необходимо принять в расчёт работу, проведенную в рамках буддийской логики, как раз в силу её содержательной направленности на опыт и реальность, в отличие от классической западной силлогистики, рассматривающей только форму мышления в качестве своего основного предмета.

В-четвертых, были обнаружены четыре гипотетические возможности существования искусственного сознания, либо искусственного интеллекта, обладающего сознанием (в более широком смысле). Это возможность, когда сознание возникает в вычислительной машине спонтанно, на определенном уровне развития её технологической сложности. Само такое сознание следует квалифицировать как некое сложное эмерджентное свойство. Вторая возможность, скорее, сакрального характера, которая может укладываться в рамки буддистского мировоззрения, когда вычислительная машина на определенном уровне развития окажется способной «вместить» в себя уже имеющийся поток сознания, явившись для него телом очередного воплощения. Третья возможность связана с полным переносом уже существующего человеческого сознания на базу вычислительной машины. Четвертая, как более слабая версия третьей, - симбиотическое сращивание мозга человека с вычислительными технологиями для пропорционального увеличения врожденных вычислительных способностей человека либо для наделения его новыми способностями, подобно тому, как микроскоп или бинокль увеличивают способность зрения.

Список литературы

1. Аристотель. Сочинения в 4 т. (Серия «Философское наследие»). Т.2 (Органон). -М.: Мысль, 1978. Ред. и вступ. ст. З.Н. Микеладзе - 688 с.

2. Академик Гермоген Сергеевич Поспелов [Электронный ресурс] URL: https:// www.computer-museum.ru/galglory/18.htm

3. Воробьёв В.В. Конституирование другого сознания в буддизме и феноменологии // Научная мысль Кавказа, 2019. - с.37-43.

4. Гугл научился почти мгновенно прогнозировать погоду [Электронный ресурс] URL: https://tech.liga.net/technology/novosti/google-nauchilsya-pochti-mgnovenno-prognozirovat-pogodu

5. Джон Сёрль. Сознание, мозг и наука // Путь. Международный философский журнал №4, 1993. - с. 3-66.

6. Роботы наступают. Развитие технологий и будущее без работы / Мартин Форд; Пер. с англ. - М. : Альпина нон-фикшн, 2016. - 430 с.

7. У Росс Эшби. Конструкция мозга. Происхождение адаптивного поведения. Пер. с англ. Ю.И Лашкевича. Изд. иностранной литературы, Москва, 1962. - с. 397.

8. Урбанаева И.С. - Особенности буддийской логики и её роль в тибетском буддизме // Вестник бурятского университета. (cyberleninka.ru/article/n/osobennosti-buddiyskoy-logiki-i-ee-rol-v-tibetskom-buddizme/viewer)

9. «Ум и жизнь». Начало диалога между буддизмом и наукой. Часть 2 [Электронный ресурс] URL: https://dalailama.ru/messages/608-mind-and-life-beginning-of-dialogue-2.html

10. Ф.И. Щербатской. Теория познания и логика поучению позднейших буддистов. Часть I «Учебник логики Дхармакирти с толкованием Дхармоттары. - Издательство Аста-пресс LTD, Санкт-Петербург, 1995. - 394 с.

11. Чалмерс Дэвид. Сознающий ум: В поисках фундаментальной теории. Пер. с англ. - М.: УРСС: Книжный дом «ЛИБРОКОМ», 2013. - 512 с.

12. Использование больших данных (big data) в маркетинговых исследованиях [Электронный ресурс] URL: https://www.ovtr.ru/stati/bolshie-dannye-big-data-v-marketingovyh-issledovaniyah

13. Как AlphaZero играет игры, превосходит реальных игроков и конкурирует с подражателями [Электронный ресурс] URL: https://hype.tech/@id3153/kak-alphazero-igraet-v-igry-prevoshodit-realnyh-igrokov-i-konkuriruet-s-podrazhatelyami-l3q5feqe

14. Э.М. Пройдаков. Современное состояние искусственного интеллекта // Науко-ведческие исследования №2018. - АНО «Модернизация», Москва, 2018. - с.129-153.

15. Юлина Н.С. Головоломки проблемы сознания: концепция Дэниела Деннета. - М.: Канон+, 2004. - 544 с.

16. Turing A. Computing machinery and intelligence//Mind. - Oxford: Oxford University Press, 1950. - No. 59. - P.433-460.

i Надоели баннеры? Вы всегда можете отключить рекламу.