Машины не желают мыслить? Можно ли имплементировать человеческое мышление на искуственном носителе?

Проблема:

Прогресс в области проектирования сложных автоматизированных самокорректирующихся интеллектуальных машин всё ещё поддерживает фантазм о том, что человеческое мышление можно с успехом имплементировать на искусственном носителе. И, как правило, многие концепции (не только редукционистского характера) постулируют возможность создания полноценного искусственного разума, который предполагал бы в себе способность к творчеству и пониманию. Главной предпосылкой служит то, что природа мышления может быть представлена в качестве алгоритмизированного объекта. Существует целая история споров и размышлений на тему «сильного» искусственного интеллекта, под которым Джон Сёрл подразумевал концепцию, согласно которой компьютер, запрограммированный подходящим образом, может рассматриваться в качестве полноценного сознания (теория же «слабого» ИИ ограничивается лишь рассмотрением компьютера в качестве средства исследования когнитивных процессов) [7]. В основании «сильного» ИИ лежат четыре необоснованных допущения, которые в своё время выделил Хьюберт Дрейфус:

1) Психологическое допущение.
— Природа мышления формализуема и вычислима.

2) Эпистемологическое допущение.
— Знание формализуемо.

3) Онтологическое допущение.
— Мир может быть проанализирован в терминах определённых атомарных фактов (вытекает из эпистемологического)

4) Биологическое допущение.
— Природа мышления определяется через чёткое различие между цифровым и аналоговым.

В данном случае всё равно остаётся незамеченным то, как данные допущения подкрепляются негласным консенсусом в отношении понимания специфики самого технического (алгоритмизированного) объекта. Для более детального критического разбора теории «сильного» ИИ необходимо выделить, по крайней мере, три допущения, поддерживающих фантазм очеловеченной машины:

1) Онтологическое допущение.
— Информация (преобразуемая и обрабатываемая) сводится исключительно к процессу передачи.

2) Технологические допущения.
— Функционирование технического объекта определяется через количественное прибавление новых компонентов (правило аддитивности), что экстраполируется на понимание природы мышления. Иными словами, если у вас есть желание, чтобы объект «АB» работал иначе (более эффективней в контексте какой-то ситуации), то вы добавляете к нему компонент «С» (к примеру, функционал большинства систем охлаждения определяется через заданное количество вентиляторов и радиаторов). По аналогии с этим примером, n-ое число алгоритмов в сумме будет составлять функциональную природу человеческого мышления. Если когнитивные процессы не имитируются каким-то одним алгоритмом, то это не означает в данном случае того, что множество подобных алгоритмов не будет с полным правом имитировать данные процессы (такую позицию на сегодняшний день отстаивают многие популярные теоретики ИИ, а также философы сознания, которых мы ещё коснёмся).
— Наличие семантики (смыслового содержания символов) не противоречит реальности технического объекта.

Теорема:

Теория имплементации человеческого мышления на искусственном носителе основывается на неверном представлении о природе технического объекта.

Доказательство:

Наше первое онтологическое допущение определяет информацию как нечто такое, что имеет своими фундаментальными качествами регулярность, детерминированность и локальность. Здесь наиболее адекватную критику данного положения выдвинул в своих работах французский философ Жильбер Симондон, который показал, что теория информации ограничивается сугубо формальным представлением передачи информации, не учитывающим индетерминизм, представленный в «состоянии конкретного получателя информации, квалифицируемого в качестве метастабильного» [4, p. 36]. По Симондону, в самом процессе информирования предполагается момент становления информированным, в котором получатель меняется, не являясь, таким образом, пассивным адресатом. В этом плане наделение значением получаемой информации предполагает потенциальную вариативность восприятия в противовес формальному подходу теории информации, игнорирующей момент интерпретации и понимания. Поэтому нам необходимо также учитывать неформализуемую вариативность информации.

Первое технологическое допущение часто выдаётся за полноценный аргумент. Так, сторонники «сильного» ИИ сетуют не столько на собственные теоретические положения, сколько на техническую составляющую (будь то недостаточная производительность или трудность в реализации комплексных процессов обработки данных). Таким образом, нехватка теоретической аргументации маскируется техническими ограничениями. Что является, к примеру, отличительной чертой теории образов Рэя Курцвейла, рассматривающего имплементацию мышления на искусственном носителе в качестве постепенного расширения рекурсивной иерархической системы модулей по распознаванию внешних данных (образов, символов, контекстов действия и т. п.) [2]. Он указывает, что посредством умножения подобных модулей можно реконструировать высшие мыслительные процессы. Последний тезис обращается исключительно к производительным мощностям, ограниченность которых, как предполагается, не должна оспаривать самой теории Курцвейла. То же самое справедливо для Пола и Патриции Чёрчленд, которые обосновывают представление о мышлении как об особом автомате по обработке данных, парируя мимоходом аргумент Джона Сёрла о невозможности сведения семантики (смыслового содержания символов) к синтаксису (последовательности символов). Сёрл полагал, что манипуляция символами согласно заданному набору правил (принцип действия компьютерной программы) не может подразумевать работу со смысловым содержанием символов, отчего мы способны сделать вывод о невозможности полноценной имитации когнитивных процессов на искусственном носителе. Чёрчленды же упрекают Сёрла за то, что тот берёт за отправную точку исполнение одного алгоритма, а не комплексного множества, что сохраняло бы возможность продуцирования эффекта понимания смыслового содержания [5]. Иными словами, усложнение синтаксиса не может исключать семантики. По мнению Чёрчлендов, вся дальнейшая ответственность за имплементацию мышления падает на плечи инженеров, занимающихся архитектурой компьютера. Обоснование имплементации у Чёрчлендов остаётся в подвешенном состоянии, так как опровержение аргумента Джона Сёрла базируется на простой аналогии между природой сознания и природой света (подобно тому, как мы не можем отрицать электромагнитную природу света, находясь в тёмной комнате с маленьким магнитом, мы не можем отрицать и вычислительную природу мышления, имея перед собой лишь один простейший алгоритм), а действенность данной аналогии, в свою очередь, возлагается на увеличение вычислительных мощностей.

Главной загвоздкой в проблеме имплементации является ограниченное понимание онтологии технического объекта. Машина, в случае Курцвейла и Чёрчлендов, определяется через прибавляемые компоненты (модули распознавания образов, к примеру), что экстраполируется на понимание природы мышления. Поэтому семантика для Чёрчлендов необоснованно выводится из расширенного синтаксиса, а способность к творчеству (к нормативным актам) для Курцвейла оформляется в результате расширения системы модулей по распознаванию данных. В этом случае неверное понимание технических объектов влечёт за собой неверное истолкование природы мышления.

Для более релевантного определения реальности технического объекта стоит обратиться к концепции конкретизации Жильбера Симондона. Данная концепция предполагает, что технические объекты становятся полезными во многих направлениях, нежели в каком-то одном, то есть они переопределяются в своём составе для достижения другого уровня интероперабельности [6, p. 16]. Если в случае с применением аддитивного правила техника идентифицируется через сумму прибавляемых компонентов, то в случае с конкретизацией техника, наоборот, утверждается через выделение уникальных компонентов, открывающих более высокий уровень интероперабельности или, другими словами, продуцирующих возможность более разнонаправленного действия (к примеру, достаточно сравнить дигитальные технические объекты с аналоговыми). Основываясь на историческом опыте, можно сказать, что конкретизация предполагает развитие абстрактных технических объектов. В этом смысле формальные синтаксические системы (алгоритмы компьютерных программ) представляют собой следствие конкретизации естественного языка в более универсальный абстрактный язык через исключение семантики (способность к пониманию смыслового содержания символов остаётся привилегией человека не в силу какой-то ограниченности технических объектов, но в силу самой логики их становления). Последнее положение не предполагает того, что технический объект существует автономно от носителя семантики. Жильбер Симондон полагал, что генезис материи проходит через множество фаз (физическую, биологическую, техническую), соотносящихся друг с другом [3], поэтому техническая фаза является продолжением биологической фазы. В таком случае техника и носитель семантики включены в более общую схему генезиса (или информационного процесса, о котором мы говорили выше), которая предполагает их взаимное становление (как техники в человеке, так и человека в технике), основанное на недетерминированности циркулирующей информации. Что, в свою очередь, позволяет отказаться от классической аналогии между человеческим мышлением и компьютером, аналогии, основанной на неверном понимании природы технических объектов.

Иллюстрации: Табуретка

Примечания

  1. Дрейфус Х., Чего не могут вычислительные машины. — М.: Прогресс, 1978. — 333 с.
  2. Курцвейл, Р. Эволюция Разума. — Москва: Издательство «Э», 2015. — 352 с.
  3. Bardin, A. Epistemology and Political Philosophy in Gilbert Simondon: Individuation, Technics, Social Systems. Springer. 2015.
  4. Barthélémy, J.-H. Life and Technology: An Inquiry Into and Beyond Simondon. Meson press. 2015.
  5. Churchland, P. Could a Machine Think? // Scientific American. 1990.
  6. Iliadis, A. Informational Ontology // Communication+1. Vol. 2 [2013], Iss. 1, Article 5.
  7. Searle J. Minds, Brains, and Programs // The Philosophy of Artificial Intelligence / Boden M. (ed.) Oxford, 1990.