Значит так. Было золото. Золото использовалось как элемент обмена, потому что его было ограниченное количество. И алхимики пытались создать золото из свинца, грязи и магии. Не получалось. Но пришли более умные алхимики и сделали фиатные деньги, которые делались из чего угодно и были заменой золота. Магия!?? Да, очень мощная магия.
Так и здесь - были экспертные системы, придумывали всё новые и новые системы уравнений для формализации разных карт соответствия вопросы - ответы. Пришли маркетологи и назвали это интеллектом. Вуаля! Примитивнейшая в своей сути парадигма вдруг обрела "интеллект". Это фейк. Чушь.
Китайская комната (англ. Chinese room) - мысленный эксперимент в области философии сознания и философии искусственного интеллекта, впервые опубликованный Джоном Сёрлом в 1980 году. Цель эксперимента состоит в опровержении утверждения о том, что цифровая машина, наделённая "искусственным интеллектом" путём её программирования определённым образом, способна обладать сознанием в том же смысле, в котором им обладает человек. Иными словами, целью является опровержение гипотезы так называемого "сильного" искусственного интеллекта и критика теста Тьюринга.
Этот философский аргумент до сих пор является одним из самых обсуждаемых в области когнитивистики. Некоторые исследователи даже определяют когнитивистику как "исследовательский проект по опровержению аргумента Сёрла". Только с 2010 по 2014 год было выпущено более 750 статей в научных журналах, где обсуждается мысленный эксперимент Сёрла.
Общие сведения
Эксперимент был опубликован в 1980 году в статье "Minds, Brains, and Programs" журнала "The Behavioral and Brain Sciences (англ.)русск.". Ещё до публикации эксперимент вызвал полемику, поэтому статья содержала как оригинальный аргумент Сёрла, так и возражения 27 исследователей в области когнитивных наук, а также ответы Сёрла на эти возражения. Помимо этого, эксперимент описан в книге 1984 года "Minds, Brains and Science" и в январском выпуске журнала Scientific American 1990 года.
Описание эксперимента
Представим себе изолированную комнату, в которой находится Джон Сёрл, который не знает ни одного китайского иероглифа. Однако у него есть записанные в книге точные инструкции по манипуляции иероглифами вида "Возьмите такой-то иероглиф из корзинки номер один и поместите его рядом с таким-то иероглифом из корзинки номер два", но в этих инструкциях отсутствует информация о значении этих иероглифов и Сёрл просто следует этим инструкциям подобно компьютеру.
Наблюдатель, знающий китайские иероглифы, через щель передаёт в комнату иероглифы с вопросами, а на выходе ожидает получить осознанный ответ. Инструкция же составлена таким образом, что после применения всех шагов к иероглифам вопроса они преобразуются в иероглифы ответа. Фактически инструкция - это подобие компьютерного алгоритма, а Сёрл исполняет алгоритм так же, как его исполнил бы компьютер.
В такой ситуации наблюдатель может отправить в комнату любой осмысленный вопрос (например, "Какой цвет вам больше всего нравится?") и получить на него осмысленный ответ (например, "Синий"), как при разговоре с человеком, который свободно владеет китайской письменностью. При этом сам Сёрл не имеет никаких знаний об иероглифах и не может научиться ими пользоваться, поскольку не может узнать значение даже одного символа. Сёрл не понимает ни изначального вопроса, ни ответа, который сам составил. Наблюдатель, в свою очередь, может быть уверен, что в комнате находится человек, который знает и понимает иероглифы.
Аргументация
Таким образом Сёрл заключает, что хотя такая система и может пройти тест Тьюринга, но при этом никакого понимания языка внутри системы не происходит, а значит тест Тьюринга не является адекватной проверкой мыслительных способностей. Доводы Сёрла направлены на критику позиции так называемого "сильного" искусственного интеллекта, согласно которой компьютеры с соответствующей программой на самом деле могут понимать естественный язык, а также обладать другими ментальными способностями, свойственными людям. Гипотеза слабого искусственного интеллекта, напротив, говорит лишь о том, что компьютеры способны имитировать ментальные способности человека, поэтому Сёрла она не интересует.
Формально аргументацию можно представить так:
Если гипотеза "сильного" ИИ верна, тогда существует такая программа для китайской письменности, при запуске которой в вычислительной системе эта система будет понимать китайскую письменность.
--- Я могу исполнить программу для китайской письменности без понимания этой письменности.
--- Следовательно, гипотеза "сильного" ИИ неверна.
Второй пункт обосновывается мысленным экспериментом "китайской комнаты". Вывод говорит о том, что запуск такой программы не ведёт к пониманию языка. Более общий вывод Сёрла говорит о том, что любые манипуляции с синтаксическими конструкциями не могут приводить к пониманию.