Вопрос о том, может ли искусственный интеллект обрести сознание, сегодня вышел далеко за пределы философских кабинетов.
На фоне триумфальных успехов больших языковых моделей и гонки за искусственным общим интеллектом эта тема стала полем битвы амбиций, инвестиций и фундаментальных научных убеждений.
Однако, чем громче голоса тех, кто пророчит скорое рождение «цифрового разума», тем весомее звучат контраргументы, исходящие изнутри самой индустрии. Один из ведущих исследователей Google DeepMind недавно представил работу, которая не просто ставит под сомнение — она категорически отрицает саму возможность сознательного ИИ, возвращая дискуссию к, казалось бы, забытому тезису: сознание невозможно без живого тела.
Александр Лерхнер из Google DeepMind в своей недавней статье пришел к однозначному выводу: ИИ не сможет стать сознательным — в силу своей природы как вычислительной системы.
Последние успехи больших языковых моделей спровоцировали волну дискуссий о возможном зарождении у них сознания. Рост вычислительных мощностей подпитывал надежды, что со временем сложность ИИ достигнет «человеческого» уровня.
Даже Илья Суцкевер (сооснователь OpenAI) в 2022 году допустил, что современные нейросети могут быть «слегка сознательными». Руководители tech-компаний активно используют эту гипотетическую перспективу для привлечения инвестиций в концепцию ИИ общего назначения, сулящую социально-экономическую революцию. Параллельно развернулись этические дискуссии о моральном статусе и правах потенциально сознательных машин.
Исследователь наносит удар по функционализму — гипотезе, согласно которой субъективный опыт может возникать из абстрактной причинно-следственной структуры независимо от физического носителя. Лерхнер утверждает обратное: Любая ИИ-система по природе зависима от активного когнитивного агента — человека-разработчика, который организует последовательности данных; Сама по себе такая система не способна развить поведение, подобное сознанию; Ключевой вывод: сознание невозможно без сложного биологического субстрата, без живого организма.
Марк Бишоп (профессор когнитивной информатики) согласен на 99%, но замечает: подобные аргументы были известны много лет назад.
Йоханнес Йегер (биолог и философ) критичнее: Лерхнер «переизобрел колесо» и демонстрирует незнание философских и биологических основ. Причина, по мнению Йегера, — закрытость ИИ-сообщества, сосредоточенного на узких задачах в условиях жесткого дедлайна.
Оба эксперта сходятся: сам факт публикации такого исследования сотрудником Google DeepMind удивителен и показателен.
Бишоп предполагает, что у Google могут быть прагматические причины поддерживать вывод о невозможности сознания у машин. Если бы обратное считалось возможным, в Европе могли бы появиться законы о правах компьютерных систем — абсурдный сценарий. Признание ИИ не-сознательным снижает для Google риски дополнительного регулирования в США и мире. Однако в самой статье Лерхнера есть оговорка: выводы автора могут не отражать официальную позицию его работодателя.
«В конечном счёте, вопрос о сознании искусственного интеллекта упирается не в мощность вычислений, а в наше понимание самой жизни. Как бы ни совершенствовались алгоритмы, они остаются лишь отражением заложенных в них данных и логики. Истинное сознание не программируется и не компилируется — оно рождается из биологии, из тела, из веков эволюции. Технологии могут имитировать чувства, рассуждать и удивлять, но имитация никогда не станет подлинником. Очевидно одно: человеческая природа остаётся уникальной, и никакая машина, какой бы «умной» она ни казалась, не пересечёт ту грань, за которой начинается живая душа. А значит, страх перед восстанием машин или надежда на цифровое бессмертие сегодня — это, скорее, проекция наших собственных страхов и желаний, нежели реальная перспектива», - прокомментировал директор Ставропольского филиала Президентской академии Юрий Васильев.