Лихорадочная мечта о скором появлении сверхразума наконец развеялась
data-testid=»article-title» class=»content—article-render__title-1g content—article-render__withIcons-3E» itemProp=»headline»>Лихорадочная мечта о скором появлении сверхразума наконец развеяласьВчераВчера27 минОглавление
Это утверждает в The New York Times Гэри Маркус — почётный профессор Нью-Йоркского университета, основатель двух компаний в области искусственного интеллекта и автор шести книг о естественном и искусственном интеллекте.Фотоиллюстрация Марии Мавропулу для The New York Times.Фотоиллюстрация Марии Мавропулу для The New York Times.
GPT-5, новейшая система искусственного интеллекта OpenAI, должна была стать переломным моментом, результатом миллиардов долларов инвестиций и почти трёх лет работы. Сэм Альтман, генеральный директор компании, предположил, что GPT-5 может быть эквивалентна общему искусственному интеллекту (ОИИ) — ИИ, который столь же умен и гибок, как любой эксперт-человек.
Вместо этого, как я уже писал, модель оказалась несостоятельной. Уже через несколько часов после её выпуска критики обнаружили множество озадачивающих ошибок: она не решала несколько простых математических задач, не могла надёжно считать и иногда давала абсурдные ответы на старые загадки. Как и её предшественники, модель ИИ всё ещё галлюцинирует (хотя и реже) и вызывает вопросы о своей надёжности. Хотя некоторые были впечатлены , мало кто увидел в ней квантовый скачок, и никто не поверил, что это ИИ. Многие пользователи просили вернуть старую модель.
GPT-5 — это шаг вперёд, но он далёк от той революции в области искусственного интеллекта, которую многие ожидали. Это плохая новость для компаний и инвесторов, сделавших значительные ставки на эту технологию. Это также требует переосмысления государственной политики и инвестиций, основанных на чрезмерно завышенных ожиданиях. Текущая стратегия, направленная лишь на расширение возможностей ИИ, глубоко ошибочна — с научной, экономической и политической точек зрения. Необходимо переосмыслить многие аспекты, от регулирования до стратегии исследований. Одним из ключей к этому может стать обучение и развитие ИИ, вдохновлённые когнитивными науками.
По сути, такие люди, как г-н Альтман, генеральный директор Anthropic Дарио Амодеи и бесчисленное множество других лидеров и инвесторов в сфере технологий слишком сильно поверили в спекулятивную и недоказанную гипотезу, называемую масштабированием: идею о том, что обучение моделей ИИ на все большем объеме данных и использование все большего количества оборудования в конечном итоге приведет к появлению ОИИ или даже сверхразума, превосходящего людей.
Однако, как я предупреждал в эссе 2022 года «Глубокое обучение упирается в стену», так называемые законы масштабирования — это не физические законы Вселенной, подобные гравитации, а гипотезы, основанные на исторических тенденциях. Большие языковые модели, на которых основаны такие системы, как GPT-5, — это не более чем усовершенствованные статистические регургитационные машины, поэтому они будут продолжать сталкиваться с проблемами, связанными с истиной, галлюцинациями и рассуждениями. Масштабирование не приведёт нас к Святому Граалю ИИОН.
Многие в технологической индустрии отнеслись к моим прогнозам враждебно. Мистер Альтман высмеял меня, назвав «посредственным скептиком глубокого обучения», а в прошлом году заявил, что «нет никакой стены». Илон Маск поделился мемом, высмеивающим моё эссе.
Теперь кажется, что я был прав. Добавление новых данных в большие языковые модели, которые обучаются создавать текст, изучая обширные базы данных человеческого текста, помогает им совершенствоваться лишь отчасти. Даже при значительном масштабировании они всё равно не до конца понимают концепции, с которыми сталкиваются, — поэтому иногда ошибаются в ответах или создают совершенно неверные рисунки.
ChatGPT — отличный репетитор. Я так много узнаю об автомобилях. pic.twitter.com/GBEDIrfeys
— Гэри Маркус (@GaryMarcus) 28 августа 2025 г.
Да, это репетиторство проходит действительно очень, очень здорово. pic.twitter.com/aMM03VzJhd
— Гэри Маркус (@GaryMarcus) 28 августа 2025 г.
Масштабирование какое-то время работало; предыдущие поколения моделей GPT добились впечатляющих успехов по сравнению со своими предшественниками. Однако в прошлом году удача начала меняться. Система искусственного интеллекта Маска Grok 4, выпущенная в июле, потребовала в 100 раз больше обучения, чем Grok 2, но была лишь немного лучше. Гигантская модель Llama 4 от Meta, значительно превосходившая предшественницу, также была воспринята большинством как провал. Как теперь видят многие, GPT-5 убедительно демонстрирует, что масштабирование сдало позиции.
Шансы на появление ИИ к 2027 году теперь кажутся маловероятными. Правительство позволяет компаниям, занимающимся ИИ, жить в свое удовольствие, практически не регулируя их деятельность. Теперь ему следует принять законодательство, которое будет бороться с издержками и ущербом, несправедливо перекладываемыми на общество, — от дезинформации до дипфейков, некачественного контента с использованием ИИ, киберпреступности , нарушения авторских прав, проблем с психическим здоровьем и энергопотреблением.
Более того, правительствам и инвесторам следует активно поддерживать инвестиции в исследования, не связанные с масштабированием. Когнитивные науки (включая психологию, детское развитие, философию сознания и лингвистику) учат нас, что интеллект — это нечто большее, чем просто статистическая мимикрия, и предлагают три перспективные идеи для разработки ИИ, достаточно надёжного, чтобы ему можно было доверять, и обладающего гораздо более развитым интеллектом.
Во-первых, люди постоянно создают и поддерживают внутренние модели мира — или модели мира — людей и предметов вокруг них, а также того, как всё устроено. Например, читая роман, вы формируете своего рода ментальную базу данных о том, кто каждый персонаж и что он собой представляет. Это может включать в себя род занятий персонажей, их отношения друг с другом, мотивы и цели и так далее. В фэнтези или научно-фантастическом романе модель мира может даже включать новые физические законы.
Многие недостатки генеративного ИИ связаны с неспособностью извлекать правильные модели мира из обучающих данных. Это объясняет, почему, например, новейшие большие языковые модели не способны полностью понять принципы игры в шахматы. В результате они склонны делать недопустимые ходы, независимо от того, на скольких партиях они были обучены. Нам нужны системы, которые не просто имитируют человеческий язык; нам нужны системы, которые понимают мир, чтобы рассуждать о нём более глубоко. Сосредоточение внимания на создании нового поколения систем ИИ, основанных на моделях мира, должно стать центральным направлением исследований. Google DeepMind и World Labs Фэй-Фэй Ли предпринимают шаги в этом направлении.
Во-вторых, область машинного обучения (которая лежит в основе больших языковых моделей) часто ставит перед системами ИИ задачу изучать абсолютно всё с нуля, извлекая данные из интернета, без каких-либо встроенных функций. Но, как подчеркивают такие учёные-когнитивисты, как Стивен Пинкер, Элизабет Спелке и я, человеческий разум рождается с некоторыми базовыми знаниями о мире, которые подготавливают нас к пониманию более сложных концепций. Встраивание базовых концепций, таких как время, пространство и причинно-следственная связь, может позволить системам лучше организовывать данные, с которыми они сталкиваются, создавая более содержательные отправные точки, что потенциально приводит к более содержательным результатам. (Работа ИИ в области физического и перцептивного понимания в видеоиграх — один из шагов в этом направлении.)
Наконец, современная парадигма использует своего рода универсальный подход, полагаясь на один когнитивный механизм — большую языковую модель — для решения всех задач. Но мы знаем, что человеческий разум использует множество различных инструментов для решения самых разных задач. Например, известный психолог Дэниел Канеман предположил, что люди используют одну систему мышления — быструю, рефлексивную и автоматическую, основанную в основном на статистике опыта, но поверхностную и склонную к ошибкам, — а также вторую систему, основанную в большей степени на абстрактном рассуждении и осознанном мышлении, но медленную и трудоемкую. Большие языковые модели, которые немного похожи на первую, пытаются делать всё с помощью одного статистического подхода, но в результате оказываются ненадёжными.
Нам нужен новый подход, более близкий к тому, что описал г-н Канеман. Он может прийти в форме нейросимволического ИИ, который объединит статистически управляемые нейронные сети (из которых формируются большие языковые модели) и некоторые старые идеи символического ИИ. Символический ИИ по своей природе более абстрактный и созерцательный; он обрабатывает информацию, используя сигналы логики, алгебры и компьютерного программирования. Я давно выступаю за объединение этих двух традиций. Мы всё чаще видим, как такие компании, как Amazon и Google DeepMind, используют такой гибридный подход. (Даже OpenAI, похоже, делает что-то из этого, пусть и тихо.) К концу десятилетия нейросимволический ИИ вполне может затмить чистое масштабирование.
Большие языковые модели нашли своё применение, особенно в программировании, написании текстов и мозговых штурмах, в которых люди по-прежнему принимают непосредственное участие. Но какими бы большими мы их ни делали, они никогда не заслуживали нашего доверия. Чтобы создать ИИ, которому мы действительно можем доверять, и попытаться создать ИИ с обратным эффектом, мы должны отказаться от ловушки масштабирования. Нам нужны новые идеи. Возвращение к когнитивным наукам вполне может стать следующим логичным этапом на этом пути.
© Перевод с английского Александра Жабского.
Приходите на мой канал ещё — к нашему общему удовольствию! Комментируйте публикации, лайкайте, воспроизводите на своих страницах в соцсетях!