Новый ИИ на основе человеческого мозга превосходит ChatGPT

Сфера искусственного интеллекта каждый день переживает новый переломный момент. Конкуренция в мире ИИ больше не ограничивается количеством параметров или объёмом используемых данных. Недавняя разработка служит тому подтверждением.
НОВЫЙ ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ, КОТОРЫЙ РАССУЖДАЕТ ОТЛИЧНО ОТ БОЛЬШИНСТВА ОСНОВНЫХ ЯЗЫКОВЫХ МОДЕЛЕЙУченые разработали новую модель искусственного интеллекта, которая может рассуждать иначе, чем большинство основных языковых моделей, таких как ChatGPT , что позволяет ей работать значительно лучше по ключевым показателям.
Этот новый ИИ, называемый иерархической моделью рассуждений (HRM), создан на основе многоуровневой и многомасштабной обработки, при которой различные области мозга интегрируют информацию за периоды времени от миллисекунд до минут.
Исследователи из сингапурской компании Sapient, занимающейся разработкой искусственного интеллекта, утверждают, что эта модель обеспечивает большую эффективность и производительность, поскольку требует гораздо меньше параметров и обучающих примеров. В то время как HRM работает всего с 27 миллионами параметров и 1000 обучающих примеров, продвинутые LLM требуют миллиардов или даже триллионов параметров. Хотя это ещё не подтверждено, по некоторым оценкам, недавно выпущенная модель GPT-5 содержит от 3 до 5 триллионов параметров.
Он превзошел всех в тесте.Исследователи протестировали HRM в рамках строгого теста ARC-AGI, который измеряет степень её близости к общему искусственному интеллекту (AGI). Исследование показало, что система продемонстрировала выдающиеся результаты.
В тесте ARC-AGI-1 модель HRM набрала 40,3%, в то время как модель o3-mini-high от OpenAI набрала 34,5%, модель Claude 3.7 от Anthropic набрала 21,2%, а Deepseek R1 набрала 15,8%.
В более сложном тесте ARC-AGI-2 HRM набрал 5%, тогда как o3-mini-high набрал 3%, Deepseek R1 — 1,3%, а Claude 3.7 — 0,9%.
Многие продвинутые LLM используют метод «Цепочка мыслей» (Chain-of-Thought, CoT), который пытается решать сложные задачи, разбивая их на более простые этапы. Этот метод имитирует процесс человеческого мышления, разбивая сложные задачи на удобоваримые части.
Однако исследователи Sapient утверждают, что метод CoT страдает от таких недостатков, как неустойчивое разделение задач, необходимость больших наборов данных и высокая задержка. HRM, с другой стороны, применяет однократное рассуждение в двух модулях, не требуя явных указаний на промежуточных этапах:
- Модуль верхнего уровня отвечает за медленное и абстрактное планирование,
- Модуль нижнего уровня выполняет быстрые и подробные расчеты.
Этот метод напоминает процесс обработки информации различными областями мозга. Более того, HRM использует итеративное уточнение для уточнения решения в течение нескольких коротких всплесков мысли. С каждым всплеском мысли принимается решение, будет ли процесс продолжен или будет представлен как «окончательный» ответ.
Он добился успеха в судоку и лабиринтах.HRM добился почти идеальных результатов при решении сложных головоломок-судоку, с которыми не могли справиться традиционные LLM, а также преуспел в решении таких задач, как поиск кратчайшего пути через лабиринты.
После исследования, которое ещё не было рецензировано, команда разработчиков бенчмарка ARC-AGI повторно протестировала результаты после публикации исходного кода модели HRM на GitHub. Подтвердив цифры, они также отметили несколько неожиданных результатов. Например, они отметили, что иерархическая архитектура обеспечивает очень незначительное улучшение производительности, а реальный прирост достигается за счёт недокументированного механизма тонкой настройки в процессе обучения.
mynet