Недавно опубликованное исследование поднимает важный вопрос: могут ли большие языковые модели (LLM) обладать сознанием?
Ученый утверждает, что мы можем дать ясное объяснение, почему современные LLM, скорее всего, не достигнут состояния сознания. Этот вывод основан не на субъективных мнениях, а на строгих научных критериях.
Критерии сознания
Автор выделяет два ключевых критерия, которым должна соответствовать любая теория сознания:
- Falsifiable: Теория должна иметь возможность быть опровергнутой.
- Non-trivial: Она не должна быть настолько универсальной, что приписывает сознание всему подряд.
Интересно, что многие из известных теорий сознания не соответствуют этим критериям.
Ответы и их значение
Главный аргумент исследования заключается в том, что простые ответы LLM не могут служить доказательством наличия сознания. Дело в том, что те же ответы могут генерировать и более простые системы, такие как lookup table – просто набор пар «вопрос-ответ», который не обладает сознанием.
Это приводит к выводу, что если мы воспринимаем LLM как сознательные из-за их ответов, то логично также считать и lookup table сознательной, что делает саму теорию бессмысленной.
Однако, если теория основывается на внутреннем устройстве модели, то возникает возможность ее опровержения, что ставит под сомнение ее валидность.
Потенциальные различия и тесты
Еще одно важное отличие, обсуждаемое в работе, касается процесса continual learning, при котором система адаптируется на основе полученного опыта и сохраняет контекст.
В отличие от людей, чей мозг удерживает контекст без необходимости в постоянных обновлениях, LLM не обладают этим свойством, поскольку не способны к изменению на основе прошлого опыта.
Такой подход превращает вопрос о сознании ChatGPT в конкретный стресс-тест для будущих заявлений о «сознательном ИИ», предлагая четкий чек-лист для объяснений.
Для более подробного ознакомления с статьей можно ознакомиться по этой ссылке.





















