Новое исследование MIT подтверждает то, что мы и так подозревали — ИИ не понимает, о чем говорит
Современные генеративные модели ИИ поражают своей способностью создавать удивительно правдоподобные тексты. Однако, действительно ли они что-то понимают? Ответ прост: нет. По крайней мере это утверждают ученые MIT в новом исследовании.Главный вопрос, который они поставили, заключается в том, способны ли большие языковые модели (LLM), лежащие в основе передовых чат-ботов, создавать точные внутренние модели реального мира. По результатам исследования, эти модели не справляются с подобной задачей.Чтобы проверить это, команда MIT разработала новые метрики, выходящие за рамки обычной проверки точности ответов. Они сосредоточились на детерминированных конечных автоматах (DFA) — задачах, требующих . . . .