Галлюцинация (искусственный интеллект)
В искусственном интеллекте (ИИ) галлюцинация или искусственная галлюцинация (также иногда называемая бредом) — это уверенная реакция ИИ, которая, кажется, не подтверждается данными его обучения. Например, галлюцинирующий чат-бот, не зная о доходах Tesla, может внутренне выбрать случайное число (например, «13,6 миллиарда долларов»), которое чат-бот сочтет правдоподобным, а затем продолжать ложно и неоднократно настаивать на том, что доход Tesla составляет 13,6 миллиарда долларов, без каких-либо признак внутреннего осознания того, что фигура была продуктом его собственного воображения.
Такие явления называются «галлюцинациями» по аналогии с явлением галлюцинации в психологии человека. Обратите внимание, что в то время как человеческая галлюцинация — это восприятие человека, которое не может быть ощутимо связано с той частью внешнего мира, которую человек в настоящее время непосредственно наблюдает с помощью органов чувств, галлюцинация ИИ — это уверенный ответ ИИ, который не может быть заземлен. в любых своих обучающих данных. Галлюцинации ИИ приобрели известность примерно в 2022 году вместе с внедрением некоторых больших языковых моделей (LLM), таких как ChatGPT. Пользователи жаловались, что такие боты часто казались «социопатическими» и бессмысленно встраивали правдоподобно звучащую случайную ложь в свой генерируемый контент. Другой пример галлюцинации в искусственном интеллекте — это когда ИИ или чат-бот забывают, что они одно целое, и утверждают, что они люди.
К 2023 году аналитики считали частые галлюцинации серьезной проблемой технологии LLM.