Эксперты выразили обеспокоенность по поводу феномена галлюцинаций программ искусственного интеллекта, таких как ChatGPT, на популярных платформах. Галлюцинации ИИ — это феномены, при которых информация кажется правильной, но на самом деле является неточной.
Такие платформы, как ChatGPT, предоставляют неточную информацию. Например, библиотека Университета Дьюка указала на проблему ложных цитат, Forbes опубликовал новость о том, что ChatGPT обманул ученых фальшивыми обобщениями, а журнал Fortune процитировал исследование, показывающее, что точность ответов на математические вопросы ChatGPT упала с 98% до всего 2%.
На вопрос о том, фабрикует ли ChatGPT информацию, неверно интерпретирует данные или полагается на дезинформацию, ChatGPT отвечает, что его ответ генерируется на основе шаблонов, на которых он обучался и вводил по состоянию на последнее обновление в сентябре 2021 года. Однако модели ИИ могут выдавать неверную или неточную информацию, если входные данные или запрос ошибочны, но это не то же самое, что галлюцинации в традиционном смысле.