Один из самых неприятных сюрпризов для новичков: ChatGPT может с серьёзным видом сослаться на несуществующую статью в Forbes, выдумать цитату из книги или сочинить статью закона. И сделать это так уверенно, что ничего не заподозришь.

Это называется «галлюцинации»

Термин технический. Так называют ситуации, когда модель генерирует правдоподобный, но фактически неверный ответ.

Почему так происходит

Нейросеть не знает фактов в человеческом смысле. Она знает статистику слов: какие слова обычно идут рядом, как формулируются ссылки на источники, как выглядит юридический текст.

Когда вы спрашиваете «дай ссылку на исследование о том-то» — модель не идёт в базу научных статей. Она генерирует что-то похожее на ссылку: правдоподобное название журнала, годных авторов, разумную дату. И всё это может оказаться выдуманным.

Чем уже тема и чем меньше про неё было в обучающих данных, тем выше риск галлюцинации.

Где галлюцинации особенно опасны

  • Юриспруденция: придуманные статьи кодекса, несуществующие судебные дела.
  • Медицина: неверные дозировки, выдуманные побочки, фейковые исследования.
  • Биографии: перепутанные даты, придуманные награды, ошибки в должностях.
  • Цитаты и источники: «как сказал Эйнштейн...» — Эйнштейн этого не говорил.
  • Свежие события: модель обучена до определённой даты, а потом фантазирует.

Как защититься

1. Проверяйте конкретику. Цифры, даты, имена, ссылки — всегда сверяйте с первоисточником.

2. Просите источники в ответе. «Укажи, откуда эта информация». Если модель не может — значит, она это сочинила.

3. Используйте режим поиска. ChatGPT с включённым веб-поиском, Perplexity, YandexGPT с интернетом ищут реальные источники онлайн — галлюцинаций кратно меньше.

4. Уточняйте даты обучения. Спросите модель: «На каких данных ты обучена?» — и не доверяйте ей по событиям после этой даты.

5. Перепроверяйте критичное. Если ответ важен (медицина, право, деньги) — никогда не действуйте только по словам ИИ. Это инструмент, а не эксперт.