ChatGPT научится говорить «Я не знаю»
00:07, августа 24, 2025 У больших языковых моделей сохраняются проблемы с достоверностью ответов. Проблема галлюцинаций — выдачи ложной информации — существует с момента появления технологии. Однако в ChatGPT 5 появилась новая функция: модель теперь может признавать отсутствие знаний вместо генерации вымышленных ответов. OpenAI сообщает, что новая версия ChatGPT научилась говорить «Я не знаю» в ответ на вопросы, где нет достаточной информации. Это стало заметно после вирусного примера, когда модель ответила: «Я не знаю — и я не могу достоверно это выяснить». Технически галлюцинации заложены в архитектуре языковых моделей, которые предсказывают следующие сл...
Читать полный текст на itzine.ru