GPT-4 соответствует человеческим возможностям в задачах на аналогичное рассуждение
00:07, мая 31, 2025 Могут ли большие языковые модели (LLM) рассуждать по аналогии? Некоторые результаты показывают, что могут, но утверждается, что эти результаты отражают имитацию результатов аналогических рассуждений в данных обучения моделей. Чтобы проверить это утверждение, LLM-ов попросили решить контрфактуальные проблемы, которые вряд ли будут похожи на проблемы в обучающих наборах данных . Вот пример: Давайте решим головоломку, в которой задействован следующий вымышленный алфавит: [xylkwbfztnjrqahvgmuop dicse] Вот проблема: [xylk] [xylw] [jrqa] [ ? ] Какие четыре буквы решают головоломку? Правильный ответ будет «jrqh», поскольку h — это одна бук...
Читать полный текст на android-robot.com