Новый метод защиты ИИ защищает модели от атак противников
00:07, марта 13, 2025 Нейронные сети, тип искусственного интеллекта, смоделированный на основе связей человеческого мозга, являются движущей силой критических прорывов в широком спектре научных областей. Но эти модели сталкиваются со значительной угрозой со стороны враждебных атак, которые могут свести на нет прогнозы и выдавать неверную информацию. Исследователи из Национальной лаборатории Лос-Аламоса разработали новую стратегию очистки, которая противодействует состязательным атакам и сохраняет надежную работу нейронных сетей . Их исследование опубликовано на сервере препринтов arXiv . «Атаки на системы искусственного интеллекта могут принимать форму крошечных,...
Читать полный текст на android-robot.com