Новый метод позволяет моделям ИИ забывать личные и защищенные авторским правом данные
18:07, сентября 2, 2025 Группа специалистов по информатике из Калифорнийского университета в Риверсайде разработала метод удаления личных и защищенных авторским правом данных из моделей искусственного интеллекта — без необходимости доступа к исходным обучающим данным. Это достижение, подробно изложенное в докладе, представленном в июле на Международной конференции по машинному обучению в Ванкувере (Канада), отвечает на растущую глобальную обеспокоенность по поводу того, что личные и защищенные авторским правом материалы остаются в моделях ИИ на неопределенный срок и, таким образом, доступны пользователям моделей, несмотря на попытки первоначальных создателей удалить...
Читать полный текст на android-robot.com