Это опасно: теперь художники могут подкидывать нейросетям «отравленные» изображения, чтобы ИИ не мог научиться на их работах.
Например, инструменты Nightshade и Glaze
позволяют художникам вносить невидимые людям изменения в изображения перед «заливом» в сеть. Если такая картинка попадёт в набор для обучения нейросетей — работы ИИ будут хаотично портиться.
DALL-E или Midjourney будет думать, что собаки — это кошки, машины — это коровы, сумки — тостеры.
@concertzaal