Это опасно: теперь художники могут подкидывать нейросетям «отравленные» изображения, чтобы ИИ не мог научиться на их работах.

Например, инструменты Nightshade и Glaze позволяют художникам вносить невидимые людям изменения в изображения перед «заливом» в сеть. Если такая картинка попадёт в набор для обучения нейросетей — работы ИИ будут хаотично портиться.

DALL-E или Midjourney будет думать, что собаки — это кошки, машины — это коровы, сумки — тостеры.

@concertzaal

От