Аналітичне інтернет-видання

Штучний інтелект створює картинки розкішних ляльок в стилі Барбі: фахівці застерегли про можливі ризики.

Популярність AI Barbie Box стрімко охоплює Інтернет, але це може поставити під загрозу користувачів віртуального помічника, адже їхні зображення можуть бути використані для створення діпфейків.

Про це попереджають на сторінках британського видання Mirror.

Останнім часом соціальні мережі були завалені створеними штучним інтелектом зображеннями, де люди ставали своїми власними "колекційними фігурками" в стилі "ляльки Барбі", з якимись притаманними їм обов'язковими атрибутами, розміщеними в коробці зі стильним дизайном.

Цей тренд виник на основі справжньої моди, коли кіномані, фотографуючись у коробках з ляльками Барбі в повний зріст, демонстрували свою креативність біля виходу однойменної стрічки 2023 року.

"Фотобудка" Барбі на показі фільму в Сан-Франциско у 2023 році

Фото: SFGATE

На основі дослідження, проведеного компанією AIPRM, що спеціалізується на управлінні запитами до штучного інтелекту, видання повідомляє, що завантаження зображень у ChatGPT може призвести до того, що ці зображення отримають нове життя в інтернеті, що не завжди відповідає бажанням їхніх авторів. Це зумовлено тим, що політика конфіденційності програми передбачає збір і зберігання завантажених малюнків для оптимізації результатів її роботи.

"Зображення, розміщені на платформах ШІ, можуть бути вкрадені, злиті або використані для створення діпфейків, шахрайства з крадіжкою особистих даних або імітації у фейковому контенті", -- заявив засновник AIPRM Крістоф С. Семпер.

За його словами, одним із методів убезпечити себе від копіювання зображень є зміна налаштувань конфіденційності ChatGPT, зокрема, відмова від збору даних для навчання.

Що таке діпфейк

Діпфейк (від англ. deepfake, що означає "глибинна підробка") — це технологія, яка дозволяє створювати відео або зображення, що імітують голос або обличчя людини за допомогою штучного інтелекту. Вперше ця технологія з'явилася у 2017 році, коли один з користувачів Reddit поділився скандальним відео, в якому було використано методику заміни облич. Хоча діпфейки можуть бути використані для різноманітних маніпуляцій з візуальним контентом, найбільш поширеним їх використанням є створення порнографії, яка складає близько 98% всього подібного контенту.

Читайте також