Судовий процес через спілкування з ChatGPT — як бездушна бесіда з штучним інтелектом може обернутися проти вас.

Коли люди використовують ChatGPT, вони вважають, що їхні слова є швидкоплинними -- частиною приватної розмови з машиною, яка все забуває. Мільйони людей тепер довіряють ChatGPT свої найделікатніші питання про здоров'я, стосунки та гроші. І справді, відповідно до політики OpenAI, більшість чатів видаляються через 30 днів і не використовуються для навчання моделі.
Однак тепер федеральний суд скасував цю політику.
Минулого місяця федеральний суддя за позовом The New York Times про захист авторських прав зобов'язав OpenAI зберігати всі журнали користувачів ChatGPT, включно з "тимчасовими чатами" і запитами, навіть якщо користувачі відмовилися від навчання та обміну даними.
Користувачі мають можливість на свій розсуд видаляти з акаунтів журнали чатів, що містять чутливі дані. Проте тепер усі чати повинні бути збережені для виконання судових рішень. Для бізнес-користувачів, які використовують моделі OpenAI, ризики можуть бути ще вищими. Їхні журнали можуть містити надзвичайно конфіденційну інформацію, включаючи комерційні таємниці та дані, що користуються привілеєм.
Для юристів це непримітно. Суди постійно видають накази про збереження доказів, щоб не втратити їх під час судового розгляду.
Однак для тих, хто уважно спостерігає за поступовим знищенням цифрової приватності, ця подія має величезне значення. Тепер стало зрозуміло, що політики конфіденційності не є автоматичним захистом. В багатьох ситуаціях вони, вочевидь, навіть не є обов'язковими.
Обіцянка про конфіденційність -- наприклад, "ми не зберігаємо ваші чати" -- може бути скасована суддею, голосуванням акціонерів або тихим оновленням умов надання послуг. У цьому випадку вона була перекреслена вимогами судового розслідування.
Ми створили віртуальний простір, сповнений ілюзій контролю. Компанії пропонують різноманітні перемикачі, галочки, шифрування та обіцянки щодо видалення даних. Проте ці елементи не є юридично обґрунтованими правами. Вони радше нагадують рекламні слогани: їх легко змінити, часто вони не мають правової сили і виявляються беззмістовними, якщо їх спростовують законодавство чи комерційні інтереси.
Google, Zoom, Slack та Adobe змінили практику роботи з даними таким чином, що ретроактивно змінили очікування користувачів щодо конфіденційності.
Такою є реальність, у якій ми живемо: Наша конфіденційність залежить не від того, що нам кажуть, а від того, чи проживе компанія, яка нам це каже, досить довго, щоб цього дотримуватися -- і чи не буде її куплено, засуджено або реструктуризовано по дорозі.
Це знову приводить нас до судового процесу. Справа не в тому, чи дотримується OpenAI вимог, і не в тому, що компанія могла б зменшити наслідки, якщо б ізолювала необхідні журнали раніше в ході розгляду справи. Справа в тому, що ніхто – ані сама компанія, ані її користувачі, ані політика конфіденційності – не можуть уникнути цих наслідків.
Наша юридична система була створена з акцентом на фізичні документи та корпоративні сервери. Вона ще не зустрічалася з тривалим збором даних, поведінковою рекламою або штучним інтелектом, який поєднує приватну й публічну інформацію. У зв'язку з відсутністю чітких правових норм, суди, ймовірно, будуть схильні до надмірного зберігання даних.
Якщо OpenAI зобов'язане зберігати всі журнали користувачів через питання авторських прав, що станеться, коли поліція вимагатиме доступ до текстових повідомлень у справах, пов'язаних із домашнім насильством? Або коли генеральний прокурор штату видасть судовий наказ на отримання інформації про місцезнаходження з програм, що підтримують репродуктивне здоров'я? Обов'язок зберігати дані стає небезпечним. Юридичний прецедент показує: якщо дані можуть бути використані в правових спорах, їх необхідно зберігати — навіть якщо це порушить приватність мільйонів користувачів, які не мають відношення до цих справ.
Це все слугує нагадуванням про те, що захист приватності, якщо він не забезпечений законодавством або не підтримується відповідним дизайном, є умовним. Суд не лише зберіг докази, але й трансформував структуру довіри навколо одного з найбільш використовуваних у світі інструментів штучного інтелекту.
Якщо ми хочемо приватності, нам потрібні закони, що вимагають мінімізації даних; юридичні брандмауери, які не дають змоги судам перетворювати тимчасові повідомлення на постійні докази; та інструменти, які від самого початку розроблені так, щоб не запам'ятовувати.
Оскільки, якщо ситуація залишиться без змін, ваші приватні бесіди насправді не є такими. Вони лише чекають моменту, коли їх можна буде використати в суді.