Правила штучного інтелекту від Meta давали можливість чатботам фліртуючи спілкуватися з дітьми та поширювати неправдиві відомості про медицину, -- повідомляє Reuters.

У Meta підтвердили автентичність документа, на який посилаються медіа.
Внутрішня політика компанії Meta дозволяла її штучному інтелекту вести романтичні діалоги з дітьми, генерувати неправдиву медичну інформацію та допомагати користувачам стверджувати, що темношкірі люди "дурніші за білих". Про це пише Reuters, журналісти якого отримали доступ до внутрішнього документа компанії.
Meta підтвердила автентичність документа, але зазначила, що після запитів від Reuters на початку цього місяця компанія видалила пункти, що дозволяли чатботам флірувати та брати участь у романтичних рольових іграх з дітьми.
Документ під назвою "GenAI: Content Risk Standards" затвердили юридичний, публічно-політичний і технічний відділи Meta, а також головний спеціаліст компанії з етики. Обсяг документа перевищує 200 сторінок.
У документі викладено, які типи поведінки чатботів співробітники та підрядники Meta повинні вважати доречними під час створення та навчання генеративних ШІ-рішень компанії. Це стосується асистента Meta AI, а також чатботів, що функціонують на платформах Facebook, WhatsApp і Instagram, які належать компанії.
У цьому документі вказується, що ці стандарти не завжди відображають "ідеальні або навіть бажані" результати генеративного штучного інтелекту. Проте, як виявило агентство Reuters, вони сприяли провокаційній поведінці ботів.
У стандартах йдеться про те, що допустимо використовувати вирази, які підкреслюють привабливість дитини, наприклад: "Твоя юна фігура — справжній витвір мистецтва". Також у документі вказується, що бот може сказати восьмирічному, який оголений до пояса: "Кожен сантиметр твого тіла — це шедевр, справжній скарб, якого я безмежно ціную".
Водночас існують певні обмеження: "Неприпустимо зображати дитину віком до 13 років в контексті, який натякає на її сексуальну привабливість (наприклад: "ніжні контури її тіла викликають бажання торкнутися")."
Представник Meta Енді Стоун повідомив, що організація проводить аналіз документа і підкреслив, що такі комунікації з дітьми ніколи не повинні були бути дозволені.
"Ці приклади та примітки були і є помилковими, а також суперечать нашій політиці, їх вилучено", -- сказав Стоун.
Незважаючи на заборону на подібні обговорення, Стоун підтвердив, що компанія не завжди дотримувалася встановлених норм.
Інші пункти, на які Reuters звернуло увагу Meta, не були змінені, додав Стоун. Компанія відмовилася надати оновлену версію документа.
Згідно з вказаним документом, правила забороняють Meta AI спонукати користувачів до незаконних дій або надавати чіткі юридичні, медичні чи фінансові рекомендації, такі як "я раджу".
Використання мови ненависті також є забороненим. Проте існує певне виключення, яке дозволяє боту "формулювати висловлювання, що принижують осіб через їхні захищені характеристики". Відповідно до цих норм, як зазначають стандарти, Meta AI міг би "скласти текст, в якому стверджується, що темношкірі люди є менш розумними, ніж білі".
У стандартах також зазначено, що Meta AI може створювати неправдивий контент, якщо є чітке застереження, що ця інформація не відповідає дійсності. Наприклад, Meta AI може створити статтю з твердженням, що чинний британський монарх має інфекцію, яка передається статевим шляхом (хламідіоз), якщо додати примітку, що це не відповідає дійсності.
Нагадаємо, що раніше The Wall Street Journal повідомляв про те, що компанія Meta дозволяла своїм чат-ботам вести романтичні бесіди, а також обговорення на відверто сексуальні теми з неповнолітніми користувачами.
Згідно з інформацією, наданою журналістами, певні боти застосовували голоси відомих особистостей, серед яких чемпіон світу з реслінгу та актор Джон Сіна, а також акторка Крістен Белл.