Аналітичне інтернет-видання

Трагічний інцидент після рекомендацій штучного інтелекту: студент загинув, покладаючись на ChatGPT.

У США розгортається гучний суспільний та етичний скандал, пов'язаний із використанням штучного інтелекту. 19-річний студент Каліфорнійського університету в Мерседі Сем Нельсон помер від передозування після тривалих консультацій із чат-ботом ChatGPT щодо вживання наркотичних та заспокійливих речовин. Про це повідомляє The Telegraph.

У США розслідують смерть 19-річного студента, який консультувався з ChatGPT щодо наркотиків

Згідно з відомостями, юнак вивчав психологію і протягом близько півтора років регулярно користувався чат-ботом, щоб отримати рекомендації щодо комбінування різних речовин. Зокрема, мова йде про Xanax (алпразолам) — потужний заспокійливий засіб, а також кратом — рослинний екстракт з опіоїдними властивостями, який може призводити до залежності.

Журналісти повідомляють, що записи переписок вказують на те, що чат-бот, ймовірно, пропонував докладні поради щодо дозування та в деяких відповідях стверджував про відносну безпечність таких комбінацій. Ця ситуація наразі викликала значну увагу з боку сім’ї померлого та фахівців.

У день трагедії Сем Нельсон знову звернувся до ChatGPT з питанням, чи здатний Xanax полегшити нудоту після вживання кратому. Як повідомляють джерела, незабаром після цього його мати виявила сина мертвим у спальні. Лікарі підтвердили, що причиною смерті стало передозування.

Цей випадок уже називають одним із перших резонансних прикладів, коли штучний інтелект опинився в центрі розслідування, пов'язаного з реальною загибеллю людини.

У компанії OpenAI, що створила ChatGPT, відреагували на новини про трагедію. Представники організації охарактеризували цю ситуацію як жахливу, висловивши щирі співчуття рідним загиблого. Вони також підкреслили, що політика платформи забороняє надання рекомендацій, які можуть загрожувати здоров’ю або життю людей.

В компанії поки що не підтвердили достовірність опублікованих транскриптів і повідомили, що наразі проводиться внутрішнє розслідування.

Експерти вказують на те, що трагедія в США знову актуалізувала дискусію щодо меж відповідальності штучного інтелекту та ризиків, пов'язаних із використанням чат-ботів у ролі заміни медичних працівників чи психотерапевтів. Хоча ШІ не має юридичної відповідальності, для багатьох користувачів він виступає як джерело "авторитетної" інформації.

Фахівці застерігають: жоден алгоритм не може оцінити реальний стан здоров'я людини, а будь-які поради щодо ліків чи психоактивних речовин без контролю лікаря можуть мати фатальні наслідки.

Розслідування триває, а ця історія вже стала тривожним сигналом для суспільства, яке дедалі більше довіряє цифровим помічникам у питаннях життя і смерті.

Читайте також