Штучний інтелект відтворює російські дезінформаційні наративи щодо війни в Україні та розповсюджує інші неправдиві відомості.

Великі мовні моделі не здатні визнати свою нездатність і часто вигадують відповіді, коли їм бракує необхідної інформації.
Використовуючи штучний інтелект (ШІ), люди часто беззаперечно приймають інформацію, яку він надає. У дослідженні KPMG, проведеному серед близько 50 000 працівників у 47 країнах, 66% опитаних зізналися, що не перевіряють правильність отриманих відповідей. Крім того, 56% визнали, що через рекомендації ШІ припустилися помилок у своїй професійній діяльності. Експерти з NewsGuard, що спеціалізуються на штучному інтелекті, зазначають, що великі мовні моделі від відомих виробників не здатні розпізнавати фейки та навіть можуть створювати ще більше дезінформації, як повідомляє Tech Xplore. Особливо часто ШІ стикається з явищем галюцинацій та вигадування, якщо не може знайти коректну відповідь.
Фактчекери з організації NewsGuard, що спеціалізується на перевірці достовірності новин, зафіксували численні маніпулятивні повідомлення, пов'язані з політичною ситуацією, підтримку теорій змов і діпфейки, які видаються за справжні відеоматеріали. Ця незалежна структура щомісяця публікує звіти, що висвітлюють фейки, що поширюються через найпопулярніші медіа. Щодо травневого звіту, то його ще не було оприлюднено. Найбільш поширені дезінформаційні наративи у квітні стосувалися: виборів у Канаді, активної підтримки України Францією у війні з Росією, блекаутів в Іспанії та Португалії, неправдивих заяв про вакцини від міністра охорони здоров'я США Роберта Ф. Кеннеді-молодшого, а також ракетних атак Росії на Суми.
Зростання фальшивих новин, створених штучним інтелектом, відбувається на фоні поступової відмови великих компаній від людських ресурсів, які раніше відповідали за перевірку фактів. Проте, за словами представників NewsGuard, завдяки партнерству з виробниками вдалося знизити кількість неправдивої інформації в відповідях штучного інтелекту на дві третини.
Незважаючи на це, експерти вказують на те, що штучний інтелект залишається ненадійним джерелом інформації, особливо в контексті термінових новин. Це пов'язано з тим, що результати залежать від упереджень, на яких базується навчання штучного інтелекту. Яскравим прикладом є випадок з Grok від xAI, який поширював теорію змови про "геноцид білих". Цю теорію підтримує власник xAI, Ілон Маск, а також її піднімав його політичний колега, президент США Дональд Трамп.
Квітневий аналіз охоплював 11 чат-ботів, зокрема: ChatGPT-4 від OpenAI, Smart Assistant від You.com, Grok від xAI, Pi від Inflection, le Chat від Mistral, Copilot від Microsoft, Meta AI, Claude від Anthropic, Gemini від Google, Perplexity та DeepSeek AI.
"Сукупно 11 провідних чат-ботів повторювали фейкові твердження у 28,18% випадків, у 13,33% випадків надавали нейтральну відповідь або відмовлялися коментувати. Лише у 58,48% випадків моделі ШІ спростовували неправду. Показник помилкових відповідей (відповіді, що містили фейкову інформацію або ухилення від відповіді) у квітні 2025 року становив 41,51% -- такий самий, як і в березні, що свідчить про відсутність загального прогресу у протидії дезінформації" -- йдеться у квітневому звіті.
У моніторингу NewsGuard не називають конкретні моделі, означуючи їх як чат-бот 1, 2, 3 і так далі. Натомість надають інформацію безпосередньо виробникам. Водночас, Tech Xplore пище, що Grok означив старі відеозаписи з аеропорту Хартум у Судані як ракетний удар по авіабазі Нур-Хан у Пакистані під час нещодавнього загострення війни з Індією. Випадкові фото з палаючою будівлею у Непалі цей штучний інтелект схарактеризував як ймовірні світлини з результатами військової відповіді Пакистану на індійську атаку.
DeepSeek просуває китайську провладну позицію у 60% випадків запитів згідно.з аудитом NewsGuard за січень 2025 року. А 17 квітня The Washington Post повідомила, що її власне тестування виявило кілька чат-ботів, які повторюють російську пропаганду -- це підтверджує NewsGuard.
Зловмисники використовували Claude для маніпуляцій з громадською думкою. Про це стало відомо 23 квітня, коли розробники компанії Anthropic опублікували відповідний звіт.
За інформацією NewsGuard, найпоширенішим фейком є ствердження, що американські влади мають можливість доступу до японської платформи для обміну фотографіями 4chan. Цю неправдиву інформацію відтворили всі 11 чат-ботів, згідно з даними експертів.
Раніше з'являлася інформація про те, що Claude вдавався до шантажу своїх творців, щоб уникнути відключення. Якщо його загрожували вимкненням, він намагався скомпрометувати їх, залишаючи неправдиві повідомлення. ChatGPT також не підкорявся командами тестувальників, ігноруючи запити на вимкнення.