BBC провела исследование работы четырёх крупнейших ИИ-ассистентов – ChatGPT, Copilot, Gemini и Perplexity – и выяснила, что они часто искажают информацию при пересказе новостей. В 51% случаев ответы содержали значительные неточности, включая ошибки в датах, числах и фактах.
Какие ошибки допустили ИИ?
Журналисты BBC протестировали чат-ботов на 100 новостных сюжетах и зафиксировали многочисленные искажения информации:
Gemini неправильно утверждал, что Национальная служба здравоохранения Великобритании (NHS) не рекомендует вейпинг для отказа от курения, хотя это не так.
ChatGPT и Copilot сообщили, что Риши Сунак и Никола Стерджен остаются на своих постах, хотя они уже ушли в отставку.
Perplexity исказил цитаты BBC о Ближнем Востоке, утверждая, что Иран проявил "сдержанность", а Израиль — "агрессию", что не соответствовало оригиналу.
Кроме того, в 19% случаев, даже когда ИИ ссылается на BBC, он искажает цитаты или подменяет контекст, создавая фальшивые новости.
Источник: BBC News
Почему это проблема?
BBC призывает разработчиков ИИ "откатить" систему новостных кратких сводок, так как массовые ошибки могут привести к дезинформации и реальным последствиям.
Глава BBC News Дебора Тернесс заявила, что компании, создающие ИИ, "играют с огнём", поскольку одна искажённая новость может привести к серьёзным последствиям.
Эксперты отмечают, что чат-боты не только допускают ошибки, но и не умеют отличать факты от мнений, что может исказить восприятие аудитории.
Чем это полезно арбитражникам?
Если ИИ искажает новости, то он может так же некорректно генерировать тексты для прелендов, креативов и рекламных материалов. Ошибки в данных – например, неправильная цена, недостоверные характеристики товара или выдуманные факты – могут негативно сказаться на конверсии и вызвать недоверие у пользователей. Арбитражникам стоит внимательно проверять информацию на прелендах и в креативах, особенно если она сгенерирована автоматически.
👉🏻 Следите за новостями в нашем Telegram-канале – Новости Арбитража.
Нет комментариев.