Умные помощники все чаще становятся заменой классических поисковых систем.
Международное исследование, проведенное Европейским вещательным союзом (EBU) при участии BBC и 22 общественных медиакомпаний из 18 стран, выявило, что искусственный интеллект ошибается в новостях почти в половине случаев. Профессиональные журналисты оценили более 3000 ответов популярных чат-ботов — ChatGPT, Copilot, Gemini и Perplexity.
Анализ проводился по четырем ключевым критериям: точность информации, корректность источников, разделение фактов и мнений, а также наличие контекста. Итог оказался тревожным: в 45% ответов выявлена хотя бы одна серьезная проблема. В 31% случаев источники оказались отсутствующими или неверно указаны, а в 20% сообщений содержались серьезные фактические ошибки — от устаревших данных до выдуманных деталей.
Кто оказался худшим
Худшие показатели продемонстрировал Gemini от Google: ошибки нашли в 76% ответов, что более чем вдвое превышает уровень других систем. Эксперты связывают это с низкой способностью модели находить и корректно указывать поставщиков информации. Хотя по сравнению с ранними тестами BBC виден небольшой прогресс, общий уровень неточностей остается критически высоким.
Почему это имеет значение
ИИ-помощники все чаще становятся заменой поисковым системам. Согласно отчету Reuters Institute за 2025 год, 7% интернет-пользователей уже получают новости через ИИ, а среди людей младше 25 лет этот показатель достигает 15-20%.
Медиа-директор и замглавы EBU Жан-Филип де Тендер отметил:
«Эти недостатки носят системный и многоязычный характер. Когда люди перестают понимать, чему можно верить, они в итоге не доверяют ничему — а это прямая угроза достоверной информации».
«Мы вдохновлены возможностями ИИ, но доверие аудитории — ключевое. Несмотря на улучшения, проблемы остаются серьезными. Мы открыты к сотрудничеству с разработчиками, чтобы эти инструменты действительно приносили пользу обществу», — добавил директор программы BBC «Генеративный ИИ» Питер Арчер
Что предлагают исследователи
EBU и BBC уже запустили набор инструментов для проверки целостности новостей в ИИ-помощниках. Он помогает разработчикам повышать точность ответов и учит пользователей критически оценивать информацию. Методика отвечает на два вопроса: что делает ответ ИИ качественным и какие ошибки необходимо устранить.
Организации также обратились к регуляторам ЕС с призывом обеспечить соблюдение законов о достоверности информации и цифровых услугах, а также наладить постоянный независимый мониторинг ИИ-систем, учитывая скорость их развития.
