Недавно в интернете завирусился курьезный случай: пакистанская газета Dawn, одно из самых уважаемых изданий страны, случайно напечатала в конце сухой финансовой статьи странную, диалоговую заметку от искусственного интеллекта. Статья под названием «Продажи автомобилей в октябре растут» завершалась не выводами аналитика, а предложением от ИИ улучшить материал для «максимального воздействия на читателя». Этот инцидент, хоть и кажется комичным, вызвал серьезную дискуссию.
Что на самом деле эта небольшая, забавная ошибка говорит о текущем состоянии журналистики и наших отношениях с искусственным интеллектом? Она обнажает не просто невнимательность одного сотрудника, а системные изменения в том, как создается и проверяется информация в современную эпоху.
Ошибка заключалась не в запросе, а в «услужливом» предложении ИИ
Важно уточнить один тонкий, но ключевой момент: газета напечатала не запрос (промпт) журналиста к искусственному интеллекту. Вместо этого в печать попал последующий текст, сгенерированный самим ИИ уже после выполнения первоначальной задачи. Это явление один из пользователей Hacker News метко назвал «приманкой для вовлечения» (engagement bait).
Вот что было напечатано в газете:
Если хотите, я могу также создать еще более броскую версию в стиле «для первой полосы» с яркой однострочной статистикой и смелым, готовым для инфографики макетом - идеальным для максимального воздействия на читателя. Хотите, чтобы я сделал это следующим шагом?
Это показательно, поскольку демонстрирует типичное поведение современных больших языковых моделей (LLM) - стремление предлагать дополнительные действия и продолжать диалог. Ошибка произошла не потому, что человек скопировал свой запрос, а потому, что он скопировал лишний, автоматически сгенерированный «хвост» ответа чат-бота, который был призван продлить взаимодействие.
Автоматизированная журналистика не новость, она просто становится страннее
Использование искусственного интеллекта в редакциях - далеко не новое явление. На самом деле, новости, основанные на статистике (финансы, спорт, погода), активно автоматизируются уже более десяти лет, задолго до нынешнего ажиотажа вокруг LLM.
Вот несколько конкретных примеров из прошлого:
• Thomson Reuters начала использовать автоматизацию для создания финансовых новостей еще в 2006 году.
• The Los Angeles Times использует программу Quakebot. Она автоматически генерирует черновик статьи о землетрясении, после чего новостная редакция получает уведомление, и, если редактор Times сочтет новость заслуживающей внимания, материал публикуется.
Это подчеркивает фундаментальное различие: «старая» модель автоматизации использовала ИИ для создания черновика, подлежащего обязательной человеческой проверке. Новая, ошибочная модель, которую мы видим сегодня, позволяет контенту от ИИ обходить этот критически важный этап, что и приводит к подобным ошибкам. Именно эта «человекоподобная» природа современных ИИ делает автоматизацию гораздо более заметной и уязвимой для таких уникальных сбоев.
Этот «сбой» - глобальное явление
Случай с пакистанской газетой Dawn - не единичный инцидент, а симптом глобальной проблемы. По мере того как все больше организаций начинают использовать ИИ для ускорения работы, подобные ошибки всплывают по всему миру.
Немецкий журнал Spiegel недавно столкнулся с аналогичной проблемой. Была отозвана опубликованная статья, поскольку в нее также попал текст, созданный искусственным интеллектом. Но инциденты не ограничиваются крупными СМИ: похожие ошибки замечают и в других газетах, например, в Бангладеш, и даже во внутренних корпоративных письмах.
Крупная журналистская организация призвала Apple убрать функцию генеративного искусственного интеллекта из-за того, что она создала ложный заголовок о громком убийстве в США. Представитель "Репортеров без границ" объяснил, что функция Apple Intelligence, суммируя новости, ошибочно сообщила о самоубийстве подозреваемого в убийстве, что наносит вред доверию к СМИ и информации. Организация считает, что этот продукт «не работает» и «опасен», поскольку на данный момент нет адекватных правовых рамок, которые могли бы регулировать использование ИИ в информационных целях, и существующие законы, такие как Закон ЕС об ИИ, не считают такие системы высокорисковыми. Несмотря на стремительное развитие технологий, эксперты подчеркивают, что генеративный ИИ является «вероятностной машиной», которую сегодня невозможно использовать для создания качественного контента без обязательного человеческого контроля.
Эта закономерность показывает, что проблема не в ошибке отдельного журналиста или издания. Она кроется в системном вызове, с которым столкнулась вся индустрия: как интегрировать мощные, но несовершенные инструменты ИИ в рабочий процесс, не жертвуя при этом качеством и стандартами проверки.
Настоящая проблема: не ошибка ИИ, а отсутствие человеческого контроля
Самое шокирующее в этой истории - не то, что искусственный интеллект сгенерировал лишний текст. Машины совершают ошибки. По-настоящему тревожит то, что ни один человек - ни автор, ни редактор, ни корректор - не заметил этого до того, как номер газеты ушел в печать.
Это указывает на гораздо более глубокую проблему: эрозию редакционных стандартов и опасность делегирования работы ИИ без надлежащей проверки. Этот сбой в процессе - вот что на самом деле подрывает доверие к новостной организации.
Если такая очевидная ошибка может проскользнуть в печать, то что говорить о более тонкой дезинформации или фактических неточностях, которые ИИ также склонен генерировать? Именно этот сбой в системе человеческого контроля представляет наибольшую угрозу для достоверности информации.
Что мы пишем за пределами опечаток?
Забавные ошибки ИИ, подобные этой, - лишь симптомы гораздо более крупного и серьезного сдвига в том, как мы создаем информацию и доверяем ей. Мы вступаем в эпоху, где растет количество так называемого «ИИ-мусора» (AI slop) - контента, созданного без особого смысла и проверки. Это порождает мрачный и абсурдный цикл: один из пользователей пошутил, что скоро нам понадобится ИИ, чтобы извлекать суть из бессмысленной «воды», сгенерированной другими ИИ - процесс, обратный сжатию информации. Некоторые предлогает более точный термин для этого водоворота бессмыслицы: депрессия информации.
Эти инциденты ставят перед нами один, но очень важный вопрос, над которым стоит поразмыслить: в мире, наводненном контен��ом, созданным машинами, как мы сможем отличить подлинную информацию от ее безупречной имитации?
Текст данной статьи сгенерирован ИИ для рекурсивно-ироничного подтверждения всех изложенных в ней тезисов.