В предварительном отчёте за 2025 год о влиянии технологий на науку, академический издатель Wiley обнародовал первые данные об отношении к ИИ. Один из поразительных выводов: отчёт показал, что учёные выразили меньше доверия к ИИ, чем в 2024 году, когда он был явно менее развит.
Например, в опросе 2024 года 51% опрошенных учёных беспокоился о потенциальных «галлюцинациях» — широко распространённой проблеме, когда большие языковые модели выдают полностью сфабрикованную информацию за правду. В 2025 году это число выросло до внушительных 64%, даже несмотря на то, что использование ИИ среди исследователей подскочило с 45% до 62%.
Беспокойство по поводу безопасности и конфиденциальности выросло на 11% по сравнению с прошлым годом, а опасения, связанные с этичностью ИИ и прозрачностью, также увеличились.
Кроме того, по сравнению с прошлым годом произошёл резкий спад ажиотажа, тогда как шумные стартапы в области ИИ доминировали в заголовках. В 2024 году опрошенные учёные заявляли, что верят в то, что ИИ уже превосходит человеческие способности более чем в половине всех случаев использования. В 2025 году эта вера рухнула, упав до менее чем трети опрошенных.
Эти данные согласуются с предыдущими исследованиями, которые заключили, что чем больше люди узнают о том, как работает ИИ, тем меньше они ему доверяют. Верно и обратное — самыми большими фанатами ИИ оказываются те, кто меньше всего понимает в этой технологии.
Хотя необходимы дополнительные исследования, чтобы показать, насколько широко распространён этот феномен, нетрудно догадаться, почему профессионалы могут начать сомневаться в своих алгоритмических помощниках.
Во-первых, галлюцинации — серьёзная проблема. Они уже вызывали крупные потрясения в судах, медицинской практике и даже в сфере путешествий. Это и не такая уж простая проблема; в мае тестирование показало, что модели ИИ галлюцинировали больше, даже технически становясь более мощными.
Существует и сложный вопрос ИИ как инструмента для извлечения прибыли. Эксперты говорят, что пользователи решительно предпочитают уверенные в себе языковые модели тем, которые признаются, когда не могут найти данные или дать точный ответ — даже когда эта информация полностью выдумана. Если бы такая компания, как OpenAI, раз и навсегда положила конец ненадёжным галлюцинациям, это бы отпугнуло массы пользователей.