
Microsoft — или, как их ласково зовут в народе, «Микрослоп» — уже давно запихивает Copilot пользователям, агрессивно продвигая его как будущее профессиональной продуктивности. Однако такие издания, как TechCrunch, TechRadar, PCMag и другие, недавно раскопали, что в Условиях использования (Terms of Service) Microsoft чёрным по белому написано: Copilot предназначен исключительно для развлекательных целей. Интернет, мягко говоря, захлебнулся от хохота. К сожалению, всё гораздо хуже, чем думают люди, потому что это касается не только Copilot, а последствия куда глубже, чем кажется на первый взгляд.
Условия использования
Чтобы пользоваться Copilot, как и большинством современного софта, нужно согласиться с Условиями использования. Итак, давайте разберёмся, что там на самом деле написано.
В разделе «Кодекс поведения» сказано: «Copilot предназначен исключительно для развлекательных целей. Он может допускать ошибки и работать не так, как задумано. Не полагайтесь на Copilot при принятии важных решений. Используйте Copilot на свой страх и риск».
Иными словами: Copilot недостаточно точен и надёжен, чтобы ему можно было доверить хоть сколько-нибудь важные задачи или использовать как источник информации. По сути, его следует воспринимать скорее как игрушку, а не как инструмент.
Но Microsoft на этом не остановился. В разделе «Важные предупреждения и раскрытия информации» написано: «Вы соглашаетесь освободить нас от ответственности и оградить от претензий (включая наших аффилированных лиц, сотрудников и прочих агентов) в связи с любыми исками, убытками и расходами (включая оплату услуг адвокатов), возникающими из или связанными с вашим использованием Copilot, включая, без ограничений, использование, распространение или публикацию любых запросов, ответов или созданных материалов, а также нарушение вами настоящих Условий или действующего законодательства».
Если перевести с юридического на человеческий: если вы используете Copilot как инструмент, а не просто для развлечения (ну знаете, именно так, как его рекламируют), то вы не имеете права предъявлять Microsoft претензии за любой ущерб, который он может нанести вам лично или бизнесу, в котором вы работаете.
Итак, давайте подведём итог. Этот инструмент, который преподносился как следующая великая революция в профессиональной продуктивности, настолько ненадёжен, что Microsoft пришлось не только прямым текстом заявить, что это всего лишь развлечение, но и вынудить пользователей полностью отказаться от любого права привлечь компанию к ответственности за ущерб, причинённый этим ненадёжным, неточным ИИ, используемым в качестве профессионального инструмента. Что-то тут не сходится, правда?
Кто-то возразит, что эти Условия распространяются только на Copilot как персональный чат-бот и не касаются бизнес-инструментов Copilot. Но это так себе аргумент. Во-первых, многие компании всё равно используют эти индивидуальные версии Copilot как чат-ассистента. Во-вторых, люди используют Copilot как профессионального помощника и в личной, и в рабочей жизни — именно так его, собственно, и рекламировали. Ну и наконец, бизнес-инструменты Copilot построены на тех же самых ИИ-моделях, а значит, у них будут аналогичные проблемы.
И вот в чём штука: «Микрослоп» не одинок в этом юридическом словоблудии.
Кстати, об инструментах. Если вам нужен доступ ко всем ключевым моделям — Claude, GPT, Gemini — загляните на BotHub.

Для доступа не требуется VPN, можно использовать российскую карту.
По ссылке вы можете получить 300 000 бесплатных токенов для первых задач и приступить к работе с нейросетями прямо сейчас!
Anthropic тоже в деле
Anthropic — компания, которая позиционирует себя как «менее злой» игрок в мире ИИ — занимается тем же самым. Их потребительские Условия использования (при просмотре с европейского IP) гласят, что сервисы предназначены «только для некоммерческого использования» и что пользователи «соглашаются не использовать наши Сервисы в каких-либо коммерческих или деловых целях, и мы (и наши Поставщики) не несём перед вами ответственности за упущенную выгоду, потерю бизнеса, перебои в деловой деятельности или упущенные деловые возможности». Интересно, сколько разработчиков, увлечённо «вайбкодящих» с Claude Code, знают об этом.
Справедливости ради, Anthropic всё-таки получше Microsoft. Они не полностью снимают с себя ответственность за ущерб, который могут причинить их модели, — но жёстко ограничивают её. В Условиях сказано, что «совокупная ответственность Anthropic перед вами за любые убытки или ущерб, возникшие из или в связи с настоящими Условиями, будь то по договору, деликту (включая халатность) или иным основаниям, ограничивается бо́льшей из двух сумм: (a) сумма, уплаченная вами за доступ к Сервисам или их использование за шесть месяцев до события, повлёкшего ответственность, и (b) £100».
Сто фунтов. Сто. Фунтов. Вот во сколько Anthropic оценивает максимальный ущерб, который их ИИ может вам нанести. Сходите на них в кино.
Это ровно тот же трюк, что проделывает Microsoft. ИИ настолько неточен, что ему нельзя доверять серьёзные задачи, поэтому они заявляют, что его нельзя использовать в коммерческих целях (хотя именно так его преимущественно и рекламировали), а затем снимают с себя максимум ответственности за действия своего ИИ.
OpenAI не сильно лучше
В их Условиях использования нет запрета на коммерческое использование. Но, наверное, следовало бы, поскольку Copilot — это, по сути, перелицованный ChatGPT. Отсутствие такого запрета, скорее всего, объясняется не тем, что продукт лучше, а куда более безбашенным менталитетом Сэма Альтмана в духе «ломай всё и беги вперёд».
Зато в Условиях есть гигантский раздел, в котором пользователю тщательно разжёвывают, что доверять результатам ИИ не стоит. Например: «Результаты работы сервиса не всегда могут быть точными. Вы не должны полагаться на результаты наших Сервисов как на единственный источник истины или фактической информации, а также как на замену профессиональной консультации». Далее: «Вы обязаны оценивать результаты на точность и уместность для вашего случая использования, включая, при необходимости, проверку человеком, прежде чем использовать или распространять результаты работы Сервисов».
Другими словами: ИИ нельзя использовать для автоматизации чего-либо профессионального, а его результаты всегда должен проверять человек. Это практически означает «не для коммерческого использования» — просто без прямого произнесения этих слов.
А ещё они полностью снимают с себя любую ответственность за действия своего ИИ. В Условиях написано: «НИ МЫ, НИ НАШИ АФФИЛИРОВАННЫЕ ЛИЦА ИЛИ ЛИЦЕНЗИАРЫ НЕ НЕСЁМ ОТВЕТСТВЕННОСТИ ЗА КАКИЕ-ЛИБО КОСВЕННЫЕ, ПОБОЧНЫЕ, СПЕЦИАЛЬНЫЕ, ШТРАФНЫЕ ИЛИ ПОСЛЕДУЮЩИЕ УБЫТКИ, ВКЛЮЧАЯ УБЫТКИ ОТ ПОТЕРИ ПРИБЫЛИ, ДЕЛОВОЙ РЕПУТАЦИИ, ВОЗМОЖНОСТИ ИСПОЛЬЗОВАНИЯ, ДАННЫХ ИЛИ ИНЫЕ ПОТЕРИ, ДАЖЕ ЕСЛИ МЫ БЫЛИ ПРЕДУПРЕЖДЕНЫ О ВОЗМОЖНОСТИ ТАКИХ УБЫТКОВ». И вы можете быть уверены, что они это очень серьёзно имели в виду, потому что написали КАПСОМ.
Парадокс ответственности
Все три документа Условий использования говорят, по сути, одно и то же:
ИИ ненадёжен, и ему нельзя доверять.
Он может и будет причинять ущерб, если за ним не следить, и компании не несут за это ответственности.
Этим ИИ нужно управлять в ручном режиме, проверяя каждый результат.
И тут возникает парадокс. ИИ позиционируется как инструмент продуктивности, способный дополнять или автоматизировать задачи и целые профессии. Но если он настолько неточен и опасен, что человеку приходится контролировать каждый его шаг, — каким, чёрт возьми, образом он может повысить продуктивность?
Я уже обсуждал эту тему в предыдущей статье, но множество исследований — например, работа Мельбурнского университета — показывают, что ИИ слишком ненадёжен как инструмент продуктивности, потому что на микроменеджмент ИИ (отлавливание и исправление его бесконечных ошибок) уходит больше времени, чем он экономит.
Эти ИИ-компании пытаются и рыбку съесть, и на ёлку влезть. Якобы их ИИ настолько хороши, что могут заменить работников и вывести бизнес на новый уровень — именно этот нарратив накачивает пузырь ИИ-инвестиций. При этом они вынуждены предупреждать пользователей не доверять своим ИИ, потому что те опасно неточны, а заодно категорически отказываются нести ответственность за инструменты, которые выпускают в мир. Это одно из двух — нельзя получить и то, и другое одновременно.
Это не решается
Итак, какие из этого следуют выводы?
Начнём с того, что мы и так это знали. И ситуация не улучшится.
Возьмём исследование Университета Карнеги-Меллон, которое показало, что даже лучшие «агентные» ИИ проваливают базовые задачи в 70 % случаев. Или другое исследование, обнаружившее, что лучшие современные ИИ провалили 97,5 % реалистичных фрилансерских задач из-за галлюцинаций и полных отказов. Мы знаем, что эти ИИ — всего лишь статистические модели; они не мыслящие машины, а значит, они будут статистически ошибаться и галлюцинировать с пугающей регулярностью. Не стоит удивляться, что мелкий шрифт ИИ-компаний предостерегает от коммерческого использования и умывает руки от любой значимой ответственности. Все это знают — включая сами ИИ-компании — что эти модели опасно неточны.
Но именно обещание, что когда-нибудь эти ИИ станут достаточно хорошими, подпитывает нынешний безумный уровень инвестиций. Чтобы создать ИИ-модели, способные заменить человеческих работников, гиперскейлеры буквально вливают сотни миллиардов долларов в строительство всё более крупных дата-центров и обеспечение моделей всё бо́льшими вычислительными мощностями.
Вот только даже OpenAI знает, что это не сработает. В прошлом году они опубликовали исследование, которое показало, что наращивание вычислительной мощности или объёма данных не способно снизить уровень «галлюцинаций» (частоту ошибок) ниже текущего порога. Более того, они не нашли никакого способа уменьшить галлюцинации, что недвусмысленно намекает: эти модели обречены оставаться такими же ненадёжными, как сейчас. Недавняя работа Вишала Сикки и его сына Варина Сикки подкрепила эту идею, продемонстрировав, что ИИ математически неспособны быть надёжными или выполнять вычислительные и агентные задачи сверх определённой сложности.
И что это говорит о сотнях миллиардов долларов, которые вливаются в ИИ ради «прорыва»?
Главный вывод
Если совсем просто: все эти факторы указывают на то, что генеративный ИИ — тупиковый экономический пузырь. Хайп и инвестиции совершенно не отражают реальность.
Эти документы Условий использования доказывают, что ИИ-компании, по крайней мере в какой-то мере, осознают это расхождение. Они знают, что их модели недостаточно хороши. Они знают, что те могут и будут причинять ущерб. Они знают, что значимого улучшения не будет.
И тем не менее, вместо того чтобы остановить безумие, они активно защищают себя юридически, продолжая раздувать хайп и накачивать пузырь — и всё ради того, чтобы набить свои и без того бездонные карманы.
Это история о жадности и обмане. И мы все знаем, чем она закончится.
