В пользовательском соглашении Microsoft указано, что Copilot предназначен «только для развлекательных целей». Компания прямо предупреждает пользователей: ИИ может ошибаться, работать некорректно и не должен использоваться для получения важных или критических советов. 

В документе отдельно подчёркивается:

• Copilot может выдавать неточную информацию

• результаты не гарантированы

• использовать инструмент нужно «на свой риск» 

Это выглядит контрастно на фоне того, как Microsoft активно продвигает Copilot как рабочий инструмент для бизнеса и повседневных задач. Фактически компания юридически снимает с себя ответственность за возможные ошибки модели, перекладывая её на пользователя.

При этом представители Microsoft уже заявили, что такая формулировка — «устаревший текст», который планируют обновить, поскольку он не отражает текущее позиционирование продукта. 

Ситуация показывает общий тренд индустрии: AI-компании одновременно продают ИИ как мощный инструмент продуктивности, но в юридических документах максимально страхуются от последствий его использования.


Делегируйте часть рутинных задач вместе с BotHub! Для доступа к сервису не требуется VPN и можно использовать российскую карту. По ссылке вы можете получить 300 000 бесплатных токенов для первых задач и приступить к работе с нейросетями прямо сейчас!

Источник