Pull to refresh

В суде США разваливается коллективный иск «разработчики против Microsoft, GitHub и OpenAI из-за работы GitHub Copilot»

Reading time9 min
Views2.2K

В конце июня 2024 года судья в США отклонил большую часть обвинительных заявлений по иску разработчиков о том, что GitHub Copilot незаконно копировал их код. В результате этого решения суда у истцов на данный момент осталось всего два обвинения в иске против Microsoft, GitHub и OpenAI за нарушение лицензий Open Source и компенсации в $9 млрд за работу GitHub Copilot.

Всего в рамках этого коллективного иска было подано 22 обвинения, но со временем их количество было сокращено, поскольку защита Microsoft, GitHub и OpenAI методично ходатайствовала о снятии каждого из обвинений, а судья Джон Тигар в основном удовлетворил эти требования.

Последние отклонённые обвинения в иске были довольно важными: одно из них касалось нарушения Закона об авторском праве в цифровую эпоху (DMCA), раздел 1202(b), который, по сути, гласит, что вы не должны удалять без разрешения важную информацию об «управлении авторскими правами», например, контекст, кто написал код и условия использования, которые как правило, диктуют лицензии.

В коллективном иске утверждалось, что Copilot убирала эту информацию, предлагая фрагменты кода из проектов людей, что, по их мнению, нарушало бы 1202(b).

Однако судья не согласился на том основании, что код, предложенный Copilot, недостаточно идентичен собственной работе разработчиков, защищённой авторским правом, и, следовательно, раздел 1202 (b) не применим. Действительно, в прошлом году GitHub, как сообщается, обновил GitHub Copilot так, чтобы он генерировал небольшие вариации загруженного обучающего кода так, чтобы его выходные данные не могли быть точной копией лицензионного программного обеспечения.

Теперь истцы по этому делу не смогут предъявить новый иск об авторских правах раздела 1202(b) DMCA против Microsoft, GitHub и OpenAI», поскольку судья Тигар отклонил это обвинение с предубеждением.

В рамках слушания по этому иску адвокаты программистов неоднократно настаивали на том, что Copilot может и будет генерировать код, идентичный тому, который написали сами программисты, что является ключевым моментом их иска, поскольку в заявлении DMCA существует требование идентичности. Однако судья Тигар ранее постановил, что истцы на самом деле не продемонстрировали подобных случаев, что привело к отклонению иска с возможностью внесения в него поправок.

В новой жалобе по иску утверждалось, что незаконное копирование кода было неизбежным, если пользователи выключали защитный переключатель Copilot для защиты от дублирования, а также цитировалось исследование кода, сгенерированного ИИ, в попытке подтвердить свою позицию о том, что Copilot будет заниматься плагиатом исходного кода. Но и в этом случае судья не был убеждён, что система Microsoft действительно ворует работу людей.

В частности, судья процитировал наблюдение исследования о том, что Copilot, как сообщается, «редко выдаёт заученный код в безопасных ситуациях, и большая часть запоминания происходит только тогда, когда модели подсказывают длинные фрагменты кода, которые очень похожи на обучающие данные».

«Соответственно, доверие истцов к исследованию, которое в лучшем случае утверждает, что от Copilot теоретически может быть предложено пользователем сгенерировать совпадение с чужим кодом, неубедительно», — заключил судья.

«Мы твердо верим, что ИИ изменит способы создания программного обеспечения в мире, что приведёт к повышению производительности и, что самое важное, к более счастливым разработчикам», — говорится в заявлении GitHub по этому иску после решения судьи.

«Мы уверены, что Copilot соблюдает применимые законы, и с самого начала мы были привержены ответственному внедрению инноваций вместе с Copilot. Мы продолжим инвестировать и защищать возможности разработчиков будущего на основе искусственного интеллекта», — пояснил представитель Microsoft.


Примечательно, что в конце июня руководитель ИИ-подразделения Microsoft Мустафа Сулейман заявил, что считает весь контент, размещённый в Сети, доступен для использования в целях обучения ИИ, если только владелец контента не заявит иное. «Что касается контента, который уже находится в Сети в открытом доступе, то, согласно общественному договору ещё с 90-х годов, его использование является добросовестным. Любой может его скопировать и воссоздать. Это “бесплатное ПО”, таково моё понимание», — рассказа СМИ Сулейман. Он добавил, что существует отдельная категория контента, владельцы которого, будь то сайт или издательство, прямо запретили его использование. Это, по словам Сулеймана, «серая зона», где вопросы решаются через суд.


В январе 2023 года Microsoft, GitHub и OpenAI попросили суд в США отклонить иск за нарушение лицензий Open Source и компенсации в $9 млрд за GitHub Copilot.

Юристы Microsoft, GitHub и OpenAI пояснили, что изложенные в коллективном иске обвинения в нарушении лицензий для создания инструмента GitHub Copilot и требования по компенсации не имеют силы.

Компании заявили, что в иске отсутствуют доказательства причинения ущерба и нет обоснования претензий с примерами нарушений юридических прав. Microsoft, GitHub и OpenAI считают, что истцы полагаются только на «гипотетические события», а GitHub Copilot лично им никак не навредил.

Юристы компаний рассказали, что в иске не указаны конкретные работы, защищённые авторским правом, которые GitHub Copilot использовал не по назначению, или контракты и лицензии, которые нарушены при создании этого инструмента.

Microsoft считает, что обвинения в нарушении авторских прав «упираются в доктрину добросовестного использования», которая допускает нелицензионное использование произведений, защищённых авторским правом, в некоторых ситуациях. Microsoft и GitHub сослались на решение Верховного суда США от 2021 года о том, что использование Google исходного кода Oracle для создания своей операционной системы Android было таким случаем с добросовестным использованием.

«Copilot ничего не удаляет из общедоступного открытого исходного кода, а только помогает разработчикам писать код, генерируя предложения, основанные на том, что он узнал из всей совокупности знаний, почерпнутых из общедоступного кода», — заявили в Microsoft и GitHub.

Юристы IT-компаний в ответном заявлении суду написали, что истцы — это те, кто подрывает принципы открытого исходного кода, требуя судебного запрета и многомиллиардной компенсации в отношении программного обеспечения, которое они охотно распространяют как открытое ПО.

Судебное заседание по рассмотрению запроса об отклонении иска против GitHub Copilot состоится в мае.


В начале ноября 2022 года программист-юрист Мэтью Баттерик подал иск в окружной суд Калифорнии на Microsoft, GitHub и OpenAI за то, что нейросетевой помощник программиста GitHub Copilot нарушает условия лицензий Open Source проектов и ущемляет права программистов. Разработчик требует $9 млрд компенсации от американских компаний.

В настоящее время GitHub Copilot при генерации кода использует миллиарды строк кода из общедоступных репозиториев GitHub и может преобразовывать естественный язык в фрагменты кода на десятках языков программирования. Copilot выполняет работу автоматически без должного анализа и отработки правил в лицензировании Open Source проектов, включая понимание типов лицензий GPL, Apache и MIT, которые требуют указания имени автора и определения конкретных авторских прав при использовании кода проекта.

Причём Microsoft, GitHub и OpenAI подстраховались при разработке Copilot. Нейросетевой инструмент обучен удалять любое упоминание лицензий Open Source в выдаваемом коде. Это происходит и в том случае, когда он копирует чужой код сниппетами длиннее 150 символов непосредственно из определённого репозитория. Система специально не указывает авторство исходного фрагмента кода.

Некоторые разработчики называют такой способ работы Copilot отмыванием открытого исходного кода. Они считают, что юридические последствия такого подхода должны быть определены и приняты сообществом, прежде чем использовать Copilot в коммерческих целях на постоянной основе. В конце 2022 года, по заявлению GitHub, появятся специальные корпоративные тарифы для компаний по этому инструменту.

Баттерик считает, что Copilot, помимо прямого нарушения лицензий Open Source проектов, каждый раз при выполнении запроса пользователя нарушает следующие законы и политики:

  • условия обслуживания и политика конфиденциальности GitHub;

  • раздел 1202 законопроекта DMCA, запрещающий удаление информации, связанной с авторскими правами и их управлением;

  • американский аналог GDPR (California Consumer Privacy Act, CCPA);

  • некоторые другие законы США.

Баттерик прикинул, что каждый раз, когда Copilot выдаёт фактически незаконный результат, то этот нейросетевой инструмент трижды нарушает DMCA, так как распространяет лицензионные материалы без указания авторства, уведомления об авторских правах и условий лицензии.

По мнению разработчика, с начала использования Copilot и за пятнадцать месяцев его работы каждый пользователь этого инструмента как минимум один раз получал ответ от Copilot. Это значит, что Microsoft, GitHub и OpenAI около 3,6 млн раз нарушили законы США. При минимальном установленном законом ущербе в размере $2,5 тыс. за каждое нарушение в данном случае, Copilot уже нанёс ущерб сообществу Open Source на $9 млрд.

По мнению Баттерика, стимул для вклада и сотрудничества разработчиков в Open Source проекты по существу начнёт быстро устранятся, если предлагать другим пользователям фрагменты кода и никогда не сообщать им, кто создал код, который они используют.

Баттерик опасается, что по прошествии достаточного времени Copilot приведёт к упадку сообщества Open Source, и, как следствие, снизится качество кода в обучающих данных самой системы, которая не создаёт код самостоятельно.

Представитель GitHub пояснил СМИ по этому иску, что компания с самого начала стремилась к ответственному внедрению инноваций с Copilot и будет продолжать развивать продукт, чтобы он ещё лучше служил разработчикам по всему миру.


  • 29 июня 2021 года Microsoft и GitHub представили инструмент для помощи программистам Copilot, работающий на базе OpenAI Codex. Решение OpenAI Codex генерирует код значительно более эффективно, чем GPT-3. Алгоритм обучали на датасете из терабайтов общедоступного кода. Copilot вышел в виде плагина редактора Microsoft Visual Studio Code и функции браузерного редактора кода GitHub Codespaces после регистрации в программе тестирования технического превью сервиса. Microsoft пояснила, что целью Copilot является упрощение жизни и повышение эффективности работы авторов программ.

  • В начале июля 2021 года разработчики стали жаловаться, что Copilot вместо нескольких строк нужного кода генерирует десятки строк с цитатами и комментариями из проектов с открытым исходным кодом. GitHub уточнила, что Copilot обычно не воспроизводит точные фрагменты кода, а создает производные работы из ранее полученных входных данных. Компания привела статистику, что это происходит лишь в 0,1% случаев.

  • После этого GitHub призналась, что при обучении Copilot разработчики использовали весь доступный в репозиториях сервиса публичный код без учёта типа лицензии.

  • В начале августе 2021 года Фонд свободного программного обеспечения (FSF) объявил о проведении исследований этических и законных вопросов работы нейросетевого помощника программиста Copilot от GitHub и Microsoft. С точки зрения FSF, сервис Copilot в его нынешнем виде неприемлем и несправедлив, так как для его использования нужна Microsoft Visual Studio или ее части кода, а этот проект не является открытым и бесплатным. Фонд СПО не знает, какой лицензией была защищена нейросеть, обученная Copilot и не понимает до конца, кому принадлежат авторские права на новый код, написанный с помощью помощника программиста, используя код из открытых репозиториев.

  • Специалисты инженерной школы Тандона Нью-Йоркского университета проверили работу Copilot на GitHub с точки зрения безопасности. Они обнаружили, что примерно в 40% случаев код, сгенерированный этим сервисом, содержит ошибки или уязвимости.

  • В сентябре 2021 года разработчики обнаружили в базе GitHub Copilot 1170 стоп-слов, которые он блокирует при формировании кода. Среди них присутствуют такие слова, как «коммунист», «либерал», «Палестина», «Израиль» и «социалист».

  • В конце октября GitHub Copilot стал доступен для работы с JetBrains (в IDE IntelliJ и PyCharm) и в редакторе кода Neovim. Ранее данный инструмент вышел в виде плагина редактора Microsoft Visual Studio Code и функции браузерного редактора кода GitHub Codespaces.

  • Также GitHub объявил о поддержке Copilot многострочного дополнения кода на таких языках, как Java, C, C++ и C#. Многострочная поддержка означает, что этот инструмент может генерировать сразу несколько строк кода самостоятельно. Copilot стал поддерживать такие языки программирования, как Python, JavaScript, TypeScript, Ruby и Go.

  • В конце марта 2022 года GitHub Copilot стал доступен в виде дополнения для Visual Studio 2022.

  • В июне GitHub сообщила, что Copilot стал доступен всем разработчикам по подписке. Бесплатно сервисом могут пользоваться только студенты и разработчики популярных проектов с открытым исходным кодом. Компания предлагает два варианта подписки: 10 долларов в месяц или 100 долларов в год. При этом можно протестировать сервис, оформив пробный период на два месяца. Студенты могут получить доступ к Copilot в виде части пакета GitHub Student Pack, а разработчикам популярных проектов с открытым исходным кодом требуется отправить запрос и GitHub предоставит инструмент бесплатно.

  • В начале июля некоммерческая организация Software Freedom Conservancy, предоставляющая поддержку и юридические услуги для разработчиков ПО с открытым исходным кодом, призвала сообщество отказаться от GitHub после запуска коммерческой версии Copilot. Для обучения разработчики использовали весь доступный в репозиториях сервиса публичный код без учёта типа лицензии. Если инструмент взял код одного проекта и предложил его автору другого проекта, суд может оценить это как нарушение авторских прав, особенно в случае получения дохода при помощи чужого кода.

Tags:
Hubs:
If this publication inspired you and you want to support the author, do not hesitate to click on the button
Total votes 3: ↑3 and ↓0+5
Comments8

Other news