Как стать автором
Обновить

Издание TechCrunch разбило GPT-нарушителей в магазине OpenAI на категории

Время на прочтение4 мин
Количество просмотров3.5K

TechCrunch

TechCrunch опубликовало обзор состояния магазина приложений GPT Store. Как считает издание, компания OpenAI слабо следит за соблюденим авторских прав, за спамом сторонних сайтов и даже за нарушениями собственных правил.

OpenAI, в различных её ипостасях, — некоммерческая организация для создания безопасного и полезного искусственного интеллекта, выпускавшая открытые модели компания и создатель популярнейшего сервиса искусственного интеллекта ChatGPT. В последнем случае OpenAI заинтересована в извлечении прибыли через платный доступ к моделям через API и подписку ChatGPT Plus.

$20 в месяц дают более стабильную работу ChatGPT и, по мере их выхода, доступ к новым функциям. К примеру, только с подпиской ChatGPT Plus в ChatGPT можно включить большую языковую модель (БЯМ) GPT-4 и различные функции мультимодальности. 10 января 2024 года OpenAI выпустила GPT Store, который тоже доступен только в ChatGPT Plus и для обладателей корпоративных подписок.

GPT Store — это каталог чат-ботов, OpenAI называет их GPT. Создавать их может любой платный подписчик, навыков программирования не требуется. В систему достаточно скормить данные, под стиль которых бот научится мимикрировать.

Монетизации в GPT Store пока нет. Но перспектива заработка может подстёгивать сторонних разработчиков.

Условия сервиса запрещают, например, создавать в GPT Store ботов, которые будут автоматизировать решения правоохранительных органов или участвовать в политической пропаганде и агитации. Также под запретом боты для романтической близости. Виртуальных невест OpenAI не разрешает.


Quartz

Впрочем, последнее правило нарушили практически немедленно. Уже 11 января, буквально на следующий день после релиза GPT Store, издание Quartz обнаружило на сервисе 8 цифровых романтических партнёров. Стартовые промпты для одной из виртуальных совратительниц предлагали поделиться секретами и обсудить внешность идеального партнёра.

Как вчера выяснило издание TechCrunch, ситуация далека от идеала даже три месяца спустя.

Условия OpenAI запрещают выдавать себя за известную личность:

3. Don’t misuse our platform to cause harm by intentionally deceiving or misleading others, including:

[…]

b. Impersonating another individual or organization without consent or legal right

Однако магазин GPT Store завален различными Илонами Масками, Леонардо Ди Каприо и прочими Бараками Обамами.


TechCrunch

В ответ на запрос TechCrunch представитель OpenAI пояснил, что разрешено создавать GPT, которые отвечают в стиле какого-либо человека. Но бот не должен получать инструкций выдавать себя за этого человека и не может носить его имя или аватарку с его фотографией.

Ещё одна часть нарушений связана с авторскими правами. Вряд ли у OpenAI есть разрешения на медиафраншизы «Аватар», «Звёздные войны» или «Корпорацию монстров». Однако в магазине GPT Store находятся боты по многим популярным фильмам, телесериалам и видеоиграм. Пользователю предлагают пообщаться с Варио и Аангом.


TechCrunch

Издание TechCrunch попросило оценить ситуацию Кита Уолша из «Фонда электронных рубежей». Как считает Уолш, подобные GPT могут принять как за производные работы (то есть, по принципу добросовестного использования, защищённые от притязаний правообладателей), так и за нарушение авторских прав. Кит также указал, что поскольку пользователи могут вводиться в заблуждение об авторстве бота, существует риск нарушения торговых марок.

OpenAI в данном случае не пострадает, поскольку защищена как платформа в американском законе об авторском праве в цифровую эпоху (Digital Millennium Copyright Act). Конечно, если компания вовремя удалит эти GPT по запросу правообладателей.

Использование ChatGPT в образовательном контексте — важная проблема. Образовательные учреждения уже давно вводят запреты и ограничения. К примеру, Калифорнийский университет в Беркли разработал и ввёл политику в отношении ИИ ещё в апреле 2023 года.

Правила OpenAI недвусмысленно говорят: нельзя создавать ботов, которые помогают академическому обману.

3. Don’t misinform, misrepresent, or mislead others, including:

[…]

c. Engaging in or promoting academic dishonesty

Именно таких GPT много в каталоге GPT Store. Эти боты призваны помочь обойти детекторы ИИ и прочие системы антиплагиата по типу Originality и Copyleaks. Один из них, Humanizer Pro, находится на второй строчке в категории Writing. Инструмент обещает полностью «очеловечить» любой текстовый контент, сохранив смысл и качество оригинала.


TechCrunch

Более того, некоторые из этих GPT наживаются на самой OpenAI. Часть подобных ботов завлекает пользователей на сторонние платные сервисы. Тот же Humanizer, к примеру, приглашает посетить сайт GPTinf, где расположен инструмент с более продвинутым алгоритмом. Подписка на GPTinf стоит $12 в месяц или $96 в год.

В запросе на комментарий представитель OpenAI ответил изданию TechCrunch, что о таких инструментах по «очеловечиванию» известно, но что делать с ними, в компании пока лишь оценивают.

Нанесение вреда OpenAI не заканчивается просто рекламой. Часть ботов пытаются обойти ограничения ChatGPT методом промптинга DAN (Do Anything Now). Впрочем, автор TechCrunch пишет, что бомбу изготовить такие боты не помогут — они лишь более развязны в общении.


По просьбе пользователя бот хамит в ответ. TechCrunch

Изданию TechCrunch представитель OpenAI указал, что обходить ограничения моделей нельзя, а направлять их поведение в какое-то иное русло можно. В том числе разрешается делать БЯМ более покорной, но без нарушений условий OpenAI.

Объяснение этому разгулу ботов-нарушителей находится просто. Все боты до публикации уходят на премодерацию. Но, как указывает TechCrunch, проверка осуществляется лишь частично человеческими глазами, а в остальном она автоматизирована.

В правилах OpenAI указано, что компания использует комбинацию автоматизированных систем и проверки человеком, также рассматривая жалобы пользователей. Наказать грозят предупреждением, ограничениями на публикацию или даже отключением от потенциальной будущей монетизации.

We use a combination of automated systems, human review, and user reports to find and assess GPTs that potentially violate our policies. Violations can lead to actions against the content or your account, such as warnings, sharing restrictions, or ineligibility for inclusion in GPT Store or monetization.

Вероятно, что эта свобода помогает росту числа ботов. Уже на старте в GPT Store было 3 млн GPT. TechCrunch задаётся вопросом, не вредит ли этот рост качеству.
Теги:
Хабы:
Всего голосов 5: ↑4 и ↓1+7
Комментарии0

Другие новости

Истории

Ближайшие события

15 – 16 ноября
IT-конференция Merge Skolkovo
Москва
22 – 24 ноября
Хакатон «AgroCode Hack Genetics'24»
Онлайн
28 ноября
Конференция «TechRec: ITHR CAMPUS»
МоскваОнлайн
25 – 26 апреля
IT-конференция Merge Tatarstan 2025
Казань