Обновить
24
Ingref@Ingref

Пользователь

2,3
Рейтинг
6
Подписчики
Отправить сообщение

Ответить "не знаю" они в принципе не могут.

Могут, просто не хотят :)

Ну да, если что-то и требовать, то именно в плане конкуренции на рынке США. Собственно, это и есть самый лакомый кусок. Понятное дело, что всем пофиг, кто там что зарабатывает где-то на китайском рынке (где ChatGPT недоступен). А бесплатен дипсик только через веб-интерыейс, а API-то платный, на нём он зарабатывает. И как бы угроза блокировки дипсика в США может быть весомым аргументом. Но я согласен, что для OpenAI проще пустить ресурсы на выпуск новых моделей (возможно, с какими-то алгоритмами против дисциляции). И через месяц-другой этот дипсик нафиг никому не нужен будет.

Может ускорять, может не ускорять. А то тут говорят, что оно вообще ничего не может.

Оно может ускорять написание кода, дебажить и т. д. Ещё тексты большие пересказывать, научные работы. В этом смысле GigaChat, например, вполне ровный. Ну и ChatGPT тоже.

Да просто все СМИ хайпят, почему бы и тут не хайпануть? Сначала раздуем тему "китайский ИИ раскромсал американский ИИ", а потом - "это всё обман: скандалы, интриги, расследования". А по факту - очередной чатбот оказался лучше предыдущих. И да, они обучали его на ChatGPT (surprise!), как и 90% других LLM.

Есть рассуждающие модели (долгие) и нерассуждающие (быстрые). Например, когда осенью вышла о1-preview, то она была самой лучшей в плане качества ответов, но по соотношению качество / быстрота она проигрывала Claude 3.5 Sonnet (которая была самой лучшей нерассуждающей моделью).

И сейчас среди опенсорсных нерассуждающих моделей, если верить их бенчмаркам, Tulu - самая лучшая. Другое дело, что бенчмарки могут не совсем отражать реальную картину.

Всё-таки среди опенсорсных моделей самая мощная сейчас DeepSeek-R1, а не DeepSeek-V3. Но авторы всё равно молодцы.

Последнее предложение абсолютно верно - они могут засудить любого, кто впоследствии начал использовать полученные от ChatGPT ответы для конкуренции с ними. А если не начал - ну, значит, и не было нарушения.

Выплатить компенсацию потерь в $100 млн. из-за оттока клиентов.

Если я с вами заключу договор, а потом кто-то из нас его нарушит, то вторая сторона сможет подать иск к первой о невыполнении взятых на себя обязательств. В этом и есть смысл договоров.

Нет, не из-за авторских прав. А из-за того, что пользуясь ChatGPT, человек соглашается с условиями. А в условиях можно написать всё что угодно (что не противоречит законам). И если человек на них согласился, то их нарушение приравнивается к нарушению договора между сторонами.

Так-то там не запрещено использовать ответы ChatGPT для обучения других моделей. Запрещено именно потом конкурировать с OpenAI с помощью этих моделей.

Так ведь DeepSeek доступен в США и является конкурентом ChatGPT в США.

Никаких запретов на это в США нет. А в Японии, например, это разрешено явно (прямым текстом). И судя по текущей повестке Трампа, в США, скорее всего, это тоже в итоге будет явно разрешено. То, что правообладатели считают это "незаконным" - это их влажные фантазии.

В условиях использования ChatGPT чётко сказано, что нельзя использовать его ответы для обучения конкурирующих моделей. Собственно, это стандартные условия у всех публичных ИИ-чатботов.

А что-ж тогда сами OpenAI "просто" не спарсили свои собственные ответы и не засунули их туда же?

Они так и сделали, когда спарсили GPT-4 и сделали из него GPT-4o (у которого рабочее название было "gpt2-chatbot"). И техдир Майкрософта открыто говорил о резком удешевлении:

Просто в этот раз то же самое сделали китайцы. И да, они молодцы. Но только не в том смысле, в котором об этом трубят в СМИ.

Честно говоря, я когда тот коммент писал, то предполагал, что о1 выдаёт рассуждения. Сейчас проверил - оказывается он выдаёт не рассуждения, а краткий пересказ этих рассуждений (если нажать на плашку с временем генерации).

В общем, китайцы сделали так:

1) Обучили базовую модель DeepSeek-V3 на ответах GPT-4. Как только модель зарелизили, она отвечала, что "это GPT-4 от OpenAI" (забыли почистить).

2) Применили к базовой модели RL с таким шаблоном:

3) Получили промежуточную рассуждающую модель DeepSeek-R1-Zero.

4) Сгенерировали этой моделью 800 000 рассуждающих ответов (почистив от мусора).

5) Запустили файнтюнинг DeepSeek-V3 на полученных в предыдущем шаге ответах.

6) Применили к полученной модели RL и получили итоговый DeepSeek-R1.

Вот только для поднятия своей копии нужно 1.3+ Тб видеопамяти. А дистиллированные модели - это вообще не имеет отношения к DeepSeek R1, это просто дообученные на его ответах Qwen (или любые другие ламы). Ну то есть какой-нибудь условный Яндекс может у себя её поднять. Но Яндексу гораздо интереснее просто использовать их технологии в доработке своей модели. Вот тут да, полная открытость и опубликованные алгоритмы - это очень хорошо.

Как нефиг делать (как и любой другой DNS). Вот только расшифровать ваш HTTPS-трафик он не сможет. А если попытается отдать вместо сайта сбера свою страничку, то браузер выдаст ошибку SSL.

Прорыв в том, что RL даёт результаты. Вот только этот RL было бы не на чем осуществлять, если бы не было о1. Прорыв в улучшении эффективности. И это никак не бросает тень ни на OpenAI, ни уж тем более на NVIDIA. Потому что дефицит вычислительных мощностей от этого прорыва никуда не делся. Просто китайцы сделали то, что они умеют делать лучше всего, - скопировали уже созданное с чуть похуже качеством, но существенно дешевле.

Информация

В рейтинге
1 567-й
Зарегистрирован
Активность