Никаких запретов на это в США нет. А в Японии, например, это разрешено явно (прямым текстом). И судя по текущей повестке Трампа, в США, скорее всего, это тоже в итоге будет явно разрешено. То, что правообладатели считают это "незаконным" - это их влажные фантазии.
В условиях использования ChatGPT чётко сказано, что нельзя использовать его ответы для обучения конкурирующих моделей. Собственно, это стандартные условия у всех публичных ИИ-чатботов.
А что-ж тогда сами OpenAI "просто" не спарсили свои собственные ответы и не засунули их туда же?
Они так и сделали, когда спарсили GPT-4 и сделали из него GPT-4o (у которого рабочее название было "gpt2-chatbot"). И техдир Майкрософта открыто говорил о резком удешевлении:
Просто в этот раз то же самое сделали китайцы. И да, они молодцы. Но только не в том смысле, в котором об этом трубят в СМИ.
Честно говоря, я когда тот коммент писал, то предполагал, что о1 выдаёт рассуждения. Сейчас проверил - оказывается он выдаёт не рассуждения, а краткий пересказ этих рассуждений (если нажать на плашку с временем генерации).
В общем, китайцы сделали так:
1) Обучили базовую модель DeepSeek-V3 на ответах GPT-4. Как только модель зарелизили, она отвечала, что "это GPT-4 от OpenAI" (забыли почистить).
2) Применили к базовой модели RL с таким шаблоном:
3) Получили промежуточную рассуждающую модель DeepSeek-R1-Zero.
4) Сгенерировали этой моделью 800 000 рассуждающих ответов (почистив от мусора).
5) Запустили файнтюнинг DeepSeek-V3 на полученных в предыдущем шаге ответах.
6) Применили к полученной модели RL и получили итоговый DeepSeek-R1.
Вероятно, потому что он содержит выборки, сгенерированнные OpenAI o1?
Ну наконец хоть кто-то об этом прямо заявил. А их успехи в математическом бенчмарке обусловлены выцеживанием математических примеров из Common Crawl. Янник Киллчер на днях у себя на ютубе разбирал их статью про DeepSeekMath - аналогичный подход, очевидно, применили и в DeepSeek-R1.
Вот только для поднятия своей копии нужно 1.3+ Тб видеопамяти. А дистиллированные модели - это вообще не имеет отношения к DeepSeek R1, это просто дообученные на его ответах Qwen (или любые другие ламы). Ну то есть какой-нибудь условный Яндекс может у себя её поднять. Но Яндексу гораздо интереснее просто использовать их технологии в доработке своей модели. Вот тут да, полная открытость и опубликованные алгоритмы - это очень хорошо.
Как нефиг делать (как и любой другой DNS). Вот только расшифровать ваш HTTPS-трафик он не сможет. А если попытается отдать вместо сайта сбера свою страничку, то браузер выдаст ошибку SSL.
Прорыв в том, что RL даёт результаты. Вот только этот RL было бы не на чем осуществлять, если бы не было о1. Прорыв в улучшении эффективности. И это никак не бросает тень ни на OpenAI, ни уж тем более на NVIDIA. Потому что дефицит вычислительных мощностей от этого прорыва никуда не делся. Просто китайцы сделали то, что они умеют делать лучше всего, - скопировали уже созданное с чуть похуже качеством, но существенно дешевле.
У NVIDIA заказов на чипы - на годы вперёд. И те, кто это понимает, сейчас с ухмылкой потирает руки и скупает временно подешевевшие акции. Народ не догоняет, что ребята из DeepSeek просто спарсили ответы о1 и засунули их в Reinforcement Learning. Потому что СМИ это подают как "супер-пупер китайские технологии". Короче, цирк :)
Да нет там никакой атаки. Просто парсить ChatGPT с VPN - это дороже, чем парсить DeepSeek без VPN. А с учётом того, что он по качеству почти такой же, то ботоводы переключились на него. Вот только он явно не рассчитан на обслуживание всепланетарных масштабов аудитории, в отличии от ChatGPT.
Так что введение лимитов - это для них единственный выход. Если, конечно, у них не завалялись за диваном ещё пару тысяч H100 / H800 (или десятков тысяч).
Вот, кстати, если сравнивать качество поиска ChatGPT с качеством Нейро у Яндекса, то Нейро гораздо сильнее. А в англоязычном интернете, насколько я знаю, аналогом Нейро является Perplexity. В этом смысле OpenAI пытается запрыгнуть на уже занятую нишу, и пока что проигрывает по качеству.
ОК, допустим, что в команде космического корабля не 4 человека, а 8 миллиардов. И демократической процедурой голосования были выбраны для "аннигиляции" 649 870 153 человека. Включая и вас, и меня. У нас обоих проблема, это наша проблема. Мы оба с вами участвовали в голосовании и точно голосовали против себя самих. Должны ли мы признавать результаты демократичего голосования, которые нас не устраивают? Стоит ли нам попытаться объединиться и защитить свои интересы, даже если они противоречат интересам большинства?
Если мы согласились на такую процедуру принятия решений + согласились, что часть людей (возможно, нас самих) надо аннигилировать (вот как вы сейчас), то проблемы нет.
В том и страх, что люди предполагают, что ИИ получит такие полномочия незаметно, как бы невзначай. И пытаются подстелить соломки заранее.
И как вообще отличить результаты демократического волеизъявления от решения Главного Повелителя, если мы физически не можем поговорить с каждым из 8 млрд?
Ну конкретно сейчас это позволяет сделать технология блокчейн. Другое дело, что это невыгодно повелителям)
На самом деле, люди очень даже хотят, чтобы решения за них принимал Повелитель (ну то бишь бог). Только людям нужны гарантии, что он им не сделает ничего плохого. Только и всего. Отсюда и такая двойственность:
с от дной стороны люди в восторге от идеи ИИ / AGI / ASI (потому что она сулит всеобщее счастье);
Так одно дело, когда решают вместе, другое - когда решают без моего участия. Само собой, если я сам изъявлю желание принести себя в жертву, то тут нет никакой проблемы. А вот если решил кто-то другой, не спросив меня, то это уже проблема. И если этот другой может по велению левой пятки выбрать как меня, так и вас, то это для нас обоих проблема. Потому что у вас ведь тоже спрашивать не станут.
А ухудшение качества я заметил ещё раньше, уже в мае. Так что больше склоняюсь к версии, что не хиты исключили, а добавили несоизмеримо больше нехитов.
Так ведь им до меня дела нет. А вот если бы появился какой-нибудь Главный Повелитель Земли и сказал, что вот ровно 649 870 153 человека нужно аннигилировать (включая меня), то это была бы проблема.
Никаких запретов на это в США нет. А в Японии, например, это разрешено явно (прямым текстом). И судя по текущей повестке Трампа, в США, скорее всего, это тоже в итоге будет явно разрешено. То, что правообладатели считают это "незаконным" - это их влажные фантазии.
В условиях использования ChatGPT чётко сказано, что нельзя использовать его ответы для обучения конкурирующих моделей. Собственно, это стандартные условия у всех публичных ИИ-чатботов.
128k
Они так и сделали, когда спарсили GPT-4 и сделали из него GPT-4o (у которого рабочее название было "gpt2-chatbot"). И техдир Майкрософта открыто говорил о резком удешевлении:
Просто в этот раз то же самое сделали китайцы. И да, они молодцы. Но только не в том смысле, в котором об этом трубят в СМИ.
Честно говоря, я когда тот коммент писал, то предполагал, что о1 выдаёт рассуждения. Сейчас проверил - оказывается он выдаёт не рассуждения, а краткий пересказ этих рассуждений (если нажать на плашку с временем генерации).
В общем, китайцы сделали так:
1) Обучили базовую модель DeepSeek-V3 на ответах GPT-4. Как только модель зарелизили, она отвечала, что "это GPT-4 от OpenAI" (забыли почистить).
2) Применили к базовой модели RL с таким шаблоном:
3) Получили промежуточную рассуждающую модель DeepSeek-R1-Zero.
4) Сгенерировали этой моделью 800 000 рассуждающих ответов (почистив от мусора).
5) Запустили файнтюнинг DeepSeek-V3 на полученных в предыдущем шаге ответах.
6) Применили к полученной модели RL и получили итоговый DeepSeek-R1.
Ну наконец хоть кто-то об этом прямо заявил. А их успехи в математическом бенчмарке обусловлены выцеживанием математических примеров из Common Crawl. Янник Киллчер на днях у себя на ютубе разбирал их статью про DeepSeekMath - аналогичный подход, очевидно, применили и в DeepSeek-R1.
Вот только для поднятия своей копии нужно 1.3+ Тб видеопамяти. А дистиллированные модели - это вообще не имеет отношения к DeepSeek R1, это просто дообученные на его ответах Qwen (или любые другие ламы). Ну то есть какой-нибудь условный Яндекс может у себя её поднять. Но Яндексу гораздо интереснее просто использовать их технологии в доработке своей модели. Вот тут да, полная открытость и опубликованные алгоритмы - это очень хорошо.
Как нефиг делать (как и любой другой DNS). Вот только расшифровать ваш HTTPS-трафик он не сможет. А если попытается отдать вместо сайта сбера свою страничку, то браузер выдаст ошибку SSL.
Прорыв в том, что RL даёт результаты. Вот только этот RL было бы не на чем осуществлять, если бы не было о1. Прорыв в улучшении эффективности. И это никак не бросает тень ни на OpenAI, ни уж тем более на NVIDIA. Потому что дефицит вычислительных мощностей от этого прорыва никуда не делся. Просто китайцы сделали то, что они умеют делать лучше всего, - скопировали уже созданное с чуть похуже качеством, но существенно дешевле.
У NVIDIA заказов на чипы - на годы вперёд. И те, кто это понимает, сейчас с ухмылкой потирает руки и скупает временно подешевевшие акции. Народ не догоняет, что ребята из DeepSeek просто спарсили ответы о1 и засунули их в Reinforcement Learning. Потому что СМИ это подают как "супер-пупер китайские технологии". Короче, цирк :)
Да нет там никакой атаки. Просто парсить ChatGPT с VPN - это дороже, чем парсить DeepSeek без VPN. А с учётом того, что он по качеству почти такой же, то ботоводы переключились на него. Вот только он явно не рассчитан на обслуживание всепланетарных масштабов аудитории, в отличии от ChatGPT.
Так что введение лимитов - это для них единственный выход. Если, конечно, у них не завалялись за диваном ещё пару тысяч H100 / H800 (или десятков тысяч).
Он просто выдаёт айпи своего прокси в другой стране, который уже подключается к ChatGPT.
Ну да, так и работают Perplexity и Нейро.
ChatGPT, вроде, должен Bing использовать. Гугловский Gemini тоже сёрфить умеет.
Вот, кстати, если сравнивать качество поиска ChatGPT с качеством Нейро у Яндекса, то Нейро гораздо сильнее. А в англоязычном интернете, насколько я знаю, аналогом Нейро является Perplexity. В этом смысле OpenAI пытается запрыгнуть на уже занятую нишу, и пока что проигрывает по качеству.
Если мы согласились на такую процедуру принятия решений + согласились, что часть людей (возможно, нас самих) надо аннигилировать (вот как вы сейчас), то проблемы нет.
В том и страх, что люди предполагают, что ИИ получит такие полномочия незаметно, как бы невзначай. И пытаются подстелить соломки заранее.
Ну конкретно сейчас это позволяет сделать технология блокчейн. Другое дело, что это невыгодно повелителям)
На самом деле, люди очень даже хотят, чтобы решения за них принимал Повелитель (ну то бишь бог). Только людям нужны гарантии, что он им не сделает ничего плохого. Только и всего. Отсюда и такая двойственность:
с от дной стороны люди в восторге от идеи ИИ / AGI / ASI (потому что она сулит всеобщее счастье);
с другой стороны бояться "божьего всемогущества".
Так одно дело, когда решают вместе, другое - когда решают без моего участия. Само собой, если я сам изъявлю желание принести себя в жертву, то тут нет никакой проблемы. А вот если решил кто-то другой, не спросив меня, то это уже проблема. И если этот другой может по велению левой пятки выбрать как меня, так и вас, то это для нас обоих проблема. Потому что у вас ведь тоже спрашивать не станут.
Представители Suno тогда заявили, что не собираются плясать под их дудку - https://suno.com/blog/future-of-music
А ухудшение качества я заметил ещё раньше, уже в мае. Так что больше склоняюсь к версии, что не хиты исключили, а добавили несоизмеримо больше нехитов.
Для 5G из российских диапазонов есть только n28, а n79 (основного) - опять нет...
Так ведь им до меня дела нет. А вот если бы появился какой-нибудь Главный Повелитель Земли и сказал, что вот ровно 649 870 153 человека нужно аннигилировать (включая меня), то это была бы проблема.
Но ведь "переселить" могут и вас. Это проблема...