OpenAI выбрали очень хорошую маркетинговую стратегию - они вбрасывают в инфополе абсурдно нереалистичные слухи, которые позволяют им быть слышными отовсюду. Помните, например, новость о том, что Сэм Альтман планирует собрать 7 триллионов долларов на нужды OpenAI? И все серьёзно обсуждали это, мол, Альтман же не дурак, раз хочет собрать, значит соберет. И что по итогу? Ничего, забыли.
Так будет и со Strawberry/Q*. 2000$ за подписку! Это же в 100 раз дороже, чем сейчас! Значит что, значит Strawberry-based модель будет в 100 раз умнее GPT-4o. Так? Сомнительно, мягко сказать: даже из этой новости можно понять, что Strawberry "бустит" производительность от силы на 15% в специфичных задачах типа математики.
Проект удален (это не проект закона, это предписания по его исполнению), но закон принят. Они выпустят новые предписания, где чуть-чуть смягчат требования (например, не нужно будет предоставлять IP всех авторов), но суть не поменяется.
А какое впечатление? Вот вы, если, например, встретите, скажем, итальянца, который может поддерживать диалог на русском языке, но путает окончания. Какое у вас о нем сложится впечатление?
Лучшая Open Weight LLM для русского языка в открытом доступе (по моему скромному мнению) это Gemma2-27b-it. Официально она не понимает ничего, кроме английского, но в реальности это лучшая языковая модель для русского языка, причем у неё совершенно другой уровень владения языком, нежели у других открытых моделей - её текст практически не похож на буквальный перевод с английского, да и в целом довольно приятен на глаз. Встречаются редкие артефакты, но даже их модель на удивление может исправлять, что вероятно говорит о том, что это проблема не базовой модели, а инструктивного датасета (согласно техрепорту он был только на английском).
Если нужно что-то поменьше, то стоит присмотреться к Mistral-NeMo-12B, она, в отличие от Gemma2 официально "поддерживает" русский язык. По ощущениям, у Nemo текст более сухой и GPTшный, но зато артефактов нет совсем. Стоит отметить, что для Mistral-NeMo нужно использовать рекомендуемые параметры семплера, то есть temperature<=0,3.
Переводить подсказки и ответы переводчиком, ИМХО, идея сомнительная.
Возможно вы плохо себе представляете Туркменистан. Скажем, много вы думаете умных домов в КНДР? Хотя на Туркменистане нет такого большого количества санкций, как на Северной Корее, но уровень благосостояния населения там в целом сравнимый. Правда номера действительно могли закончиться, только непонятно, почему не ввести еще диапазон, раз стоит такая проблема.
Это слияние интересно тем, что WB по сути потеряет контроль над собой, а группа "Russ" приобретет. Странная рыночная ситуация, в которой не очень большая компания за бесплатно покупает многомиллиардный (в долларах, конечно) бизнес.
Аудитория YouTube в России - больше 90 миллионов человек. Ты реально уверен, что хотя бы 30-40% из них разберётся, что такое VPN, найдет такой, который обходит блокировки самого себя и заплатит за него деньги (потому что через бесплатный YouTube не посмотреть)? Я - нет. Хорошо, если аудитория будет хотя бы 10 миллионов человек, но будет ли на эти 10 миллионов человек кто-то что-то снимать?
RNN, LSTM, CNN. Нейросети вполне существовали в production-ready состоянии еще в начале 2000-х.
Удаляет все ссылки с его упоминанием.
128 000 токенов через YARN, но родной контекст 32 000.
Конечно не смог, это же он должен написать первым.
OpenAI выбрали очень хорошую маркетинговую стратегию - они вбрасывают в инфополе абсурдно нереалистичные слухи, которые позволяют им быть слышными отовсюду. Помните, например, новость о том, что Сэм Альтман планирует собрать 7 триллионов долларов на нужды OpenAI? И все серьёзно обсуждали это, мол, Альтман же не дурак, раз хочет собрать, значит соберет. И что по итогу? Ничего, забыли.
Так будет и со Strawberry/Q*. 2000$ за подписку! Это же в 100 раз дороже, чем сейчас! Значит что, значит Strawberry-based модель будет в 100 раз умнее GPT-4o. Так? Сомнительно, мягко сказать: даже из этой новости можно понять, что Strawberry "бустит" производительность от силы на 15% в специфичных задачах типа математики.
Проект удален (это не проект закона, это предписания по его исполнению), но закон принят. Они выпустят новые предписания, где чуть-чуть смягчат требования (например, не нужно будет предоставлять IP всех авторов), но суть не поменяется.
А какое впечатление? Вот вы, если, например, встретите, скажем, итальянца, который может поддерживать диалог на русском языке, но путает окончания. Какое у вас о нем сложится впечатление?
Лицензия там настоящий Open Source, можно делать что хочешь.
Исходный код ядра (и много чего еще) открыт и регулярно обновляется.
Так роскомнадзор просто включит замедление и на европейские сервера.
Лучшая Open Weight LLM для русского языка в открытом доступе (по моему скромному мнению) это Gemma2-27b-it. Официально она не понимает ничего, кроме английского, но в реальности это лучшая языковая модель для русского языка, причем у неё совершенно другой уровень владения языком, нежели у других открытых моделей - её текст практически не похож на буквальный перевод с английского, да и в целом довольно приятен на глаз. Встречаются редкие артефакты, но даже их модель на удивление может исправлять, что вероятно говорит о том, что это проблема не базовой модели, а инструктивного датасета (согласно техрепорту он был только на английском).
Если нужно что-то поменьше, то стоит присмотреться к Mistral-NeMo-12B, она, в отличие от Gemma2 официально "поддерживает" русский язык. По ощущениям, у Nemo текст более сухой и GPTшный, но зато артефактов нет совсем. Стоит отметить, что для Mistral-NeMo нужно использовать рекомендуемые параметры семплера, то есть temperature<=0,3.
Переводить подсказки и ответы переводчиком, ИМХО, идея сомнительная.
Я думаю, что комиссия обратно пропорциональна сумме выкупа :)
Газеты уже сильно больше сотни лет не зарабатывают на прямых продажах. Весь доход идет с рекламы.
Остался один вопрос, где им взять российский номер телефона для регистрации там?)
Возможно вы плохо себе представляете Туркменистан. Скажем, много вы думаете умных домов в КНДР? Хотя на Туркменистане нет такого большого количества санкций, как на Северной Корее, но уровень благосостояния населения там в целом сравнимый. Правда номера действительно могли закончиться, только непонятно, почему не ввести еще диапазон, раз стоит такая проблема.
Умами это вкус мяса. Точнее это у мяса вкус умами.
Там на самом деле уже давно изобрели компиляторы кода типа Verilog в редстоун, правда так и не поймешь, применялись они конкретно для этого видео.
Вчера этот "аналитик" писал, что вообще всё замедление снимут. Уровень аналитики просматривается.
Это слияние интересно тем, что WB по сути потеряет контроль над собой, а группа "Russ" приобретет. Странная рыночная ситуация, в которой не очень большая компания за бесплатно покупает многомиллиардный (в долларах, конечно) бизнес.
Аудитория YouTube в России - больше 90 миллионов человек. Ты реально уверен, что хотя бы 30-40% из них разберётся, что такое VPN, найдет такой, который обходит блокировки самого себя и заплатит за него деньги (потому что через бесплатный YouTube не посмотреть)? Я - нет. Хорошо, если аудитория будет хотя бы 10 миллионов человек, но будет ли на эти 10 миллионов человек кто-то что-то снимать?