Pull to refresh
4
0.1
Константин@logran

Пользователь

Send message

Там автогенерация субтитров на уровне автосубтитров гугла из распознования речи (т.е дичь в 50% случаев) с последующей озвучкой

Смотря в чем подозрений.

Если например в том что сервера не приналежат властям РФ и не мониторятся ими напрямую, то любое китайское/американское или иной, желательно враждебно либо недружелюбно настроенной к РФ страны. Резко снижает вероятность наличия местного товарища майора на серверах.

Ну так фейковые приложение от нонейм-васянов немножко не то же самое что официальное государствннное приложение целой страны. Уровень доверия разный. Не будет же страна своим гражданам троян предлагать, верно? :)

Если им это потребуется? Сопоставимый с тем, что заморочился впн-ом для инстаграма в своё время или для обхода замедлений ютуба.

1 - не проблемы пользователя. 200$ не маленькие деньги и обычно когда платишь их - стараешься выбрать всё что они дают.
2 - они в любом случае тратятся за протяженность периода - там 5-часовые и недельные лимиты, их физически не дают потратить быстрее чем задумано и перегрузить сервера.

Тут больше выглядит как жадность ради жадности. Ибо, хоть мы и не знаем их реальный размер моделей но можем спекулятивно оценить на основе других знаний. Например:
1) GLM-4.7 может делать то, что делала Sonnet 3.7 год назад и даже больше.
2) Sonnet 3.7 стоил столько же сколько и 4.5 и цена железа и/или электричества со времен 3.7 до релиза 4.5 (не до сегодня с ростом цен на оперативку, а именно момент релиза 4.5) не особо то менялась, как собственно и цена API => Новый соннет как минимум не больше чем старый по размерам модели.
3) Мы предполагаем что инженеры из Anthropic как минимум не хуже китайских, а скорее всего лучше.
4) Из этого делаем обоснованное предположение, что Sonnet 3.7 был равен GLM-4.7 по размеру, либо, в случае более совершенной архитектуры и/или лучших датасетов и претрейна даже меньше.
5) Размер GLM-4.7 мы знаем и можем оценивать цену его инференса.
6) Что подводит нас к выводу, что вероянее цена по API у Antropic сильно завышена, чем подписка сильно занижена.

К этому выводу дополнительно подталкивает тот факт, что подписки на claude во всяких ElectronHub/Kiro/Cursor сопоставимы по ценам и объемам с Anthropic т.е по цене своей подписки они (или Amazon) сбывают токены массово и на сторону другим провайдерам, а значит это скорее базовая цена чем дискаунт.

Эмм, легко? Это буквально один из навыков владения языком и понимания его синтексиса и семантики.

Мы как бы про ЯЗЫКОВЫЕ модели сейчас, а не про калькулятор/кодогенератор/решатель загадок и ребусов/рисователь SVG и прочие нецелевые применения сейчас. Её главная, первичная и основная задача (на которую и заточена архитектура была) - владение языком. Т.е буквально - писать красиво и стройно как человек. Не думать, не решать ребусы (предсказание следующего токена - это не про решение ребусов, а про предсказание заученных ответов), не решать инженерные задачи - именно красиво писать тексты. В том числе, конечно, и на вымышленных языках вроде JS/Python, но тем не менее.

И с точки зрения LLM её задача и предназначение, в контексте кода, лишь породить синтаксически и грамматически верные конструкции. Т.е правильно оформленные (согласно примерам из датасета) проходящий валидацию код. Решать какую-либо задачу (кроме успешной компиляции/интерпритации) при этом он вовсе не обязан =)

И вот как раз модели, которые, извиняюсь за выражение, надр*чивают на решение ребусов и инженерных задач, в своей основной функции - Языковой модели - заметно проседают. Становятся сухими, репитативными, с тонной нейрослопа и самоповторов, без способности строить длинные связные правдоподобные тексты на естественном языке. Либо сохраняют эти функции, но лишь на доминирующих языках датасета, не проявляя генерализации на остальные - на остальных языках их навыки языка и следование инструкциям на них заметно ниже, тексты хуже и лексически менее разнообразны, с крайне ограниченным набором словаря и языковых конструкций, и в том числе без возможности породить даже простые рифмованные тексты.

Имхо, ЯЗЫКОВАЯ модель не способная корректно выполнить простой языковой запрос "напиши песню про <random_subject>" - хреновая языковая модель, ЯЗЫКОМ не владеющая.

Как оно может не сходиться. Имеем на вход 200$, на выход выбранные за месяц токены лимита.

В чём принципиальное отличие чем именно их выбрали, при условии что их в любом случае выбирают под ноль и часто раньше конца месяца?

Антропики буквально говорят "токены нам нихрена не стоят, и вы это знаете, но мы будет все равно драть с вас втридорога".
Ничто не мешает использовать Claude Code как официальное расширение в VS Code. И прикрутить к нему доп. плагины. И напилить агента ПОВЕРХ Claude Code и всё так же выжигать лимиты.

Пусть определяться - они или готовы давать такие лимиты за такие деньги или не готовы, ибо по факту нет никакой разницы каким именно инструментом они сжигаются, если всё равно сжигаются

Если бы... К сожалению, про Pro. Были на него большие надежды после 2.5, но увы. И в курсоре ведет себя средненько, и в Antigravity плачевно (но там оно плачевно в том числе потому что еще тулзы и промты не отлажены, как и в Kiro, который со временем по-приличнее стал).

В плане отлаженности и вылизанности моделей пока что, к сожалению, из AI IDE вне конкуренции Cursor (даже не смотря на то, что начиная с 2.0 они его похоже в курсоре же и вайбкодят), но они жадные черти + умышленнот жгут токены юзеров на всякий мусор.

У всех остальных модельки на ступеньку ниже чувствуются сразу (мб Claude Code еще на уровне вполне, но там не удобно работать ибо итерации удобным образом назад откатить нельзя если модель лажает, только гитом).

Сириосли, Гемини 3? Не верю. Он в коде (особенно в гугловском антигравити) страдает от шизы, зацикливаний и сваливания в ошиби семплера вида "I must do this I must do this I must do this" до бесконечности.

В антигравити пока что юзабельным ощущается лишь Opus, и то там он работает на уровне того, как в Cursor'е работает Sonnet (если бы еще курсор не сжигал кучу токенов на генерацию 3-х огромных md-файлов на каждый простейший запрос - цены бы ему не было). И даже для opus-а лучше работает Kiro от Amazon...

Про сканави я попробовал сегодня лично, сам, в Gemini 3 Pro с Reasoning High. Зацитирую результат (он легко воспроизводим - AI Studio бесплатна и доступна для эспериментов). И даже картинку примера, "гениально" результата "размышлений" модели и правильного ответа из конца книги. Весь ризонинг, уж извините, не прикладываю, т.к оно там почти 6 минут по кругу ходило.


А со Сканави оно ведет себя в лучшем случае как школьник, впервые его увидивший - уходит в долгий цикл размышлений, ловит тупняк, пытается подобрать красивый ответ, ошибочно (в случае Сканави) предполагая что в примере все должно сокращаться до чего-то нормального и потом говорит что это плохой пример или вообще какое-то промежуточное вычислений =)

А о том, как они прекрасно "думают", "решают" или что-то еще "делают" тут выше кидали ссылку на замечательное видео https://www.youtube.com/watch?v=W2xZxYaGlfs
Оно буквально видя токен говорит следующий. Безмозгло. Это калькулятор с формулой f(x)=y выдающий вам точки на своей области определения. Вы можете конечно искать разум у формулы, но вы тогда мало отличаетесь от древних людей, считающих что гром гремит потому что Перун по небу на колеснице катается. Только в отличии от людей тех времен, чье неведенье вполне оправдываемо, у вас есть математика, подробно объясняющая что и как происходит в машинном обучении, и вам нет необходимости судить лишь по внешним признакам.

Я хотел сказать что блок ризонинга ни чем не отличается от остального ответа модели кроме окружающих тект тегов <think>
И сделано это просто чтобы модель наполнила контекст доп.информацией которая (как и любой текст в контексте) влияет на выбор нового токена. А тег <think> нужен лишь для того чтобы при следующем запросе эту часть выбросить из контекста и не путать модель.

Оно просто по шаблону пишет цепочку текста которуе её научили писать, а не думает. Просто воспроизводит шаблон. Сейчас этот шаблон починили чтобы он safety не нарушал и сам себя не триггерил, в целом это всё еще просто генерация текста. И если модель маленькая, она туда такого бреда понаписывает, что без него ответ был бы лучше.

Ну и считают они отвартительно. Тут ниже по ветке коментов было предложение подсунуть модели задачки из сборника Сканави - можете попробовать, посмотреть какой редкостный бред туда пишет Гемини, пытаясь УГАДАТЬ ответ.

Оно "вспоминает" заученные рещения задач с литкода и т.д, меняя в них лишь переменные.

Да и то - отберите у неё интерпретатор питона и прочие сторонние тулзы - и всё станет сильно грустнее.


А со Сканави оно ведет себя в лучшем случае как школьник, впервые его увидивший - уходит в долгий цикл размышлений, ловит тупняк, пытается подобрать красивый ответ, ошибочно (в случае Сканави) предполагая что в примере все должно сокращаться до чего-то нормального и потом говорит что это плохой пример или вообще какое-то промежуточное вычислений =)

Утверждение "LLM не думают" предполагает что мы знаем как думаем мы и можем описать разницу.

Этого и не надо. Чтобы давать утверждение что ЛЛМ не думает - достаточно знать как она работает и понимать что это просто сложная функция аппроксимации. Есть входной X, есть огромная формула, и есть результа вычислений Y на выходе. Формула одна и та же независимо от того что вы на вход как X подаете.

Вы же MathCad думающим не называете? Или калькулятор, или табличку с макросамив Excell. А разница лишь в количестве переменных. Если вы сделаете в Excel табличку на миллиард формул, "думать" он от этого не начнет. Это по-прежнему просто калькулятор.

Текст писал ИИ? Очень (избыточно) много типичных ИИ-констуркций формата "Это (было) не X, а Y", буквально весь текст в них, аж читать тяжело.

Ну так, когда не знаешь <любая_предметная_область> - мир вокруг полон магии =)

Обыватель понятия не имеет, что внтури, но зато он видит мимика весьма правдоподобно прикидывающегося знакомым ему объектом и руководствуясь исключительно "внутренними ощущениями" считает что это тот самый объект и есть. Ведь "выглядит как утка и крякает как утка"...

Nope. Ризонинг это просто наполнение контекста. Все равно как если бы вместо этого с вопросом загрузили пару текстовых документов. Модель, генерируя новый токен читает весь предыдущий контекст, включая ризонинг.

И как на большом контексте она ни во что не ставит инструкции пользователя (они размываются в общем объеме, ускользая от механизма внимания), также она ни во что не ставит и свой собственный ризонинг. Для неё это просто еще один "какой-то текст в контексте".

Так что оно может писать в ризонинг одно, а в ответ совершенно другое. Это долгое время наблюдалось и у гемини и у ранних ГПТ, когда на безобидный вопрос оно в ризонинге писало (само!) какую-то дичь, тригерящую их safety, а затем переходя к ответу ругалось что тут в контексте нарушающее policy написано и отказывалось отвечать.


Есть конечно шанс что модель напишет туда что-то полезное, что в дальнейшем положительным образом скажется на вероятностях следующих токенов и в ответ она разродится чем-то нужным, но примерно такой же шанс что лишние токены из ризонинга запутают её окончательно, размыв изначально неплохую вероятность нужных токенов, и она разродится какой-то дичью.

Творческие хорошие тексты для RP/eRP важны, а не для SEO-спама порицаемого =)

В подсказках гугла какая-то убогенькая самая маленькая моделька. Нормальная - Gemini Pro в AI Studio.

Не поделитесь промтом роли для Gemini?

От задачи зависит. Для кодинга может быть лучше и Claude, но как языковая модел (владение языком т.е написание хороших творческих текстов) Gemini давно вне конкуренции, особенно если надо писать на кириллице.

Банально попросите что-то длинное хорошо рифмованное на русском. Или переделать существующих стих существовавщего русского поэта на иную (какую-нибудь бредовую) тематику и увидите разницу в текстах.

Минусы за неосведомленность в вопросе и непонимание разницы между "блокировкой нежелательных пользователей" и "я сижу с того же IP что и сотня спам-ботов и ддос-систем, и автоматическая аналитика почему-то и меня за бота приняла и вместе с ними локнула".

1
23 ...

Information

Rating
3,291-st
Location
Гомель, Гомельская обл., Беларусь
Date of birth
Registered
Activity