У меня тоже всё в порядке с “разными моделями”. Но в комменте выше всё написано ясно и конкретно. У модели в ChatGPT просто нет возможности открыть урл напрямую - в python sandbox’е инета нет, search tool не подходит для задачи, а другого тула (“открыть урл явно”) либо нет, либо блокируется политикой. А достоверно рассказать о причинах неудачи оно почему-то не может (давно известное поведение со скрытым ризонингом).
Проблема которую решает ОС очень как-то непонятно описана. А то что понятно, вряд-ли можно решить добавлением ещё одной новой ОС, как в комиксе xkcd про 14 стандартов.
Тоже пилю свою операционку. Codex офигенно следует плану, и квота за 200 позволяет 1-2 сессии держать круглосуточно в Ralph loop. В интересное время живём, товарищи. Но статьи всё-таки надо более человечными стараться делать.
Нормальный безопасник бы такую чушь не написал. OpenClaw это не просто дыра, это бездна, дно. То что написано в интро - про чатики со своей моделью, а не про агента который при первой инъекции отправит куда угодно данные всех карт и содержимое всех кошельков, угонит телегу и понапишет "отправьте мне на сбер сколько не жалко, на срочную операцию котику" всем контактам во всех мессерджерах.
Не увидел в статье дисклеймер что модель пришлось ощутимо порезать, сами openai ее оценивают чуть выше gpt-5.1-mini, а я бы сравнил с haiku который у антропиков или гугла в vertex ai отвечает уже вполне сопоставимо по скорости. (в целом и sonnet с opus'ом у гугла или антропиков в fast режиме тоже довольно быстры)
По интро не очень очевидно было что цель статьи - разбор Cerebras.
Если переписать статью, чтобы отвечала на вопрос озвученный в названии, то будет пушка. А код лучше унести на гитхаб, читать его тут никто не будет.
А можно текст скилла просто под спойлер в статье добавить?
У меня тоже всё в порядке с “разными моделями”. Но в комменте выше всё написано ясно и конкретно. У модели в ChatGPT просто нет возможности открыть урл напрямую - в python sandbox’е инета нет, search tool не подходит для задачи, а другого тула (“открыть урл явно”) либо нет, либо блокируется политикой. А достоверно рассказать о причинах неудачи оно почему-то не может (давно известное поведение со скрытым ризонингом).
Сделал llms.txt на одном сайте с документацией, а ChatGPT просто не смог его прочитать по прямому указанию :-(
Проблема которую решает ОС очень как-то непонятно описана. А то что понятно, вряд-ли можно решить добавлением ещё одной новой ОС, как в комиксе xkcd про 14 стандартов.
Тоже пилю свою операционку. Codex офигенно следует плану, и квота за 200 позволяет 1-2 сессии держать круглосуточно в Ralph loop. В интересное время живём, товарищи. Но статьи всё-таки надо более человечными стараться делать.
Годы идут, ничего не меняется.
Выглядит как будто большую часть ответов оно кстати с deepwiki и утащило.
Посмотри нормальный разбор на deepwiki. А спрашивать Grok в чате - отличный способ получить кучу галлюцинаций.
Неправильное использование термина, лучше убрать.
Спорное решение. E2e вообще довольно сложно реализовать корректно. Для использованного промпта решение от AI оправдано.
не, shebang - механизм у которого нет никакой привязки к расширению файла
.sh - shell-скрипт, расширение используется редакторами как подсказка для определения какой синтаксис использовать при раскраске
зачем скрипт на питоне сохранять с расширением .sh используемым обычно для shell скриптов?
Нормальный безопасник бы такую чушь не написал. OpenClaw это не просто дыра, это бездна, дно. То что написано в интро - про чатики со своей моделью, а не про агента который при первой инъекции отправит куда угодно данные всех карт и содержимое всех кошельков, угонит телегу и понапишет "отправьте мне на сбер сколько не жалко, на срочную операцию котику" всем контактам во всех мессерджерах.
О каком приросте речь? По сравнению с чем?
Да, первые отлично загрузились - остальные все так же висят)
Все - за пару минут только первая загрузилась, и то не до конца. Фото в jpg будут весить в 10 раз меньше.
Мой браузер с мобильным инетом не осилил отобразить фотки в png. :-(
OpenRouter вроде нормально без проксей работает?
Не увидел в статье дисклеймер что модель пришлось ощутимо порезать, сами openai ее оценивают чуть выше gpt-5.1-mini, а я бы сравнил с haiku который у антропиков или гугла в vertex ai отвечает уже вполне сопоставимо по скорости. (в целом и sonnet с opus'ом у гугла или антропиков в fast режиме тоже довольно быстры)
По интро не очень очевидно было что цель статьи - разбор Cerebras.
"тефла, афтифвейд фулл сэф-дайвин мод"