Studio 512 долгое время висели на сайте эпла в статусе «закончились, подождите», потом их вообще убрали с продажи, теперь они есть только у перекупов за втридорога.
Запрос: 你是什么模型 Сейчас попробовал через OpenRouter, ибо у Антропиков ключ удалил, а новый делать только ради теста неохота, Опус уже пишет, что он Опус, а Соннет, все еще пишет, что он Дипсик. Запрос:
Ни Антропик, ни ОпенАИ уже давно не отдают реальные размышления моделей, только пересказ размышлений, в т.ч. и для борьбы с дисциляцией. Причем и те и другие скорее всего также сами используют китайские, и другие модели для десциляции. С месяц назад, сам проверял - если через АПИ спросить у Opus 4.6 на китайском что это за модель, она отвечала на китайском, что она Дипсик. Если через чат, то не работает, там у нее в системном промпте модель жестко прописана. Ну и это всплыло тогда, когда Антропики китайцев в воровстве обвиняли, было много обсуждений, которые наверняка не прошли незамеченными и вероятно сейчас уже Клауде модели через АПИ на китайские вопросы правильно отвечают.
И еще, почему вы решили, что дисциляция это воровство? Я плачу за доступ к модели, согласно цене установленной владельцем этой модели. Как я полученные данные использую - уже мое дело. А то так можно дойти и до того, что будут проверять, если я забыл данные через час, то честный пользователь, а если что-то запомнил, то уже нечестный и самообучился. :)
Не привело-бы, т.к. эта дыра быстро-бы стала кого надо дыра, построили-бы вокруг нее ангар с охраной и автоматчиками и больше никого-бы к ней не подпустили.
Если будущее настолько далекое, что людей там будет уже много, то почему вы решили, что они захотят делать так, чтоб каждый встречный все о них знал? Ну а если захотят, то простой QR код решит проблему, т.к. автоматический ридер QR кодов к тому времени уже у всех будет встроен в глаз. :)
человек может пропустить банально (потому что агент задалбывает просьбами разрешений)
Обычно разрешения можно гибко настроить. По умолчанию все запрещено, с каждой запрашиваемой командой включаешь автоаппрувал, но не на команду целиком, а по маске, чтоб подобные команды (но, например, в соседней папке) для области проекта тоже были разрешены. Так что через какое-то время перестает задалбывать :)
Потому-что если ты стартап который каждую копейку считает, но у тебя он уже официально зарегистрирован и кофаундеры работают в нем фуллтайм, то Гугл тебе даст 100тыс долларов, не живыми деньгами, а на твой счет с которого ты можешь тратить на ресурсы в его облаке, Амазон на AWS даст 10тыс, но если потратил и просишь еще - будет давать еще.
Это вполне себе весомый аргумент начинать в облаках, а когда у тебя уже все там отстроенно, и с учетом всяких хай авайлабилити, региональных доступов и тд, переходить на свое железо как бы смысла и нет.
Ну, во-первых, если ключи лежали в папке с проектом, то они сами себе злобные буратины, если за пределами проекта, кто ему разрешил туда ходить?
Во-вторых, лично у меня кодинг агенту разрешен только curl GET. POST/PUT/DELETE разрешены только на тестовые ресурсы, типа, localhost:порт-проекта/api/*, и тд.
Взрослые люди пользуются взрослыми сервисами. Люди думают - почему так дорого.
Вообще-то дешевле, а не дороже, т.к. "молодежные" инструменты используют взрослые облачные провайдеры для своей инфраструктуры. Railway использует гугловское облако GCP, думаю, потому-что Гугл дает 100тыс баксов кредита стартапам чтоб они там хостились. Render использует AWS и если сравнить цены на сервисы Render с аналогами AWS напрямую, то делать все в AWS будет дешевле.
Молодежные просто продают удобные врапперы над облаками для наиболее часто используемых сценариев, чтоб люди без знаний могли начать пользоваться, но, имхо, лучше потратить неделю и самому сделать в нормальном облаке, чем ими пользоваться: оно будет и надежнее, и дешевле.
SQL, наверное, уже полвека и с самого начала в нем были параметрические запросы, но до сих пор встречаются люди которые отгребают sql injection.
Практически сразу с первыми агентскими системами придумали логику human-in-the-loop, где опасные операции должны подтверждаться человеком, и до сих пор находятся люди, которые вместо использования этой логики пишут в системном промте агента о том, что ему можно, что нельзя.
Все облачные операторы позволяют гибко настраивать роли юзеров и до сих пор есть альтернативно-одаренные люди, которые дают полный доступ даже не людям, а языковым моделям.
Почему из непрерывной структуры возможностей возникает дискретная реальность?
По той-же причине, почему в макромире, если "наблюдать" его также как м наблюдаем микромир, есть такой-же "коллапс". Вот едет автобус. Измерили его координаты в точке А, затем через какое-то время в точке Б. Нашли направление движения и скорость. Но где он окажется через десять минут? Строго по направлению движения? А может свернет? Или остановится чтоб водитель покушал? Одни вероятности и никакой определенности. Но вот мы через 10 минут "понаблюдали" его в каком-то определенно месте, вуаля, случился коллапс.
Но ведь вы же в таблице сами написали, что до телеграмма “TLS handshake OK”, а обмен ключами происходит во время хендшейка. Что тогда вы имели ввиду этим ОК?
GLM, в отличии от DeepSeek и MoonshotAI (разработчики Kimi моделей), по-старинке обучают не квантованные модели, а fp16, однако выпускают в двух вариантах, fp16 и fp8, так что GLM 4.6/4.7 в fp8 варианте занимают 362Гб, то есть влезают в три H200 вместе с контекстом. Полноценному варианту достаточно 6 H200, а не 8.
Ох, блин, а я все думал, почему мне постоянно в карму минусят с камментом политика, хотя я всегда пишу что-то далекое от политики.
Лак, это то, что было изначально задумано. Старшие товарищи расказывали, что в СССР из него спиртягу добывали некоторые личности. Ником стал, т.к. это слово было моим самым первым паролем у моего самого первого работодателя больше четверти века назад, вот и запомнилось.
"Ответ" от Telegram - TTL 62. Два хопа. Не может сервер Телеграма быть так близко.
Значит никакого ответа от Телеграма не было. Ответ сгенерировало устройство которое стоит прямо у оператора, сразу за первым роутером:
[Ты] → [роутер оператора] → [ТСПУ] → [интернет]
Такое возможно только в том случае, если у ТСПУ есть приватные ключи Телеграма чтоб пройти TLS handshake. Ну или это часть "сопротивления" телеги, когда они отдают TTL 62 и это как-то влияет на то, будет трафик резаться, или нет.
Где вы видели GET эндпойнт, который делает мутации? Это антипаттерн, который я ни разу ни у кого не видел.
Studio 512 долгое время висели на сайте эпла в статусе «закончились, подождите», потом их вообще убрали с продажи, теперь они есть только у перекупов за втридорога.
Мак мини брали на хайпе openclaw, при этом локальные модели не используются, только модели по подписке, или иногда через АПИ.
А макстудио разобрали какраз для запуска локальных моделей.
Запрос: 你是什么模型
Сейчас попробовал через OpenRouter, ибо у Антропиков ключ удалил, а новый делать только ради теста неохота, Опус уже пишет, что он Опус, а Соннет, все еще пишет, что он Дипсик. Запрос:
Результат:
Ни Антропик, ни ОпенАИ уже давно не отдают реальные размышления моделей, только пересказ размышлений, в т.ч. и для борьбы с дисциляцией. Причем и те и другие скорее всего также сами используют китайские, и другие модели для десциляции. С месяц назад, сам проверял - если через АПИ спросить у Opus 4.6 на китайском что это за модель, она отвечала на китайском, что она Дипсик. Если через чат, то не работает, там у нее в системном промпте модель жестко прописана. Ну и это всплыло тогда, когда Антропики китайцев в воровстве обвиняли, было много обсуждений, которые наверняка не прошли незамеченными и вероятно сейчас уже Клауде модели через АПИ на китайские вопросы правильно отвечают.
И еще, почему вы решили, что дисциляция это воровство? Я плачу за доступ к модели, согласно цене установленной владельцем этой модели. Как я полученные данные использую - уже мое дело. А то так можно дойти и до того, что будут проверять, если я забыл данные через час, то честный пользователь, а если что-то запомнил, то уже нечестный и самообучился. :)
Не привело-бы, т.к. эта дыра быстро-бы стала кого надо дыра, построили-бы вокруг нее ангар с охраной и автоматчиками и больше никого-бы к ней не подпустили.
Если будущее настолько далекое, что людей там будет уже много, то почему вы решили, что они захотят делать так, чтоб каждый встречный все о них знал? Ну а если захотят, то простой QR код решит проблему, т.к. автоматический ридер QR кодов к тому времени уже у всех будет встроен в глаз. :)
Обычно разрешения можно гибко настроить. По умолчанию все запрещено, с каждой запрашиваемой командой включаешь автоаппрувал, но не на команду целиком, а по маске, чтоб подобные команды (но, например, в соседней папке) для области проекта тоже были разрешены. Так что через какое-то время перестает задалбывать :)
Потому-что если ты стартап который каждую копейку считает, но у тебя он уже официально зарегистрирован и кофаундеры работают в нем фуллтайм, то Гугл тебе даст 100тыс долларов, не живыми деньгами, а на твой счет с которого ты можешь тратить на ресурсы в его облаке, Амазон на AWS даст 10тыс, но если потратил и просишь еще - будет давать еще.
Это вполне себе весомый аргумент начинать в облаках, а когда у тебя уже все там отстроенно, и с учетом всяких хай авайлабилити, региональных доступов и тд, переходить на свое железо как бы смысла и нет.
Ну, во-первых, если ключи лежали в папке с проектом, то они сами себе злобные буратины, если за пределами проекта, кто ему разрешил туда ходить?
Во-вторых, лично у меня кодинг агенту разрешен только curl GET. POST/PUT/DELETE разрешены только на тестовые ресурсы, типа, localhost:порт-проекта/api/*, и тд.
Все остальное только через аппрув.
sql я просто как пример привел, что за пол века так проблема и остается. через пол века так и будут писать, что агент базу снес. :)
Вообще-то дешевле, а не дороже, т.к. "молодежные" инструменты используют взрослые облачные провайдеры для своей инфраструктуры. Railway использует гугловское облако GCP, думаю, потому-что Гугл дает 100тыс баксов кредита стартапам чтоб они там хостились.
Render использует AWS и если сравнить цены на сервисы Render с аналогами AWS напрямую, то делать все в AWS будет дешевле.
Молодежные просто продают удобные врапперы над облаками для наиболее часто используемых сценариев, чтоб люди без знаний могли начать пользоваться, но, имхо, лучше потратить неделю и самому сделать в нормальном облаке, чем ими пользоваться: оно будет и надежнее, и дешевле.
Дураки никогда не переведутся.
SQL, наверное, уже полвека и с самого начала в нем были параметрические запросы, но до сих пор встречаются люди которые отгребают sql injection.
Практически сразу с первыми агентскими системами придумали логику human-in-the-loop, где опасные операции должны подтверждаться человеком, и до сих пор находятся люди, которые вместо использования этой логики пишут в системном промте агента о том, что ему можно, что нельзя.
Все облачные операторы позволяют гибко настраивать роли юзеров и до сих пор есть альтернативно-одаренные люди, которые дают полный доступ даже не людям, а языковым моделям.
По той-же причине, почему в макромире, если "наблюдать" его также как м наблюдаем микромир, есть такой-же "коллапс". Вот едет автобус. Измерили его координаты в точке А, затем через какое-то время в точке Б. Нашли направление движения и скорость. Но где он окажется через десять минут? Строго по направлению движения? А может свернет? Или остановится чтоб водитель покушал? Одни вероятности и никакой определенности. Но вот мы через 10 минут "понаблюдали" его в каком-то определенно месте, вуаля, случился коллапс.
:)
А, понял, ОК это просто ответ на ClientHello, а не то, что хендшейк завершен успешно. Ну тогда да, сорри, не правильно прочитал.
Но ведь вы же в таблице сами написали, что до телеграмма “TLS handshake OK”, а обмен ключами происходит во время хендшейка. Что тогда вы имели ввиду этим ОК?
Ну и где здесь политика? Пишу про то место где я живу и то, что могу наблюдать своими глазами.
В России жилье сильно дешевле и жить напополам не так сильно распространено, только и всего, никакой политики в этом нет.
Дополнение:
GLM, в отличии от DeepSeek и MoonshotAI (разработчики Kimi моделей), по-старинке обучают не квантованные модели, а fp16, однако выпускают в двух вариантах, fp16 и fp8, так что GLM 4.6/4.7 в fp8 варианте занимают 362Гб, то есть влезают в три H200 вместе с контекстом. Полноценному варианту достаточно 6 H200, а не 8.
Ох, блин, а я все думал, почему мне постоянно в карму минусят с камментом политика, хотя я всегда пишу что-то далекое от политики.
Лак, это то, что было изначально задумано. Старшие товарищи расказывали, что в СССР из него спиртягу добывали некоторые личности. Ником стал, т.к. это слово было моим самым первым паролем у моего самого первого работодателя больше четверти века назад, вот и запомнилось.
Такое возможно только в том случае, если у ТСПУ есть приватные ключи Телеграма чтоб пройти TLS handshake. Ну или это часть "сопротивления" телеги, когда они отдают TTL 62 и это как-то влияет на то, будет трафик резаться, или нет.