Можно предположить, что дорого будет то же, что и сейчас: всякие Ultra Pro Max модели с огромным количеством вычислений. А обычные модели, которые показывают достойный уровень, но не передовой, все ещё будут доступны. Тут так же как и в любом бизнесе: нет смысла трясти бабки с бедных студентов, если можно с больших корпораций. Там денег больше на порядки.
С одной стороны, это основная легенда компании — развивать безопасный ИИ. С другой стороны, Ваши аргументы несостоятельны, ведь мы знаем множество примеров, когда новые технологии забирали работу у некоторых людей, но в целом улучшали качество жизни человечества. ИИ в этом плане — очередной шаг к будущему. А по поводу графомании, я конечно полностью не читал документ, однако первая четверть во многом является лишь "учебником" по безопасному поведению и предотвращению эксплуатации модели. Могу предположить, что так же и дальше. Это просто список правил, слегка сдобренный лирикой.
Локальная программка с интерфейсом командной строки. Внутри инкапсулирует логику взаимодействия с агентами, MCP и т. д. Все нужное хранится уже там (промпты, настройки и т.д.). Для запуска моделей лазит по URL, который можно задать в переменных среды. Если хотите не на сервера антрофик кидать запросы, можно поставить Claude code router или подобную утилиту и подключать модели с OpenRouter, OpenAI или локальные.
Ну так и ясен пень. Тут даже скорее больше поражает способность агентов взаимодействовать и работать сообща, генеря что-то разумное (то что браузер вообще хоть как-то работает уже чудо). И, очевидно, никто не будет использовать современные LLM так: очень жирный проект и слишком мало человеческого контроля. Однако этот эксперимент даёт намёки на возможность смены парадигмы с "AI как инструмент" на "AI вместо целого отдела" для несложных проектов. Думаю, если подобными образом организовать агентов (как сделано в эксперименте), можно уже сейчас заменять небольшие команды не очень опытных программистов, если после каких-то контрольных точек проверять вручную куда все катится.
Меня лично бесит VS Code, поэтому пользовался fleet'ом чтобы всякие json конфиги открывать на досуге. И ничего! Все воробьи сбивались в штатном режиме: без промахов и долгих запусков.
Пусть остается. Если бы не Альтман, гугл бы до такого не дошли. Без него, у них не будет и особого повода развиваться. Да, есть Antrophic, но там совершенно другой уровень вычислительных мощностей. Да и тем более, поживем увидим, что там Альтман готовит. Может GPT-6 возьмет 60% в ARC-AGI-2 или еще чего-нибудь. И будут про всех остальных говорить, мол "нафига лезть в ИИ гонку, если есть OpenAI с GPT-XXX". В заключение скажу: боже, храни конкуренцию.
Как мне кажется, когда необходим фундаментальный прорыв, любые сроки - гадание. Может кто-то придумает гениальную архитектуру завтра и уже через полгода её выкатят какие-нибудь OpenAI в прод. А может будут гадать 10 лет безрезультатно, ползая по кругу, а потом деньги кончатся. Идея это такая вещь, которая может прийти в голову, а может и не прийти. И пока у нас нет хотя бы направления, куда копать, любые догадки будут очень приблизительными. Но то что вычислительных мощностей хватает, это да.
В сложных агентных задачах с большим контекстом, где нужно собирать много данных, Claude Opus 4.5 действительно оказался хорош и экономичен. А для повседневного использования, думаю, дороговат и неповоротлив.
Вроде слышал, что фурычит. С нюансами, но вроде функционально. Учитывая масштаб проекта, очень даже неплохо.
Можно предположить, что дорого будет то же, что и сейчас: всякие Ultra Pro Max модели с огромным количеством вычислений. А обычные модели, которые показывают достойный уровень, но не передовой, все ещё будут доступны. Тут так же как и в любом бизнесе: нет смысла трясти бабки с бедных студентов, если можно с больших корпораций. Там денег больше на порядки.
С одной стороны, это основная легенда компании — развивать безопасный ИИ. С другой стороны, Ваши аргументы несостоятельны, ведь мы знаем множество примеров, когда новые технологии забирали работу у некоторых людей, но в целом улучшали качество жизни человечества. ИИ в этом плане — очередной шаг к будущему. А по поводу графомании, я конечно полностью не читал документ, однако первая четверть во многом является лишь "учебником" по безопасному поведению и предотвращению эксплуатации модели. Могу предположить, что так же и дальше. Это просто список правил, слегка сдобренный лирикой.
Локальная программка с интерфейсом командной строки. Внутри инкапсулирует логику взаимодействия с агентами, MCP и т. д. Все нужное хранится уже там (промпты, настройки и т.д.). Для запуска моделей лазит по URL, который можно задать в переменных среды. Если хотите не на сервера антрофик кидать запросы, можно поставить Claude code router или подобную утилиту и подключать модели с OpenRouter, OpenAI или локальные.
Ну так и ясен пень. Тут даже скорее больше поражает способность агентов взаимодействовать и работать сообща, генеря что-то разумное (то что браузер вообще хоть как-то работает уже чудо). И, очевидно, никто не будет использовать современные LLM так: очень жирный проект и слишком мало человеческого контроля. Однако этот эксперимент даёт намёки на возможность смены парадигмы с "AI как инструмент" на "AI вместо целого отдела" для несложных проектов. Думаю, если подобными образом организовать агентов (как сделано в эксперименте), можно уже сейчас заменять небольшие команды не очень опытных программистов, если после каких-то контрольных точек проверять вручную куда все катится.
Меня лично бесит VS Code, поэтому пользовался fleet'ом чтобы всякие json конфиги открывать на досуге. И ничего! Все воробьи сбивались в штатном режиме: без промахов и долгих запусков.
Пусть остается. Если бы не Альтман, гугл бы до такого не дошли. Без него, у них не будет и особого повода развиваться. Да, есть Antrophic, но там совершенно другой уровень вычислительных мощностей. Да и тем более, поживем увидим, что там Альтман готовит. Может GPT-6 возьмет 60% в ARC-AGI-2 или еще чего-нибудь. И будут про всех остальных говорить, мол "нафига лезть в ИИ гонку, если есть OpenAI с GPT-XXX". В заключение скажу: боже, храни конкуренцию.
Как мне кажется, когда необходим фундаментальный прорыв, любые сроки - гадание. Может кто-то придумает гениальную архитектуру завтра и уже через полгода её выкатят какие-нибудь OpenAI в прод. А может будут гадать 10 лет безрезультатно, ползая по кругу, а потом деньги кончатся. Идея это такая вещь, которая может прийти в голову, а может и не прийти. И пока у нас нет хотя бы направления, куда копать, любые догадки будут очень приблизительными. Но то что вычислительных мощностей хватает, это да.
В сложных агентных задачах с большим контекстом, где нужно собирать много данных, Claude Opus 4.5 действительно оказался хорош и экономичен. А для повседневного использования, думаю, дороговат и неповоротлив.