Судя по этой теории - сверхновая и гравитационный коллапс, который "где то с другой стороны" выплюнул всю материю, но почему то выплюнул не как принимает - постепенно и понемногу, а всю накопленную за какой-то период в одно время. Либо это была не обычная черная дыра, а собрание всех черных дыр в прошлой вселенной, у которых после преодоления порога по сжатию материи всей вселенной случился экзистенциальный кризис и произошла реакция уровня большого взрыва.
Теория жиденькая, но имеет место быть. Все это гадание на кофейной гуще и попытки связать разрозненные факты в единую красивую теорию, которая объяснит всё. Но мы сидим на микроскопическом шарике и почти ничего не видим на самом деле, поэтому тыкаемся во все стороны и самые безумные теории для своего времени высказываем в надежде, что потомки продолжат исследования и докопаются до истины. Несколько сот лет назад люди считали, что солнце вращается вокруг Земли и были истинно в этом уверены, а астрономов казнили и поднимали насмех (именно в таком порядке). Так что либо эта теория красиво уйдет в закат, либо предложат такие доказательства, которые будет уже не опровергнуть. Вот только чтобы увидеть воочию подтверждение первой теории нужно было выйти в космос и понастроить высокоточных приборов исследования ближайшего космоса, а тут я даже не знаю что надо сделать.
Ничего не смыслю в беспилотниках, но использовал продвинутый Deep Research от OpenAI. Кто может посмотреть насколько он лучше/хуже по составу и содержанию от того что уже есть в статье? Ссылка - ссылка на chatgpt, соотв-но нужен в*н.
Хоть я и в конкретной теме не смыслю, но использую именно эту версию Deep Research когда нужно досконально разобраться в какой-то узкоспециализированной теме, или хотя бы наметить точки с которых нужно начинать погружения. Отличный ассистент в исследовательской деятельности (r&d скорее). Поставил перед обедом, через 20-40 минут забрал отчет и продолжил работу.
Да вот жаба душит, буду отменять подписку, брал за 200 на один раз, чтобы кодексом попользоваться, а потом его в подписку Plus добавили тоже. А насколько жёсткие лимиты на кодекс в подписке за 20? Судя по интервью разработчиков на каком то Ютуб канале, в Pro версии во время превью дают хоть раз в минуту по контейнеру запускать, 60 в час они говорили. Такое я точно никогда не "съем" даже в моменты когда вдохновение накатывает и могу параллельно по 5 задач делать
Кстати говоря, чтобы самому не мучиться с установкой зависимостей можно сделать 2 вещи.
1) В основном окружении поставить в скрипте "bash install_deps.sh", создать пустой файл в репозитории, включить интернет и попросить заполнить скрипт и github actions на него. И принимать PRы только если зависимости встали / тесты прошли.
2) сделать дополнительное окружение (с суффиксом -no-deps например) без скрипта в автозапуске на случай если что то сломается, node пакеты у меня иногда ломали запуск со скриптом. В таком случае когда таска упадет, можно сделать новую на фикс зависимостей, а в упавшей задаче после принятия фикса нажать повтор
Единственный момент который не учитывается в статье - codex был обучен на редактировании кода, прям очень сильно именно на редактирование заточен, и очень любит атомарные задачи. Он хорошо ищет root cause багов, умеет планировать мелкие шаги, его код проще ревьюить из за отсутствия лишних комментариеа и вбросов, и ОЧЕНЬ хорошо следует инструкциям. Если написать чтобы не кидал в игнор линтеры, он в стенку расшибется, но не выключит и спустя минут 10 честно распишется в собственной несостоятельности (а там косяк на моей стороне был).
Claude 4 (да и 3.7 тоже) с другой стороны может угадать желания и "сделать красиво", но с тем же успехом может нагородить отсебятины которую замучаешься вычищать, если включил автодополнение. Или не дай бог начнет ругаться линтер, Клод пару раз попробует починить и потом не смотря на инструкции возьмёт да выключит, и будет как в том видео где разраб орет в монитор "слушайся меня!"
Для себя я решил так, если надо написать разово скрипт или сделать базу для нового проекта - это claude однозначно, сделает все красиво, а если дать ему пару намеков то ещё и нагуглит с подключенными MCP, и сделает бомбезный прототип, особенно с UI и не в одну итерацию, а с улучшениями. Но до ума его доводить функционально лучше через codex, особенно если понимаешь что делаешь и можешь дать ценный фидбэк для модели и частенько пользуясь o3 или o3 pro который сегодня вышел.
Сейчас ставлю эксперимент - самостоятельно код не пишу в новом проекте, пишет только codex и параллельно пробую новый формат, когда codex запрашивает сложные вещи через меня у o3 pro. Пока работает, в архитектуре таким образом пока не накосячил нигде, только интерфейс не очень красивый, все таки без клода никуда.
Хочется конечно универсальную модель которая будет и сильной и с рассуждениями и красиво сделает. Но это скорее мечты, пока что с комбинированием достаточно хорошо получается, чтобы пет проекты на середине не забрасывать. Или наоборот ещё быстрее забрасывать когда очередной пет проект ещё быстрее наскучит. Недавно гугл слил в сеть на 20 минут свою новую модель Kingfall, и вроде как действительно новый король на горизонте. Если его в Jules подключат, то придется на их подписку переезжать видимо, ибо руки очень чешутся потрогать.
На нормальных госпредприятиях и винда настроена так что запрашивает пароль на каждый административный чих, а у обычных юзеров вообще отобраны административные права.
Раньше в гос конторе работал на подряде, и уж с виндой проблем явно больше чем с линуксом. По пальцам можно сосчитать сколько мы раз бегали за несколько лет к линуксоидам или залезали на Линукс сервера из за проблем, которые были следствием кривых рук на самом деле, а по Винде бегали каждый день, иногда по несколько раз, там и 7 и 8 были установлены и даже на 10 апгрейдились сильно позже выхода, с апгрейдом кстати больше всего проблем было. И реестры вычищали руками и танцевали с бубном вокруг политик безопасности, а на Линукс нормально все раскатывалось почему то и обновлялось. Может конечно потому что их было мало, и если бы стало больше то и по линуксам бы бегали чаще, но все таки по соотношению на Винде больше проблем было.
Сам я там был не больше года, с коллегами сменялись по контракту каждый год, но отчёты и статистику по заявкам я всю проштудировал, зачастую проблемы повторялись и решение уже было записано - отсюда и знаю сколько было проблем у машин на Винде и Линуксе.
В воркшопе-то понятно. Я про свой юз кейс. Некоторые файлы лежат в недоступных текущему пользователю местах под сервисными учетками. Соответственно либо релогин под сервисную учетку, либо sudo
Я пока не уверен как сделать автоматический вход через sudo (у меня в компании запрещено входить через root на удаленные сервера), но кажется это реализуемо. А так очень хочется взять и попробовать. Кажется, это идеальный инструмент для локально-удаленной разработки, когда нужно с абсолютно разных сервисов нужно собирать параллельные логи, а сами сервисы не пишут ни в какой агрегатор и с них надо собирать из stdout, у каких-то из файла, к кому то в апишку лезть за метриками и так далее. По крайней мере такой юз-кейс у меня сложился пока смотрел воркшоп и читал доки
Ваш "результат анализа" не меньшая чепуха чем сама статья. Текстовые нейросети не умеют определять степень сгенерированности текста и для этого используются специализированные решения. Если любой нейросетке скормить текст и попросить сделать с ним то что она не умеет, возникнет галлюцинация. Например, при умножении очень больших цифр в половине случаев нейросеть пишет что не может умножить, а в другой половине - случайное достаточно большое число которое "похоже на правильный результат", т.е. она честно может умножить парочку разрядов а потом забивает
Действительно технические статьи с разбором того как работают LLM, Flash Attention или прочие приблуды - вполне себе плюсуются. А если в статье в очередной раз написано "LLM так хорош, что я заменил своего редактора/дизайнера/программиста" то это упоминание "в положительном ключе" в духе текущей статьи - не в тему, точнее ещё хуже.
Кто знает как из гугл рекомендаций на телефоне убрать ссылки на хабр в которых есть "блог компании Х"? Название зазывающее, а статья ни о чем к сожалению :(
Если получится, можете добавить туда наличие экосистемы? Например wiki, возможность запуска CI с автотестами прямо в облаке или с локальным раннером или деплой в облако (github pages вроде). Хотелось бы узнать есть ли это у отечественных конкурентов, потому что для меня например это киллер-фичи для быстрой разработки
Ужасно. Никакой конкретики по условиям задачи и предыдущему стеку. Нет цифр до/после, только после. Нет сравнений с конкурентами. Вполне возможно, что раньше использовался классическая реляционная база, но её просто плохо приготовили и можно было не добавлять стек и не использовать новые ресурсы. В некоторых задачах тот же постгрес будет не хуже эластика, а то и лучше из-за наличия связей и возможности эти связи эффективно доставать.
Надпись про "время обработки запроса не зависит от объема данных" максимально сомнительна, даже в корне неверна и вводит в заблуждение. Эластик знаменит тем, что при достаточно большом объеме начинает потреблять слишком много ресурсов и в итоге замедляется, а если у вас такой объем, что есть ощущение, что запрос всегда занимает 0.3 секунды, то скорее всего весь датасет поместится в оперативке и не факт, что эластик будет лучшим решением.
Скорее всего поиск можно ускорить ещё сильнее просто использовав какой нибудь редис или любую хранилку в оперативной памяти в связке с асинхронным сервером и буквально по задержке сети возвращать ответ на любое нажатие клавиши пользователем. Да тот же кликхауз постоянно сравнивают с эластиком по скорости выполнения запросов к структурированным или полу-структурированным данным, но в статье не рассказано.
В общем и целом, хотелось бы услышать больше. Сейчас статья ни о чем и даже на рекламу эластика не тянет даже с натяжкой (не говоря о том, что все стараются на OpenSearch переехать)
В серьезных исследованиях таблички обновляются по мере выхода моделей, иногда в процессе подачи на конференцию в спешке дорисовывают актуальные результаты и переписывают выводы если что то изменилось.
Дорогие проприетарные модели ещё можно понять, но если хватило на запуск llama 3.1, то явно хватило бы на запуск qwen3, который эту лламу ни во что не ставит и рекламируется как почти равный chatgpt в общем плане и почти равный sonnet 3.5 в коде. Интересно было бы посмотреть на актуальные данные от моделей которыми действительно пользуются люди.
Сфера развивается быстро, от этого никуда не деться, конечно.
Где то слышал цитату, что есть программист, а есть кодер. Вот тут гайд на начинающего кодера, а чтобы стать программистом, тут да, база нужна.
Судя по этой теории - сверхновая и гравитационный коллапс, который "где то с другой стороны" выплюнул всю материю, но почему то выплюнул не как принимает - постепенно и понемногу, а всю накопленную за какой-то период в одно время. Либо это была не обычная черная дыра, а собрание всех черных дыр в прошлой вселенной, у которых после преодоления порога по сжатию материи всей вселенной случился экзистенциальный кризис и произошла реакция уровня большого взрыва.
Теория жиденькая, но имеет место быть. Все это гадание на кофейной гуще и попытки связать разрозненные факты в единую красивую теорию, которая объяснит всё. Но мы сидим на микроскопическом шарике и почти ничего не видим на самом деле, поэтому тыкаемся во все стороны и самые безумные теории для своего времени высказываем в надежде, что потомки продолжат исследования и докопаются до истины. Несколько сот лет назад люди считали, что солнце вращается вокруг Земли и были истинно в этом уверены, а астрономов казнили и поднимали насмех (именно в таком порядке). Так что либо эта теория красиво уйдет в закат, либо предложат такие доказательства, которые будет уже не опровергнуть. Вот только чтобы увидеть воочию подтверждение первой теории нужно было выйти в космос и понастроить высокоточных приборов исследования ближайшего космоса, а тут я даже не знаю что надо сделать.
Ничего не смыслю в беспилотниках, но использовал продвинутый Deep Research от OpenAI. Кто может посмотреть насколько он лучше/хуже по составу и содержанию от того что уже есть в статье? Ссылка - ссылка на chatgpt, соотв-но нужен в*н.
Хоть я и в конкретной теме не смыслю, но использую именно эту версию Deep Research когда нужно досконально разобраться в какой-то узкоспециализированной теме, или хотя бы наметить точки с которых нужно начинать погружения. Отличный ассистент в исследовательской деятельности (r&d скорее). Поставил перед обедом, через 20-40 минут забрал отчет и продолжил работу.
Комментарий писал o3-pro?) Нейронные сети оооочень любят перечисления
Ну уж явно не ундоцеллионы с удвоением каждую неделю
Да вот жаба душит, буду отменять подписку, брал за 200 на один раз, чтобы кодексом попользоваться, а потом его в подписку Plus добавили тоже. А насколько жёсткие лимиты на кодекс в подписке за 20? Судя по интервью разработчиков на каком то Ютуб канале, в Pro версии во время превью дают хоть раз в минуту по контейнеру запускать, 60 в час они говорили. Такое я точно никогда не "съем" даже в моменты когда вдохновение накатывает и могу параллельно по 5 задач делать
Кстати говоря, чтобы самому не мучиться с установкой зависимостей можно сделать 2 вещи.
1) В основном окружении поставить в скрипте "bash install_deps.sh", создать пустой файл в репозитории, включить интернет и попросить заполнить скрипт и github actions на него. И принимать PRы только если зависимости встали / тесты прошли.
2) сделать дополнительное окружение (с суффиксом -no-deps например) без скрипта в автозапуске на случай если что то сломается, node пакеты у меня иногда ломали запуск со скриптом. В таком случае когда таска упадет, можно сделать новую на фикс зависимостей, а в упавшей задаче после принятия фикса нажать повтор
Единственный момент который не учитывается в статье - codex был обучен на редактировании кода, прям очень сильно именно на редактирование заточен, и очень любит атомарные задачи. Он хорошо ищет root cause багов, умеет планировать мелкие шаги, его код проще ревьюить из за отсутствия лишних комментариеа и вбросов, и ОЧЕНЬ хорошо следует инструкциям. Если написать чтобы не кидал в игнор линтеры, он в стенку расшибется, но не выключит и спустя минут 10 честно распишется в собственной несостоятельности (а там косяк на моей стороне был).
Claude 4 (да и 3.7 тоже) с другой стороны может угадать желания и "сделать красиво", но с тем же успехом может нагородить отсебятины которую замучаешься вычищать, если включил автодополнение. Или не дай бог начнет ругаться линтер, Клод пару раз попробует починить и потом не смотря на инструкции возьмёт да выключит, и будет как в том видео где разраб орет в монитор "слушайся меня!"
Для себя я решил так, если надо написать разово скрипт или сделать базу для нового проекта - это claude однозначно, сделает все красиво, а если дать ему пару намеков то ещё и нагуглит с подключенными MCP, и сделает бомбезный прототип, особенно с UI и не в одну итерацию, а с улучшениями. Но до ума его доводить функционально лучше через codex, особенно если понимаешь что делаешь и можешь дать ценный фидбэк для модели и частенько пользуясь o3 или o3 pro который сегодня вышел.
Сейчас ставлю эксперимент - самостоятельно код не пишу в новом проекте, пишет только codex и параллельно пробую новый формат, когда codex запрашивает сложные вещи через меня у o3 pro. Пока работает, в архитектуре таким образом пока не накосячил нигде, только интерфейс не очень красивый, все таки без клода никуда.
Хочется конечно универсальную модель которая будет и сильной и с рассуждениями и красиво сделает. Но это скорее мечты, пока что с комбинированием достаточно хорошо получается, чтобы пет проекты на середине не забрасывать. Или наоборот ещё быстрее забрасывать когда очередной пет проект ещё быстрее наскучит. Недавно гугл слил в сеть на 20 минут свою новую модель Kingfall, и вроде как действительно новый король на горизонте. Если его в Jules подключат, то придется на их подписку переезжать видимо, ибо руки очень чешутся потрогать.
Я так понимаю что получая удовольствие вы лучше работаете, а значит повышаете свою зарплату и платите больше налогов, видимо такая логика
"Для ИИ система типов не нужна"
Дальше не читал
На нормальных госпредприятиях и винда настроена так что запрашивает пароль на каждый административный чих, а у обычных юзеров вообще отобраны административные права.
Раньше в гос конторе работал на подряде, и уж с виндой проблем явно больше чем с линуксом. По пальцам можно сосчитать сколько мы раз бегали за несколько лет к линуксоидам или залезали на Линукс сервера из за проблем, которые были следствием кривых рук на самом деле, а по Винде бегали каждый день, иногда по несколько раз, там и 7 и 8 были установлены и даже на 10 апгрейдились сильно позже выхода, с апгрейдом кстати больше всего проблем было. И реестры вычищали руками и танцевали с бубном вокруг политик безопасности, а на Линукс нормально все раскатывалось почему то и обновлялось. Может конечно потому что их было мало, и если бы стало больше то и по линуксам бы бегали чаще, но все таки по соотношению на Винде больше проблем было.
Сам я там был не больше года, с коллегами сменялись по контракту каждый год, но отчёты и статистику по заявкам я всю проштудировал, зачастую проблемы повторялись и решение уже было записано - отсюда и знаю сколько было проблем у машин на Винде и Линуксе.
man vim
В воркшопе-то понятно. Я про свой юз кейс. Некоторые файлы лежат в недоступных текущему пользователю местах под сервисными учетками. Соответственно либо релогин под сервисную учетку, либо sudo
Я пока не уверен как сделать автоматический вход через sudo (у меня в компании запрещено входить через root на удаленные сервера), но кажется это реализуемо. А так очень хочется взять и попробовать. Кажется, это идеальный инструмент для локально-удаленной разработки, когда нужно с абсолютно разных сервисов нужно собирать параллельные логи, а сами сервисы не пишут ни в какой агрегатор и с них надо собирать из stdout, у каких-то из файла, к кому то в апишку лезть за метриками и так далее. По крайней мере такой юз-кейс у меня сложился пока смотрел воркшоп и читал доки
Ну вы хотя бы проверяйте что вам нейросетка вывалила
Ваш "результат анализа" не меньшая чепуха чем сама статья. Текстовые нейросети не умеют определять степень сгенерированности текста и для этого используются специализированные решения. Если любой нейросетке скормить текст и попросить сделать с ним то что она не умеет, возникнет галлюцинация. Например, при умножении очень больших цифр в половине случаев нейросеть пишет что не может умножить, а в другой половине - случайное достаточно большое число которое "похоже на правильный результат", т.е. она честно может умножить парочку разрядов а потом забивает
Действительно технические статьи с разбором того как работают LLM, Flash Attention или прочие приблуды - вполне себе плюсуются. А если в статье в очередной раз написано "LLM так хорош, что я заменил своего редактора/дизайнера/программиста" то это упоминание "в положительном ключе" в духе текущей статьи - не в тему, точнее ещё хуже.
Кто знает как из гугл рекомендаций на телефоне убрать ссылки на хабр в которых есть "блог компании Х"? Название зазывающее, а статья ни о чем к сожалению :(
Если получится, можете добавить туда наличие экосистемы? Например wiki, возможность запуска CI с автотестами прямо в облаке или с локальным раннером или деплой в облако (github pages вроде). Хотелось бы узнать есть ли это у отечественных конкурентов, потому что для меня например это киллер-фичи для быстрой разработки
Ужасно. Никакой конкретики по условиям задачи и предыдущему стеку. Нет цифр до/после, только после. Нет сравнений с конкурентами. Вполне возможно, что раньше использовался классическая реляционная база, но её просто плохо приготовили и можно было не добавлять стек и не использовать новые ресурсы. В некоторых задачах тот же постгрес будет не хуже эластика, а то и лучше из-за наличия связей и возможности эти связи эффективно доставать.
Надпись про "время обработки запроса не зависит от объема данных" максимально сомнительна, даже в корне неверна и вводит в заблуждение. Эластик знаменит тем, что при достаточно большом объеме начинает потреблять слишком много ресурсов и в итоге замедляется, а если у вас такой объем, что есть ощущение, что запрос всегда занимает 0.3 секунды, то скорее всего весь датасет поместится в оперативке и не факт, что эластик будет лучшим решением.
Скорее всего поиск можно ускорить ещё сильнее просто использовав какой нибудь редис или любую хранилку в оперативной памяти в связке с асинхронным сервером и буквально по задержке сети возвращать ответ на любое нажатие клавиши пользователем. Да тот же кликхауз постоянно сравнивают с эластиком по скорости выполнения запросов к структурированным или полу-структурированным данным, но в статье не рассказано.
В общем и целом, хотелось бы услышать больше. Сейчас статья ни о чем и даже на рекламу эластика не тянет даже с натяжкой (не говоря о том, что все стараются на OpenSearch переехать)
В серьезных исследованиях таблички обновляются по мере выхода моделей, иногда в процессе подачи на конференцию в спешке дорисовывают актуальные результаты и переписывают выводы если что то изменилось.
Дорогие проприетарные модели ещё можно понять, но если хватило на запуск llama 3.1, то явно хватило бы на запуск qwen3, который эту лламу ни во что не ставит и рекламируется как почти равный chatgpt в общем плане и почти равный sonnet 3.5 в коде. Интересно было бы посмотреть на актуальные данные от моделей которыми действительно пользуются люди.
Сфера развивается быстро, от этого никуда не деться, конечно.