У человеков контекстное окно сильно меньше 1M, это же не мешает работать на больших проектах? Так же и с LLM - есть векторные индексы, есть RAG. Текущего объема контекста хватает для решения декомпозированных задач, которые не затрагивают весь проект (а ля "отрефакторь мне всё" или "замени вот этот сервис на другой", если изменения должны затронуть вообще весь проект).
Качество самих моделей еще есть куда подтягивать, но контекст в 1m (да и 128к) не является ограничением для использования в больших проектах
Прошивка для esp32cam на сях c управлением драйвером двигателей, светодиодом, http сервером и работой с bluetooth подойдет? Веб есть, конечно, но опосредованно.
Или интеграция этого же устройства в home assistant?
Или телеграм-бот на php для ведения бюджета на гугл таблицах с полной историей всех промптов к ИИ (тогда еще Sonnet 3.5 в Cursor). С текущими моделями написалось бы и побыстрее и с меньшим количеством ошибок, а с момента написания бота прошло всего 3 месяца. Здесь местами треш, конечно, но пользуюсь 3 месяца без нареканий и доработок.
Все это не слишком большие проекты, но написаны на 90+% вайбкодингом (бот в качестве челленджа на 100% включая документацию и тесты).
Кеш разве будет работать на задаче перевода? У нас же входные данные меняются, даже если это касается только последней строки про "переведи отсюда до сюда" - изменилось "отсюда" - кеш не валиден, плати полную стоимость.
Да, переводы это не та сфера, где нужен длинный контекст) Вряд ли в конце книги будет что-то такое, что может повлиять на корректный перевод начала книги и наоборот.
Стоимость можно оптимизировать, разбивая все на куски с пересечением, или после каждого куска делать суммаризацию и подавать на вход вместе с следующим, но в лоб решения задачи длинного вывода, пожалуй, не знаю.
Как будто корявая формулировка, которая в наследство досталась от старых моделей. 16к должно быть ограничением только на generate - ограничение на сообщение модели, которое она пишет в ответ (output).
Справедливости ради и письма с электронки, и скриншоты любых веб-страничек и даже отправленных в переписках изображений давно и успешно подшивать умеют.
Качество получалось хуже. Я подумал, что как-то не так настроил Cursor, но потом мы с коллегой нашли ветки обсуждений, из которых следует, что Cursor пытается часть запросов решать локально
Про локальное не в курсе, по опыту ничего подобного не замечал, локальные модельки совсем тупые, они вряд ли хоть что-то приемлемое могли бы выдать.
Почему еще может быть разница - разные системные промпты в cursor и antrophic. В клоде учетки не имею, но на моделях OpenAI разницы между ChatGPT и курсором не замечаю
Да не нужно это все, есть векторные индексы кодовой базы, есть RAG, есть декомпозиция задачи и поиск по проекту. Человек же не держит в голове целиком всю эту кодовую базу - он примерно представляет что поискать и в каких файлах найти связанную логику.
И не поверите, ИИ делает ровно то же самое (через агентов в условном cursor/windsurf/etc) - вы открываете легаси проект на миллион строк кода и словесную задачу - ИИ ищет какие файлы эта задача задействует, шерстит их и "понимает", что и где нужно сделать для реализации.
Никаких внушительных затрат - 20$ в месяц по подписке. Да, качество местами хромает - но оно и с текущими моделями уже на достаточном уровне, а выхода на плато по развитию еще не видно.
Нет, всё это можно найти, 4.1 можно бесплатно использовать через cursor или windsurf, например (ограниченное время). Для меня "реально работают" все модели начиная наверное с GPT-4 (не 4o) - они тоже выдают хороший код, 4.1 кардинально ничего не меняет, но поддерживает 1m контекст и хорошо работает как агент, в этом его прелесть.
оно нифига не умеет нормально делать
Что такое безумие нормально? Дайте стек и пример задачи, попробуем разобраться. У каждого понятие о нормальности разное) Если мы про кодинг - то модели по моим ощущениям на уровне джуна/мидла в зависимости от задачи/конкретного языка и тп.
Понимаю что 50$ это 50$, подписка на Cursor стоит 20$ в месяц и даёт безлимит на модели Antrophic и OpenAI (500 быстрых запросов, дальше "медленные", которые имеют задержку в 0-хх секунд в зависимости от текущей загрузки серверов антропика). К тому же есть 2-недельный триал, которого бы на календарик за глаза хватило.
Да, не будет фич самого Антропика вроде артефактов, но будет куча других фич cursor.
Чисто в качестве предложения экономии средств для тех, кто захочет попробовать, чтобы не пугать ценниками на апи)
А календарик симпатичный, жене поучаствовать в итоге дали?
В агентской схеме работы (cursor/cline/windsurf/etc) раньше модели от OpenAi были отвратительны и ленивы, потому что отказывались сами писать код и вызывать инструменты для работы с файлами.
Сам код в чате o3-mini-high мог написать и лучше чем Sonnet (PHP, Python, C), но не в режиме агента. У 4.1 с этим никаких проблем нет, по качеству и особенно скорости работы он субъективно лучше 3.7 thinking (насколько можно судить по нескольким часам кодинга в cursor).
активно использует CoT - просит уточнений и согласования решения перед переходом к действиям (Sonnet часто приходится ловить в середине, когда он начинает лепить откровенную дичь);
хорошо держит контекст.
По ощущениям модель сопоставима либо лучше Sonnet 3.7 (даже thinking), на сколько - объективно не могу сказать. Но точно на голову выше 4o, он в агентской схеме был очень ленивым и часто просил все сделать за него.
реализовать на ней ШИМ для изменения скорости, без конфликта работы Wi-Fi мне показалось задачей сложной
Это вы очень зря, через ledc можно до 16 каналов PWM настроить, у esp32-cam столько ног свободных только не найдется) По опыту с wifi если и конфликтует, то достаточно незаметно. Вот тут пример управления 2 двигателями по 4 пинам через драйвер L293D.
На прошлой неделе выкладывал свою статью по гусеничному роботу на ESP32-CAM, так что в какой-то степени наши устройства родственники.
По видео видно горизонтальные полосы - это особенность конкретной платы/камеры или прошивки? Не пробовали для проверки заливать что-то стороннее вроде esp32-cam-webserver?
P.S. С этой usb-c платой зарядки аккуратнее, она очень горячая при хоть сколь угодно приемлемом токе зарядки даже на половине мощности. От источника не особо зависит - питал лабораторником и через несколько минут плата была в состоянии плавить пластик, отзывы на маркетплейсах у неё аналогичные. В своем устройстве тоже хотел её поставить, но пришлось брать нормальный внешний блок.
Важно не закрывать сессию, где вы уже провели итерации — потом можно использовать её как рабочую среду. AI помнит ваш стиль, структуру и требования.
Это скорее вредный совет, AI помнит не только стиль, но и весь предыдущий контекст. Он может в новый чеклист докинуть что-то из старого. Да и бесконечно один чат использовать не выйдет - контекст ограничен и модель рано или поздно начнет забывать инструкции и путаться, придется объяснять все заново.
Best practices здесь следующие - в уже проработанном и настроенном чате нужно попросить прислать формализованные требования к чеклисту (или что там у вас), которые будут содержать все правила работы и форматирования. Дальше эти формализованные требования вычитываете, правите, если нужно - и закидываете для нового задания в начале промпта.
Для тех, кто как и я, недоумевает как насчитали 50 млн экономии:
каталог Заказчика содержит 8484 записи Настройка каждой услуги занимает около получаса работы команды нам потребуется 4242 рабочих часа команды
Ставка "команды" при этом выходит в 12к в час. Стоит ли говорить, что никто в здравом уме не будет вручную это все делать и "сэкономленная сумма" могла быть любой, т.к. надумана?
Мне еще реквестировали фичу в виде руки-манипулятора, чтобы можно было взаимодействовать с сетевыми фильтрами / выключателями и этим всем.
Идея с камерой на вышке сюда тоже хорошо ложится. Звучит интересно, но в реализации это будет нетривиально) Именно как практический кейс у меня обычно проверка сработавших датчиков протечки - здесь как раз расположения у пола достаточно
У человеков контекстное окно сильно меньше 1M, это же не мешает работать на больших проектах? Так же и с LLM - есть векторные индексы, есть RAG. Текущего объема контекста хватает для решения декомпозированных задач, которые не затрагивают весь проект (а ля "отрефакторь мне всё" или "замени вот этот сервис на другой", если изменения должны затронуть вообще весь проект).
Качество самих моделей еще есть куда подтягивать, но контекст в 1m (да и 128к) не является ограничением для использования в больших проектах
Прошивка для esp32cam на сях c управлением драйвером двигателей, светодиодом, http сервером и работой с bluetooth подойдет? Веб есть, конечно, но опосредованно.
Или интеграция этого же устройства в home assistant?
Или телеграм-бот на php для ведения бюджета на гугл таблицах с полной историей всех промптов к ИИ (тогда еще Sonnet 3.5 в Cursor). С текущими моделями написалось бы и побыстрее и с меньшим количеством ошибок, а с момента написания бота прошло всего 3 месяца. Здесь местами треш, конечно, но пользуюсь 3 месяца без нареканий и доработок.
Все это не слишком большие проекты, но написаны на 90+% вайбкодингом (бот в качестве челленджа на 100% включая документацию и тесты).
Кеш разве будет работать на задаче перевода? У нас же входные данные меняются, даже если это касается только последней строки про "переведи отсюда до сюда" - изменилось "отсюда" - кеш не валиден, плати полную стоимость.
Да, переводы это не та сфера, где нужен длинный контекст) Вряд ли в конце книги будет что-то такое, что может повлиять на корректный перевод начала книги и наоборот.
Стоимость можно оптимизировать, разбивая все на куски с пересечением, или после каждого куска делать суммаризацию и подавать на вход вместе с следующим, но в лоб решения задачи длинного вывода, пожалуй, не знаю.
Как будто корявая формулировка, которая в наследство досталась от старых моделей. 16к должно быть ограничением только на generate - ограничение на сообщение модели, которое она пишет в ответ (output).
Справедливости ради и письма с электронки, и скриншоты любых веб-страничек и даже отправленных в переписках изображений давно и успешно подшивать умеют.
Про локальное не в курсе, по опыту ничего подобного не замечал, локальные модельки совсем тупые, они вряд ли хоть что-то приемлемое могли бы выдать.
Почему еще может быть разница - разные системные промпты в cursor и antrophic. В клоде учетки не имею, но на моделях OpenAI разницы между ChatGPT и курсором не замечаю
Да не нужно это все, есть векторные индексы кодовой базы, есть RAG, есть декомпозиция задачи и поиск по проекту. Человек же не держит в голове целиком всю эту кодовую базу - он примерно представляет что поискать и в каких файлах найти связанную логику.
И не поверите, ИИ делает ровно то же самое (через агентов в условном cursor/windsurf/etc) - вы открываете легаси проект на миллион строк кода и словесную задачу - ИИ ищет какие файлы эта задача задействует, шерстит их и "понимает", что и где нужно сделать для реализации.
Никаких внушительных затрат - 20$ в месяц по подписке. Да, качество местами хромает - но оно и с текущими моделями уже на достаточном уровне, а выхода на плато по развитию еще не видно.
Нет, всё это можно найти, 4.1 можно бесплатно использовать через cursor или windsurf, например (ограниченное время). Для меня "реально работают" все модели начиная наверное с GPT-4 (не 4o) - они тоже выдают хороший код, 4.1 кардинально ничего не меняет, но поддерживает 1m контекст и хорошо работает как агент, в этом его прелесть.
Что такое
безумиенормально? Дайте стек и пример задачи, попробуем разобраться. У каждого понятие о нормальности разное) Если мы про кодинг - то модели по моим ощущениям на уровне джуна/мидла в зависимости от задачи/конкретного языка и тп.А где смотрели? Тут 1m заявлен
Понимаю что 50$ это 50$, подписка на Cursor стоит 20$ в месяц и даёт безлимит на модели Antrophic и OpenAI (500 быстрых запросов, дальше "медленные", которые имеют задержку в 0-хх секунд в зависимости от текущей загрузки серверов антропика). К тому же есть 2-недельный триал, которого бы на календарик за глаза хватило.
Да, не будет фич самого Антропика вроде артефактов, но будет куча других фич cursor.
Чисто в качестве предложения экономии средств для тех, кто захочет попробовать, чтобы не пугать ценниками на апи)
А календарик симпатичный, жене поучаствовать в итоге дали?
В агентской схеме работы (cursor/cline/windsurf/etc) раньше модели от OpenAi были отвратительны и ленивы, потому что отказывались сами писать код и вызывать инструменты для работы с файлами.
Сам код в чате o3-mini-high мог написать и лучше чем Sonnet (PHP, Python, C), но не в режиме агента. У 4.1 с этим никаких проблем нет, по качеству и особенно скорости работы он субъективно лучше 3.7 thinking (насколько можно судить по нескольким часам кодинга в cursor).
Субъективно за несколько часов в Cursor:
хорошо слушается инструкций;
активно использует CoT - просит уточнений и согласования решения перед переходом к действиям (Sonnet часто приходится ловить в середине, когда он начинает лепить откровенную дичь);
хорошо держит контекст.
По ощущениям модель сопоставима либо лучше Sonnet 3.7 (даже thinking), на сколько - объективно не могу сказать. Но точно на голову выше 4o, он в агентской схеме был очень ленивым и часто просил все сделать за него.
Как вам вчерашний gpt-4.1? На моих задачах бьёт даже sonnet 3.7, не говоря про 4o, который в качестве агента практически никакой из-за своей лени.
Ну и окно контекста вроде 1m токенов, эту неделю в cursor и windsurf бесплатно.
Это вы очень зря, через ledc можно до 16 каналов PWM настроить, у esp32-cam столько ног свободных только не найдется) По опыту с wifi если и конфликтует, то достаточно незаметно. Вот тут пример управления 2 двигателями по 4 пинам через драйвер L293D.
На прошлой неделе выкладывал свою статью по гусеничному роботу на ESP32-CAM, так что в какой-то степени наши устройства родственники.
По видео видно горизонтальные полосы - это особенность конкретной платы/камеры или прошивки? Не пробовали для проверки заливать что-то стороннее вроде esp32-cam-webserver?
P.S. С этой usb-c платой зарядки аккуратнее, она очень горячая при хоть сколь угодно приемлемом токе зарядки даже на половине мощности. От источника не особо зависит - питал лабораторником и через несколько минут плата была в состоянии плавить пластик, отзывы на маркетплейсах у неё аналогичные. В своем устройстве тоже хотел её поставить, но пришлось брать нормальный внешний блок.
Это скорее вредный совет, AI помнит не только стиль, но и весь предыдущий контекст. Он может в новый чеклист докинуть что-то из старого. Да и бесконечно один чат использовать не выйдет - контекст ограничен и модель рано или поздно начнет забывать инструкции и путаться, придется объяснять все заново.
Best practices здесь следующие - в уже проработанном и настроенном чате нужно попросить прислать формализованные требования к чеклисту (или что там у вас), которые будут содержать все правила работы и форматирования. Дальше эти формализованные требования вычитываете, правите, если нужно - и закидываете для нового задания в начале промпта.
Для тех, кто как и я, недоумевает как насчитали 50 млн экономии:
Ставка "команды" при этом выходит в 12к в час. Стоит ли говорить, что никто в здравом уме не будет вручную это все делать и "сэкономленная сумма" могла быть любой, т.к. надумана?
Мыть подоконники это сильно Оо
Мне еще реквестировали фичу в виде руки-манипулятора, чтобы можно было взаимодействовать с сетевыми фильтрами / выключателями и этим всем.
Идея с камерой на вышке сюда тоже хорошо ложится. Звучит интересно, но в реализации это будет нетривиально) Именно как практический кейс у меня обычно проверка сработавших датчиков протечки - здесь как раз расположения у пола достаточно
Из совсем недавнего, что могу вспомнить - Farely