Обновить
1211.22

Искусственный интеллект

AI, ANN и иные формы искусственного разума

Сначала показывать
Порог рейтинга
Выступление Ильи Кацева на PML
Выступление Ильи Кацева на PML

Поделюсь классным докладом от Ильи Кацева про LLM-as-a-Judge с PML. Вместо рассказов про успешный-успех, предлагается актуальный работающий подход.

  1. Простые разметки поддаются! А вот сложные — ещё не до конца. Но артефакты размышлений могут сильно помочь и ускорить проверяющего. Например, если нужно вручную искать какие-то факты, ходить по сайтам и т.д.

  2. В начале решения задачи можно подобрать первый промт с отличным качеством, а дальше становится тяжело. В этот момент начинается бесконечный разбор случаев — и почти сразу модель начинает теряться.

  3. ЛЛМ часто решает некоторые типы задач очень хорошо, а другие — плохо или рандомно (например, если не может сходить в интернет за нужной информацией). В итоге получается среднее качество. → Оставляем только то, в чём она сильна!

  4. Привыкание! Помните о нём: вначале метрики могут упасть, но если есть профит, потом всё отрастёт обратно. Сравнивайте с прошлым.

  5. Среднее время разметки задания — это не среднее арифметическое скоростей, а среднее гармоническое! (Особенно важно при малом количестве асессоров.)

  6. Ризонинг у модели хороший, но ответ может быть неверным. Использовать его как подсказку тоже сложно — нет структуры ответа, аспекты постоянно разные. → Просим отвечать структурно и на конкретные вопросы — так и галлюцинации проще проверять, и пользоваться удобнее.

    • Разметчику должно быть просто и понятно, как пользоваться подсказкой!

  7. Лучший формат подсказок (если устроены: «что проверяли?» → «вердикт») — сверху только найденные проблемы. Иначе есть соблазн раньше времени всё одобрить.

  8. Иногда лучше вообще не давать подсказку! Например, ЛЛМ не может проверить работоспособность калькулятора — и будет только смущать.

  9. Экспериментируйте с моделями! DeepSeek пишет чересчур подробно, а YandexGPT — наоборот, коротко и по делу.

  10. Качество меряем на ядре асессоров, потому что:

    1. на них проще повлиять для прироста качества;

    2. медленные участники часто отваливаются.

Итог: ЛЛМ пока не справляется со сложными инструкциями (особенно когда ответ неоднозначен), но там, где результат можно однозначно определить, — заметно ускоряет и упрощает процесс.

Потихоньку начинаю писать в @noisetosignal — идёмте вместе!

Теги:
+1
Комментарии0

Понимают ли модели Apple русский язык?

Ещё в прошлом году Apple представил Apple Intelligence, а в этом улучшил их, также добавив новые сценарии работы.

Однако, русский язык не поддерживается, поэтому есть два варианта: используешь старую Siri и не имеешь доступа к старым функциям, либо меняешь весь интерфейс на английский и придется добавлять в Shortcuts команды, чтобы, например, позвонить кому-то, кто записан по-русски(диктовка на русском у английской Siri почти отсутствует).

Сегодня я решил проверить, а насколько реально модели Apple плохо или хорошо понимают русскую речь, если на английском они работают хорошо. Вначале думал потребуются инъекции, однако всё оказалось проще - в приложении Команды нет запрета на русском писать сразу моделям.

Тестировал Cloud версию и On-device, ChatGPT это ChatGPT-4 от OpenAI, у него все хорошо.

Cloud версия работает с русским так себе: она может плохо ответить на высказывания "Привет" - "Да вам привет!", но на более сложные запросы, например, "Расскажи, что такое NP-полные задачи" начнет иногда галлюцинировать и ошибаться в падежах(но не часто), но в целом ответы даже лучше, чем при простых вопросах("Дана граф", не "за", а "в", "задача можно полиноминальном времени преобраовать")

Многие считают, что on-device это просто урезанная cloud, скорее всего так и есть, но урезание получилось не в пользу русского - модель выдаёт сплошные галлюцинации, ошибается через слово в падежах и даже на запрос "Привет" ответит "Я не могу прогнозировать будущее", используйте для генерации всякой чепухи.

На "Как дела?" обе отправляли на сайт Apple, вероятно, это системный промпт(https://www.youtube.com/watch?v=gTOIMdH4-bE), в котором написано, что ты не имеешь эмоций и т.п.

По итогу это ограничение разумно, пока такое лучше не показывать всем, кто знает русский, но Cloud версию, я думаю, скоро можно будет использовать. Можете проверить сами(для этого смените, хотя бы на время, язык системы и Siri с русского на английский).

Теги:
+3
Комментарии1

Устали от бесконечных правок в ТЗ, написания пользовательских историй и рутины, которая не оставляет времени на главное? Приглашаем на бесплатный вебинар «ИИ в бизнес-анализе: от хайпа к результату. Практическое руководство», где мы покажем, как внедрить ИИ в вашу работу уже сегодня.

На эфире вы получите:

➕ Карту ИИ-инструментов, которые экономят до 8 часов в неделю.

➕ Разбор реальных кейсов по всем этапам анализа: от выявления требований до визуализации.

➕ Чек-лист внедрения, который можно применить сразу после вебинара.

➕ Разбор подводных камней и ошибок при работе с ИИ.

🕓 Когда: 6 ноября, 17:00–18:00 (Мск)

👨‍🎓 Спикер: Охманюк Максим — специалист в области ИИ и бизнес-анализа.

➡️ Зарегистрироваться

Теги:
0
Комментарии0

Как Shared GPU позволяет дешевле разворачивать ML- и DL-модели в облаке ☁️⚙️

Shared GPU — технология, которая позволяет вместо аренды целой видеокарты арендовать ее часть. Это удобно для запуска небольших моделей: так, если вам нужно только 12 ГБ, вы арендуете именно их, а не платите за все 80 ГБ. А еще вы сможете перераспрелять ресурсы GPU в зависимости от нагрузки и не платить, когда нет запросов.

❓ Как все это работает

Shared GPU делит ресурсы видеокарты на несколько подов, и каждая модель запускается на отдельном. Благодаря этому можно развернуть несколько небольших моделей на одной GPU, а не арендовать для каждой отдельную видеокарту и платить за ресурсы, которые будут простаивать.

Контейнеры, на которых размещены модели, изолированы друг от друга. Если с одним из них что-то произойдет, сервисы на других подах продолжать не упадут.

🚀 Преимущества, которые дает Shared GPU:

  • Автомасштабирование и скейлинг в ноль. Если запросов много, дополнительные мощности выделятся автоматически. А если запросов нет дольше установленного времени, контейнер с моделью ставятся на паузу, и тарификация прекращается.

  • Pay-as-you-go. Платите только за те мощности, которые используете, а не за целую GPU или время простоя.

  • Рациональное использование мощностей. Для каждого проекта не нужно закупать отдельную GPU. Если ресурсы временно не используются, их можно перераспределить на другие задачи.

  • Гибкая настройка и масштабируемость. Есть возможность менять количество выделенных на каждый под ресурсов, перераспределять их в зависимости от нагрузки, развертывать несколько моделей на одной видеокарте.

В Evolution ML Inference по такой технологии можно разместить небольшие ML- и DL-модели на облачных мощностях. Попробуйте: разверните свое решение или выберите из каталога одну из моделей, которая уже готова к инференсу.

Теги:
0
Комментарии0

OpenAI заплатит $38 млрд Amazon Web Services за доступ к сотням тысяч графических процессоров Nvidia Corp. в рамках семилетнего соглашения. По версии Bloomberg, для OpenAI это подтверждение перехода в статус «гиганта ИИ».

Теги:
+2
Комментарии0

Учёные сравнили ChatGPT с психологическими профилями людей из 65 стран и выяснили, что модели ИИ мыслят на 70% ближе к американцам, чем к остальному миру. По данным World Values Survey, мышление ИИ оказалось ближе всего к США, Великобритании, Канаде и странам Западной Европы, а дальше всего от Эфиопии, Пакистана и Кыргызстана.

Теги:
0
Комментарии9

Команда Datalab выпустила бесплатную OCR модель Chandra, которая превращает любые PDF и картинки в обычные текстовые документы. Просто закидываем файл и получаем вывод в формате HTML, Markdown и JSON. Легко вытаскивает таблицы, формулы и диаграммы. Понимает 40+ языков. Можно пользоваться в браузере или поставить локально. Ставим локально с GitHub или пользуемся онлайн — здесь.

Теги:
+12
Комментарии2

Бесплатную учебную базу по ML выдал Гарвардский университет в новой книге. Авторы сделали акцент на инженерии и построении правильных нейронок с нудя.. В книге 2500 страниц, включая строительство, оптимизацию и поддержку ML-решений на всех этапах: от подбора и подготовки данных до продакшена и использования. Авторы объясняют, как правильно связать алгоритмы, данные и железо, чтобы ИИ выдержал даже высокие нагрузки и стабильно помогал в любых задачах. Онлайн-учебник, репозиторий проекта.

Теги:
+4
Комментарии0

По всей видимости, я попала в скрытый пул тестеров одной из новых моделей chatGPT.

Повезло пообщаться с потрясающе:

  • шустрой (в режиме глубоких размышлений выдавала ответы бодрее раз в пять-десять).

  • гибкой (очень хорошо понимала где требуется анализ и разбор, а где можно ответить в разговорном ключе).

  • а так же, очень юморной моделькой.

    Целую неделю я радовалась невероятно приятным изменениям, и даже тестировала отрезая от настроек, чтобы исключить влияние контекста. Очень привыкла к этой модельке, и откат на контрасте сильно расстроил.

    Если это была шестерка, то я заранее в нее влюблена)

    Кто то ещё заметил изменения в своих сеансах?

Теги:
+3
Комментарии7

Глава Airbnb Брайан Чески предупредил, что отказ компаний нанимать молодежь ради ИИ может привести к скорому кадровому кризису. В интервью ABC News Чески заявил, что, хотя ИИ способен выполнять «работу стажёров», работодатели должны оставлять место для молодых специалистов — иначе через несколько лет некому будет занимать руководящие позиции. «Если молодые люди не смогут устроиться на работу, у вас просто не останется тех, кто сможет руководить в будущем», — отметил Чески.

По словам главы Airbnb, такие компании, как Amazon, Salesforce и другие, массово сокращают сотрудников, делая ставку на автоматизацию. Однако именно начальные позиции становятся первыми жертвами — стажировки исчезают, а менеджеры не спешат брать выпускников.

Чески считает, что это стратегическая ошибка: «Люди не осознают, насколько они умнее ИИ. Руководство и человеческие отношения все ещё важны. ИИ — это инструмент, а не волшебство».

Теги:
+4
Комментарии4

Итак, поскольку бизнес, похоже, до сих пор не верит, что ему, по-прежнему, не обойтись без живых и толковых разработчиков, и предается влажным мечтам о тотальном вайб-кодинге лично потугами стейкхолдеров и продакт-оунеров (ахаха!), то я пока просто поделюсь несколькими реальными практиками, которые мне удалось применить в работе над пет‑проектами и которые я, как техлид, могу смело предложить для внедрения в небольших командах.

Затем, в следующих постах, я постараюсь объяснить доходчиво, почему Вам, уважаемые CEO и кофаундеры, глупо ждать очередного прорыва, -- лучше нанимайте хороших специалистов, пока хайп не сдулся (завтра ноябрь, але!). Без них "волшебный черный ящик" не заработает вам ничего.. ;)

Начну с банального рецепта, применимого моментально к любому индивидуальному разработчику в его повседневной деятельности (одной-двумя командами и без вложений!).

Первый шаг вроде бы очевиден, это конечно же установить плагин для IDE и привыкнуть к нему. Но загвоздка есть сразу -- придется прям выбирать и пробовать, ибо их слишком много, а единственная реально юзабильная их функция -- это автодополнение. Поэтому просто выберите такой, чтобы хорошо это делал в вашей любимой среде разработки и можно было переключаться между локальными и облачными API.

Но, когда привык и наигрался, то куда дальше? Где этот реальный буст в конце-то концов?

Будем искать! И вот что я пока нашел, однозначно полезного и перспективного:

  • Шаг второй: LLM CLI tool — это что‑то вроде, например, aichat, установленного локально для вашей консоли. Он приносит все возможности LLM прямо в командную строку, опираясь на мощь нативных Unix‑пайпов — вот где начинается настоящая магия. 😉

    Например, вместо того чтобы тужится с shell-синтаксисом, ты можешь мгновенно зашорткатить себе быстрый запуск следующего шага:

    $ aichat -e create bash script to launch docker container with qwen-code and current or specified folder mounted to workdir as volume

  • Шаг третий: Coding Agent — попробуйте, наконец, полноценного агента. Мне кажется очевидным, что агенты должны работать в изоляции, поэтому я настоятельно рекомендую подходить к снаряду сразу через контейнер. Мой текущий выбор — Qwen‑code в Docker, который я запускаю с любым локальным каталогом, смонтированным как volume, связанным с рабочей директорией.

Qwen‑code отлично работает в связке с открытой рядом IDE — позволяя плавно переключаться между ручным кодингом и LLM‑ассистированным процессом разработки.

2000 запросов в день бесплатно! ;)
2000 запросов в день бесплатно! ;)

Оба инструмента уже описаны на Хабре. Но, поскольку инструментов великое множество -- хотел бы обратить ваше внимание именно на эти. Спасибо.

В следующих постах, возможно, расскажу подробнее о часто возникающих кейсах и следующих шагах, вроде добавления MCP.

Теги:
0
Комментарии3

ИИ в продакшн: где заканчивается хайп и начинается реальная польза

Полгода назад Дарио Амодей из Anthropic заявил: к сентябрю 2025 года 90% кода будут писать нейросети — не помощники, а полноценная замена разработчиков.
Наступил ноябрь. Пророчество не сбылось — но IT-индустрия изменилась радикально. Теперь в компаниях раскол — кто-то жалуется, что нейросети только перегружают всех, а кто-то обучает ИИ на замену рутине.

На конференции AI Boost эксперты от Сбера, Магнита, Атол и Surf обсудили, что изменилось за последние полгода и как ИИ-агенты на самом деле работают в продакшене разработки. Получилась честная и горячая дискуссия, как команды бигтеха и ИТ-компаний переходят на ИИ и что стало с ролью разработчика. Смотрите запись самого обсуждаемого круглого стола конференции, из которой узнаете:

  • Почему люди всё ещё пишут 90% кода и как команды учатся использовать AI-агентов в реальной работе.

  • Чем хороший джун отличается от ML-модели и что ждёт джунов в мире, где их задачи уже умеет решать AI.

  • Можно ли доверить нейросетям проектирование сложных систем и где проходит граница ответственности человека.

  • Стоит ли перестраивать SDLC ради ИИ или достаточно встроить новые инструменты в существующие процессы.

  • Почему спагетти-код может стать нормой.

  • Может ли вообще ИИ заменить разработчиков — или все это так и останется хайпом.

Иногда кажется, что мы всё ближе к «золотой кнопке» — нажал, и готово. Но, как показывает опыт, чтобы внедрить ИИ по-настоящему, нужно быть внутри процесса — с руками в коде и головой в архитектуре.

Евгений Сатуров, CTO Mobile в Surf

Спикеры:

  • Дмитрий Панычев — Head of Seller Development в Magnit OMNI

  • Глеб Михеев — лидер трайба «Цифровой ассистент» в Сбере, автор телеграм-канала «Уставший техдир»

  • Владимир Кочегаров — Head of QA в компании Атол

  • Евгений Сатуров — CTO Mobile в Surf

Смотрите полную запись круглого стола на YouTube.

Теги:
+2
Комментарии0

Ближайшие события

«Раньше казалось, что творческие профессии ИИ заменить не сможет. Но оказалось, что это не так..»

У ИТ-компании "Криптонит" есть свой подкаст — "Криптонит говорит". И недавно вышел новый выпуск — он посвящён искусственному интеллекту, нейросетям и профессии ML-специалиста!

Смотрите и слушайте подкаст:

Правда ли ИИ так сильно влияет на бизнес и повседневную жизнь? Какие профессии сможет заменить искусственный интеллект? И где надо учиться, чтобы стать погонщиком нейросетей?

Обо всём этом поговорили в нашем новом подкасте! А в конце бонус — «прожарка» ML-специалистов от ChatGPT😄

В подкасте приняли участие:

  • Георгий Поляков, заместитель руководителя лаборатории ИИ, «Криптонит»

  • Артём Рыженков, старший специалист-исследователь лаборатории ИИ, «Криптонит»

  • Ярослав Самойлов, ML Team Lead, Magnus Tech

Теги:
+2
Комментарии1

Горящие новости Evolution Foundation Models: модели, тарифы и акции 🔥

Попробуйте бесплатно 20+ LLM, реранкеров и эмбеддеров в Evolution Foundation Models до 1 ноября, а затем используйте их по цене 35 рублей за миллион входных и 70 рублей за миллион выходных токенов.

А еще выбирайте модели из расширенного списка, ведь недавно мы добавили:

  • GigaChat 2 MAX — самую мощную LLM линейки GigaChat, которая обошла GPT-4o и Claude 2 в тесте MMLU-RU.

  • Qwen3-Next-80B-A3B-Instruct, которая сочетает высокоскоростные блоки для длинных последовательностей и точные attention-слои, а также использует спарсовую архитектуру Mixture of Experts с 512 экспертам.

  • GLM-4.6 с высокой производительностью при написании кода в Cline, Roo Code и Kilo Code.

  • Whisper large-v3 — продвинутую модель от OpenAI для распознавания речи. Модель не надо дообучать, а еще ее можно использовать в коммерческих целях — она распространяется под свободной лицензией Apache-2.0.

  • MiniMax-M2 — компактную, но мощную модель для работы с кодом и агентами. №1 среди open source моделей в бенчмарке Artificial Analysis, которая умеет планировать цепочки действий, работать с окружением, извлекать данные и работать с внешними инструментами.

Для использования моделей не нужно писать код или развертывать инференс, все уже готово к подключению через API.

Попробовать 🕹️

Теги:
0
Комментарии0

Тестировал одну гипотезу, наткнулся:

Grok 4 fast betа. Попросите вывести в чат 84 знака ¡ через пробел. Если просить 83 - выводит,  а   именно 84 и больше зависает - начинает формировать вывод ¡ не ограниченный по размеру, при этом в чате его не видно. Выдает только после прерывания через стоп.

Повторяется у других пользователей и на сайте xai. Интересен вопрос - повторяется ли в работе по апи?
Если да, то есть шанс, что бесконечное формирование вывода без фактической отдачи в чат, приведет к трате токенов с обходом ограничений лимитов

Теги:
0
Комментарии6

29 октября 2025 года Nvidia стала первой в истории компанией с капитализацией в более чем $5 трлн на фоне бума нейросетей. А вот по данным Gartner, что все затраты на ИТ в мире чуть больше, чем 5 трлн. То есть, капитализация одной только компании, равняется всем (то есть, вообще всем) затратам на ИТ всей планеты. Более того, Gartner говорит, что все затраты на дата-центры не превышает 500 млрд. А ведь, Nvidia это же только микропроцессоры.

Теги:
0
Комментарии0

Как я починил ошибку tokenizers в ComfyUI

Workflow Wan 2.2 GGUF Speed ComfyUI - генерация девушки-кота на Хэллоуин 
Workflow Wan 2.2 GGUF Speed ComfyUI - генерация девушки-кота на Хэллоуин 

Недавно столкнулся с ошибкой при запуске ComfyUI - конфликт версий библиотеки tokenizers. Ошибка выглядела так: ImportError: tokenizers>=0.22.0,<=0.23.0 is required for a normal functioning of this module, but found tokenizers==0.21.4....Рассказываю, как я её исправил без поломки окружения и рабочих workflow.

Описание контекста:
У меня Portable-версия ComfyUI, встроенный Python (папка "python_embeded", папка "update", рабочие workflow и боязнь обновлять всё подряд)

Конфликт:
ComfyUI или один из плагинов требует tokenizers >= 0.22.0, а установлена старая 0.21.4. Ранее я уже точечно менял wheels и версию torch для работы с Nunchaku.

Решение:
Прямые команды, выполненные через PowerShell в папке ComfyUI:
(Чтобы ввести команды - нужно находясь внутри папки ComfyUI нажать Shift + ПКМ на свободном месте в этой папке и выбрать "Открыть окно PowerShell здесь" и ввести нужные команды)

python_embeded\python.exe -m pip uninstall -y tokenizers
python_embeded\python.exe -m pip install tokenizers==0.22.0

После перезапуска всё заработало:

PS D:\AI\ComfyUI2> python_embeded\python.exe -m pip uninstall -y tokenizers Found existing installation: tokenizers 0.21.4
Uninstalling tokenizers-0.21.4:
Successfully uninstalled tokenizers-0.21.4
и
PS D:\AI\ComfyUI2> python_embeded\python.exe -m pip install tokenizers==0.22.0
Collecting tokenizers==0.22.0
Using cached tokenizers-0.22.0-cp39-abi3-win_amd64.whl.metadata (6.9 kB) Requirement already satisfied: huggingface-hub<1.0,>=0.16.4 in d:\ai\comfyui2\python_embeded\lib\site-packages (from tokenizers==0.22.0) (0.34.4) .....
Successfully installed tokenizers-0.22.0

Как итог - видео с разрешением 364 на 640px, продолжительностью 5 секунд, сгенерировалось за 8,5 минуты на 8гб VRAM + 32гб RAM.

Почему важно не трогать "update_comfyui_and_python_dependencies.bat" ? Чтобы не нарушить совместимость всего окружения.
В таких случаях не стоит паниковать - достаточно понимать, как работают зависимости Python и виртуальные окружения.

Если вы работаете с ComfyUI или подобными пакетами, умение диагностировать и чинить зависимости - ваш надёжный инструмент в арсенале.

#ai #comfyui #python #design #code #workflow #ии

Теги:
-2
Комментарии2

Основатель Telegram Павел Дуров представил децентрализованную сеть Cocoon (Confidential Compute Open Network), которая будет задействовать искусственный интеллект и блокчейн TON. Проект, запуск которого запланирован на ноябрь 2025 года, предназначен для безопасного и приватного выполнения ИИ-инференса на условиях полной анонимности.

Cocoon представляет собой децентрализованную вычислительную сеть, которая объединяет технологии искусственного интеллекта (ИИ) и блокчейна TON. По словам основателя Telegram, централизованные ИИ-платформы могут собирать и использовать данные пользователей, а Cocoon является альтернативным решением, которое основано на принципах децентрализации и приватности. Владельцы GPU предоставляют создателям ИИ-приложений вычислительные мощности для их работы в обмен на криптовалюту TON, а рядовые пользователи сохранят полную конфиденциальность при работе с ИИ-продуктами. Запуск технологии запланирован на ноябрь 2025 года.

Предполагается, что сеть Cocoon будет работать на основе GPU-майнеров, получающих вознаграждение в Toncoin, а разработчики приложений получат доступ к недорогим ИИ-инструментам. По словам Павла Дурова, Cocoon обеспечит полную приватность и децентрализацию, позволяя интегрировать любые ИИ- агенты, включая DeepSeek и Qwen, без риска утечек.

Примечательно, что на презентации Дуров с иронией добавил, что изначально рассматривал для проекта название Private AI Network, что образует аббревиатуру P.A.I.N. («боль»).

Теги:
0
Комментарии1

Привет, хабровчане! 😊

Недавно я копался в мире ИИ-инструментов для разработки — тех, что помогают писать код быстрее и умнее. Знаете, когда сидишь за проектом и думаешь: "А не взять ли помощника, который подхватит идеи на лету?" Решил поделиться обзором нескольких интересных вариантов на рынке. Это не глубокий разбор с бенчмарками (для этого нужны отдельные тесты), а просто описание, чтобы понять, что можно выбрать под свои нужды. Я опираюсь на личный опыт и отзывы из сообществ — вдруг кому-то пригодится для экспериментов.

Давайте по порядку:

  1. Cursor — это как эволюция VS Code с встроенным ИИ. Он автокомплитит код, генерирует фрагменты по описанию, понимает контекст проекта и даже помогает с отладкой. Подходит для тех, кто любит привычный интерфейс, но хочет ускорить рутину. Работает на Windows, macOS и Linux, есть бесплатная версия, но премиум открывает больше моделей ИИ. Идеально для соло-разработчиков или команд, где нужно быстро итератировать.

  2. Harvi Code — российский продукт, первый в России аналог Cursor, построенный на мощной модели Sonnet 4.5 (от Anthropic, которая славится точностью и скоростью). Это расширение для VS Code и Cursor с удобным интерфейсом, как в знакомых IDE, плюс фокус на хороших ценах (не дерут втридорога за подписку). Подходит для генерации кода, отладки и работы с проектами. Если вы в РФ и ищете локальный вариант без заморочек с платежами — стоит попробовать.

  3. Lovable — здесь акцент на создание веб-приложений без глубокого кодинга. Чат с ИИ: описываешь идею на естественном языке, и он генерирует full-stack app — от фронта до бэка. Удобно для прототипов или MVP, особенно если вы не хотите копаться в деталях. Поддерживает интеграции с базами данных и API. Минус — иногда нужно дорабатывать вручную, но для стартапов или хобби-проектов это спасение.

  4. Bolt (bolt.new) — браузерный инструмент для быстрого создания сайтов, приложений и прототипов. Вводишь промпт — и вуаля, он строит всё от начала до конца, включая деплой. Работает с веб, iOS и Android. Круто для тех, кто хочет экспериментировать без установки софта. Есть интеграции с Expo для мобильных apps. Подходит новичкам или когда нужно быстро проверить концепцию.

  5. Roo Code — это расширение для VS Code и Cursor, как целая команда ИИ-агентов прямо в вашем редакторе. Он анализирует весь проект, предлагает мульти-шаговые решения, ускоряет редактирование в 10 раз. Поддерживает разные модели ИИ (Anthropic, OpenAI), есть инструменты для автоматизации задач. Хорош для сложных проектов, где нужен глубокий контекст — не просто автокомплит, а умный помощник.

  6. Kilo Code — открытый ИИ-агент в виде расширения для VS Code, JetBrains и Cursor. Генерирует код, автоматизирует задачи, предлагает рефакторинг. Есть система инструментов для взаимодействия с окружением (безопасно, с контролем). Бесплатный, с опцией кастомизации. Идеален для тех, кто предпочитает open-source и хочет интегрировать в свой workflow без лишних зависимостей.

В общем, выбор зависит от вашего стиля: если любите браузер — Bolt или Lovable; если вглубь кода — Cursor, Harvi, Roo или Kilo. Я пробовал пару из них на пет-проектах, и реально сэкономил время. Что вы думаете? Пользовались кем-то из списка? Делитесь в комментах, может, вместе разберёмся, какой подойдёт под разные языки или фреймворки. Буду рад обсуждению! 🚀

Ссылки для удобства:

Теги:
+6
Комментарии1

Вклад авторов