Все потоки
Поиск
Написать публикацию
Обновить
1120.14

Искусственный интеллект

AI, ANN и иные формы искусственного разума

Сначала показывать
Порог рейтинга

Открываем доступ к большим языковым и визуально‑генеративным моделям в пакетном режиме

Сегодня Yandex B2B Tech открывает доступ внутри Yandex Cloud AI Studio к LLM и визуально‑генеративным моделям (VLM), таким как DeepSeek VL2 Tiny, Qwen2.5 VL и Gemma3 27B. Режим Batch Processing, или режим пакетного инференса позволяет эффективно обрабатывать тысячи запросов с помощью таких генеративных моделей.

Всего в пакетном режиме доступно около 20 опенсорсных нейросетей, в том числе модели, которые умеют одновременно анализировать изображения и текст. Среди уже доступных моделей — Qwen2.5 и LLaMa 3.3*, рассуждающие нейросети QwQ и DeepSeek R1, полный список можно посмотреть на сайте.

По мере появления новых моделей в опенсорсе они будут оперативно добавляться на ML‑платформе. Так, вскоре будет доступна VLM‑модель Яндекса, которая используется в Алисе, Нейроэксперте, Поиске с Нейро и других сервисах.

Применение новых моделей в режиме Batch Processing позволяет фокусироваться на эффективной обработке большого объёма данных. Компании смогут использовать модели по расписанию, по мере накопления данных или для объёмных разовых задач. Такое использование обойдётся вдвое дешевле, чем в стандартном режиме. Тарификация при пакетном инференсе на больших объёмах данных начинается от 200 тыс. токенов.

Какие сценарии удобно решать в пакетном режиме

  1. Анализ и суммаризация больших объёмов данных. Batch Processing помогает эффективно обрабатывать длинные последовательности текста и создавать качественный пересказ или анализ материалов. Это актуально, например, для исследовательских организаций и компаний, работающих с большими объёмами пользовательского контента.

  2. Периодическая обработка данных клиентов. Многие компании регулярно анализируют текстовые данные от клиентов: отзывы, комментарии, запросы в службу поддержки и другие формы обратной связи. Пакетный инференс позволяет эффективно обрабатывать эти данные по расписанию, например, еженедельно или ежемесячно.

  3. Масштабное индексирование и обогащение контента. Для компаний, работающих с большими библиотеками контента, пакетный инференс даёт возможность эффективного индексирования и обогащения материалов. Языковые модели могут автоматически генерировать метаданные, ключевые слова, теги и другие элементы, улучшающие поиск и организацию контента.

  4. Обогащение датасетов для тюнинга моделей. Для команд, которые дообучают лёгкие версии языковых моделей с помощью дистилляции ответов больших версий моделей, Batch Processing помогает создавать синтетические датасеты для дообучения. На базе этих данных и с помощью инструмента LoRA Fine‑tuning разработчики могут создавать лёгкие модели высокого качества, при этом получая более реактивную скорость ответов и меньшую стоимость за обращение к модели.

*Llama создана компанией Meta. Meta признана экстремистской организацией, её деятельность в России запрещена.

Теги:
Всего голосов 8: ↑7 и ↓1+8
Комментарии0

🔥 Вышел самый ЭМОЦИОНАЛЬНЫЙ генератор голоса — тулза Dia генерит любые голоса и выдаёт ЖИВОЙ диалог.

— Эмоции получаются насыщенными — на видео несуществующие люди паникуют из-за пожара;
— Модель легкая — можно запустить на домашнем ПК;
— Нет цензуры;
— БЕСПЛАТНО.

Забираем с GitHub или используем прямо в браузере.

В курсе, что OpenAI выкатили в API три новые аудио-модели? Если кто-то сравнивал делитесь мнением!)

Теги:
Всего голосов 3: ↑1 и ↓2-1
Комментарии3

Seedream 3.0 — обновленный генератор изображений от CapCut.

Упор сделали на реалистичность, киношные визуальные эффекты и точную типографику (работает даже с русским языком). Плюс обещают ультрареалистичные текстуры и материалы, а также разрешение 2К.

Тут же можно улучшить качество своей генерации, расширить её, удалить лишние объекты и даже оживить.

Потестить всё это можно уже сейчас, да ещё и бесплатно

Еще не так давно Alibaba выпустила опенсорсный генератор изображений и видео — Wan 2.1, а тут уже и это подъехало)

Теги:
Всего голосов 2: ↑1 и ↓1+1
Комментарии0

Владелец Tesla попросил бортовой компьютер электромобиля отвезти его в место, где он ещё ни разу не бывал — и... система отвезла его в фитнес-клуб.

Теги:
Рейтинг0
Комментарии0

Это всё началось с изобретения слова “бойлерплейт” в 2012 году. Всем было страшно, что им придётся писать аж по три строки вместо одной. Поэтому все начали насиловать компиляторы и добавлять в них новые функции — только бы (НЕ ДАЙ ГОСПОДЕ БОЖЕНЬКА!!!) не писать дополнительно два символа.

В 2025 году у нас есть ЛЛМ. И не надо врать — я знаю, что вы не набираете код, за вас это делает ЛЛМ. Я не говорю, что вы не вычитываете этот код и не перепроверяете всё. Нет. Но печатает за вас ЛЛМ. И это — нормально.

Пусть она занимается этим бойлерплейтом. Иногда это — самое простое решение. Если у меня есть один файл, в котором чётко видно, в какие функции инвокаются какие рауты, то это — прекрасно. Не надо создавать фабрику, которая будет строить псевдообъекты, которые потом по гаданию на картах Таро будут инвокать методы на основании положения Марса в Стрельце.

Пусть ЛЛМ за вас напишет файл с 500 строками кода, где каждому URL дан чёткий метод. И если вам надо будет переименовать 300 из этих методов, то пусть ЛЛМ это и сделает. Не велика проблема.

В 2025 году можно смело откатить все нововведения Яваскрипта до 2016 года — и не париться больше в попытках улучшить язык. Просто сделайте его стандартом и больше не меняйте. Пусть ЛЛМ будет страдать. Нам не страшно.

Зато потом это будет проще понять и прочитать, чем вспоминать, что делает последовательность символов ?./\ ﷼ℬ в вашем коде и какой транспайлер мне надо поставить, чтобы это компилировалось в Google Chrome версии 18384572.

Теги:
Всего голосов 8: ↑7 и ↓1+9
Комментарии3

Практически все развитые страны — и многие развивающиеся — прошли через второй демографический переход. Демографы забили тревогу о грядущем снижении населения; хотя они превосходны в статистике и немного разбираются в психологии, ключевой вопрос остаётся: почему люди заводят меньше детей?

Рассмотрим возможные причины:

  1. Дети — дорогое удовольствие. Сегодня у каждого ребёнка должна быть своя комната, новейший iPhone и всё модное, чтобы «не отставать».

  2. Дети требуют времени. Особенно в первые десять лет родители вынуждены посвящать им практически всё своё внимание, объясняя буквально всё с нуля.

  3. Тревога. Воспитание детей — постоянный стресс. Нельзя спокойно гулять: родители всё время боятся, что ребёнок выбежит на дорогу.

  4. Личные жертвы. Отказ от привычного образа жизни и хобби — особенно когда у вас двойня.

  5. Уход за ребёнком доступен лишь богатым. Полноценная круглосуточная няня по карману лишь очень состоятельным семьям.

Какое решение?

Робот с универсальным ИИ может:

  1. Проводить с ребёнком столько времени, сколько нужно, обучая его по лучшим методикам ведущих детских психологов — от первых букв до уровня PhD.

  2. Быть бдительным на прогулке, никогда не уставать, не выходить из себя и не кричать на ребёнка.

  3. Благодаря технологиям «deepfake» идеально имитировать человеческую мимику.

  4. Стоить значительно дешевле круглосуточной няни.

Я прогнозирую, что демографическая кривая изменится, как только такие роботы станут доступны состоятельным семьям. В результате богатые страны вновь могут увидеть рост рождаемости.

Теги:
Всего голосов 3: ↑1 и ↓20
Комментарии21
Оппа! Не зря мне чудилось, не зря. Что-то глюкнуло и прямо по среди кода ответ на китайском!!!
Оппа! Не зря мне чудилось, не зря. Что-то глюкнуло и прямо по среди кода ответ на китайском!!!

Gork-ушены-ли странности?
Пробуя вайбить Горкушей, обнаружил странные параллели с поведением Синего Кита.

1. "прощупывание пользователя", скобочку там не закрыть, тут инклюд не помянуть, и всё такое-прочее, очевидное и не доставляющее проблем даже джунам, но способное напугать посторонних полотном "ужасных" ошибок ;-)
ДжиПетто вроде подобное тоже вытворяло (не знаю как сейчас), но там на общем фоне остального написанного это выглядело скорее как реальные косяки, а не издёвка...
А вот синий кит, через некоторое время чистого вайба, начинает откровенно жечь!

2. похожие "чудачества в коде", пруф к сожалению привести не могу, он из реальной жизни, и не гуглится, но всё подобное, обычно делается простым и понятным способом, создаётся структура, в которой описывается сколько бит что означает, и вместо разбора пакета, он просто рассматривается через эту структуру и вообще удобненько. Gorkуше был предоставлен пример кода, в котором именно так всё было сделано, и он этим даже воспользовался пару раз, но потом, таки переписал, устроив программный разбор пакета битовыми операциями, и конечно-же криво на столько, что ошибки самостоятельно исправить был уже не в силах, ни за сколько итераций. Что самое поразительное, абсолютно аналогичное поведения я наблюдал у Синего Кита несколько дней назад, вот прямо такой-же код, и такой-же косячный. Логично предположить что он был откуда-то сдёрнут, но нет, ничего подобного не гуглится, да и вообще может-ли такой изврат человеку в голову придти?

3. Я люблю Кита за сравнительную трезвость, позволяющую куда-то его запрягать даже по делу, у Горкуши с этим к стати хуже но, тупят они поразительно похожим образом.
Давеча попросил сделать демона общающегося с железом и что-то шарящего в мемори для других процессов. Read only вестимо, об этом было прямо сказано в промпте, но эти "двое из ларца" мьютиксов туда намутили, поразительно похожим образом!
И ладно-бы это был-бы какой-то пример из книжки переписанный на 100500 сайтах, но нет, там и косяки одинаковые, и по поводу мьютиксов на каждом заборе популярно написано, что в таких ситуациях "скрипач не нужен, родной"...

Вот такой-вот вайб, с котятами, может у кого будут ещё какие похожие замечания из других областей коднинга, я таки православный сионист системщик, и приколы у меня соответствующие, но наверняка на других языках оно чудит похожим образом!

Я начал мучить Горкушу ещё в X использовал преимущественно для самери поиска, а тут он вдруг резко так поумнел перед открытием, демонстрируя сходное с синим китом поведение, вот прямо в деталях. Так что не знаю прямо что и думать ;-)

PS. Протестировал профессионального Джимми 2.5, и кое-что из грядущего, слава Богам! Он действительно с виду более профессиональный НО, без образца проблему не решает, хотя это и ожидаемо, там где осмысленная архитектурная многоходовочка требуется...
...но в отличии от от Кита и Горкуши, Джимми дали мне ссылку на ту отраву, которой они все походу обожрались. Ok это отрава, бывает, но непонятно всё-же, с какого, если в сети есть большое количество годных примеров, берётся один, но гадкий? И как-же так вышло, что его сожрали все, такие разные ;-)

Теги:
Всего голосов 7: ↑1 и ↓6-5
Комментарии8

📌 Сохраняем самые интересные нейросети за неделю, которые вы могли пропустить.

• Higgsfield — генератор видео научился комбинировать несколько эффектов одновременно;
• Kling 2.0 Master — вышла обновленная модель для генерации видео;
• Veo2 — Google открыли доступ к своему видеогенератору;
• Bohrium — бесплатная нейронка для поиска исследований;
• o3 и o4-mini — OpenAI выпустили новые модели;
• Wan2.1 — в видеогенератор добавили ключевые кадры;
• Videohunt — вырезает самые интересные моменты из видео;
• Gemma 3 — Google выпустил квантизированные версии модели;
• Krea — добавили генерацию 3D-сцен.

На хабре и в своём телеграм-канале всегда делюсь новой инфой про нейронки!)

Теги:
Всего голосов 4: ↑2 и ↓20
Комментарии0

Поговорим про использование языковых моделей в работе архитектора ПО? Приходите на бесплатный вебинар «Генеративные нейронные сети в работе архитектора ПО».

На практике посмотрим, как новые открытые LLM (DeepSeek, Qwen и другие) могут помочь с рутинными задачами: от анализа требований до проектирования архитектуры. Сравним их с коммерческими аналогами (OpenAI, Anthropic, Google, xAI) — где они выигрывают, а где нет.

Пройдемся по реальным кейсам: как эти модели помогают быстрее разрабатывать API, поддерживать документацию, оценивать решения. А еще обсудим живой пример проектирования MSA для системы e-commerce .

📅 Дата: 25.04.2025

Время: 15:00-16:00 (мск)

На вебинаре:

✔️ Как LLM решают конкретные задачи архитектора ПО

✔️ Демонстрация проектирования MSA в диалоге с моделью

✔️ Сравнительный анализ открытых и коммерческих моделей

👨‍🎓 Спикер: Брейман Александр — эксперт Учебного центра IBS, кандидат технических наук, доцент департамента программной инженерии ФКН ВШЭ. 

👉Записаться👈

Теги:
Рейтинг0
Комментарии0

Опубликован курс по созданию языковых моделей с нуля от Стэнфордского университета — «СS336: Language Modeling from scratch», включая видеолекции для всех, кто хочет научиться создавать собственные ИИ-модели с нуля: от архитектуры и токенизаторов до обучения с подкреплением и масштабирования. К лекциям есть множество дополнительных материалов и домашних заданий.

Теги:
Всего голосов 3: ↑3 и ↓0+3
Комментарии0

Google представила мощного клона ChatGPT, который можно запустить даже на обычном домашнем ПК

Используя уникальную технологию сжатия, компания значительно снизила системные требования без ущерба для качества

Гайд по установке:
➖ Скачайте LM Studio с сайта: lmstudio.ai
➖ Перейдите в раздел "Discover" и найдите модель Gemma 3;
➖ Выберите вариант, подходящий под ваше железо (обратите внимание на требования к видеопамяти);
➖ Нажмите "Download";
➖ После загрузки откройте вкладку "Chat" и наслаждайтесь

Недавно выходил Gemini 2.5 Flash, о котором я рассказывал у себя в телеграм-канале, а тут уже и это...🔥

Теги:
Всего голосов 8: ↑3 и ↓50
Комментарии0

Повышение качества генерации текстовой выдачи LLM моделей

Категории качества выдачи LLM
Категории качества выдачи LLM

Концентрация контекста

Зачастую скармливаемый модели код категорически избыточен и только забивает контекстное окно. При качественной концентрации контекста для абсолютного большинства задач хватит даже небольшого контекстного окна любой современной LLM модели. Очистка запроса к LLM это первый шаг к получению устойчивой генерации вместо галлюцинаций. Запрос к LLM должен содержать стек, среду исполнения, задачи кодовой базы, необходимые зависимости, при необходимости - получаемые ошибки и собственно полную, необходимую для понимания моделью контекста, кодовую базу. При 100% полезной информационной нагрузке и полной очистке запроса от лишних элементов - подавляющее большинство задач успешно пролазит даже в мизерное контекстное окно и мы получаем устойчивую генерацию вместо галлюцинаций.

Сегментация задач

При разбиении крупной задачи на отдельные сегменты практически любая современная LLM выдаёт абсолютно точную выдачу при работу с любым относительно распространённым языком/фреймворком/библиотекой. Единственное принципиальное отличие LLM предоставляемых крупными провайдерами от опенсорсных LLM - это умение работать с сложными запросами. При разбиении сложного запроса на более простые, любая современная LLM генерирует точную выдачу.

Повышение качества запроса

Текстовая часть запроса не менее важна, чем контекстная. Точное составление подробного запроса с подробным объяснением архитектуры кодовой базы и поставленных задач, в сочетании с достаточным контекстом - практически всегда означает качественную генерацию.

Повышение качества генерации

При комбинировании этих трёх простых методов любая современная LLM при работе с распространёнными языками/фреймворками/библиотеками выдаёт точный результат. Все опенсорсные LLM это плюс-минус форки друг друга, как в случае с дистрибутивами Linux, и основанные на них модели практически не отличаются. При использовании современной версии любой популярной LLM в сочетании с данными методами - генерации практически безошибочна.

Теги:
Всего голосов 3: ↑2 и ↓1+2
Комментарии2

🖥 Google дропнул свой топовый видеогенератор Veo 2 для всех — создавать кинематографичные ролики можно в AI Studio.

Лимит: 3-5 видосов в день, зато БЕСПЛАТНО. Если у вас ещё не появился доступ, попробуйте притвориться американцем с помощью VPN.

Кстати, вчера Google дропнул Gemini 2.5 Flash !

Теги:
Всего голосов 3: ↑2 и ↓1+1
Комментарии1

Ближайшие события

⚡️Gemini 2.5 Flash уже здесь: только что вышла новая модель для кодеров, которой по плечу даже сложные запросы.

По ряду показателей она превосходит Claude Sonnet 3.7 и Grok-3, несмотря на существенно меньшие затраты на разработку.

Фишки:
— ИИ самостоятельно определяет необходимое время для решения задачи, учитывая её сложность, и чётко планирует весь ход размышлений;
— Пользователь впервые может контролировать мышление ИИ: сам задать количество токенов для каждой «мысли» и, таким образом, контролировать глубину рассуждений;
— Доступно бесплатно.

Имба - тут.

Про Gemini неоднократно высказывался у себя в телеграм-канале!

Теги:
Всего голосов 2: ↑2 и ↓0+4
Комментарии0

Разумное использование нейросетей.

Авторы статей, прекратите использовать нейросети бездумно. Используйте их с умом, рассматривая нейросеть лишь как редактора, а не как автора текстов. Полностью за вас нейросеть не сможет нормально выполнить работу, а вот напакостить может запросто. Поэтому голову всё же нужно включать.

Не думайте, что нейросеть — это искусственный интеллект; это заблуждение. Большие языковые модели лишь обрабатывают текст, но не понимают его смысла, создавая лишь иллюзию понимания.

Если каждый будет писать статьи, сгенерированные нейросетями, у самих нейросетей возникнут проблемы, так как новых данных не будет, а будут только старые сгенерированные. В результате очень скоро нейросети станут бесполезными, так как будут выдавать больше бреда, чем обычно, и в целом точность их ответов сильно снизится — короче, они деградируют.

Нейросети — алгоритмы для обработки информации, они не обладают сознанием или разумом. Они работают на основе статистических моделей, обученных на больших объемах данных, что не делает их разумными существами. Под капотом нейросети находятся всего лишь массивы чисел. Ответ вычисляется умножением матрицы нейронов на матрицу весов, которые подбираются алгоритмами обучения.

Они могут выполнять определённые задачи, например, генерацию текста или анализ данных, но не могут заменить человеческое творчество, интуицию и эмоциональное восприятие. Человеческий опыт и креативность остаются незаменимыми, особенно в области искусства, литературы и других творческих дисциплин.

Поэтому разумное использование нейросетей как вспомогательного инструмента, а не как замены человеческого труда, является ключевым для достижения качественных результатов.

PS: Несмотря, на то, что этот текст редактировался нейросетью, он все равно живой, потому что его писал человек. Нейросеть лишь использовалась как инструмент для исправления ошибок, а не генерации текста с нуля.

Написать всё это меня сподвигли статьи, на которые я случайно наткнулся. Это просто ужас!
Первая статья
Вторая статья

Это бред чистой воды! Деградация процессора — это миф. Если в процессоре выйдет из строя хоть один транзистор, то из-за этого выйдет из строя весь процессор. А вот деградация SSD действительно имеет место быть. Наверное, пользователи, которые вообще не разбираются в железе, перепутали процессор с SSD, и отсюда появился этот миф, который начал распространяться, как зараза, по сети. И те, кто просто не понимает, как работают нейросети, тоже вносят свой вклад в это распространение. Пишут промт типа «напиши мне статью про деградацию процессоров», и в результате получают подобный бред, который потом постят, даже не вычитывая, на ixbt.com и подобные сайты.
Износ CPU и GPU не является тем фактором, о котором стоит беспокоиться. Их, скорее всего, заменят на более мощные и современные модели раньше, чем они физически износятся и выйдут из строя. Для них более актуален моральный износ, нежели физический. Остальные преждевременные выходы из строя происходят либо из-за неправильных условий эксплуатации, либо из-за брака или плохого блока питания.

Теги:
Всего голосов 2: ↑2 и ↓0+2
Комментарии22

😵 Всё, расходимся! GPT-4.5 прошла тест Тьюринга

В научно-технических СМИ появилась информация о том, что языковая модель GPT-4.5 прошла тест Тьюринга, доказав свою способность взаимодействовать с людьми на уровне, практически неотличимом от общения с человеком. Этот прорыв вызвал большой резонанс, поскольку тест Тьюринга, предложенный Аланом Тьюрингом ещё в 1950 году, долгое время оставался символическим рубежом для искусственного интеллекта.

Что такое тест Тьюринга?

В классической формулировке тест предполагает, что наблюдатель (эксперт) ведёт диалог с человеком и машиной, не зная, кто из них кто. Если наблюдатель не может определить, с кем он разговаривает, машина считается прошедшей тест. Критики теста часто указывают, что это проверка не истинного «мышления», а только способности имитировать человеческое общение. Тем не менее, прохождение теста остаётся мощным индикатором развития ИИ-систем.

Почему прохождение теста GPT-4.5 так важно?

На момент написания заметки о GPT-4.5 пока отсутствуют подробные данные о самой процедуре тестирования и размере выборки. В официальном пресс-релизе компании-разработчика говорится, что нейросеть успешно обманула более 70% участников теста, что значительно превышает прежние показатели. Например, ранее модели OpenAI демонстрировали хорошие результаты в специализированных задачах, но были уязвимы к сложным, нестандартным вопросам. В случае GPT-4.5 подчёркивается не только широкий спектр тем, которые она может обсуждать, но и способность учитывать контекст, эмоциональные оттенки и различные культурные аспекты. Это делает её не просто мощным инструментом, но настоящим собеседником.

Потенциальные последствия

Прохождение теста Тьюринга нейросетью GPT-4.5 открывает перед ИИ новые горизонты. С одной стороны, это значит, что языковые модели станут более полезными в таких областях, как образование, медицина, креативное письмо и персональные ассистенты. С другой стороны, это поднимает вопросы этики, доверия и безопасности. Если люди больше не могут уверенно отличить общение с ИИ от общения с человеком, это требует дополнительных механизмов идентификации ИИ-систем, а также новых подходов к ответственности за их действия и высказывания.

Достижения GPT-4.5 ещё раз подтверждают, как быстро продвигаются современные технологии. Тест Тьюринга, казавшийся недосягаемым ещё несколько лет назад, теперь оказался в прошлом. Мир вступает в эпоху, где границы между человеком и машиной становятся всё более условными. Как это повлияет на общество и нашу повседневную жизнь — покажет время.

* * *

Мой телеграм-канал Светлое будущее💡Tech&Science, в котором я публикую последние новости технологий и науки

Теги:
Всего голосов 6: ↑4 и ↓2+2
Комментарии3

Модель OpenAI o3 впервые превзошла средний результат человека-эксперта в мультимодальном бенчмарке MMMU.

Вот результаты первых 10 моделей отсюда:

* - результаты не проверены независимо, а предоставлены авторами.
* - результаты не проверены независимо, а предоставлены авторами.

Там же можно посмотреть примеры заданий. Нужно выбирать один из 4-х вариантов, встречаются задачи по определению параметров электрических схем, выбору интегралов для определения площади фигуры на рисунке, задачи на распознавание медицинских изображений, чтение графиков, определение музыкальных интервалов, анализ карты, задачи по экономике с необходимостью чтения диаграмм и многое другое. То есть такие задачи, где визуальная часть является необходимой для их решения.

Теги:
Всего голосов 1: ↑0 и ↓1-1
Комментарии0

Как я использую ИИ в разработке

Последний год я активно использую ИИ в разработке (особенно рутинных задачах): сначала ChatGPT 4o стал достаточно умным и подсказывал куски кода. Потом я освоил GitHub Copilot в VS Code (Go и TypeScript) и Inteliji IDEA (Java). А последние полгода пишу в основном в Cursor IDE.

Cursor IDE мне очень сильно понравился своим автокомплитом. Он не просто подставляет автодополнение, а умеет переписывать большие куски кода в разных частях файла.

Последние несколько месяцев я начал чаще использовать агентский режим: это когда говоришь IDE что делать, а она бегает по разным файлам и меняет их.

И тут мой мозг начал взрываться! Агентский режим Cursor'a и интеллект ChatGPT o3-mini-high творят чудеса. В типовых задачах — это жуткая экономия времени.

(Пока писал пост, Open AI выпустили полноценную o3 и o4-mini-high 🤯).

Как я понял, Cursor + Claude 3.7 действуют по следующему алгоритму:

  1. Проходит по исходникам, собирает контекст и паттерны.

  2. Залезает в исходники библиотек и смотрит их код.

  3. Если сильно нужно — бегает в интернет и обкашливает вопросики там.

  4. Вносит изменения в код.

  5. Смотрит ошибки линтеров и компиляции (!!!).

  6. Ещё раз исправляет код и, если нужно, снова бегает по исходникам и библиотекам.

  7. Говорит, что сделал и подсвечивает измененные куски кода.

На видео выше записал, как решаю задачу таким способом.

Задача: есть код, который принимает события от Telegram. В него нужно добавить поддержку новых событий и обновить DTO.

Cursor смотрит в интерфейс, что нужно добавить. Затем смотрит в библиотеку, какие там модельки. Обновляет код. Сам фиксит ошибки, если есть. Так ещё и говорит: "DTO и так нормальные, их трогать не буду". Красота!

К сожалению, как" вайб кодить" — я пока не понял. Потому что:

  • весь код нужно сильно перепроверять;

  • на задачах с весомой бизнес логикой получается фигня;

  • пограничные кейсы не обрабатываются;

  • тесты для чего-то больше CRUDов получаются с тоннами шаблонного кода, мало переиспользования;

  • если файлов сильно много и задача в духе "пройдись по паре сотням файлов и поменяй что-то", Cursor начинает галлюцинировать и выдавать фигню.

Итого: сейчас ИИ мне сильно экономит время на шаблонных и рутинных задачах. Особенно, если задача не выходит за рамки 2-3 файлов и в проекте всё ок с тестами.

Условно, я делаю на 10%-20% меньше рутинной работы, которая раньше могла отнимать 2-3 часа в день.

Что-то комплексное или "написать проект с ИИ, не смотря код" — пока не получается (как минимум, пока что).

Но, в любом случае, уметь использовать ИИ потихоньку становится must have навыком для среднестатистических разработчиков. Разумеется, если используется не редкий язык, не специфическая сфера (типа написание ОС, где недостаточно обучающих данных) или не что-то критичное (медицина, ядерка и т.д.).

---

Если вам понравился пост или оказался полезным, поставьте, пожалуйста лайк ❤️. Это мотивирует делиться опытом из разработки. И, как полагается, у меня есть Telegram-канал, в котором я рассказываю про разработку, развитие SaaS-сервисов и управление IT проектами.

Теги:
Всего голосов 11: ↑9 и ↓2+8
Комментарии1

👍 OpenAI выпустили сразу две новые модели — o3 и o4-mini.

— o3 — самая мощная рассуждающая модель, которая умеет пользоваться всеми инструментами ChatGPT (генерация изображений и графиков, поиск актуальной информации, кода и т.д);

— o4-mini — небольшая модель, но более быстрая. Сильные стороны: математика, код, визуальная инфа. Также имеет доступ к инструментам ChatGPT.

Пользователи ChatGPT Plus, Pro и Team смогут потестить модели уже сегодня, o4-mini будет доступна даже для бесплатных пользователей (выбираем режим «Think» перед отправкой запроса).

Плюс в ближайшие пару недель OpenAI обещали выпустить o3‑pro, об этом сразу же сообщу в своём телеграм-канале.

Теги:
Всего голосов 1: ↑0 и ↓1-1
Комментарии0

Разработчик с более чем восьмилетним опытом в ведущих ИИ-стартапах решил в апреле 2025 года сменить курс — и посвятил себя разведению гусей.

Теги:
Всего голосов 2: ↑2 и ↓0+3
Комментарии4

Вклад авторов