Как стать автором
Обновить
998.64

Искусственный интеллект

AI, ANN и иные формы искусственного разума

Сначала показывать
Порог рейтинга

📌 Сохраняем самые интересные нейросети за неделю, которые вы могли пропустить.

• Higgsfield — генератор видео научился комбинировать несколько эффектов одновременно;
• Kling 2.0 Master — вышла обновленная модель для генерации видео;
• Veo2 — Google открыли доступ к своему видеогенератору;
• Bohrium — бесплатная нейронка для поиска исследований;
• o3 и o4-mini — OpenAI выпустили новые модели;
• Wan2.1 — в видеогенератор добавили ключевые кадры;
• Videohunt — вырезает самые интересные моменты из видео;
• Gemma 3 — Google выпустил квантизированные версии модели;
• Krea — добавили генерацию 3D-сцен.

На хабре и в своём телеграм-канале всегда делюсь новой инфой про нейронки!)

Теги:
Всего голосов 4: ↑2 и ↓20
Комментарии0

Поговорим про использование языковых моделей в работе архитектора ПО? Приходите на бесплатный вебинар «Генеративные нейронные сети в работе архитектора ПО».

На практике посмотрим, как новые открытые LLM (DeepSeek, Qwen и другие) могут помочь с рутинными задачами: от анализа требований до проектирования архитектуры. Сравним их с коммерческими аналогами (OpenAI, Anthropic, Google, xAI) — где они выигрывают, а где нет.

Пройдемся по реальным кейсам: как эти модели помогают быстрее разрабатывать API, поддерживать документацию, оценивать решения. А еще обсудим живой пример проектирования MSA для системы e-commerce .

📅 Дата: 25.04.2025

Время: 15:00-16:00 (мск)

На вебинаре:

✔️ Как LLM решают конкретные задачи архитектора ПО

✔️ Демонстрация проектирования MSA в диалоге с моделью

✔️ Сравнительный анализ открытых и коммерческих моделей

👨‍🎓 Спикер: Брейман Александр — эксперт Учебного центра IBS, кандидат технических наук, доцент департамента программной инженерии ФКН ВШЭ. 

👉Записаться👈

Теги:
Рейтинг0
Комментарии0

Опубликован курс по созданию языковых моделей с нуля от Стэнфордского университета — «СS336: Language Modeling from scratch», включая видеолекции для всех, кто хочет научиться создавать собственные ИИ-модели с нуля: от архитектуры и токенизаторов до обучения с подкреплением и масштабирования. К лекциям есть множество дополнительных материалов и домашних заданий.

Теги:
Всего голосов 3: ↑3 и ↓0+3
Комментарии0

Google представила мощного клона ChatGPT, который можно запустить даже на обычном домашнем ПК

Используя уникальную технологию сжатия, компания значительно снизила системные требования без ущерба для качества

Гайд по установке:
➖ Скачайте LM Studio с сайта: lmstudio.ai
➖ Перейдите в раздел "Discover" и найдите модель Gemma 3;
➖ Выберите вариант, подходящий под ваше железо (обратите внимание на требования к видеопамяти);
➖ Нажмите "Download";
➖ После загрузки откройте вкладку "Chat" и наслаждайтесь

Недавно выходил Gemini 2.5 Flash, о котором я рассказывал у себя в телеграм-канале, а тут уже и это...🔥

Теги:
Всего голосов 8: ↑3 и ↓50
Комментарии0

Повышение качества генерации текстовой выдачи LLM моделей

Категории качества выдачи LLM
Категории качества выдачи LLM

Концентрация контекста

Зачастую скармливаемый модели код категорически избыточен и только забивает контекстное окно. При качественной концентрации контекста для абсолютного большинства задач хватит даже небольшого контекстного окна любой современной LLM модели. Очистка запроса к LLM это первый шаг к получению устойчивой генерации вместо галлюцинаций. Запрос к LLM должен содержать стек, среду исполнения, задачи кодовой базы, необходимые зависимости, при необходимости - получаемые ошибки и собственно полную, необходимую для понимания моделью контекста, кодовую базу. При 100% полезной информационной нагрузке и полной очистке запроса от лишних элементов - подавляющее большинство задач успешно пролазит даже в мизерное контекстное окно и мы получаем устойчивую генерацию вместо галлюцинаций.

Сегментация задач

При разбиении крупной задачи на отдельные сегменты практически любая современная LLM выдаёт абсолютно точную выдачу при работу с любым относительно распространённым языком/фреймворком/библиотекой. Единственное принципиальное отличие LLM предоставляемых крупными провайдерами от опенсорсных LLM - это умение работать с сложными запросами. При разбиении сложного запроса на более простые, любая современная LLM генерирует точную выдачу.

Повышение качества запроса

Текстовая часть запроса не менее важна, чем контекстная. Точное составление подробного запроса с подробным объяснением архитектуры кодовой базы и поставленных задач, в сочетании с достаточным контекстом - практически всегда означает качественную генерацию.

Повышение качества генерации

При комбинировании этих трёх простых методов любая современная LLM при работе с распространёнными языками/фреймворками/библиотеками выдаёт точный результат. Все опенсорсные LLM это плюс-минус форки друг друга, как в случае с дистрибутивами Linux, и основанные на них модели практически не отличаются. При использовании современной версии любой популярной LLM в сочетании с данными методами - генерации практически безошибочна.

Теги:
Всего голосов 4: ↑2 и ↓2+1
Комментарии2

🖥 Google дропнул свой топовый видеогенератор Veo 2 для всех — создавать кинематографичные ролики можно в AI Studio.

Лимит: 3-5 видосов в день, зато БЕСПЛАТНО. Если у вас ещё не появился доступ, попробуйте притвориться американцем с помощью VPN.

Кстати, вчера Google дропнул Gemini 2.5 Flash !

Теги:
Всего голосов 3: ↑2 и ↓1+1
Комментарии1

⚡️Gemini 2.5 Flash уже здесь: только что вышла новая модель для кодеров, которой по плечу даже сложные запросы.

По ряду показателей она превосходит Claude Sonnet 3.7 и Grok-3, несмотря на существенно меньшие затраты на разработку.

Фишки:
— ИИ самостоятельно определяет необходимое время для решения задачи, учитывая её сложность, и чётко планирует весь ход размышлений;
— Пользователь впервые может контролировать мышление ИИ: сам задать количество токенов для каждой «мысли» и, таким образом, контролировать глубину рассуждений;
— Доступно бесплатно.

Имба - тут.

Про Gemini неоднократно высказывался у себя в телеграм-канале!

Теги:
Всего голосов 2: ↑2 и ↓0+4
Комментарии0

Разумное использование нейросетей.

Авторы статей, прекратите использовать нейросети бездумно. Используйте их с умом, рассматривая нейросеть лишь как редактора, а не как автора текстов. Полностью за вас нейросеть не сможет нормально выполнить работу, а вот напакостить может запросто. Поэтому голову всё же нужно включать.

Не думайте, что нейросеть — это искусственный интеллект; это заблуждение. Большие языковые модели лишь обрабатывают текст, но не понимают его смысла, создавая лишь иллюзию понимания.

Если каждый будет писать статьи, сгенерированные нейросетями, у самих нейросетей возникнут проблемы, так как новых данных не будет, а будут только старые сгенерированные. В результате очень скоро нейросети станут бесполезными, так как будут выдавать больше бреда, чем обычно, и в целом точность их ответов сильно снизится — короче, они деградируют.

Нейросети — алгоритмы для обработки информации, они не обладают сознанием или разумом. Они работают на основе статистических моделей, обученных на больших объемах данных, что не делает их разумными существами. Под капотом нейросети находятся всего лишь массивы чисел. Ответ вычисляется умножением матрицы нейронов на матрицу весов, которые подбираются алгоритмами обучения.

Они могут выполнять определённые задачи, например, генерацию текста или анализ данных, но не могут заменить человеческое творчество, интуицию и эмоциональное восприятие. Человеческий опыт и креативность остаются незаменимыми, особенно в области искусства, литературы и других творческих дисциплин.

Поэтому разумное использование нейросетей как вспомогательного инструмента, а не как замены человеческого труда, является ключевым для достижения качественных результатов.

PS: Несмотря, на то, что этот текст редактировался нейросетью, он все равно живой, потому что его писал человек. Нейросеть лишь использовалась как инструмент для исправления ошибок, а не генерации текста с нуля.

Написать всё это меня сподвигли статьи, на которые я случайно наткнулся. Это просто ужас!
Первая статья
Вторая статья

Это бред чистой воды! Деградация процессора — это миф. Если в процессоре выйдет из строя хоть один транзистор, то из-за этого выйдет из строя весь процессор. А вот деградация SSD действительно имеет место быть. Наверное, пользователи, которые вообще не разбираются в железе, перепутали процессор с SSD, и отсюда появился этот миф, который начал распространяться, как зараза, по сети. И те, кто просто не понимает, как работают нейросети, тоже вносят свой вклад в это распространение. Пишут промт типа «напиши мне статью про деградацию процессоров», и в результате получают подобный бред, который потом постят, даже не вычитывая, на ixbt.com и подобные сайты.
Износ CPU и GPU не является тем фактором, о котором стоит беспокоиться. Их, скорее всего, заменят на более мощные и современные модели раньше, чем они физически износятся и выйдут из строя. Для них более актуален моральный износ, нежели физический. Остальные преждевременные выходы из строя происходят либо из-за неправильных условий эксплуатации, либо из-за брака или плохого блока питания.

Теги:
Всего голосов 2: ↑2 и ↓0+2
Комментарии22

😵 Всё, расходимся! GPT-4.5 прошла тест Тьюринга

В научно-технических СМИ появилась информация о том, что языковая модель GPT-4.5 прошла тест Тьюринга, доказав свою способность взаимодействовать с людьми на уровне, практически неотличимом от общения с человеком. Этот прорыв вызвал большой резонанс, поскольку тест Тьюринга, предложенный Аланом Тьюрингом ещё в 1950 году, долгое время оставался символическим рубежом для искусственного интеллекта.

Что такое тест Тьюринга?

В классической формулировке тест предполагает, что наблюдатель (эксперт) ведёт диалог с человеком и машиной, не зная, кто из них кто. Если наблюдатель не может определить, с кем он разговаривает, машина считается прошедшей тест. Критики теста часто указывают, что это проверка не истинного «мышления», а только способности имитировать человеческое общение. Тем не менее, прохождение теста остаётся мощным индикатором развития ИИ-систем.

Почему прохождение теста GPT-4.5 так важно?

На момент написания заметки о GPT-4.5 пока отсутствуют подробные данные о самой процедуре тестирования и размере выборки. В официальном пресс-релизе компании-разработчика говорится, что нейросеть успешно обманула более 70% участников теста, что значительно превышает прежние показатели. Например, ранее модели OpenAI демонстрировали хорошие результаты в специализированных задачах, но были уязвимы к сложным, нестандартным вопросам. В случае GPT-4.5 подчёркивается не только широкий спектр тем, которые она может обсуждать, но и способность учитывать контекст, эмоциональные оттенки и различные культурные аспекты. Это делает её не просто мощным инструментом, но настоящим собеседником.

Потенциальные последствия

Прохождение теста Тьюринга нейросетью GPT-4.5 открывает перед ИИ новые горизонты. С одной стороны, это значит, что языковые модели станут более полезными в таких областях, как образование, медицина, креативное письмо и персональные ассистенты. С другой стороны, это поднимает вопросы этики, доверия и безопасности. Если люди больше не могут уверенно отличить общение с ИИ от общения с человеком, это требует дополнительных механизмов идентификации ИИ-систем, а также новых подходов к ответственности за их действия и высказывания.

Достижения GPT-4.5 ещё раз подтверждают, как быстро продвигаются современные технологии. Тест Тьюринга, казавшийся недосягаемым ещё несколько лет назад, теперь оказался в прошлом. Мир вступает в эпоху, где границы между человеком и машиной становятся всё более условными. Как это повлияет на общество и нашу повседневную жизнь — покажет время.

* * *

Мой телеграм-канал Светлое будущее💡Tech&Science, в котором я публикую последние новости технологий и науки

Теги:
Всего голосов 7: ↑4 и ↓3+1
Комментарии3

Модель OpenAI o3 впервые превзошла средний результат человека-эксперта в мультимодальном бенчмарке MMMU.

Вот результаты первых 10 моделей отсюда:

* - результаты не проверены независимо, а предоставлены авторами.
* - результаты не проверены независимо, а предоставлены авторами.

Там же можно посмотреть примеры заданий. Нужно выбирать один из 4-х вариантов, встречаются задачи по определению параметров электрических схем, выбору интегралов для определения площади фигуры на рисунке, задачи на распознавание медицинских изображений, чтение графиков, определение музыкальных интервалов, анализ карты, задачи по экономике с необходимостью чтения диаграмм и многое другое. То есть такие задачи, где визуальная часть является необходимой для их решения.

Теги:
Всего голосов 1: ↑0 и ↓1-1
Комментарии0

Как я использую ИИ в разработке

Последний год я активно использую ИИ в разработке (особенно рутинных задачах): сначала ChatGPT 4o стал достаточно умным и подсказывал куски кода. Потом я освоил GitHub Copilot в VS Code (Go и TypeScript) и Inteliji IDEA (Java). А последние полгода пишу в основном в Cursor IDE.

Cursor IDE мне очень сильно понравился своим автокомплитом. Он не просто подставляет автодополнение, а умеет переписывать большие куски кода в разных частях файла.

Последние несколько месяцев я начал чаще использовать агентский режим: это когда говоришь IDE что делать, а она бегает по разным файлам и меняет их.

И тут мой мозг начал взрываться! Агентский режим Cursor'a и интеллект ChatGPT o3-mini-high творят чудеса. В типовых задачах — это жуткая экономия времени.

(Пока писал пост, Open AI выпустили полноценную o3 и o4-mini-high 🤯).

Как я понял, Cursor + Claude 3.7 действуют по следующему алгоритму:

  1. Проходит по исходникам, собирает контекст и паттерны.

  2. Залезает в исходники библиотек и смотрит их код.

  3. Если сильно нужно — бегает в интернет и обкашливает вопросики там.

  4. Вносит изменения в код.

  5. Смотрит ошибки линтеров и компиляции (!!!).

  6. Ещё раз исправляет код и, если нужно, снова бегает по исходникам и библиотекам.

  7. Говорит, что сделал и подсвечивает измененные куски кода.

На видео выше записал, как решаю задачу таким способом.

Задача: есть код, который принимает события от Telegram. В него нужно добавить поддержку новых событий и обновить DTO.

Cursor смотрит в интерфейс, что нужно добавить. Затем смотрит в библиотеку, какие там модельки. Обновляет код. Сам фиксит ошибки, если есть. Так ещё и говорит: "DTO и так нормальные, их трогать не буду". Красота!

К сожалению, как" вайб кодить" — я пока не понял. Потому что:

  • весь код нужно сильно перепроверять;

  • на задачах с весомой бизнес логикой получается фигня;

  • пограничные кейсы не обрабатываются;

  • тесты для чего-то больше CRUDов получаются с тоннами шаблонного кода, мало переиспользования;

  • если файлов сильно много и задача в духе "пройдись по паре сотням файлов и поменяй что-то", Cursor начинает галлюцинировать и выдавать фигню.

Итого: сейчас ИИ мне сильно экономит время на шаблонных и рутинных задачах. Особенно, если задача не выходит за рамки 2-3 файлов и в проекте всё ок с тестами.

Условно, я делаю на 10%-20% меньше рутинной работы, которая раньше могла отнимать 2-3 часа в день.

Что-то комплексное или "написать проект с ИИ, не смотря код" — пока не получается (как минимум, пока что).

Но, в любом случае, уметь использовать ИИ потихоньку становится must have навыком для среднестатистических разработчиков. Разумеется, если используется не редкий язык, не специфическая сфера (типа написание ОС, где недостаточно обучающих данных) или не что-то критичное (медицина, ядерка и т.д.).

---

Если вам понравился пост или оказался полезным, поставьте, пожалуйста лайк ❤️. Это мотивирует делиться опытом из разработки. И, как полагается, у меня есть Telegram-канал, в котором я рассказываю про разработку, развитие SaaS-сервисов и управление IT проектами.

Теги:
Всего голосов 11: ↑9 и ↓2+8
Комментарии1

👍 OpenAI выпустили сразу две новые модели — o3 и o4-mini.

— o3 — самая мощная рассуждающая модель, которая умеет пользоваться всеми инструментами ChatGPT (генерация изображений и графиков, поиск актуальной информации, кода и т.д);

— o4-mini — небольшая модель, но более быстрая. Сильные стороны: математика, код, визуальная инфа. Также имеет доступ к инструментам ChatGPT.

Пользователи ChatGPT Plus, Pro и Team смогут потестить модели уже сегодня, o4-mini будет доступна даже для бесплатных пользователей (выбираем режим «Think» перед отправкой запроса).

Плюс в ближайшие пару недель OpenAI обещали выпустить o3‑pro, об этом сразу же сообщу в своём телеграм-канале.

Теги:
Всего голосов 1: ↑0 и ↓1-1
Комментарии0

Разработчик с более чем восьмилетним опытом в ведущих ИИ-стартапах решил в апреле 2025 года сменить курс — и посвятил себя разведению гусей.

Теги:
Всего голосов 2: ↑2 и ↓0+3
Комментарии4

Ближайшие события

🛰 Зачем спутнику нейросеть?

Студент Самарского национального исследовательского университета им. академика С. П. Королева разработал проект наноспутника с искусственным интеллектом (ИИ). Зачем он нужен?

ИИ сейчас «в каждом утюге», наверняка часть операций на существующих спутниках выполняют нейросети. В чём же замысел нового проекта, если опустить то, что проект надо ещё довести до железа и запустить на орбиту.

Сейчас нормой стали небольшие космические аппараты — кубсаты. Трёхюнитовые модели (один юнит 10х10х10 см) уже могут включать камеру и передавать снимки на поверхность. Однако представим типичную задачу такого спутника ДЗЗ (Дистанционного зондирования Земли), например — проводку суден по Северному морскому пути. Спутники передают снимки, на Земле они расшифровываются, и операторы получают фотографии. Потом на них надо найти айсберги и лёд и проложить безопасный путь.

Получается, что сейчас приходится гонять большие объёмы графической информации из космоса на Землю, потом обрабатывать их и передавать на корабли в зоны, где часто нет устойчивой связи. В результате информация проходит с орбиты на Землю и обратно несколько раз. А теперь представьте, что нейросеть на спутнике распознаёт айсберги или толщину ледяного покрова. И можно сразу передать на морские суда координаты айсбергов или готовый маршрут — небольшой объём текстовой информации.

Есть и обратная сторона. Работа нейросети требует более существенных энергетических затрат, а значит, кубсату нужны солнечные батареи, которые дадут достаточно электричества, и более мощная система охлаждения. Значит, нужно либо увеличивать космический аппарат по размеру, либо создавать более технологичную начинку.

Так или иначе, искусственный интеллект в кубсатах — это вновь поле для экспериментов с кубсатами, которыми занимаемся и мы в RuVDS.

Теги:
Всего голосов 14: ↑14 и ↓0+23
Комментарии0

🤖 Разбираем топ-5 промптов для ChatGPT, которые помогут развить критическое мышление — они заставят вас пересмотреть собственные убеждения и взглянуть на мир более объективно.

Когда ты полностью уверен в чем-то:
Я верю, что [твоя убеждённость]. Какие скрытые предположения я делаю? Какие доказательства могут это опровергнуть?

Когда ты считаешь, что нашёл идеальное решение, но стоит оценить его с другой стороны:
Я собираюсь [твоя идея]. Если бы ты хотел убедить меня, что это ужасная идея, какие были бы твои самые веские аргументы?

Если проблема не уходит, несмотря на все усилия:
Я всё ещё сталкиваюсь с [проблема], несмотря на [твои попытки решить её]. Какие факторы я могу упускать из виду?

Когда перед тобой стоит решение, которое может кардинально изменить твою жизнь:
Я подумываю о [потенциальное решение]. Помимо очевидных последствий первого порядка, какими могут быть неожиданные последствия второго и третьего порядка?

Когда привычные методы больше не работают, и нужно нестандартное решение:
Мы всегда [текущий подход], но он больше не работает. Почему этот традиционный подход может быть неэффективным, и какие радикальные альтернативы существуют?

Хотите больше крутых промптов? 🚀 Присоединяйтесь к нашему телеграм-каналу, где мы делимся ими и не только!

Теги:
Всего голосов 3: ↑1 и ↓2-1
Комментарии0

ITFB Group приняла участие в 17-й конференции «Цифровой документооборот» с платформой СИМФОНИЯ

С 7 по 9 апреля в Москве состоялась 17-я конференция «Цифровой документооборот», организованная MSB Events. Мероприятие собрало ведущих экспертов отрасли для обсуждения практик электронного документооборота.

8 апреля с ключевым докладом «Грани искусственного интеллекта: как СЭД становится умной» выступила Анастасия Литвиненко, директор по развитию бизнеса ITFB Group, автор и идеолог платформы СИМФОНИЯ. Эксперт с 18-летним опытом цифровизации поделилась инновационными подходами к трансформации систем электронного документооборота (СЭД).

Ключевые тезисы выступления:
Интеллектуальные СЭД нового поколения
Современные системы электронного документооборота эволюционировали от простых архивов документов до интеллектуальных помощников, способных:

  • Автоматизировать до 80% рутинных операций, включая распознавание, классификацию и маршрутизацию документов

  • Генерировать типовые документы по заданным шаблонам

  • Минимизировать количество ошибок, вызванных человеческим фактором

Практическая польза для бизнесаВнедрение интеллектуальных СЭД позволяет достичь:

  • Экономии до 40% рабочего времени сотрудников

  • Сокращения сроков обработки документов в 2–3 раза

  • Повышения точности данных и снижения операционных рисков

Принцип цифровой трансформации«Искусственный интеллект не заменяет людей, а усиливает их эффективность, освобождая время для решения стратегических задач», — подчеркнула Анастасия Литвиненко.Особый интерес участников вызвали реальные кейсы внедрения интеллектуальных систем документооборота на базе платформы СИМФОНИЯ в крупных компаниях.

О СИМФОНИИ
СИМФОНИЯ — собственная разработка компании ITFB Group, является полностью импортонезависимым решением и внесена в реестр российского ПО в конце 2022 года. Платформа предназначена для управления цифровым контентом, проектами, заявками и цифровизации бизнес-процессов. Представляет собой набор функциональных модулей, которые можно комбинировать под индивидуальные потребности бизнеса.

О компании ITFB
ITFB Group — российская ИТ-компания, предоставляющая полный комплекс ИТ-услуг: проектирование и внедрение ПО; заказная разработка ПО и приложений; разработка собственных продуктов с использованием технологий ИИ; поставка и интеграция оборудования для построения ИТ-инфраструктуры, включая разработку собственных программно-аппаратных комплексов. ITFB Group также обладает экспертизой в области цифровизации сельскохозяйственного сектора. Клиентами ITFB Group являются более 100 компаний enterprise-уровня, среди которых «Яндекс», Т-Банк, ВТБ, МКБ, «Сбер», Газпромбанк, Росбанк, «Открытие Инвестиции», МТС, ВымпелКом, Теле2, СИБУР, Гринатом, «Уральские авиалинии», СОГАЗ, «Большая российская энциклопедия», «МОЭК», «Мечел» и другие. Офисы компании находятся в Москве, Уфе и Рязани.

Сайт компании: itfbgroup.ru

Теги:
Рейтинг0
Комментарии0

Google опубликовала гайд по бизнес-идеям с ИИ под капотом с примерами 601 кейса под любую сферу: торговля, логистика, медиа, кодинг, телеком, наука. В гайде расписаны реальные примеры от различных компаний по интеграции ИИ-агентов в бизнес.

Теги:
Рейтинг0
Комментарии0

🔥 Нейросети на все случаи жизни — нашли полезную табличку для вас.

Все тулзы актуальные и удобно рассортированы по категориям.

Более подробно про новые нейронки и не только рассказываю у себя в телеграм-канале!

Теги:
Всего голосов 6: ↑1 и ↓5-4
Комментарии2

Честный вопрос к разработчикам: сколько процентов кода в вашем последнем PR было фактически написано LLM?

И как бы отреагировали ваши коллеги/руководство, если бы узнали реальный процент?

Теги:
Всего голосов 6: ↑3 и ↓3+1
Комментарии31

LLM в разработке: Практические вопросы к сообществу

Привет, Хабр!

LLM уже не просто стучатся — они локтями расталкивают наши привычные рабочие процессы. За последний год я много экспериментировал c LLM в разработке, пытаясь найти эффективный и осознанный способ применения, который я для себя назвал «выращиванием кода». Это подход, основанный на декомпозиции, качественном контексте и итеративной доработке, как антидот слепой генерации или «вайб‑кодингу».

Но теория — это одно, а реальность у всех разная. Хочется сверить часы с сообществом и обсудить конкретные методики и наблюдения. Вместо утверждений — задам вопросы, которые возникли у меня (и в ходе недавних обсуждений):

  1. Как вы используете LLM в своей работе? Только для автодополнения и поиска решений, или пробовали полноценно «выращивать» компоненты и модули? Какие модели дают лучший результат для вашего стека?

  2. Насколько важен контекст при работе с LLM? Замечали ли вы разницу между запросами типа «напиши X» и «вот существующий код, создай Y, который интегрируется с ним»? Как вы подбираете релевантный контекст?

  3. Трансформировалась ли ваша роль как разработчика? Заметили ли вы изменение в процессе работы — больше времени на архитектуру и меньше на написание кода? Или LLM пока остается вспомогательным инструментом?

  4. Какие новые навыки потребовались? Как вы формулируете запросы? Разрабатывали ли особые техники промпт‑инжиниринга для программирования? Какие приемы повышают качество генерируемого кода?

  5. В каких областях LLM справляется лучше всего, а где хуже? UI/UX, бизнес‑логика, алгоритмы, тесты? Есть ли паттерны или типы задач, где вы полностью полагаетесь на LLM, и где предпочитаете писать руками?

  6. Как вы проверяете сгенерированный код? Какие методы и практики помогают выявлять потенциальные проблемы? Меняется ли подход к ревью LLM‑кода по сравнению с человеческим? Приходилось ли сталкиваться со специфическим «LLM‑долгом»?

  7. Как LLM влияет на вашу продуктивность? Замечаете ли реальное ускорение разработки? В каких типах задач выигрыш наиболее заметен? Изменилось ли качество конечного продукта?

  8. Как вы решаете проблему «разрыва интерпретаций» между нечеткими человеческими намерениями и точными машинными инструкциями при работе с LLM? Какие техники помогают сузить пространство возможных интерпретаций в промптах?

  9. Какие техники декомпозиции задач вы используете при работе с LLM? Отличаются ли они от «классической» декомпозиции при ручном программировании (например, в части подготовки контекста для каждого шага)?

  10. Как вы видите будущее этой практики? Считаете ли «выращивание кода» (или похожие осознанные подходы) временным трендом или фундаментальным изменением в разработке программного обеспечения?

Буду рад услышать ваши мнения, опыт и конкретные примеры из практики!

Теги:
Всего голосов 4: ↑2 и ↓2+1
Комментарии5