Comments 20
Когда появился ChatGPT и Grok я подумал почему, почему здесь на сайте ссут кипятком и не любят статьи про Gen AI и минусят их, потом понял, что боятся что их говн""ды больше не нужны будут компаниям и код будут писать AI. Но написал сам множество пет проектов с помощью AI Gen, понял что, нефига. Навыки программиста необходимы, так как часто Gen AI уходит в рекурсию багов и не правильных архитектурных решений. Поэтому им нужно уметь оркестрировать, устранять ошибки.
Поэтому Gen AI хорошо подходит для старта, идей, скелетов приложений поиска бага , оптимизации, рефакторинга. Но полностью написать серьёзный проект пока не может.
Вообще, как итог, по эффективности с Gen AI, я бустанул процентов на 500
P.S. есть лайфхак, проверять и оптимизировать написанный код Chat GPT отдавая его в Grok.
Согласен. Если сам не способен написать этот код, то рано или поздно упрешься в какой-то затык. И тут просить ИИ просто переделать это все равно, что джуну вместо реальной помощи и мозгового штурма на проблему сказать "ну напиши по-другому, авось заработает".
А как буст к скорости и скилам ИИ просто шикарно работает.
Если хорошо протестировать то неплохо получаеться, я например в фронт вообще не знаю (и не хочу), но с помощью Clode Code вполне себе работает.
Конечно здравый смысл подсказывает чего делать не стоит, в моём случае я прикрываюсь Azure - пользователи через Entra ID (это Active Directory), хост там же - в одно нажатие настраиваиться TLS, HTTPS и даже CI/CD прямо в GitHub.
(да я не в РФ)
Максим, со всем уважением, но есть две "претензии" к Вам:
Хорошая, спасибо Вам за статью, где Вы описываете личный опыт. Я обожаю такие статьи, когда человек говорит о своём пути в ИТ
Плохая - Вы не знаете терминов и плаваете в них, как пример: "Мои первые впечатления от программирования в ИИ" - В ИИ нельзя программировать. Можно программировать "при помощи того-то и того-то" и подобного в статье очень много. Просто складывается впечатление, что - Вы молодой специалист, который только только пришел в ИТ индустрию. Старайтесь не использовать аббревиатуру GenAI - Вы же не употребляете в повседневной жизни выражение - "масло масляное". Есть общий термин - ИИ, которому уже около 80 лет и есть глупый термин GenAI, который недавно появился. Лучше лишний раз не использовать хайповое слово ИИ, его каждый дурак использует, чтобы как-то выделиться. Правильней использовать то слово, которое наиболее верно описывает технологию, которой Вы пользуетесь - LLM
Спасибо за статью
Спасибо за коментарий. Изначально писал статью на английском. А для хабра уже адаптировал на русский. Поэтому, хоть и перечитывал несколько раз, но могут быть ошибки (глаз замылился, пока переводил). Благодаря Вашему коментарию поправлю.
А вот по поводу терминов не соглашусь. ИИ общее и самое популярное сегодня понятие, поэтому для привлечения внимания к статье его использую чаще чем LLM. И это вполне нормально, т. к. для аудитории, которая придёт по заголовку с "ИИ" эта статья релевантна.
GenAI также популярное и абсолютно корректное для ллмок понятие. Таким образом мы отделяем нейросети, которые генерируют контент от тех, что его распознают.
Что касается GenAI - ты прав: термин стал массовым, и он действительно помогает отделить генеративные модели от, скажем, классификаторов или систем распознавания. В этом смысле он функционален.
Однако, в научном и исследовательском сообществе, особенно среди тех, кто работает с альтернативными парадигмами (нейроморфные вычисления, когнитивные архитектуры, символические ИИ и т.д.), этот термин часто воспринимается как маркетинговая надстройка, а не строгое определение.
Почему?
Потому что "генеративный искусственный интеллект" - это как сказать "еда, которую можно съесть". Само понятие "искусственный интеллект" уже предполагает активность, порождение, принятие решений - то есть, по сути, генерацию. Когда мы выделяем только генеративные модели как "GenAI", мы косвенно объявляем, что остальные формы ИИ - "не совсем ИИ", что, конечно, неверно.
Более того, все LLM - генеративные, но не все генеративные модели - ИИ. LLM не думают, не планируют, не понимают - они воспроизводят паттерны. Называть это "генерацией в смысле интеллекта", значит стирать грань между статистическим предсказанием и когнитивной деятельностью.
Такой терминологический размытости не было даже в периоды предыдущих "зим ИИ", потому что тогда хотя бы чётко понимали: если система не обладает моделью мира, не рассуждает причинно и не учится в процессе, она не является интеллектом, генеративным или нет.
Сегодня GenAI звучит как "умный ИИ" - то есть, как плеоназм, за которым стоит попытка присвоить статус "интеллекта" тому, что пока остаётся продвинутым автозаполнением.
Я понимаю, что в публичном дискурсе эти нюансы часто сглаживаются и это нормально для популяризации. Но если цель быть услышанным не только в мейнстриме, но и в среде исследователей, скептиков и инженеров, то стоит быть чуть строже к терминологии.
Не потому что "так модно", а потому что точные слова — признак точного мышления.
Именно поэтому я и позволил себе уточнение, не как критику, а как попытку вместе говорить точнее.
Спасибо. Я это ценю. Просто не сталкивался с таким восприятием. Несколько лет назад я работал с проектами компьютерного зрения. И мы говоря о наших приложениях говорили, что это ИИ, а вот тот же Stable diffusion это ГенИИ. Именно, подчеркивая разницу между анализом и генерацией.
Про умный и не умный ИИ. Все воспринимают по-разному. Но, если брать градацию ISTQB то делится только на ИИ (читай, содержит под капотом нейросеть) и конвенциональные системы (содержит алгоритмы, статистические механизмы, эвристические анализы.. все то, что нельзя назвать сходу нейросеткой). Мне данное разделение не нравится, но уж как есть.
Да, в индустрии действительно сложилась практика называть всё подряд "ИИ", особенно если там есть нейросеть. И выделение GenAI как отдельной категории - это, скорее, маркетинговое и бытовое разделение, призванное отличить "генераторы текста/картинок" от систем анализа. Но с научной и инженерной точки зрения, термина "GenAI" в строгой классификации не существует. Это не общепринятая категория, как, скажем, "обучение с учителем" или "рекуррентные сети". Это жаргон, удобный для обсуждений в мейнстриме, но не для проектирования систем.
Я сейчас занимаюсь разработкой прото-ИИ на основе LBS (Logic-Based Systems) - систем, где поведение строится не на статистике и обучении, а на формальной логике, правилах, онтологиях и выводах. Это путь, альтернативный нейросетевому подходу, и он был актуален ещё до "эры LLM".
В таких системах:
Нет "генерации" в смысле предсказания следующего токена.
Есть логический вывод, рассуждение, целеполагание.
Система понимает контекст, а не имитирует его.
Именно поэтому я стараюсь избегать термина GenAI, так как он сливает воедино совершенно разные парадигмы:
Генерация через статистику (LLM)
Генерация через синтез (например, procedural content generation)
Генерация через рассуждение (LBS, символьные ИИ)
Для меня "ИИ" - это не про наличие нейросети, а про способность к адаптации, обучению, пониманию и автономному принятию решений. А всё остальное - интеллектуальные системы, автоматизация, ассистенты, но не ИИ в полном смысле.
Разделение ISTQB, к сожалению, упрощает до точки, где теряется суть. Но как раз поэтому нам, инженерам, важно не принимать упрощения как данность, а сохранять чёткость в терминах, особенно когда мы строим что-то, что должно мыслить, а не предсказывать.
Так что да - "GenAI" звучит удобно, но, как ты и отметил, всё воспринимается по-разному. А я просто стараюсь, чтобы моё восприятие было как можно ближе к сути.
К сожалению у меня не хватает кармы, чтобы лайкнуть Ваш последний ответ. Да, именно поэтому мне не нравится классификация ISTQB. В ней нейросеть, которая может только отделить очевидных кошек от собак считается ИИ. В то время, как какая нибудь сложная самодообучающася система будет считаться конвенциональной, если в ней нет очевидной нейросети. Это, на мой взгляд, довольно тупо.
Поэтому буду очень благодарен, если дадите ссылки на именитые источники с корректной классификацией.
"Artificial Intelligence: A Modern Approach" - Stuart Russell & Peter Norvig
Самый авторитетный учебник по ИИ
Главы:
Ch. 1: "Introduction" - даёт чёткую классификацию: Systems that think like humans vs Systems that act rationally
Ch. 26: "Philosophical Foundations" - обсуждает границы ИИ, тест Тьюринга, сознание
https://aima.cs.berkeley.edu/
Авторы критикуют узкое определение ИИ через "наличие нейросети" и предлагают функциональный подход - что делает система, а не из чего она сделана.
"On Defining Artificial Intelligence" - Pei Wang
Научная статья, посвящённая проблеме определения ИИ
Ключевая идея: ИИ - это система, которая учится и адаптируется в условиях неполной информации и ресурсов
https://arxiv.org/abs/1811.08055
Автор предлагает альтернативу традиционным определениям, фокусируясь на гибкости, обучаемости и рациональности, а не на архитектуре.
Stanford «AI Index Report»
Ежегодный отчёт, публикуемый Stanford Institute for Human-Centered AI
Чётко разделяет:
Narrow AI (включая LLM)
Foundational Models
AGI (как цель, а не реальность)
https://aiindex.stanford.edu/
Это не маркетинг, а научно-обоснованный анализ. Они не называют LLM «ИИ» в полном смысле, а рассматривают их как инструменты с ограниченной обобщаемостью.
"The Society of Mind" - Marvin Minsky
Классика: один из отцов ИИ предлагает модель интеллекта как системы взаимодействующих агентов
Идея: ИИ - это не одна сеть, а архитектура, способная к рефлексии, планированию, метапознанию
Показывает, что настоящий ИИ - это не генерация текста, а организация познавательных процессов
"Rebooting AI" - Gary Marcus & Ernest Davis
Книга, где авторы (включая когнитивиста Гэри Маркуса) жёстко критикуют LLM как "не-ИИ"
Тезис: Современные системы не обладают пониманием, причинностью, логикой — а значит, не являются ИИ в полном смысле.
Прямой ответ на твою проблему - "Почему система, которая просто предсказывает слова, считается ИИ, а сложная символьная система — нет?"
Большое спасибо! Это именно то, что нужно 👍. Сохраню себе подборку и почитаю по возможности.
Для меня AI - это прежде всего экономия собственной памяти. Достаточно помнить названия паттернов или алгоритмов и кейсы для их применения, а сам алгоритм или паттерн отлично накидает сам AI. Ну и хорошо помогает для начального ликбеза по незнакомому функционалу. Глубоко - потом все равно лучше посмотреть документацию. Но для быстрого старта - очень даже.
Вся эта прибулда не более чем шаблон для движка на сайт. Но столько сомнений, доказательств, споров, восторга. Интересно что будет с людьми, когда первые антропоморфные дроиды по улицам пойдут? Будут кидаться на них без штанов? 😂
Честно говоря не очень понял, какую мысль вы хотите выразить.
Я за время работы много хейта видел в сторону различных технологий. Кому-то движки сайтов неугодили, кому-то какие-то языки программирования, кому-то ИИ инструменты "религиозно" не нравятся. Однако с аргументацией у хейтеров обычно проблемы.
По своему опыту пользования ИИ, оно очень упрощает жизнь, но доверять коду надо ооочень осторожно. Я вот недавно писал класс для RoPE трансформера, и добавил внутрь предпосчтет углов, так делается везде. Сказал Claude 4 sonnet thinking (считается одной из топовых моделей на лето 2025) в курсоре "а интегрируя ка мне вот эту функцию для предпосчёта углов в мой код", и оно вкорячило её прямо в forward, т.е. она бы вызывалась каждый раз при пассе модуля, а не один раз при инициализации, просто гениально (нет, в функции не было проверки на кеш). И если не знаешь как оно работает, ты даже не заметишь баг, оно будет корректно отрабатывать. Или дебагал я запросы к MCP из langchain, соннет за 2 промпта насрал 6 файлов для дебага, из которых я в итоге забрал 4 строчки в код и всё поудалял.
o3 как-то разумнее, но всё равно, рано или поздно вылезают моменты где ты не решишь проблему если ты её не понимаешь. Пока что самые главные плюсы ИИ для кодинга для меня это генерация идей и дебаг. Дать модели код и спросить, а что можно сделать лучше и по-другому, иногда предлагает интересные решения. А дебаг - в IDE оно по стак трейсу может прочитать пол репозитория и найти ошибку не там, где всё падает, а именно где косяк в первый раз возникает, просто потому что оно понимает всю логику вызова модулей.
Это всё хорошо, но вы не попробовали передовые инструменты - Codex, линейка о-моделей от OpenAI и т.д
На это надо смотреть под другим углом. Каждый день тыщи программистов совершают одну и ту же работу. Делают одну и ту же "кнопку". Все эти знания можно складировать в один "сундук" и брать из него всем. Это и есть LLM.
Мои первые впечатления от программирования с ИИ