Search
Write a publication
Pull to refresh

Comments 20

Когда появился ChatGPT и Grok я подумал почему, почему здесь на сайте ссут кипятком и не любят статьи про Gen AI и минусят их, потом понял, что боятся что их говн""ды больше не нужны будут компаниям и код будут писать AI. Но написал сам множество пет проектов с помощью AI Gen, понял что, нефига. Навыки программиста необходимы, так как часто Gen AI уходит в рекурсию багов и не правильных архитектурных решений. Поэтому им нужно уметь оркестрировать, устранять ошибки.

Поэтому Gen AI хорошо подходит для старта, идей, скелетов приложений поиска бага , оптимизации, рефакторинга. Но полностью написать серьёзный проект пока не может.


Вообще, как итог, по эффективности с Gen AI, я бустанул процентов на 500

P.S. есть лайфхак, проверять и оптимизировать написанный код Chat GPT отдавая его в Grok.

Согласен. Если сам не способен написать этот код, то рано или поздно упрешься в какой-то затык. И тут просить ИИ просто переделать это все равно, что джуну вместо реальной помощи и мозгового штурма на проблему сказать "ну напиши по-другому, авось заработает".
А как буст к скорости и скилам ИИ просто шикарно работает.

Если хорошо протестировать то неплохо получаеться, я например в фронт вообще не знаю (и не хочу), но с помощью Clode Code вполне себе работает.
Конечно здравый смысл подсказывает чего делать не стоит, в моём случае я прикрываюсь Azure - пользователи через Entra ID (это Active Directory), хост там же - в одно нажатие настраиваиться TLS, HTTPS и даже CI/CD прямо в GitHub.
(да я не в РФ)

Максим, со всем уважением, но есть две "претензии" к Вам:

  1. Хорошая, спасибо Вам за статью, где Вы описываете личный опыт. Я обожаю такие статьи, когда человек говорит о своём пути в ИТ

  2. Плохая - Вы не знаете терминов и плаваете в них, как пример: "Мои первые впечатления от программирования в ИИ" - В ИИ нельзя программировать. Можно программировать "при помощи того-то и того-то" и подобного в статье очень много. Просто складывается впечатление, что - Вы молодой специалист, который только только пришел в ИТ индустрию. Старайтесь не использовать аббревиатуру GenAI - Вы же не употребляете в повседневной жизни выражение - "масло масляное". Есть общий термин - ИИ, которому уже около 80 лет и есть глупый термин GenAI, который недавно появился. Лучше лишний раз не использовать хайповое слово ИИ, его каждый дурак использует, чтобы как-то выделиться. Правильней использовать то слово, которое наиболее верно описывает технологию, которой Вы пользуетесь - LLM

Спасибо за статью

Спасибо за коментарий. Изначально писал статью на английском. А для хабра уже адаптировал на русский. Поэтому, хоть и перечитывал несколько раз, но могут быть ошибки (глаз замылился, пока переводил). Благодаря Вашему коментарию поправлю.

А вот по поводу терминов не соглашусь. ИИ общее и самое популярное сегодня понятие, поэтому для привлечения внимания к статье его использую чаще чем LLM. И это вполне нормально, т. к. для аудитории, которая придёт по заголовку с "ИИ" эта статья релевантна.

GenAI также популярное и абсолютно корректное для ллмок понятие. Таким образом мы отделяем нейросети, которые генерируют контент от тех, что его распознают.

Что касается GenAI - ты прав: термин стал массовым, и он действительно помогает отделить генеративные модели от, скажем, классификаторов или систем распознавания. В этом смысле он функционален.

Однако, в научном и исследовательском сообществе, особенно среди тех, кто работает с альтернативными парадигмами (нейроморфные вычисления, когнитивные архитектуры, символические ИИ и т.д.), этот термин часто воспринимается как маркетинговая надстройка, а не строгое определение.

Почему?

Потому что "генеративный искусственный интеллект" - это как сказать "еда, которую можно съесть". Само понятие "искусственный интеллект" уже предполагает активность, порождение, принятие решений - то есть, по сути, генерацию. Когда мы выделяем только генеративные модели как "GenAI", мы косвенно объявляем, что остальные формы ИИ - "не совсем ИИ", что, конечно, неверно.

Более того, все LLM - генеративные, но не все генеративные модели - ИИ. LLM не думают, не планируют, не понимают - они воспроизводят паттерны. Называть это "генерацией в смысле интеллекта", значит стирать грань между статистическим предсказанием и когнитивной деятельностью.

Такой терминологический размытости не было даже в периоды предыдущих "зим ИИ", потому что тогда хотя бы чётко понимали: если система не обладает моделью мира, не рассуждает причинно и не учится в процессе, она не является интеллектом, генеративным или нет.

Сегодня GenAI звучит как "умный ИИ" - то есть, как плеоназм, за которым стоит попытка присвоить статус "интеллекта" тому, что пока остаётся продвинутым автозаполнением.

Я понимаю, что в публичном дискурсе эти нюансы часто сглаживаются и это нормально для популяризации. Но если цель быть услышанным не только в мейнстриме, но и в среде исследователей, скептиков и инженеров, то стоит быть чуть строже к терминологии.

Не потому что "так модно", а потому что точные слова — признак точного мышления.

Именно поэтому я и позволил себе уточнение, не как критику, а как попытку вместе говорить точнее.

Спасибо. Я это ценю. Просто не сталкивался с таким восприятием. Несколько лет назад я работал с проектами компьютерного зрения. И мы говоря о наших приложениях говорили, что это ИИ, а вот тот же Stable diffusion это ГенИИ. Именно, подчеркивая разницу между анализом и генерацией.

Про умный и не умный ИИ. Все воспринимают по-разному. Но, если брать градацию ISTQB то делится только на ИИ (читай, содержит под капотом нейросеть) и конвенциональные системы (содержит алгоритмы, статистические механизмы, эвристические анализы.. все то, что нельзя назвать сходу нейросеткой). Мне данное разделение не нравится, но уж как есть.

Да, в индустрии действительно сложилась практика называть всё подряд "ИИ", особенно если там есть нейросеть. И выделение GenAI как отдельной категории - это, скорее, маркетинговое и бытовое разделение, призванное отличить "генераторы текста/картинок" от систем анализа. Но с научной и инженерной точки зрения, термина "GenAI" в строгой классификации не существует. Это не общепринятая категория, как, скажем, "обучение с учителем" или "рекуррентные сети". Это жаргон, удобный для обсуждений в мейнстриме, но не для проектирования систем.

Я сейчас занимаюсь разработкой прото-ИИ на основе LBS (Logic-Based Systems) - систем, где поведение строится не на статистике и обучении, а на формальной логике, правилах, онтологиях и выводах. Это путь, альтернативный нейросетевому подходу, и он был актуален ещё до "эры LLM".


В таких системах:

  • Нет "генерации" в смысле предсказания следующего токена.

  • Есть логический вывод, рассуждение, целеполагание.

  • Система понимает контекст, а не имитирует его.

Именно поэтому я стараюсь избегать термина GenAI, так как он сливает воедино совершенно разные парадигмы:

  • Генерация через статистику (LLM)

  • Генерация через синтез (например, procedural content generation)

  • Генерация через рассуждение (LBS, символьные ИИ)

Для меня "ИИ" - это не про наличие нейросети, а про способность к адаптации, обучению, пониманию и автономному принятию решений. А всё остальное - интеллектуальные системы, автоматизация, ассистенты, но не ИИ в полном смысле.

Разделение ISTQB, к сожалению, упрощает до точки, где теряется суть. Но как раз поэтому нам, инженерам, важно не принимать упрощения как данность, а сохранять чёткость в терминах, особенно когда мы строим что-то, что должно мыслить, а не предсказывать.

Так что да - "GenAI" звучит удобно, но, как ты и отметил, всё воспринимается по-разному. А я просто стараюсь, чтобы моё восприятие было как можно ближе к сути.

К сожалению у меня не хватает кармы, чтобы лайкнуть Ваш последний ответ. Да, именно поэтому мне не нравится классификация ISTQB. В ней нейросеть, которая может только отделить очевидных кошек от собак считается ИИ. В то время, как какая нибудь сложная самодообучающася система будет считаться конвенциональной, если в ней нет очевидной нейросети. Это, на мой взгляд, довольно тупо.

Поэтому буду очень благодарен, если дадите ссылки на именитые источники с корректной классификацией.

"Artificial Intelligence: A Modern Approach" - Stuart Russell & Peter Norvig

Самый авторитетный учебник по ИИ
Главы:
Ch. 1: "Introduction" - даёт чёткую классификацию: Systems that think like humans vs Systems that act rationally
Ch. 26: "Philosophical Foundations" - обсуждает границы ИИ, тест Тьюринга, сознание

https://aima.cs.berkeley.edu/
Авторы критикуют узкое определение ИИ через "наличие нейросети" и предлагают функциональный подход - что делает система, а не из чего она сделана.

"On Defining Artificial Intelligence" - Pei Wang

Научная статья, посвящённая проблеме определения ИИ
Ключевая идея: ИИ - это система, которая учится и адаптируется в условиях неполной информации и ресурсов

https://arxiv.org/abs/1811.08055
Автор предлагает альтернативу традиционным определениям, фокусируясь на гибкости, обучаемости и рациональности, а не на архитектуре.

Stanford «AI Index Report»

Ежегодный отчёт, публикуемый Stanford Institute for Human-Centered AI
Чётко разделяет:

  • Narrow AI (включая LLM)

  • Foundational Models

  • AGI (как цель, а не реальность)

https://aiindex.stanford.edu/
Это не маркетинг, а научно-обоснованный анализ. Они не называют LLM «ИИ» в полном смысле, а рассматривают их как инструменты с ограниченной обобщаемостью.

"The Society of Mind" - Marvin Minsky

Классика: один из отцов ИИ предлагает модель интеллекта как системы взаимодействующих агентов
Идея: ИИ - это не одна сеть, а архитектура, способная к рефлексии, планированию, метапознанию

Показывает, что настоящий ИИ - это не генерация текста, а организация познавательных процессов

"Rebooting AI" - Gary Marcus & Ernest Davis

Книга, где авторы (включая когнитивиста Гэри Маркуса) жёстко критикуют LLM как "не-ИИ"

Тезис: Современные системы не обладают пониманием, причинностью, логикой — а значит, не являются ИИ в полном смысле.

https://rebootingai.org/

Прямой ответ на твою проблему - "Почему система, которая просто предсказывает слова, считается ИИ, а сложная символьная система — нет?"

Большое спасибо! Это именно то, что нужно 👍. Сохраню себе подборку и почитаю по возможности.

Эти источники действительно помогают выйти за рамки хайпа и взглянуть на ИИ с фундаментальной стороны. Пользуйтесь на здоровье - и если вдруг захотите обсудить что-то из прочитанного, буду рад продолжить разговор.

Для меня AI - это прежде всего экономия собственной памяти. Достаточно помнить названия паттернов или алгоритмов и кейсы для их применения, а сам алгоритм или паттерн отлично накидает сам AI. Ну и хорошо помогает для начального ликбеза по незнакомому функционалу. Глубоко - потом все равно лучше посмотреть документацию. Но для быстрого старта - очень даже.

К сожалению, это нельзя назвать экономией. Это просто её (памяти) неразвитие. Это экономия времени и усилий. Но не экономия памяти

Вся эта прибулда не более чем шаблон для движка на сайт. Но столько сомнений, доказательств, споров, восторга. Интересно что будет с людьми, когда первые антропоморфные дроиды по улицам пойдут? Будут кидаться на них без штанов? 😂

Честно говоря не очень понял, какую мысль вы хотите выразить.

Я за время работы много хейта видел в сторону различных технологий. Кому-то движки сайтов неугодили, кому-то какие-то языки программирования, кому-то ИИ инструменты "религиозно" не нравятся. Однако с аргументацией у хейтеров обычно проблемы.

По своему опыту пользования ИИ, оно очень упрощает жизнь, но доверять коду надо ооочень осторожно. Я вот недавно писал класс для RoPE трансформера, и добавил внутрь предпосчтет углов, так делается везде. Сказал Claude 4 sonnet thinking (считается одной из топовых моделей на лето 2025) в курсоре "а интегрируя ка мне вот эту функцию для предпосчёта углов в мой код", и оно вкорячило её прямо в forward, т.е. она бы вызывалась каждый раз при пассе модуля, а не один раз при инициализации, просто гениально (нет, в функции не было проверки на кеш). И если не знаешь как оно работает, ты даже не заметишь баг, оно будет корректно отрабатывать. Или дебагал я запросы к MCP из langchain, соннет за 2 промпта насрал 6 файлов для дебага, из которых я в итоге забрал 4 строчки в код и всё поудалял.

o3 как-то разумнее, но всё равно, рано или поздно вылезают моменты где ты не решишь проблему если ты её не понимаешь. Пока что самые главные плюсы ИИ для кодинга для меня это генерация идей и дебаг. Дать модели код и спросить, а что можно сделать лучше и по-другому, иногда предлагает интересные решения. А дебаг - в IDE оно по стак трейсу может прочитать пол репозитория и найти ошибку не там, где всё падает, а именно где косяк в первый раз возникает, просто потому что оно понимает всю логику вызова модулей.

Это всё хорошо, но вы не попробовали передовые инструменты - Codex, линейка о-моделей от OpenAI и т.д

В статье писал, что на сегодняшний день выбрал бы Claude sonnet 4. Под мои редкие и относительно простые хотелки мне хватает. Но если Вы где-то описывали свой опыт использования перечисленных инструментов, с удовольствием почитаю. Может что-то возьму на заметку.

На это надо смотреть под другим углом. Каждый день тыщи программистов совершают одну и ту же работу. Делают одну и ту же "кнопку". Все эти знания можно складировать в один "сундук" и брать из него всем. Это и есть LLM.

Sign up to leave a comment.

Articles