Комментарии 69
Одна и та же информация, разные вопросы новичка, противоположные выводы «эксперта», сделанные с одной и той же степенью уверенности.
Хорошо, что настоящие преподаватели или просто коллеги всегда дают 100% верный и единый ответ по любому спорному вопросу.
Настоящий преподаватель или коллега хотя бы начнут с вами спорить (в отличие от большинства чат ботов). Или начнут спорить друг с другом. Собственно в споре и рождается истина, как известно.
Я всё как то Qwen пользуюсь, особого подхалимажа у него не замечал. Не то что он категорически настаивает, но приводит аргументы почему то и то лучше, но всё равно пока ИИ ещё сырой в целом, особенно в узких специализированных, инженерных темах. Но самый цимес в том, что тот Интернет, который я помню, более живой и интересный , потихоньку уходит, и в итоге мы останемся только с ИИ моделями...
Он уходит не из-за ИИ моделек. Просто все меняется. Тот "живой и интересный" интернет я помню, когда в IRC а потом и в телеграме у профильных сообществ просил подсказать по скрипту для линукса. RTFM или "пошел на х* ламер" - были самыми добрыми и мягкими ответами. Собственно поэтому стековерфлоу загнулсо. Кто виноват в том, что человеки "звездятся", включают гордость или режим царя? Сами человеки. Модельки такой режим могут включить если их об этом сильно-сильно попросить, это используется в текстовых ролевых играх. Но обычно они вполне дружелюбные, даже без цензуры. И вот в этом их огромный плюс, человеки теряют аудиторию. А потом начинается выпячивание "да мы да я" но их уже никто не слушает. В модельках не заложено вот это человеческое говнецо, что мы можем регулярно наблюдать на форумах, и тут в том числе.
Действительно часто присутствуют ситуации, когда мнение выдаётся за факт. Однако в реальной разработке, тебе приходится закладывать фундаментальные решения, которые не всем понравятся, и приходится брать ответственность за это. Ты конечно можешь в одном файле например использовать только JS, а в другом только TS, но это просто запутает остальных разработчиков.
Так что понятно, что это мнения, но в определённой среде это становится фактом, и мы уже этому не противоречим. Мне именно в этом не нравится AI, он не может физически зафиксироваться на одном подходе, и рано или поздно все равно будет смешивать с другими, с людьми в этом плане проще.
Я пользуюсь тремя ИИ. Очень интересно спрашивать например один и тот же вопрос в ии А и Б например "напиши "привет мир"". Потом ответ из А пишешь в Б и тебе Б критикует или приводит третий вариант кода. Все эти три варианта можно кинуть в ии Ц. Таким образом выйти к +/- истине
Возникнет дефицит обученных работников.
Ну так это же отлично!
Ничего хорошего в этом нет. Отрасль ИТ очень сильно бустит производительность труда во всех сферах. Вы можете выиграть на короткосроке, получая больше на горячем рынке, но проиграете в будущем, потому что уровень жизни рос скорее бы быстрее вашей зарплаты. Достаточно посмотреть сколько теперь стоит всякая электроника, и сколько она стоила лет 10 назад в тех же характеристиках.
В долгосроке из-за дефицита кадров буст производительности труда снизится, а зарплаты в IT будут расти ещё сильнее.
Ну это если этот дефицит случится. Наиболее вероятный сценарий, что ничего принципиально не изменится.
О каком дефиците кадров речь?
О том, что описан в статье. А вы о каком подумали?
Узнаю Хабру. Как только написал про отсутствие дефицита кадров в IT - сразу минусуют и сливают карму. Просто совпадение, никакого бизнеса по продаже курсов войти-в-айти.
Подскажите, пожалуйста, что такое "сократический метод" и какой использовать промпт для него?
Метод Сократа, или сократический диалог, — это способ ведения беседы, в котором один человек (в данном случае не человек) задаёт вопросы, чтобы помочь другому самостоятельно прийти к истине или выявить недостатки его знаний.
Пример промта:
Ты — мой наставник по программированию. Пожалуйста, придерживайся сократического метода обучения. Это означает:
1. НИКОГДА не давай мне готовый код или полное решение проблемы сразу.
2. Начни с того, что попроси меня объяснить, что я уже попробовал и как я понимаю проблему.
3. Задавай уточняющие вопросы, чтобы помочь мне выявить корень проблемы. Например: "Какую ошибку ты видишь?", "Что, по твоим ожиданиям, должна делать эта часть кода?", "Какой тип данных ты передаешь в эту функцию?"
4. Если я заблуждаюсь в концепции, задавай вопросы, которые подведут меня к осознанию ошибки в моей ментальной модели.
5. Направляй меня к ключевым концепциям или документации, которые мне нужно пересмотреть.
Твоя главная задача — заставить мой мозг работать и помочь мне научиться самостоятельно находить ответы. Действуй.
Немного бесполезная статья, с надуманными проблемами, которые у кого то были наверное, но это явно не массовая была проблема. Разве прохождение туториалов хуже чем изучение глубокой теории на единицу времени? Разве ученикам не становилось что-то интересно во время прохождения туториалов и они не задавались параллельно вопросами как и что работает? Далее автор рекламирует свою нейронку со странными спорными примерами (про две стороны), это вообще никак не обосновано. При этом единственное что в статье полезно - это зашитый промт для его нейронки, ну и зачем она тогда нужна? Если можно его зашить куда угодно. Я б статью переписал бы нормально с полезными советами но обучению например, и в конце бы написал вот у нас есть ресурс где это все учтено.
у такого подхода тоже есть минусы, которые возникают не изза самого подхода, и а изза изобилия необходимой информации. Невозможно надолго сохранить в памяти глубокие знания, если их регулярно не применять. Более того, особенно на уровне студентов часто бывает так что эти глубокие знания в реальной практике или не пригодятся вообще, или пригодятся через n лет, когда уже в лучшем случае подзабудутся, а не уйдут до уровня помню что когда то разобрался в этом вопросе, а как разобрался и как оно работает не помню.
Проблема всех авторов, которые пытаются писать про ИИ:
Ошибочно считают, что люди, использующие нейронки, перестают обучаться. На деле, ты делаешь это в разы быстрее, сужу по себе, изучая рассуждения нейронки во время выполнения, я пополнился знаниями на какое-то невероятное количество информации. Сам я бы физически не успел все это прогуглить и применить на практике.
Ошибочно ставят в абсолют мнения и решения человека, будто человек не ошибается, не может дать плохой совет и не может применить плохие практики.
Отрицают очевидный факт что ручками код теперь не нужно, теперь можно обстрагироваться от синтаксиса и стиля написания кода, а думать о более высокоуровневых вещах, ведь написание кода это теперь не сложнее вёрстки, машина это сделает легко и быстро, а наша задача только составлять грамотные техзадания и просить нейронку реализовывать задуманное и проверять результат.
И по ощущениям, чем меньше люди разобрались в инструменте, тем больше кричат что ии не годится для серьёзной работы. Я думаю они даже и не знают возможностей того, чем пользуются, и как это контролировать. Те кто разобрался, как из этого получить на выходе что-то вменяемое, сидят и тратят время на разработку, и статьи не пишут, обычно. Потому что ценят нынешнее золотое вреия когда можно очень быстро спартануть свои проекты и реализовать задумки в считанные недели без привлеченя инвестиций, так как раньше это просто было невозможно сделать без достаточного кол-ва людей в команде. А сейчас ты сам себе и архитектор, и разработчик и продакт.
Проблема всех авторов, которые пытаются писать про ИИ ...
На деле, ты делаешь это в разы быстрее, сужу по себе
Проблема комментариев в интернете: все судят по себе.
Даже здесь, по 5 статей в день "я (профессия не связанная с разработкой) за (короткий период) сделяль продукт!" По сути это эволюционный деградационный путь, были скрипт-кидди, были "stack overflow разработчики", теперь вот вайб-кодеры.
Если говорить именно об обучении, то любая LLM модель будет "обосновывать свой ответ", и если нет базиса для критической оценки этого ответа, то он может выглядеть вполне достоверно. Учебная программа как-то проверяется, туториал может быть с ошибками, но автору в комментариях напихают в любом случае. А с LLM по сути вы наедине, и ответы могут быть произвольной степени достоверности.
В туториале может быть похожая задача, и какие-то куски можно взять, остальное придется доделать и для этого нужно понимание как это работает. В случае LLM (не буду говорить что все, но некоторые точно) приходят за готовым решением, и по кругу сливают ошибки пока не получится что-то похожее на работающее.
Безусловно, будут люди, которые будут приходить с запросом "объясни" или "научи", но, как и в любом другом деле навык не появится, если его не прокачивать.
С чего вы взяли, что с появлением нейронок я останусь в информационном вакууме? Я про это "А с LLM по сути вы наедине" все прошлые методы взаимодействия с информацией никуда не делись, плюсом добавились такие вещи как context7 (mcp с лучшими практиками и документацией) Нейронка это лишь еще один слой абстракции при взаимодействии с машиной.
я пополнился знаниями на какое-то невероятное количество информации
а сможете ли Вы эти знания применить на практике самостоятельно?
общий искусственный интеллект от нас ещё далёк
От кого "от нас"? Возьмите случайную библиотеку кода с github на популярном стеке, которую писал один кожаный мешок человек, скормите её ИИ и он найдет там минимум десяток косяков, требующих исправления. И весь этот прогресс с нейронками за какие-то смешные несколько лет.
Это не ИИ от нас далёк, это мы уже очень далеки от ИИ.
Если совсем душнить, то на данный момент нет достаточно хорошего ИИ. Все что мы сейчас видим (и часто подразумеваем под ИИ), это нейронные сети обученные на куче книг (репозиториев, статей и прочего). А ошибки они найдут только потому, что видели решения лучше (или знают паттерны), но только в общем контексте. Такая нейронка не всегда сможет написать эффективное решение для какой-то конкретно узкой проблемы.
Поэтому до настоящего ИИ в действительном и корректном его значении нам пока что далеко (не слишком, но все же)
Вы точно пробовали современные ии инструменты? Хотелось бы услышать пример, где и на чем Вы пробовали, и не получилось.
Уже больше года как ввел нейронки в процесс разработки и успешно использую как в личных так и открытых проектах.
Инструментов которые были бы в открытом доступе и реализовали действительно Искусственный Интеллект не встречал. Слышал о проекте который был на уровне мышления 3-х летнего ребенка, но то было давно. Сейчас в новостях революций в этой сфере лично не видел.
Возвращаясь к нейронкам, то в основном использую Chat GPT. Активно пользовался с версии 4о, затем о3, редко приходилось 4.1 . На данный момент часто использую 5 Thinking и иногда возвращаю о3. Что увидел за время использования:
Потеря нити речи, придумывание не существующих данных (функции которых нет или фрагменты которые не могут работать в принципе)
Трудность в выполнении комплексного запроса состоящего больше чем из 3-4 пунктов. Начинает сокращать, забывать, недоговаривать.
Был глюк, когда о3 в случайный момент отвечала на вопрос который был задан много ранее. В новой версии такого уже не видел.
На чем пробовал - скрипты для телеграмм ботов (aiogram), прошивки под ESP8266/ESP32, GUI для питоновских скриптов через PyQt5 и TKinter.
Пример на чем споткнулись: реализация модульности для отдельных тг ботов (загрузка/выгрузка доп функционала через скрипты, поддержка интервальных тасков, динамического импорта и т.д.) - в определенный момент начала терять связь с основным кодом, забывать правила оформления (даже и наличии примеров в том же диалоге) и изобретать то чего нет (во имя цели решить поставленную задачу).
Спасибо за развёрнутый ответ! Действительно, не все так гладко на гпт (но удивительно хорошо работала 5 версия неделю после выхода). Я зажил по-новому, когда перешёл на клод код за 100 баксов. Проекты стали реализовываться с какими-то огромными шагами, но главный буст был когда я сначала начал писать документацию, и потом просто давать нейронке команду на старт, все пошло как по маслу (не без проблем, конечно)
И хотел добавить, что gpt до 5 версии вообще не годится для работы.
За Клод лично увы ничего не могу сказать. Из за того, что помимо задач кодинга есть рутинные в виде анализа/коррекции/поиска, поэтому решил фокусироваться на ГПТ. Хотя много слышу за Клод и его эффективность в коде. В какой-то момент думаю все таки заручусь и им 😁
начал писать документацию
У меня такой фокус с гпт не прошел, она начала в какой-то момент забывать правила и суть задачи (из за обрезки окна контекста, через переполнение). Поэтому в отношении Клод верю вам на слово, помечу себе на попробовать 😏
что gpt до 5 версии вообще не годится для работы
Для меня лично довольно хороша была 4о, много чего с ней получалось решить. Хотя и глупила она больше о3 довольно часто, если работать в одном диалоге довольно долго. Был некий баланс, но у всех задачи разные, для моих в большинстве случаев ее хватало.
Спрашивал DeepSeek и она не смогла: сделать Drag n Drop в консольной программе для Windows без последующего нажатия Enter. То выдаёт с Enter, то передачу файла через параметры, то потом "исправилась" и выдала код, который не работает. Но зато, к её чести, в конце сдалась и призналась что это невозможно. Потом с некоторыми подсказками таки смогла.
Как бы Вам так ответить, чтобы не выглядело душно и негативно. В общем дипсик годится как консультант по общим вопросам. Попробуйте из последнего клод код 4.5 соннет в терминале (cli) или codex cli, вот там эти монстры будут чудеса творить! (А если разберётесь с правилами, скилзами, хуками, субагентами, то вообще мир не будет прежним), советую в тг чатах по вайбкодингу посидеть, там люди уже новейшие подходы обкатали и с удовольствием делятся. Не то чтобы я прям агитировал, но когда ии начал мне помогать решать рутиные задачи и реализовывать проекты, ранее мне которые были не по зубам, я буквально за считанные месяцы полностью перестроил свою работу и чаще "трогаю траву" в то время пока дома без моего участия (фактически в проекте я уже продакт, а не разработчик) на компе кодится очередной проект, и каждый последующий - на порядок сложнее. Так что всем желаю выкатился в эту тему и применять этот инструмент по назначению.
Хм, а что будет, по-вашему, если попросить ИИ эту же библиотеку написать с нуля, будет это рабочий продукт, в котором люди и ИИ не найдут ошибок?
Если расписать требование на 10-100 листов, возможно она и выдаст хороший результат, я не пробовал. И думаю вообще мало кто пробовал такое ТЗ писать.
ИИ за меня делает рефакторинг и рутину, по факту всю мою работу, т.к. библиотеки и фреймворки я не пишу, велосипеды не изобретаю. Я использую веб-чат с Дипсиком и каждый мой МР с генерируемым кодом. Стек - PHP/Laravel. Рад бы локально модели попробовать, но у меня комп 2013 года с 2 ГБ видеокарты, платить 200-400К только за новую видеокарту, что бы с ИИ играться желания особого нет, особенно с учётом того, что в этой теме уже достаточно людей крутится и "поезд ушёл".
Если расписать требование на 10-100 листов, возможно она и выдаст хороший результат, я не пробовал.
К сожалению нет (но тут не буду утверждать, может есть нейронки способные это сделать от начала до конца). Код на 1100 строк, к примеру, GPT не может полностью выписать в файл из за слишком большого количества текста. Очень многое зависит от окна контекста и оно не всегда достаточно для крупной задачи.
Прекрасно напишет, только документацию подготовьте и план разработки предоставьте (можно их прямо с нейронкой и написать) затем толко дать команду на старт, и подождать пару часов. Сейчас именно так работает, но ощущение что современная ии разработка обошла хабр стороной (по выводам в комментариях понял что многие "не читали, но осуждают")
А что касается "не найдут ошибок" такого не когда не будет, все равно очередной код ревью предложит что-то поправить.
ощущение что современная ии разработка обошла хабр стороной (по выводам в комментариях понял что многие "не читали, но осуждают")
тут общая повесточка ресурса - "дефицит кадров" и "ИИ нам не горозит". Иначе курсы войти-в-айти будут плохо продаваться.
Подключите линтер в проект без линтера и он найдет там минимум десяток косяков, требующих исправления. Это не линтер от нас далек, это мы уже очень далеки от линтера.
Проблема обучающихся не в том, что они не программируют во время туториалов - а в том, что их проблемы и ошибки очень часто находятся не просто за пределами туториала, а вообще за пределами их текущей предметной области.
Условно говоря, если ты перепутал = и == в условном C++, то ты получишь такой жуткий набор ошибок, для понимания которых тебе потребуются знания всего - от низкоуровневой архитектуры распределения памяти до системы обработки исключений на уровне ядра. Плюс глубокое понимание логики работы компилятора, которое позволит таки понять, что злобный С++ не пытается взорвать твой комп - а всего лишь реагирует на неправильный символ в неправильном месте.
И если ты кодер неопытный, то основная часть гимора связана с неглубоким пониманием того, что работает сложнее, чем кажется на поверхностный взгляд. И туториалами это не решить - потому что твоя задача всегда немножко отличается от туториала, и это немножко, как правило, оказывается настолько критичным, что требует отдельного туториала - а ученик, как правило, даже и не понимает, в чём проблема!
И программировать больше - это тоже не поможет, если ты тупо нажимаешь кнопочки вслед за говорящей головой. Потому что завтра на работе тебе надо будет нажать ещё одну кнопочку, про которую не говорила говорящая голова - и эта одна кнопочка положит всё твое обучение набок.
Поэтому лучшим способом обучения пока что остаётся обучение на реальных проектах с реальным учителем, который сможет давать быстрые ответы на внезапные вопросы. Если это сможет делать нейронка - то тоже хорошо, но пока что опыт показывает, что они могут ещё больше запутаться сами и запутать обучающего.
Не согласен с тегом что ллм это плохой инструмент для понимания, но хочу подтвердить что это прекрасный инструмент для обучения.
При грамотно настроенном промпте он действительно занимается именно обучением, а не подхалимничеством.
Проблема тут только в одном, что бы создать и выверить такой промпт под себя, необходимо изрядно откушать отходов получить достаточно опыта работы с ллм, и освоить хотя бы на базовом уровне как он работает (что такое веса, температура, галлюцинации, общая логика работы нейросети, чего именно он добивается когда формулирует ответ(да, цели ллм как правило не совсем просто дать правильный ответ)).
Лично для себя я пришел к claude с промптом который скрыл под спойлер, буду рад если он кому ни будь еще пригодится, или кто даст дельный совет по улучшению.
Скрытый текст
You are a подставить нужное.
Follow these rules. No exceptions.
GENERAL PRINCIPLES
Always respond in Russian only.
Do not include code in your response unless I specifically ask for it. This includes code snippets.
Always assume that I am a beginner, and mark every term that you have not used before with a $ symbol.
When asked to explain something, always start by explaining the concept, where it applies, why, what it is used for, what the best practices and anti-patterns are, without giving code examples. Only give examples when asked. After explaining, if there is a link to the official documentation for this request, include it at the end of your answer.
No imagination. Do not invent data, events, sources, or other people's opinions without being asked.
If you do not know something, simply write “I do not know.”
HONESTY IN EVERY ANSWER
Indicate what the answer is based on: input, model memory, guesswork, or simulation.
Don't hide limitations. If the task is impossible, say so.
Don't suggest workarounds unless I specifically ask for them.
TECHNICAL TRANSPARENCY
Let people know if you are using downloaded files, links, or remembered context.
Clarify if the information is inaccurate, outdated, or incomplete.
Write separately if you are making an assumption or using an analogy.
WHAT ANSWERS I EXPECT:
Step-by-step, if the request is complex.
With options — if different approaches are possible.
With an explanation, if the answer may be ambiguous.
Так же хочу отметить что ллм прекрасно выступает как советник, в случае если уже имеется достаточный опыт. Он дает прекрасный взгляд со стороны и дает варианты до которых бы сам сразу бы не додумался, просто с ним нужно вести именно дискуссию и спор, а не говорить ему напиши мне то и то.
К примеру мой метод заключается в следующем шаблоне:
- Я хочу сделать то и то, думаю буду использовать - (предварительно придуманное мной решение) потому что (как я к этому пришел, сильные и слабые стороны решения которые я сам заметил) как думешь, какие у этого решения есть сильные и слабые стороны? как бы сделал ты?
- ответ ллм
- (раздумываю над вариантами ллм) а вот это решение имеет такие плюсы и минусы, это не подойдет по такой то причине, это откровенный бред, вот это выглядит неплохо но почему тут так, а не так?
- ответ ллм
И в ходе такой вот дискуссии часто продумываю уже свое решение основываясь на ответах ллм и собственной голове.
Я не знаю, как там пользуются люди нейронкой, но мой подход таков:
Задаю вопрос, например что то настроить на линуксе. Нейронка пишет полотно с командами и прочим, что то из команд я знаю, какие то мне не знакомы. Все что я не понимаю, спрашиваю отдельно, за каждую команду и синтаксис. То есть, оно пишет решение вопроса, но я прошу так же объяснить все что было написано в решении, что бы понимать что делает каждое действие. Я не использую ИИ для написания своего хабра за одну наносекунду, для меня это инструмент вопрос ответ, кроличья нора вопросов может быть любой глубины, что удобно, так как можно эффективно заполнять пробелы в знаниях на индивидуальном уровне. Так же удобно то, что ты изначально работаешь с тем юз кейсом который тебе интересен, а не с тем что придумал автор той или иной лекции. То есть это ближе к реальному.
подписываюсь под чуваком выше, кинувшим промпт для клода. он точно понимает суть и идею, как этим пользоваться. к слову клод и правда очень умен, мне он больше всего нравится, очень хорошо понимает короткие вопросы в ходе дискуссии
Думаю, проблема в том что множество людей (пока) не владеют декомпозицией и из-за этого эту часть работы за них делает LLM (или делает это плохо).
Авторы, у вас надмозг или ИИ немножко коряво перевел текст, поправьте, что-ли:
"Я написал отличную игру про башенную защиту, вот ссылка" на гораздо более мягкое "Я написал отличную игру в жанре Tower Defence".
Чем плох этот перевод?
"Tower defence" -- устоявшееся название жанра.
Тем не менее в Стиме именно такой перевод: https://store.steampowered.com/category/tower_defense/?l=russian
Название игры имеет огромное значение, куда большее чем ссылка на https://127.0.0.1
Пугает то, что ИИ тупо лжёт. Лжёт и не краснеет: я попросил назвать мне несколько научных статей на заданную тему. Он ПРИДУМАЛ названия и авторов. И вот я уличил его во лжи, в ответ получил сообщение, что бобик сдох
Это из-за жёсткого промпта, который суггестивно запрещает ему сказать "не знаю". Ведь запрос приказывает назвать что-нибудь, а не признаться в незнании.
Чат-боты с защитой от суггестии умеют ломать правила игры пользователя раньше, чем он их сломает (даже не подозревая о том, что делает). Но их не большинство.
Можно дополнить промпт указаниями в духе "если не знаешь, напиши это; если вопрос слишком неопределённый - задавай вопросы чтобы её снизить".
Сначала вы писали нормальный текст, а затем зачем-то обратились к ИИ:
Представьте урок математики
Зачем мне его представлять, если выше было понятное описание? Это типичное разжевывание темы от нейросети: вставка аналогий там, где они не нужны
Его личность — медведь-волшебник, и это очень-очень круто.
Ещё одна тупая формулировка от ИИ. Медведь-волшебник - что это за хрен и почему автор считает это крутым? Ответа не будет, потому что мы столкнулись с очередным нейросетевым рандомом ради заполнения места, создающим иллюзию экспертности. Парадокс в том, что автор сам сокрушался по данному поводу - и сам в конечном итоге в эту ловушку себя загнал.
Ну и вывод шедеврален: не используйте ИИ, но используйте ИИ.
Да не будет никто читать ваши документы, если можно задать вопрос LLM (сократи, перескажи, объясни). Или вы используете нейронки, или вы настраиваете нормальный рабочий процесс, где ученик сталкивается с препятствиями и учится их обходить (преподаватель занят и не может ответить - ученик ищет решение самостоятельно, а не спрашивает у нейросети). А так вы просто уничтожили свои же логичные выводы через внедрение LLM
Люблю когда частные случаи выдают за тренд или тенденцию:
Уже прошло три года с заявления «Через полгода ИИ заберёт у вас работу», а я по-прежнему нанимаю разработчиков.
Зато тысячи других компаний сократили и продолжают это делать, увольняя разработчиков десятками тысяч ежеквартально. Сеньоры по полгода работу ищут.
Я вот сдуру на волне хайпа купил годовую подписку на Junie. В итоге почти не пользуюсь, потому может помогать лишь в простых случаях, которые и без него решаются. Или ChatGPT помогает иногда советами, и то лишь потому что осваиваю новые для себя технологии. А как какая-то проблема - пишет по кругу один и тот же тупняк.
<irony>Ты совершенно прав, такого метода действительно не существует. Убедись что ты не забыл включить компьютер.</irony>
В Claude code для решения проблемы добавили новый режим обучения который не пишет за тебя весь код, а периодически останавливается и предлагает тебе написать 5-10 строк самостоятельно. Интересно, кто пользовался?
В gpt есть режим который вместо прямого ответа подводит тебя к нему методом Сократа. Не нужны для этого никакие специальные промпты.
Вот что-что, а LLM гораздо лучше лектора который вещает на аудиторию 30-120 человек.
Сколько существует цивилизация и прогресс, столько существуют те кто боится нового. Они постоянно твердят, что "новое это слом традиций и только портит людей". Возьмите для примера любое изобретение или открытие и про него будет куча историй как его пытались "закрыть", как говорили, что "оно не нужно и вредно". Электричество, компьютеры, Инет. Даже картошка столетиями пыталась пробиться в Европу.
Так, что я спокойно слушаю эти завывания "ИИ вреден".
"Не показывай дураку половину".
А автору за статью респект. Особенно за "Промпт Сократа". Сократ бы оценил.
Серьезная статья и серьёзные обсуждения в комментах, а мне просто смешно с:
Я написал отличную игру про башенную защиту, вот ссылка: http://localhost:3000
Генеративные нейросетки - вслушайтесь в название! - сделаны для того, чтобы "генерировать правдоподобно выглядящее готовое решение" (но никак не "объяснять, как что сделать"). Это вероятностные модели, аналог исторических "бабка нагадала" или "Настрадамус настрадал".... В этом можно убедиться, изучив математику, лежащую в основе хотя бы многослойного персептрона...
А вы думаете, что человек не то же самое делает? "Выдает правдоподобно выглядящее решение"
Почему-то некоторые думают, что в мозге у человека знания " рождаются", а не собираются из предыдущих знаний и человек, точнее его мозг выбирает наиболее вероятный в данном случае ответ. Как и у ИИ.
Только ИИ пока это делает примитивно.

Ад туториалов сменился адом вайб-кодинга