
Комментарии 51
Любая современная LLM — от ChatGPT до DeepSeek — за секунды выдаёт вежливое и структурированное объяснение
которое оказывается ложным как только вопрос касается прогнозирования и технической экспертизы. По крайней мере в области экспертизы производительности СУБД нейросеть ошибается и иногда угадывает, что не удивительно - неисправные часы , два раза в сутки показывают совершенно точное время.
Но в целом, да согласен. Ситуация изменилась.
Услышать точный прогноз от человека не менее рандомно.
Между человеком и ИИ есть один очень важное, принципиальное , фундаментальное отличие - с человека можно спросить за ответ.
На stackoverflow?
На stackoverflow - нет кармы ?
Не стал бы я утверждать, что есть принципиальное отличие между минус в карму и просто закрыть чат. Действия одинаковой эффективности в контексте "наказания" за плохой ответ =)
просто закрыть чат
Как говорил Боромир "Нельзя так просто закрыть чят, если мудрое руководство вставило его тебе по самые гланды". С SO даже близко ничего похожего не было.
в темном переулке😁
ИИ снял монополию на доступ к знаниям: информация стала симметричной, а токсичная манера общения перестала давать преимущество.
Раньше документацию не читали, теперь вообще разжуйте да в голову положите. Ну и что за преимущество токсичное такое, интересно даже))
ИИ снял монополию на доступ к знаниям
Вся суть ИИ-фанатиков. Может еще отчет времени будем вести не от Рождества Христова, а от выхода GPT-3? Для вас же ничего раньше 22 года не существовало. Ни книжек, ни журналов, ни телепередач, ни гугла даже.
Что ни "откровение", то признание собственной никчемности. То ИИ код пишет лучше вас, то информации до ИИ для вас не существовало. Ну что могу сказать, плохо быть вами.
Он снял дефицит знаний и тем самым изменил саму природу экспертности.
Вынужден не согласиться с данным утверждением. То, что называется ИИ, дает только иллюзию того, что можно быстро и просто получить информацию. На самом деле ответ ИИ не более чем попытка угадать и качество информации крайне низкое.
Мало того, что часть информации скрывается, часть перекручивается, так часто просто выдумывается. Ответ на любой сколь нибудь серьезный вопрос .... это извините шлак.
Да, конечно неприятно если вам отвечают "....".
Но это куда лучше того, что предлагает ИИ - это заставляет думать и приобретать личный опыт.
Пример промпта, где выдаётся шлак, можно привести, пожалуйста?
Любой, сколь нибудь не элементарный инженерный вопрос.
Личный опыт, буквально 2 последних кейса:
1) верифицировал я новый алгоритм, с примерами кода, подробным пошаговым объяснением и просил проверить ряд граничных ситуаций.
2) верификация гипотезы проблем с выборкой данных в Postgres, с множеством вводных данных.
В обоих случаях достаточно было знаний, кропотливой работы и обычной логики рассуждения. На выходе - шлак (если точнее - ложные ответы).
Пример промпта
ИИ выдает шлак - это у вас promt плохой. Не ИИ несет чушь в ответ на внятный вопрос, стараясь выдать хоть что-то а не сказать прямо "извините не могу."
Нет - promt плохой. виноват ваш promt. Так сегодня говорят в Amazon и M$.
Это не правильный подход. Если написание promtа занимает сколько времени и ресурсов как работа с основной проблемой, то рановато утверждать что "ИИ все решило"
Дайте пожалуйста конкретный пример. Хочу проверить доступные мне модели.
Ну да, токсичная просьба.
Недавний пример, спросим "What does {$IF !DEFINE(ABC)} mean in Delphi?" Получим развернутый ответ, что `!` инвертирует проверку. По факту - Делфи не поддерживает такой синтаксис, надо писать `NOT DEFINED(ABC)`, а код выше всегда будет false.
Спасибо. Свежий Гемини Thinking:
In standard Delphi (Object Pascal), the syntax {$IF !DEFINE(ABC)} is invalid.
It appears to be a mix of C-style syntax (where ! is "not") and Delphi syntax. The correct way to check if a symbol is not defined in Delphi is by using one of the following directives.
The Standard Way (Most Common) Use {$IFNDEF} (If Not Defined) to check if a symbol is missing.
....
ChatGPT 5.1 Thinking:
...
Your snippet:
{$IF !DEFINE(ABC)}
looks like it has a typo: it should be Defined, not Define. As written (DEFINE), it will not be recognized as the built-in function and should give you a compilation error. The intended meaning, though, is “if ABC is not defined.”
У меня тоже ChatGPT 5.1 Thinking. Так что раз на раз не приходится. Ну и как обычно, стоит сказать что это неверно, он тут же извиняется и пишет другое )
Процент мусорных ответов я бы пока назвал неприемлимо высоким для сколько-нибудь серьезного использования вслепую. Приходится всё по 3-4 раза перепроверять и в итоге "пока напишешь правильный промпт и убедишься в правильности ответа, уже и сам поймешь какой ответ должен быть".
Тут TDD помогает, но не всё можно так дефинировать. Что можно - там и выхлоп вполне себе на уровне.
пока напишешь правильный промпт и убедишься в правильности ответа, уже и сам поймешь какой ответ должен быть
документации логики кода всегда не хватало и на это постоянно были жалобы. Теперь жалоб не будет. Нет ТЗ - нет кода =)
Легко. У меня этот шлак постоянно выдает. Все дело в сложности вопрос. Пока он на уровне - "какого цвета неба?", все классно. Как только он сложнее - это полнейшая чушь и бред.
Буквально вчера, решил посмотреть что мне предложить LLM (было несколько попыток новых чатов с нуля):
Сейчас при обучении нейронных сетей в llm мы используем предсказание следующего токена через loss кросс энтропии.
Допустим, мы знаем что текущий токен A, и знаем все вероятности перехода токена A в другие токены, так как собрали статистику. Это значит, что мы можем для каждого значения логита, учесть его вероятность. То есть, не один loss на все значения логита, а для вектор loss для всех значений логита. Где мы оцениваем, насколько точно предсказана вероятность этого значения логита.
Или это не будет работать лучше?
Тут она выдала сносный ответ, хотя частично не верный. И затем я задал уточняющий вопрос.
Проблема в том, что логиты имеют распределение вероятности токенов. Особенно сырые логиты, хотя они и не являются вероятностями.
Проблема в том, что не все из этих значений логитов являются допустимыми для продолжения. Некоторые являются шумом.
Top-k и top-p не позволяют отличить допустимые токены от шума.
Текст это марковские цепи. И даже если следующий токен имеет высокую вероятность, это не значит, что он допустимый.
Вероятность цепи Маркова это умножение всех вероятностей перехода ее элементов. И есть порог разрыва цепи Маркова. Если сейчас вероятность цепи Маркова 0.1, а порог разрыва 0.05, то не каждая вероятность подойдёт как следующий токен. Если вероятность следующего токена 0.2, то он приведет к тому, что цепь Маркова будет меньше 0.05, поэтому этот токен не допустим и является шумов на данном шаге.
Но top-k и top-p ничего не знают об этом. В их диапазон легко могут попасть такие токены.
Поэтому я пытаюсь понять, как этого можно избежать.
Тут три варианта:
как то обучить llm, чтобы она выдавала сырые логиты в таком виде, что все значения следующих которые приведут к шуму, должны быть ниже какой-то границы.какая-то дополнительная архитектура после LLM, возможно со скрытым состоянием, которая сможет отследить и выдать только допустимые значения логитов. Но не понятно, как ее обучать и какой должна быть архитектура.самостоятельно отслеживать текущую вероятность цепочки на выходе. И брать только допустимые значения логитов для выбора следующего токена. Предварительно собрав статистику по переходу всех токенов. Но тут мы можем отслеживать только цепь Маркова первого уровня. Это лучше чем argmax, но не идеально.
Что ты об этом думаешь? Какие есть предложения? Возможно кто-то уже решил эту проблему?
И тут Остапа понесло. Отборный бред помноженный на размышления и на сжатие ответа (анг. вставки не к месту, укороченные слова и бред).
В ответе много такого, как ниже:
N (candidates): 50–200 — хороший компромисс.H (horizon)для меток: старт 1–3, для production 3–10 при ресурсах.K (rollouts per candidate): 4–16 — tradeoff bias/variance.s_min (acceptor threshold): 0.5–0.8 по ROC/PR.α (power for s): если acceptor достаточно надёжен, α=2..4; иначе α≈1.Calibrate p_i: temperature scaling на dev set, особенно если используешь raw logits.Fallback: если фильтр убрал всё, выбирать argmax из original p (или ослабить threshold).Monitoring: следи за diversity (тип токенов), average chain logprob, human eval.
Пока разберешься, что она имела ввиду, что сократила, проверишь все это и увидишь бред, требует нормально времени и мозг работающий на всю катушку. Я уже молчу про код, который она предложила без каких-то доказательств, без явной логике. Просто по принципу тут соединим и отлично. Произвольный код и я могу написать, только какой мне прок в этом.
И главное, если человек не понимает тему, он ее ответ проглотит, решив, что тут очень умное и правильное. И пойдет хвалить, как сетка написал код.
Спасибо. Сложность вашего вопроса для модели (да и вообще для любого человека вне контекста данной тематики) - понятна. Интересен был бы промпт того минусующего товарища с более приземлёнными к исходному коду сложностями. Я так понимаю там был кривой запрос в базу с рандомным резалтсетом и с промптом "разберить что не так".
Я так понимаю там был кривой запрос в базу с рандомным резалтсетом и с промптом "разберить что не так".
0) Вы очень невнимательно читали. И потому ударились в домыслы как LLM, прямо выдумав как минимум 50% информации.
1) Ничего я не дам и давать не буду. по той причине, что решались рабочие задачи. Так я побежал к примеру публиковать новый рабочий алгоритм в public. И Вы отлично это понимаете - никто не будет такие вещи публиковать. Считаете что я общаюсь с LLM на уровне "разберить что не так" - пожалуйста.
2) Вопрос с просьбой примеров я не минусовал. Ед. минус, который от меня Вы получили и целиком заслужили - это сомнительные рассуждения о том, что поток сознания от LLM может на что-то натолкнуть. Подумайте на досуге о том, сколько времени потратит человек на отсечение неверных гипотез от LLM вместо того, чтобы самому подумать
Ради бога. Я сплю спокойно и заминусованный. Меня просто диссонируют такие категоричные заявления про бред от LLM, когда в реальной работе с ними я периодически подозреваю за их ответами человеческий разум. Всё очень сильно зависит от контекста и вопросов. Однозначно бред-не бред тут уже не скажешь. Где-то бред, а где-то сияние.
времени потратит человек на отсечение неверных гипотез от LLM вместо того, чтобы самому подумать
Давайте будем честны перед собою. В лучшем случае собственная думалка хорошо думает только на определённые темы и только в определённых физиологических состояниях. В другие моменты думалке помощь отнюдь не помешает. И работодатель платит не за думалку, а за решение задач. Со всем доступным инструментарием.
Дистанция и зона гарантированного подавления огнем ДШК с учетом оборудованной позиции, наличия БК и отсутствия складок местности.
Не далее как вчера интересовался - имеющиеся у меня модели выдавали лютую дичь
Ну так это просто первая линия получения информации, когда есть за что зацепиться, уже можно пойти и адресно найти информацию из боле надежных источников.
Мега-эксперты наверно и поиском не пользуются - там ведь тоже чуши полно, в интернетах этих бесовских. Только стопки распечаток документации, да тома Кнута на полках!
Мега-эксперты наверно и поиском не пользуются - там ведь тоже чуши полно, в интернетах этих бесовских. Только стопки распечаток документации, да тома Кнута на полках!
Обычно документации и хватает, исходники.
Если документации нет, зачем использовать код? Если не знаешь ее, тоже?
Рональдо же всем сказал, все просто)
По сути, многие из этих программ закрывали именно тот дефицит: объясняли базовые, понятные вещи, но в формате, который новичок нигде больше получить не мог.
Курсы не закрывали и не закрывают дефицит, а создают иллюзию «изи катки». На выходе получается человек, который умеет делать только то, что было в курсе: калькулятор, todo-приложение и import numpy.
Когда такой кадр высаживается на реальный проект, он начинает генерить реальные проблемы, которые решают в том числе синьоры-«токсики».
Более того, такие кадры начинают вопить, что синьоры-«токсики» почему-то не помогают. Не задумываясь, что проблема кое в чем другом.
Дело не в надменности и токсичности, а в тренде на нормализацию низкой базовой квалификации.
Результат: фундаментальная подмена понятий, когда объективное недовольство объективным незнанием гигиенического минимума выставляется токсичностью и прочими гуманитарными ко-ко-ко: не «я тупой лентяй, нахватавшийся по верхушкам», а «ты токсичный».
Например, я пилю пет-проект, понимая, что не настоящий сварщик. Мне даже в голову не приходит расстроиться от критики опытных инженеров, потому что эта критика объективно оправдана, а я развлекаюсь и не могу объективно претендовать на SOTA, совершенство архитектуры, кода и т.д.
Ненормально требовать от опытных ребят соответстовать уровню новичков и «выпускников курсов» — это они должны прикладывать усилия, прогрессировать и становиться лучше.
Ни разу я не сталкивался с ситуацией, когда нормально описанная ситуация и заданный вопрос (даже простой) оставались без ответа: видно, когда человек пришел в справочную, где ему должны по умолчанию, а когда реально хочет разобраться, предварительно приложив усилия.
Нет ничего постыдного в незнании и ошибках — это естественно при обучении. А вот когда «разжуй и в рот положи, да побыстрей» — возникают проблемы, ибо нефиг думать, что кто-то должен(!) что-то объяснять из-за чьей-то лени, да еще и ласково.
P.S. Сами по себе знания стремительно обесцениваются с появления книгопечатания, а потом и интернета.
Не нужно и тут подменять понятия: легкодоступность знаний не означает, что «знать ничо не надо, гы». Наоборот, требования к тупорезам увеличиваются: раньше можно было сослаться на то, что «книжка в двух экземплярах на весь мир», а сейчас — сорян. Не знаешь — сам виноват, а не кто-то там со стэкофюверфлоу токсичный.
Хорошо сказано, а образование государственное это для токсиков)
Государственное образование или нет — сейчас уже действительно неважно: все разжевано-пережевано в разных формах и форматах, бери, сколько унесешь 24/7/365.
Проблема в том, что не берут, а требуют принятия банальной тупости, лени и инфантильности за норму.
Но разве диплом не говорит о том что человек старался и прошёл этот путь? А государство его подтверждает.
В моем понимании — говорит. Другую мысль вкладывал, про доступность информации:
Может ли человек получить аналогичные знания? Да, может. За то же или меньшее время? Да, может. Бесплатно или за деньги? Да, может.
а в тренде на нормализацию низкой базовой квалификации.
Самое лучшее описание сути вопроса !!!
Ни разу я не сталкивался с ситуацией, когда нормально описанная ситуация и заданный вопрос (даже простой) оставались без ответа:
Проблема в том, что этот ответ надо 1) ждать и возможно долго 2) не факт, что он вообще придёт и чем более нетипичен вопрос, тем выше риски этот ответ не получить. В отличие от иишки. Даже если она нагенерит бред, она накидает мыслей и альтернативных ключевиков, с которыми к вопросу можно подойти с другой стороны.
структурированный, без раздражения, без попытки доказать кому-то своё превосходство и без продолжительных холиваров о правильном стиле кода
Зависит от настроек модели
С приходом ИИ человек рано или поздно разучиться думать. Куда проще спросить нейросеть, чем лезть курить мануалы, смотреть сниппеты кода, разбираться в RFC. Но человек получает сиюминутный ответ, попутно теряя ту информацию, которую нарыл бы в процессе разбора бага или кривых настроек.
На такой легкий и простой "успех" человек легко подсаживается и слезть с этой иглы бывает крайне сложно. Человек постепенно разучается думать, анализировать, рассуждать.
С течением времени появятся кнопкодавы операторы ИИ и люди, на ком будет все держаться. Это неизбежно практически.
Подсаживается в первую очередь бизнес, так как для бизнеса немного ценности в чтении пол дня RFC сотрудником, при возможности за 5 минут получить относительно точный ответ.
Это называется опыт
Не каждый опыт полезен. У меня много опыта за всю жизнь, где было потрачено масса времени на изучение документации и технологий, которые уже на свалке истории и малоприменимы для новых проектов. Нужен баланс между времязатратными одноразовыми знаниями и общеупотребимыми скилами. Первое далеко не всегда превращается во второе.
Не каждый опыт полезен.
Весь опыт полезен.
Много лет назад мы боролись за каждый байт. Потом память стала дешевой. Потом очень дешевой. Сейчас пошел обратный эффект - память дорожает, уже пошла тенденция на запрос на умение оптимизировать ПО по расходу памяти в условиях ее удорожания. Причем не в embedded, где ресурсы всегда считали а в ПО для backend.
Да, талант вежливо нести чепуху всегда был в цене у людей. Послушаешь, и на душе легче становится. Особенно когда в теме плохо разбираешься, но слышишь складную речь.
Всегда старался обходить стороной подобных людей, т.к. чаще всего это мошенники или продажники. Причем, почти одинаковый эффект что от первых, что от вторых.
Наконец-то картинка складывается: "ИИ" - это автоматизированные скамеры, которые вежливо несут чушь, и берут за это деньги в виде подписок :)
То, что раньше считалось уникальным опытом или «магическими» знаниями, теперь доступно каждому за секунды
Попробуйте отойти от попсовых тем вроде питона. Я недавно настраивал парочку самобытных серверных штуковин и все ИИ несли пургу по кругу, предлагая то несуществующие настройки, то неработающий код. В какой-то момент я понял, что их можно и нужно использовать в режиме ментора, чтобы разобраться с технологиями, просеять документацию и репозитории, закрыть пробелы в знаниях и уже тогда самому написать все что нужно. По сути все свелось к тому же RTFM, только политкорректные модели никогда этого прямо не скажут.
Примерно то же мы сейчас наблюдаем в сфере школьного образования, когда учитель просто пересказывает учебник, не имея ни законной, ни фактической возможности оказывать воспитательное воздействие. О перспективах школ догадаться не трудно, а вот с ИИ еще не все просекли фишку.
О боже, мы обречены…
Скрытый текст

Так и есть, новоявленные эксперты уже не хотят сами думать. Найм в ИТ сломали, ждем когда сломается само ИТ.
Немного по-другому посмотрю на ситуацию, так как часто в посте упоминаются курсы для новичков, которых у меня несколько.
Нужно понимать ЦА. На Youtube, Stepik и других платформах огромное количество людей разных возрастов, уровня и подготовки. Кто-то про ИИ вообще ничего не слышал и когда ты направляешь человека туда, получаешь закономерный вопрос: а что такое ChatGPT?
То же могу сказать и по профильным чатам, которые модерирую. Вопросы все те же, что были и раньше.
Так что запрос на экспертов, которые дадут тебе ответ будет еще долго, как и запрос на структурированный курс, где тебе не надо тратить время на самостоятельный поиск.
Люди ленивые. За ИИ еще нужно проверять.
Людям нужен авторитет. ИИ им пока не является.
Само собой тренд на снижение спроса на курсы есть. Например, в этом году отказываюсь от набора групп. Пока бить барабаны именно в сегменте самостоятельного обучения я бы не стал. Меняется только формат.
А вот что касается токсичности, то ее по умолчанию надо искоренять и если ИИ-боты в этом помогают, то безумно этому рад.
Почему токсичные эксперты больше никому не нужны — и при чём тут ИИ