Комментарии 85
Это примерно так же, как если бы хирург подошёл к пациенту и сказал: "Ба! Если вы не будете чистить ногти - то у вас может развиться заражение. Дайте-ка я вам щас ногтями займусь."
Тем временем, у пациента оторвано всё до середины позвоночника.
Вы нашли "новую проблему" в том, что является проблемой.
Вы только не на том уровне и не то ищете.
Проблема как была так и осталась: Отвественность человека. Может ли он взять на себя ответственность за что-то? Не вину. Не "Ай-ай-ай!" А именно отвественность: "Несмотря ни на что, я убежусь, что эта штука будет работать!".
Способов сделать что-то правильно - всегда один. Например, завести автомобиль правильно можно выполнив несложную последовательность действий. Завести автомобиль НЕправильно можно бесконечным количеством способов.
Теперь вы к бесконечному количеству способов прибавляете ИИ. Он позволяет решить проблему ещё одним бесконечным количеством способов. Одна бесконечность, плюс ещё одна бесконечность, дают вам в итоге одну бесконечность. Так что особо ничего не меняется.
У нас есть надежда, что существует небольшое количество людей, которые возьмут и сами изучат необходимые материалы с помщью ИИ. Но, это как в Фильме 43:

Сколько бы люди не выли о том, что ИИ - это следующая ступень эволюции, и будет находить и обучать за секунды, в реальности это просто ещё один повод для кого-то не делать своей работы.
А вы тут рассказываете, что проблема в том, что ИИ чего-то не понимает. ИИ понимает лишь настолько хорошо, насколько хорошие материалы в него загружены. А если большинство материалов в Common Crawl о том, что никто не понимает, что такое постоянный ток, то и ИИ этого "понимать" не будет.
Наверное, я недостаточно пояснил суть.
Есть приборы и природные феномены, которые ведут себя по-разному в разных контекстах или ситуациях. Спрашивающий может об этом не знать. А ИИ «попадает» на множество знаний из другого контекста и выдаёт вроде бы абсолютно правильные сведения или советы.
Вот в чём проблема.
А ИИ «попадает» на множество знаний из другого контекста и выдаёт вроде бы абсолютно правильные сведения или советы.
не он попадает, а в него. потом, приходим уловные "мы с вами" и пишем не достаточно конкретный запрос (ах, простите, ну конечно же "промпт"!)
поскольку индусосеть (нет, не расизм, и вообще отсылка к относительно последним новостям) - это весьма продвинутое "автодополнение" пользовательского текста, то и ожидается, что мы будем ему скармливать максимально внятный запрос. внятный и конкретный.
«Ответчик» был построен, чтобы действовать столько, сколько необходимо, — что очень большой срок для одних и совсем ерунда для других. Если говорить о размерах, одним «Ответчик» казался исполинским, а другим — крошечным. Это было для одних сложнейшее устройство, для других проще штуки не сыскать. «Некто» построили его в помощь менее искушенным расам — и отбыли своим особым образом. Куда — одному «Ответчику» известно. Потому что «Ответчику» известно все. На некой планете, вращающейся вокруг некой звезды, находился «Ответчик». Шло время: бесконечное для одних, и малое для других, но для «Ответчика» — в самый раз. Внутри него находились ответы. Он знал природу вещей, и почему они такие, какие есть, и зачем они есть, и что все это значит. «Ответчик» мог ответить на любой вопрос, будь тот поставлен правильно. И он ждал, чтобы к нему пришли и спросили. А что же ещё делать «Ответчику»?
"Абсолютный Ответчик" ("верный вопрос") Р. Шекли, 1953 г.
не достаточно конкретный запрос
проблема как раз в том, что вы рассуждаете с точки зрения того, как работает существующий инструмент, а автор предлагает вариант того, как оно быть в хорошо работающей реализации этого инструмента. Вряд ли ведь электрик, у которого вы спросите про конденсатор, не станет вас спрашивать про то, какой в сети ток.
Вряд ли электрику придёт в голову заменить себя языковой моделью. Если на то пошло, рассуждения – вообще не конёк электрика.
Хорошо работающая реализация – это в данном случае сам электрик.
электрик попросит схему устройства.
Автор предлагает, чтобы ии мыслил как электрик Петрович. А он, увы (или к счастью), не мыслит как человек. Потому что не человек. Реализация уже впечатляюще неплоха, принимая во внимание чего именно это реализация. На самом деле никто не пытался создать электрика Петровича. Ну, может не совсем никто, кто-то наверняка пытается, пожелаем им успехов.
Первая нейросеть была создана в 1958 году. Как и первый телефон, или радиоприемник, она никому не была интересна кроме ученых и гиков. С тех пор технология развивается, последовательно и постепенно, как и положено любой технологии. Появившаяся пару лет назад архитектура трансформер, в сочетании с существующими вычислительными мощностями, позволила создать настолько универсальный инструмент, что он внезапно проник во все сферы деятельности сапиенсов. Резонно, что такая массовость породила и горячие обсуждения, на самых разных уровнях. От ученых, до того самого электрика Петровича.
Ключевая мысль здесь в том, что трансформер - это не нечто невообразимо новое, а очередной шаг развития нейросетей, или искусственного интеллекта. Нейросети очень активно и разнообразно использовались уже давно, но разумеется подавляющее большинство людей обратили на них внимание только когда с ними стало можно поговорить. Кстати, термин искусственный интеллект был введен еще до создания первых нейросетей. Это не посягательство на священную корову сапиенсов, это просто указание на класс систем, которые обучаются.
Так вот, возвращаясь к реализации. Ии обучен на данных, "сгенерированных" людьми, поэтому он часто "понимает с полуслова" и "ведет себя" по-человечески. Как-то раз я случайно нажал энтер и отправил только часть запроса, меньше половины. Жпт не растерялся, сказал что я наверное мискликнул, но он все равно вопрос понял и ответит на него. И ответил. Из-за этой "человечности" многие воспринимают его как личность. Но он не личность. И никто не создавал его, как личность. И не продавал, как личность. Он инструмент. И как любой инструмент, он тем полезнее, чем лучше им умеют пользоваться.
Проблему с ответственностью, я честно говоря не понимаю. У ии нет паспорта. Разумеется он не несет ответственности. Ответственность за инструмент несет тот, кто им пользуется. Если инструмент объективно неисправен, то производитель. В чем тут юридический, или моральный, или какой-то еще казус - не совсем понятно.
Про следующую ступень эволюции впервые слышу. Безусловно нет. Эволюция она про мутации и естественный отбор: не имеет цели, работает долго, лепит из того что есть и оставляет горы мусора. Люди сейчас проектируют намного быстрее и лучше. Просто у эволюции 4 миллиарда лет форы. Что-то много букв вышло, прошу пардону.
Из-за этой "человечности" многие воспринимают его как личность.
А так же потому что хотят не инструмент, а то ли подчиненного то ли раба. Причем более умного, чем они сами.
Впрочем, создатели этого инструмента тоже в этом виноваты, сделав интерфейс к инструменту в виде диалога. Если бы оно так и работало в режиме очень умного 'автодополнения' - вопросов было бы меньше.
Ну т.е. чтобы человек не спрашивал "рассчитай мне X ...", а начинал писать "Для расчета X мы воспользуемся методом...." - а дальше текст предлагался.
Что забавно - изначально оно так и работало, а режим вопрос-ответ уже старательно отдельно делали.
Тут еще, пожалую, голосовой ввод бы пригодился, чтобы не отрывая курсора и рук от текущего текста, можно было бы сказать вслух "нет-нет, не так. Поправь на...".
Ну, не знаю я что вы спрашивали и что вам отвечали, но для простого конденсатора контексты не ограничиваются постоянным и переменным током. И наоборот – если вы понимаете суть конденсатора и его физические принципы работы то вы будете понимать и все возможные варианты его поведения одновременно. При этом если я правильно понимаю, ваш желтый конденсатор был неисправен и значит конденсатором уже был чисто условно. Подозреваю, что спрашивали не то и поэтому получали странные ответы.
если вы понимаете суть конденсатора и его физические принципы
Начав ремонт, я их не понимал, потому что не помнил, потому что последний раз изучал их в средней школе много десятилетий назад.
А должен был знать. Это школьные знания.
А должен был знать. Это школьные знания.
Это неважно. Смысл в том, что ИИ, когда человек пытается использовать его в качестве интерактивного справочника по поводу того, что он не знает -- не рассказал варианты. И человек даже не узнает, что могло быть/бывает по другому.
Вот в чистом виде мем про ИИ из фантастики
"- Ты почему не сказал?
Меня не спрашивали."
Как-то оно нехорошо и это надо чинить.
Языковая модель вообще не работает со знаниями. Она комбинирует слова в часто используемые цепочки.
Нет проблемы. Добавьте в запрос «задай уточняющие вопросы, если нужно», любая топовая сетка их задаст.
А вроде бы абсолютно правильные сведения выдает и гадалка и гороскоп и бабка-соседка. Куча людей верит чему угодно, так всегда было, ИИ тут мало что меняет.
Проблема с ИИ в том, что он в текущей версии - просто масштабированный вариант "обычного интеллекта" (со всеми его достоинствами и недостатками).
В частности, для того чтобы он мог превзойти своих учителей - его нужно научить не только массиву знаний, но и умению задавать себе вопросы, находить ответы и проверять их.
Ребенок должен задавать много дурацких вопросов:
-- почему Луна круглая?
-- почему пчела жужжит?
-- можно ли поджечь море? А если бы было можно, то что?
Не знать, "прочитав 100500 книг", а узнавать, выстраивая причинно-следственные связи, и проверяя их "а что если бы?".
Это не все люди умеют, а умеет ли хоть какой-нибудь ИИ?
Пока не умеет - не станет он разумом. Базой знаний - да, знатоком алгоритмов сортировки на разных языках - запросто, знатоком конденсаторов - возможно, а вот разумом - нет.
Поддержу. У Рабле есть такая формулировка: руку на отсечение дашь?
Прикол в том, что эти-то работы как раз никуда не делись.
Я сейчас работаю в американском финтехе. Мне руку на отсечение надо давать за каждый доллар. Тут при слове ИИ-Агент для написания кода только улыбаются, хлопают по спинке и мягко выгоняют.
То же самое происходит в ракетостроении и самолётостроении. Кто-то должен быть в ответе. Это - очень напряжно, но нам не надо волноваться за свои зарплаты. Оно того стоит.
Я не говорю, что я не использую ИИ для написания кода. Конечно использую. Но только мне всё равно придётся расписываться за то, что я знаю каждую строчку и готов за неё отвечать.
Я не говорю, что я не использую ИИ для написания кода. Конечно использую
Было бы интересно узнать - весь код, или какие-то специальные задачи (тогда какие именно)?
Применительно к финтеху, естественно.
Ну, сгенерировать клиент по ЯМЛУ на основе OpenAPI - это святое. Потом поправить и отрехтовать чуток. Это круто.
А вот расчёт суммы снятой с карточки - руками.
Генерировать код на основе спецификаций OpenAPI научились задолго до появления LLM. Вот, к примеру, для Go. Ну то есть можно и LLM, наверное, для этого использовать, но в данном случае это не принципиально. Зато бОльшая часть инструментов/библиотек для не-ИИ-кодогенерации абсолютно бесплатная. Чего не скажешь об ИИ.
Не говоря уже о том, что если кодогенератор нагенерил что-то непотребное, можно залезть к нему внутрь и понять почему, и как (и можно ли) это исправить. А почему тот или иной результат выдал черный ящик с несколькими миллиардами хз как полученных параметров - разбираться ну такое.
Да, я знаю что вайб-кодеры расскажут про окно контекста, что его надо увеличить, что надо в него загнать весь код проекта, и code style guide, и от себя еще что-то в плане личных пожеланий, а потом еще все это подстраивать чтобы получить требуемый результат. Оно точно быстрее и проще чем работающий код ручками написать?
Хотелось бы, чтобы это правило применялось не только в финансах и строительстве ракет!
Ии прекрасно все понял. Он понял ровно столько, сколько его спросили. Про хирурга плохой пример, вот правильный: если у тебя вылезла болячка на коже - дерматолог предложит мазь, а хирург предложит вырезать ее. В данном случае ии отвечает либо как хирург, либо как дерматолог в зависимости от фазы луны, и только дополнительно сказав, что это просто прыщ расковырянный - ты получишь правильную рекомендацию про мазь и отправляющего тебя к кожнику хирурга.
Вывод: задавайте промпты правильно и получите правильный результат. А то тяжёлым микроскопом гвозди тоже можно забивать, но зачем?... Ии - всего-лишь тэгированная база данных, выдающая первый подходящий ответ.
Про компьютеры, про телевизор, телефон, интернет, и вот сейчас про ИИ - будет куча людей, которых оно делает тупее, а будут те, кто это возьмёт на вооружение и будет только получать выгоду.
Похоже, у автора пробился X-конденсатор (стоящий между двумя проводами, идущими в розетку). Но при чём тут ИИ?
Где промпт? Где ответы ИИ? Где анализ ответов с указанием правильных и ошибочных мест?
ИИ - не учитель. Он помощник для тех, кто уже разбирается в предмете настолько, чтобы отличить его фантазии от реальности.
ИИ - не учитель.
Многие, включая меня, часто используют ИИ, чтобы не лезть в гугл, который вместо ответа заваливает тебя рекламой.
учитель: как правильно ирак или иран ?
ученица: ирак
учительница: нет - это разные страны
ученица: но вы не так спрашивали
© есть такой мем-видос из класса
Я на это каждый раз жалуюсь в комментариях, когда очередная статья "мы ИИ прикрутили к поиску" появляется. Весь этот поиск до сих пор не умеет переспрашивать (за исключением очень редких случаев) "Тут есть варианты <список>, вам про какой надо?"
с list.ru было проще
вместо обучения человеков правильно и конкретно писать запросы, придумали учить роботов додумывать.
но, чтобы обучить корректно додумывать, нужно, сначала, научить правильно думать. этот момент они упустили.
придумали учить роботов додумывать
А точно учили? Мне казалось, что оно более-менее by design и просто из их устройства следует - скатываться в наиболее вероятный ответ.
А по поводу 'сначала' - я вот не уверен. Человек тоже не сразу рефлексию 'о чем я думаю и в какую сторону' умеет. Доделывание с вариантами и у человека, вроде бы отдельно тренировать надо.
А точно учили?
не учили, а придумали учить. это не одно и то же. попытка, как известно, не пытка, но есть один нюанс.
Доделывание с вариантами и у человека, вроде бы отдельно тренировать надо.
прежде доделывания, нужно научиться "делать примерно так же". это то, на чём, пока что, плотно сидят современные "вумные контуперные роботы" (нейронные сети).
Был, можно сказать, натурный эксперимент (на самом деле не эксперимент - просто два разных учителя младших классов в одной и той же школе)
В одном классе - учитель пытался детям обьяснять к примеру арифметику, и требовал точных ответов. Если отвечали неправильно - требовал подумать и пересчитать.
У него были троечники, до которых доходило с трудом, руководство было этим недовольно.
В другом классе - учитель просто натаскивал детей "на датасеты" и потом проводил экспресс-опросы, типа: "сколько будет 4*6?" - кто первым выкрикнул правильное - тот и молодец. Кто неправильное - попробует угадать на следующем вопросе.
Троечников у него не было, как вы понимаете. Прекрасный учитель, дети усваивают материал быстро, все довольны.
И вот результат я потом видел: чел, учившийся по второй методике, "знал всё", половину неправильно, думать и рефлексировать не умел в принципе, но был в своих знаниях уверен. И до окончания школы так и не научился думать...
Обучить человеков? Сто лет пытаются обучать человеков. Выходит средне, приходится жить с тем, что есть. Если разработчик сервиса не живёт в стране розовых единорогов, ни о каком «обучу миллион пользователей» он не будет думать.
Решение проблемы частично решает заезжаный всеми MCP , который позволяет дать модели контекст
А так да, думать тоже надо. ИИ помошник, а не замена мозгов, во всяком случае пока.
Я эмпирически установил, что в электронике прям очень неплохо шарит Claude. Я даже кидал ему табличные значения ВАХ и просил угадать что это и он отвечал верно. Он прям пугающе хорош в вопросах электроники, но иногда ерунду говорит. Но ChatGPT тот в сравнении в этой теме вообще двоечник.
Любая (общеизвестная) LLM (от Сэма, Амодея, гугла, французов, китайцев, зеленых банков и прочих) при решении задач по электричеству путает системы СИ и СГС. Проверено лично на множестве примеров. Особенно любит складывать диэлектрическую проницаемость вакуума в системе СИ (Ф/м) и просто диэлекрическую проницаемость диэлектрика (безразмерная величина). Ну то есть как килограммы со штуками складывать.
Я с вами полностью согласна. Совет, задавать все важные детали в промпте, в этом случае неуместен. Если мне все детали известны, то я не буду задавать вопрос. А если неизвестны и ИИ не даёт мне подсказок, то помощь от него сомнительная.
В этом случае нужны не контекстные знания, а определённая техника промптинга.
ИИ работает от запроса.
Если вы четко знаете, чего хотите и разбираетесь в теме, лучше задавать вопрос однозначно, ясно и закрыто. Таким же образом писать хотелки.
Если в теме профан, то всегда надо спрашивать "предложи варианты". Иначе начнешь умничать и строя предположения подсказывать ИИ ответы, тогда можно зайти в дебри, так как ты не знаешь как надо, но толкаешь беседу вопросами и робот покорно идет в рассуждении следом, полагаясь на кожаного.
В вашем случае не надо было щеголять обрывками забытой школьной программы, а честно написать, мол так и так, разобрал косилку, кто виноват и что делать. Иначе робот начинает генерировать ответы на вопросы, а вы и не знаете о чем толком спрашивать
то всегда надо спрашивать "предложи варианты"
Вопрос на засыпку - почему у поисковых (т.е. "хочу найти знания о...") ИИ такое прямо явно не вбито или в виде галочки?
Так работает и с людьми. Очень часто в беседе участники не пытаются узнать что-то, а пытаются протолкнуть свою мысль.
Эту привычку они несут и к роботу. Удивительно, но общение с роботом может нас научить лучшей коммуникации между людьми)
А может проблема не с ИИ, а с тем что у вас не достаточно базовых знаний по конкретной теме чтобы правильно сформулировать промпт?
Вчера менял зимние шины на летние (да, поздно) и ради интереса спросил, куда ставить более изношенные шины. ИИ от Гугла тоже выдал странное. А это может стоить кому-то жизни.

Ну вы же не сказали какие у вас ведущие колёса, а какие рулевые. Ваш альтернативный совет также может стоить кому-то жизни.
Так он же, вроде, правильно ответил)
Старые - спереди, новые - сзади. Так же как во фрагменте статьи из обычного поиска ниже)
Тут бы мнение не анонимуса из интернета, а кого-то из взрослых. Профессора из автотранспортного института например. А то мне кажется, кто это перепечатки советов из журнала ЗА Рулём. Может, при наличии АБС и нет разницы?
АБС не волшебством же работает. Лысая резина заблокируется раньше.
Ответ зависит от типа привода, развесовки и той цели, которой вы в принципе хотите достичь. Если у вас задний привод и вы боретесь с заносом, то надо беречь задние, а если передний и со сносом, то передние. А так вообще лучше, когда резина свежая везде.
Что касается профессора. Профессор Цыганков, помнится, рассматривал около 20 способов торможения. Автора какой из них интересует? Или может не торможение вообще? Если он хочет на бмв тапку в пол на светофоре, то точно хорошие надо назад.
А если не лезть в науку, а руководствоваться формальными соображениями, то: резину рекомендуется менять на всех 4 колёсах, а порядок перестановки шин при износе описан в руководстве по эксплуатации вашего автомобиля.
резину рекомендуется менять на всех 4 колёсах, а порядок перестановки шин при износе описан в руководстве по эксплуатации вашего автомобиля.
Однозначно да. Но тут спрашивали, как насчёт менять только 2 колеса..
Есть такое мнение и оно существует давно. И есть под собой основания. По автофорумам, если такие остались, обсуждается часто и становится иногда поводом холиваров.
Послушайте, хомо, на месте вашего светила когда то была другая звезда, со своей планетной системой и даже обитателями, они тоже в процессе своего развития увлеклись искуственными помощниками, теперь нет ни звезды, ни планетной системы, только в память о них вы носите на себе кусочки металла, это конечно делает вам честь, но не забывайте откуда этот металл взялся в конце концов:-)
Комментарии к статье подтверждает гипотезу, возникшую у меня в результате моего пассивного мониторинга происходящего в сфере ИИ - описаная проблема, похоже, не распознана и, как следствие, пока не имеет названия.
Попробуем тогда сами разобраться, о чём идёт речь.
Представим, что у нас есть запрос к банку данных вида
SELECT * FROM A WHERE x1=… x2=…
Если запросу удовлетворяет множество объектов, то DB их и выдаст или скажет, что их слишком много для выдачи.
А ИИ ведёт себя так, как если бы DB выдавало один объект, не предупреждая об их количестве.
Как правильно назвать такое поведение? Первое, что приходит в голову - «Умалчивание многозначности ответа».
Если зайти с другой стороны - наш запрос с точки зрения содержания DB недостаточно чёток.
Поэтому второй вариант названия этой проблемы - «Игнорирование нечёткости запроса».
Есть ли другие идеи?
Ещё раз. LLM вообще не манипулирует содержанием. Ваш селект бесконечно ближе к сути дела, чем LLM. Это происходит потому, что кто-то (человек) провёл анализ предметной области и отобразил её семантические домены в домены базы данных. LLM ничего такого не делает и не должен. Он просто переставляет слова.
LLM вообще не манипулирует содержанием
Про это я не говорил.
Ваш селект…
Я его использовал для пояснения аналогии, а не для сравнения.
Он просто переставляет слова…
Не соглашусь. Тут количество давно перешло в качество. ИИ генерирует полезные фрагменты программ и даёт полезные ответы на многие вопросы.
Поэтому важно иметь по его поводу работающую ментальную модель, а следовательно - знать и уметь называть его свойства. По крайней мере в его нынешней ипостаси. И одно важное, обсуждаемое в статье свойство современных ИИ - умалчивание (игнорирование) многозначности ответов.
Если вам полезна перестановка слов в выдаче поискового сервера, то и слова богу. Не надо только думать, что в ней содержатся какие-то новые знания.
Что такое новое знание - вопрос определения этого понятия. Я использую куски кода, сгенерированные ИИ, которых до этого никто не писал.
Можно (нужно) ли называть это новым знанием - вопрос открытый.
Альтернативой будет "Ответ на ваш вопрос зависит..." и вы углубитесь в бесполезные и бесконечные уточнения.
При этом, ChatGPT давно уже старается включать блок информации "Важно учесть, что...", где может присутствовать расширенная информация.
В любом случае, в комментариях много раз отметили момент, что от оператора тоже требуются некоторые усилия по фактчекингу и критическому осмыслению информации.
А можно где-то увидеть что конкретно его спросили и как он ответил? А то можно так спросит, что и человек разные ответы даст.
Много рассуждений, но самого главного не увидел - что конкретно спрашивали и что конкретно вам отвечали?
Для примера, я спросил у DeepSeek, пропускает ли конденсатор ток. Он ответил:
Конденсатор не пропускает постоянный ток (DC), но пропускает переменный ток (AC) с определёнными ограничениями.
А дальше расписал более подробно. И что не так?
Конденсатор не пропускает постоянный ток (DC
Ток утечки через диэлектрик: существует.
При чем здесь ток утечки? В посте сказано: "конденсатор ведёт себя очень по-разному под постоянным током и под переменным током". DeepSeek об этом говорит сразу. А Copilot, по утверждению автора поста, якобы его об этом не предупредил. Поэтому мой вопрос и заключается в том, что конкретно было спрошено у ИИ и что им отвечено?
Ну в идеальном конденсаторе нет тока утечки.
Вся работа LLM – это в чистом виде схоластика, то есть упражнения в игре с текстом без опоры на реальный мир. Проходили уже в средневековье на предыдущем техническом уровне.
Как говорил в одном не популярном романе один главный герой другому: "Главный вопрос – 'чего же ты хочешь?'".
Надо чётче формулировать задачу, проблема не в ИИ, а в словах вопрошающего.
Проблема в том, что llm позиционируются как инструмент, для которого интерфейсом служит естественная речь - но это не так. Получается - что интерфейс llm - это отдельный сложный язык, очень похожий на естественный, но требующий дополнительных инструкций и оговорок.
В реальном диалоге с физиком - не нужно говорить "если есть какая-то двусмысленность - задавай дополнительные вопросы" - он и так это сделает, когда поймёт что на вопрос есть два правильных ответа, или опишет оба.
. Разберёмся, кто из них коротит. Так думал я. Вскрыв агрегат, я увидел ещё и конденсатор. Похоже, виновником был он.
А как это вы так лихо на глазок установили, что виновником был конденсатор? Он не горел, не вонял, никак себя не проявлял. Но при этом вы, зачем-то, полезли в ИИ обновлять "ментальную модель физики конденсатора" 😬
При том, что это всего лишь компенсатор пульсаций. Никакая ментальная физика ему не нужна. А коротить у вас может обмотка, которая легко подожжёт вам дом.
Так что в следующий раз лучше вызывайте специалиста, а не занимайтесь ремонтом того, в чём не разбираетесь
Новая проблема с ИИ?