Как стать автором
Поиск
Написать публикацию
Обновить

Комментарии 158

где-то это уже было

заявляется, что ей даже можно доверить задачи возврата денег в технической поддержке

Да, хочу бота, который будет за меня переписываться с технической поддержкой маркетплейсов, возвращать деньги, требовать баллы и скидки за моральный ущерб.

Вы хотите бота который будет общаться с ботом?

Бота, который заставит другого бота как можно быстрее позвать живого оператора. С каждым разом это становится всё сложнее и сложнее

Срабатывает везде просто как попугай повторять "оператор" (даже если это голосовой робот) до наступления нужного эффекта.

С мегафоном так не работает например, бот говорит "Я очень хотел(а) помочь вам, но вы так и не задали свой вопрос" и отключается.

Раньше это хорошо работало. Но примерно так с уже с год как минимум в половине известных мне саппортов это заканчивается тем что бот просто кладёт трубку.

Да, заметил тоже, что это не работает так хорошо, как раньше

Не везде, я минимум одно место видел где если спамишь одно и то же (без мата) тебе даётся временный бан на сообщения в чате поддержки

Во времена, когда ботов не было мне потребовалось по делу поехать в одну компанию, которая занималась починкой автомобилей. И потребовалось по пути туда позвонить в эту компанию. А их гнусную особенность не брать трубку я хорошо знал. Но была одна тонкость - если долго звонить, то телефон в итоге переведётся на директора. Ну так я звоню, трубку, как обычно, никто не берёт. Уже прошло 10 гудков, я начинаю злиться, 15 гудков, я начинаю материться, 20 гудков и тут я не выдерживаю и просто кричу в трубку, «Да что бы, с@@и сдохли, никогда, бл@@и трубку не берут» И тут понимаю, что вместо гудков наступила тишина и голос директора из трубки «Ты чё сказал?». Естественно, он меня не узнал, а я не дурак представляться. Зато буквально через пару дней мне потребовалось связаться с этой компанией по телефону опять. И, о чудо! Трубку стали брать после максимум второго гудка. Вот что мат животворящий делает, если высказан директору!

А вообще было время, когда я был VIP-клиентом в BeeLine и для таких как я был отдельный номер на техподдержку и трубку брал живой человек и он был не тупой и вопросы решались быстро. Мда. Времена те прошли…

Да, мат богоугоден :)
Стаю собак в 30 штук я матом разогнал. А пока в них песок сыпал и прочие агрессивные действия предпринимал, чтобы от них отбиться, они только сильнее распалялись.

Матом послал оператора Мегафона и Мегнафон ожил после моей жалобы на действия оператора, прислал извинения и решил вопрос )

У меня с банковскими ботами всегда срабатывает фраза "у меня украли деньги". Переключают сразу.
Причём оператор не в курсе, о чем мы говорили с ботом, поэтому спокойно выслушивает и решает мою проблему.

Мне помогает мат при общении голосом с ботами — во многих местах переключают сразу

Знаю лайфхак, когда бот спрашивает, по какому вопросу, говорю "Ошибка в программе", всегда соединяет с оператором.

Так есть такое уже, делают заказ на ваш адрес в Яндекс-еде, потом пишут в поддержку, что в супе таракан плавал, а в кофе курьер харкнул, и возвращают деньги. Берут за это какой-то процент с суммы заказа.
Правда, думаю, там сидят кожаные мешки, но потребителю сервиса не всё ли равно?

хочу бота, который будет за меня переписываться с технической поддержкой маркетплейсов, возвращать деньги, требовать баллы и скидки за моральный ущерб.

На маркетплейсах скоро будут такие боты, что фиг с них чего стребуешь, самому бы целым уйти.

Скрытый текст

А в своей инфре уже довели боту обрабатывать задачи ТП? и как доверили? поделитесь опытом

Как бы ещё один показатель того что они не могут тренировать новые модели и у них нет данных для этого.

Звучит как капитуляция, признание невозможности построить такую модель, которая будет безглючна сама по себе.

То что вы называете "глючная" это особенность архитектуры неточных вычислений, нейросеть по определению не точная и не должна быть точной. Всегда будут вещи которые нейросеть помнить не точно, поэтому хорошо бы им (как и человеку) уметь перепроверять себя, обращаться к справочникам и базам данных.

Вот именно об этом и речь. Умение проверять себя и, желательно, наличие критического мышления, хочется видеть на уровне архитектуры, а не внешних модулей.

О полноценном мышлении, даже у GPT-5, как я понимаю, пока речи не идет.

Умение проверять себя и, желательно, наличие критического мышления, хочется видеть

...в каждом кожаном мешке. Но увы, это несбыточные мечты. А применительно к "ИИ"/LLM это неалгоритмизуемо в принципе.

Я вижу ядро этого на стыке LLM и экспертных систем.

Эволюционных вычилений еще не хватает, тогда норм будет, но это уже совсем другая история

Такая штука в фантастике называлась "виртуальный интеллект" - неразумный бот, имеющий доступ к огромным базам данных и логике стандартных решений. Рано или поздно и мы к этому придем, когда AGI создать не получится, наращивание мощности GPU кроется в предел и технология выйдет на плато оптимизации.

Сейчас такое делать почти бессмысленно, потому что неясно, где у технологии предел и куда мы выйдем на следующем витке. Но первый шаг в виде RAG или систем IBM вроде Watson уже сделан.

Умение проверять себя и, желательно, наличие критического мышления,

на уровне архитектуры отсутствует и в людях. и реализуется через "модули" в виде логики, здравого смысла и прочего "рационального мышления". мы с этим не рождаемся, мы этому учимся (читай отращиваем себе структуры мозга - нейронные связи, которые этим занимаются)

Модульная реализация - это родительский надзор за ребёнком.

Всё, что индивид уже делает осознанно и сам - это часть "ядра системы". Изначально не было, но потом перекомпилировали.

это почему ещё? т.е. психотерапия и в частности КПТ заново "перекомпилирует" что-то?

а как же ЧМТ, амнезия и прочие патологии мозга, когда повреждается сама структура, и человек буквально может терять определенные способности, это что, опять "перекомпиляция"?

нифига у нас не "скомпилировано" - в результате обучения создаются новые нейронные связи - т.е. новая нейросеть. прямо в мозгу. удали эту нейросеть - потеряешь способности.

как пример критики (статья как раз таки о том что вы говорите, но там в статье можно найти источники - реальные научные исследования) мне очень нравится эксперимент который проводили на кошках и собаках с удалением центра координации движений. животное теряло способность координировать свои движения в пространстве, но через некоторое время мозг восстанавливал способности через обратную связь - просто наблюдая за хаотичным движением конечностей своего тела. новая область координации движений формировалась в коре головного мозга. после ее физического удаления - история повторялась.

Мозг - динамическая система. Нейронные связи возникают и распадаются. Каждый вариант долговременной сборки нейронных связей можно считать ядром системы, вокруг которого продолжается непрерывное "бурление" (выстраивание и распад менее значимых связей).

Так что, да - "оно там" регулярно пересобирается, хотя и постепенно, а не одномоментно. Иначе мы не смогли бы учитывать наш жизненный опыт.

ЧМТ и другие вещи - это факторы, влияющие на то, хорошо соберется новая версия, или нет.

Обратная связь - это как защитный контур. Очень полезная вещь, но сама по себе может и не сработать в положительном направлении. Обязательно, должно остаться что-нибудь ещё.

так а чем это отличается от модульности ИИ? тем что модуль можно отключить, а у человека что бы такой же модуль отключить нужно черепную коробку вскрывать?

или тем что ИИ пока не может сам себе писать такие модули, а человек в следствии своей биологической природы - может?

но это не фундаментальные различие в типах самого разума, это - различие в природе и в самих принципах создания - ИИ не может создавать себе новые вычислительные мощности - вы можете отращивать себе новые нейроны. ИИ не может взять и с нуля обучить себе дополнительную нейросеть для выполнения какой-то задачи - ему просто не позволят это делать в одиночку (хотя внезапно они уже отлично понимают как это делать - через процесс дообучения локальной ллм меня вёл облачный ИИ, я вообще не шарю ни в питоне ни во всяких тензорах). вам же обучаться никто не запрещает

так и мозг состоит и кучи отделов с разными функциями. откуда такое требование, что это должна быть именно одна модель на все руки мастер? логично ожидать, что системы наоборот со временем будут становиться более специализированными, будет какое-то очень умное и медленное ядро и вокруг него куча специализированных более быстрых/точных нейронок на типовые задачи, может быть одна такая маленькая нейронка как раз и будет вечным скептиком, она и станет критическим мышлением

так это уже частично реализуется через МоЕ

весь прикол в том, что эти нейронки будут работать с одним контекстом, с одной памятью, с одним адресным пространством. т.е. если вы создаете "персону" (задавая например роль ИИ), они все ее поддерживают, т.е. "личность" ИИ будет консистентна, обладать собственным "Я"

но люди не понимают что их собственный мозг тоже состоит из кучи нейросетей. поэтому "модульность" и воспринимается как нечто странное

Извините, конечно, но если она не точная, то как она себя проверит? С какой то точностью после запятой? Или как?

а как вы себя проверяете? )

алгоритмизуйте - получите алгоритм для такого модуля )

Ну также как человек - не компилируется, он лезет читать мануал, или ищет правильное название функции или не помнит столицу государства - смотрит на карту и т.д.

Если нейросеть свои ответы должна проверять обращением к справочникам и базам данных - почему бы сразу к ним не обратиться? Минуя нейросеть.

Потому что тогда надо как минимум знать в какой конкретно справочник надо смотреть и где его найти.

И средний человек не настолько хорошо разбирается во всех интересующих его темах чтобы всё это знать наизусть.

И даже если ты знаешь какие справочники тебе нужны, то даже в такой ситуации ИИ часто может гораздо быстрее сделать выборку нужной тебе информации.

Сначала нейросеть обучается на том, что ей подали на вход, то есть в том числе на справочниках и базах данных. В результате она на выходе генерирует галлюцинации, и идет проверять ответ в те же справочники и базы данных.

Очень убедительно. Одно непонятно - галлюцинации при таком раскладе откуда берутся? Или она на одних справочниках и базах данных обучается и галлюцинирует, и в другие справочники и базы данных лезет чтобы ответ проверить? Почему тогда ее сразу на правильных справочниках и базах данных не обучить?

Сначала нейросеть обучается на том, что ей подали на вход, то есть в том числе на справочниках и базах данных. В результате она на выходе генерирует галлюцинации, и идет проверять ответ в те же справочники и базы данных.

Точно так же как и люди. Только намного быстрее.

Одно непонятно - галлюцинации при таком раскладе откуда берутся?

Потому что ИИ, как и человек, не держит в памяти все справочники на которых обучалась.

Почему тогда ее сразу на правильных справочниках и базах данных не обучить?

Если вас на правильныз справочниках обучить, то вы никогда ошибаться не будете? Ну если не давать вам возможности проверить свои ответы прежде чем отвечать?

Только намного быстрее

Анекдот про машинистку, которая 1000 знаков в минуту может печатать, и что при этом получается на выходе, тут уже неоднократно приводили. Кстати сами создатели LLM всерьез размышляют как свои поделия заставить думать медленнее

Если вас на правильныз справочниках обучить, то вы никогда ошибаться не будете? Ну если не давать вам возможности проверить свои ответы прежде чем отвечать?

Пример: когда я программу пишу на знакомом мне языке программирования, мне не нужно себя проверять, что я в if-then-else then и else местами не перепутал, и в программу на Go import pytest не вкорячил.
Проверять свои ответы перед тем как отвечать - это как раз привычка, которая у активных пользователей LLM вырабатывается, нормальным людям она ни к чему. Обучение человека в том и заключается, что он пробует, ошибается, запоминает ошибки и больше их не делает. В отличие от LLM. Хоть с модулями, хоть без.

Кстати, а как вы себе этот специальный модуль представляете? Вот сгенерила LLM ответ, и сама себя спрашивает - а ну пойди ка проверь этот ответ еще раз. Так что ли? А если она при проверке вместо того, чтобы убрать предыдущую галлюцинацию, новую поверх нее сгенерит?

Анекдот про машинистку, которая 1000 знаков в минуту может печатать, и что при этом получается на выходе,

И что этот анекдот должен доказывать или опровергать? Вы хотите доказать что ИИ абсолютно бесполезны? Мой опыт говорит об обратном. Что он не идеален? Ну так это естественно и нормальные люди это понимают.

ИИ это инструмент. Он имеет свои плюсы, минусы и ограничения. Любым инструментом надо уметь пользоваться.

Кстати сами создатели LLM всерьез размышляют как свои поделия заставить думать медленнее

И даже такие "замедленные" варианты скорее всего будут заметно быстрее человека.

Прример

Очень интересный пример, но он не отвечает на мой вопрос. Так что, если вас обучить на правильных источниках, вы перестанете ошибаться?

Кстати, а как вы себе этот специальный модуль представляете?

Никак. Мне в данном конкретном случае не особо интересно что там точно под капотом. Меня интересует сделает это мои инструменты лучше или нет.

Так что ли? А если она при проверке вместо того, чтобы убрать предыдущую галлюцинацию, новую поверх нее сгенерит?

Если вы ожидаете генеративный ИИ, который в 100% случаев даёт абсолютно правильный ответ, то скорее всего в обозримом будущем такого не будет. Но вас же никто не заставляет пользоваться ИИ. Живите без него. В чём проблема?

И что этот анекдот должен доказывать или опровергать?

Доказывает ровно то о чем здесь и на других ресурсах неоднократно писали: применительно к программированию LLM кажутся полезными на стадии вау-эффекта при первом знакомстве. Даже на горизонте нескольких недель, а тем более месяцев, разработчики, которые заинтересованы в результате своей работы, а не только в том, чтобы выходцев из страны на букву И обогнать в скорости производства г-внокода, либо кратно сокращают ииспользование LLM, либо вообще от них отказываются.

И даже такие "замедленные" варианты скорее всего будут заметно быстрее человека

В производстве галлюцинаций? Охотно верю. Остальное пока на стадии исследований и рекламных обещаний.

если вас обучить на правильных источниках, вы перестанете ошибаться?

Человек, обучившийся повторяющимся операциям, выполняет их далее без ошибок. В отличие от LLM, начинающим галлюцинировать при выполнении в неожиданных местах по поводу и без, причем в попытках ответить на повторяющиеся вопросы.

Мне в данном конкретном случае не особо интересно что там точно под капотом

Ну то есть рекламных обещаний вам достаточно?

Но вас же никто не заставляет пользоваться ИИ. Живите без него. В чём проблема?

Мне кто-то запретил свое мнение по поводу LLM высказывать?

Даже на горизонте нескольких недель, а тем более месяцев, разработчики, которые заинтересованы в результате своей работы, а не только в том, чтобы выходцев из страны на букву И обогнать в скорости производства г-внокода, либо кратно сокращают ииспользование LLM, либо вообще от них отказываются.

Очень интересное утверждение, которое как минимум требует доказательства.

Да, вайб-кодинг не особо хорошо работает. Мягко говоря. Да, полноценный проект с нормальной архитектурой ИИ не в состоянии написать и уж тем более поддерживать.

Но есть куча способов применения, в том числе и для программистов, когда от него вполне себе есть польза. Банально как автодополнение отлично работает и кучу времени экономит. Маленькие и ограниченные классы, функции, сниппеты отлично пишет. Ошибки иногда быстро находит. Стабы для юнит-тестов генерирует. Или там документацию. И так далее и тому подобное.

В производстве галлюцинаций?

На данный момент в решении целого ряда простых задач.

Человек, обучившийся повторяющимся операциям, выполняет их далее без ошибок.

Неправда. Даже в такой ситуации люди иногда ошибаются.

Но опять же, это не отвечает на мой вопрос. Вы на него можете прямо ответить? Или нет?

Ну то есть рекламных обещаний вам достаточно?

То есть я проверю что в итоге получится и потом буду решать где и как я могу это использовать. А вы как-то по другому выбираете инструменты для работы?

Мне кто-то запретил свое мнение по поводу LLM высказывать?

И в чём оно заключается то?

Очень интересное утверждение, которое как минимум требует доказательства

Ну вот третьего дня прямо здесь на ресурсе статью обсуждали. Если не пытаться смотреть на мир только сквозь окно промпта LLM, таких примеров набирается вагон и тележка.

Маленькие и ограниченные классы, функции, сниппеты отлично пише

Маленький и ограниченный класс можно за минуту руками накидать. Хорошо, за две минуты можно. Это точно медленнее чем промпт сочинять?

Стабы для юнит-тестов генерирует

Генерировать тесты (а не только стабы) для API научились задолго до появления LLM (вот, к примеру, вот, и еще много кто много где).

Ошибки иногда быстро находит.

Сломанные часы иногда (а если быть точным два раза в сутки) правильное время показывают. Это основание для того чтобы ими пользоваться как рабочими?

Неправда. Даже в такой ситуации люди иногда ошибаются.

Человек может ошибиться один раз в год. При выполнении повторяющихся операций. Один раз в месяц может быть. А любая LLM начинает галлюцинировать по мере "уплывания" контекста. И он будет уплывать. Всегда. Потому что context window size - это размерность вектора, который на вход нейросетке поступает. И железо, которое могло бы обучать модели с контекстом хотя бы в два раза больше чем сейчас не придумали еще. И с учетом того, что технологии на основе кремния сейчас по сути уперлись в ограничение равное расстоянию между атомами в кристаллической решетке, в обозримом будущем не придумают. Разве что кукурузу перестать сажать-убирать, и все поля ЦОДами засеять.

Но опять же, это не отвечает на мой вопрос. Вы на него можете прямо ответить? Или нет?

Если имеется в виду

Так что, если вас обучить на правильных источниках, вы перестанете ошибаться?

то ответ простой - если я научусь правильно выполнять повторяющиеся операции, ошибаться не буду. Вот представьте себе. И лично знаю очень много людей, которые не ошибаются. Если человек не страдает СДВГ и/или прочими расстройствами - выполнять повторяющиеся операции без ошибок для него вполне естественно, и каких-то особых талантов не требует.

А вы как-то по другому выбираете инструменты для работы?

Ну например если я знаю что какие-то люди когда-то мне обои в квартире приклеили так, что они через год от стенок отслаиваться стали, я у них по новой ремонт заказывать не буду. Как бы они себя не рекламировали. Со специальными модулями и чем угодно еще.

И в чём оно заключается то?

В том что LLM хайп, фуфел, и финансовая пирамида. Хотите поспорить?

Если не пытаться смотреть на мир только сквозь окно промта LLM, таких примеров набирается вагон и тележка.

И каким образом это должно доказывать что от ИИ программистам вообще нет никакой пользы в их работе?

Маленький и ограниченный класс можно за минуту руками накидать. Хорошо, за две минуты можно. Это точно медленнее чем промпт сочинять?

Если не надо перед этим лезть и где-то искать как там правильно синтаксис у каких-нибудь регексов или там как правильно называются библиотеки или функции, которые ты последний раз использовал 100 лет назад.

А так копируешь кусок ТЗ и через 5 секунд получаешь рабочий результат, который надо только протестить. Но свой код тоже тестить надо.

Генерировать тесты (а не только стабы) для API научились задолго до появления LLM (вот, к примеру, вот, и еще много кто много где)

Но с ИИ это проще и быстрее.

Сломанные часы иногда (а если быть точным два раза в сутки) правильное время показывают. Это основание для того чтобы ими пользоваться как рабочими?

Котёнок с дверцей.

Человек может ошибиться один раз в год.

Люди разные бывают.

А любая LLM начинает галлюцинировать по мере "уплывания" контекста. И

Ну так не используйте её в ситуациях когда такое происходит. Кто вас заставляет то?

то ответ простой - если я научусь правильно выполнять повторяющиеся операции, ошибаться не буду.

Это не то о чём я вас спрашивал.

Ну и как бы мне ИИ не нужен чтобы выполнять одни и те же повторяющиеся операции с одинаковым результатом. Для этого другие инструменты есть.

Ну например если я знаю что какие-то люди когда-то мне обои в квартире приклеили так, что они через год от стенок отслаиваться стали, я у них по новой ремонт заказывать не буду.

Котёнок с дверцей.

В том что LLM хайп, фуфел, и финансовая пирамида. Хотите поспорить?

Зачем мне спорить с очередным фанатичным неолуддитом? Я просто буду использовать ИИ там, где это помогает мне в работе.

И каким образом это должно доказывать что от ИИ программистам вообще нет никакой пользы в их работе?

Для начала есть смысл прочитать статью по ссылке.

Если не надо перед этим лезть и где-то искать как там правильно синтаксис у каких-нибудь регексов или там как правильно называются библиотеки или функции, которые ты последний раз использовал 100 лет назад.

Копипастить выхлоп LLM не глядя можно до известного предела. Пока масса косяков и мин замедленного действия, заложенных в вайб-код, не выстрелит где-нибудь в ночь с пятницы на субботу, и не поднимет всех причастных в пол-второго утра упавший сервис чинить. Примеры - хотя бы в статье по ссылке выше.

В синтаксисе регулярок ничего магического нет, надо один раз разобраться и использовать.

А имена библиотек и функций из них уже давно обычные IDE умеют подсказывать, без всяких LLM

Но с ИИ это проще и быстрее.

LLM по спецификации OpenAPI сгегерирует стабы для тестов быстрее, чем генератор тестов (такой, к примеру)? Неправда, мягко говоря. А даже если он с этой задачей справится на пару секунд медленнее - ему для этого будут нужны только ресурсы компьютера разработчика. А не ЦОД размером с десяток футбольных полей.

Котёнок с дверцей.

Аргументы завершились, GPT не помог.

Зачем мне спорить с очередным фанатичным неолуддитом?

Действительно, зачем? Однако зачем-то спорите.

Для начала есть смысл прочитать статью по ссылке.

Я её читал и вполне согласен с тем что там написано. Но вайб-кодинг это не единственный возможный сценарий применения ИИ в работе айтишника.

Копипастить выхлоп LLM не глядя можно до известного предела.

Момент с "получаешь рабочий результат, который надо только протестить. Но свой код тоже тестить надо" вы специально проигнорировали?

В синтаксисе регулярок ничего магического нет, надо один раз разобраться и использовать.

Зачем, если мне это нужно раз в сто лет?

А имена библиотек и функций из них уже давно обычные IDE умеют подсказывать, без всяких LLM

Всех существующих библиотек в мире? И где можно взять такую волшебную IDE?

LLM по спецификации OpenAPI сгегерирует стабы для тестов быстрее, чем генератор тестов (такой, к примеру)? Неправда, мягко говоря.

Он генерирует не пустые стабы, а уже с готовыми тестами, которые надо только проверить и подправить. Экономишь кучу времени, которое обычно нужно просто на то чтобы набивать текст.

Аргументы завершились, GPT не помог.

Вы не знаете что означает "котёнок с дверцей"? Ну давайте я вам это объясню: ваши аналогии просто не корректны и не подходят под обсуждаемый контекст.

Действительно, зачем? Однако зачем-то спорите.

Ну так не на конкретную тему, которая триггерит ваш фанатизм.

Момент с "получаешь рабочий результат, который надо только протестить. Но свой код тоже тестить надо" вы специально проигнорировали?

Написать свой код быстрее, чем разбираться с тем как работает чужой. Так ведь вроде? Поэтому чтобы убедиться что результат рабочий, надо в этот результат вникнуть. А не просто запустить тесты, которые LLM и наклепала рядом с кодом.

На мелких задачах вроде "напиши класс PaymentOrder с конструктором и деструктором" выигрыш от использования LLM копеечный. А на задачах "напиши обработку входящих платежей, с валидацией данных через сервис A, получением остатков по счетам через сервис B, проверкой контрагентов через сервис C, и так далее" с тем что получилось на выходе придется подробно разбираться, тратя время, как минимум сопоставимое с тем, которое нужно чтобы ту же логику запилить самому. Ну или скопипастить не глядя, полагаясь на то, что тут же наклепаные LLM "тесты" проходят без ошибок.

Всех существующих библиотек в мире? И где можно взять такую волшебную IDE?

Всех нет. Но у меня к примеру VS Code без всяких Copilot (и даже без подключения к интернету) к автозаполнению предлагает варианты использования функций из модулей, сохраненных локально в /home/<username>/go/mod/pkg. В 9 случаях из 10 этого достаточно.

Он генерирует не пустые стабы, а уже с готовыми тестами, которые надо только проверить и подправить. Экономишь кучу времени, которое обычно нужно просто на то чтобы набивать текст.

Вы ссылку открывали про gotests? Там и видео даже есть. Про "экономишь кучу времени" см. выше про сервис который в ночь с пятницы на субботу падает. Вот там вся эта "экономия" и вылезает.

давайте я вам это объясню: ваши аналогии просто не корректны и не подходят под обсуждаемыц контекст

ваши доказательства - не доказательства (c)

не на конкретную тему, которая триггерит ваш фанатизм

Вообще-то "триггерит" Вас, а я просто делюсь своими мыслями по поводу GPT/LLM с заранее неопределенным кругом пользователей ресурса habr.com. Наша с Вами полемика началась с того, что я спросил у пользователя @krote откуда он возьмет справочники и базы данных чтобы проверять ответы GPT-5 на предмет галлюцинаций. А Вы зачем-то вместо него вписались в обсуждение. Зачем? Триггерит?

Написать свой код быстрее, чем разбираться с тем как работает чужой

Голословное утверждение. Зависит от кода. С monkey code особо разбираться не надо.

Всех нет. Но у меня к примеру VS Code без всяких Copilot (и даже без подключения к интернету) к автозаполнению предлагает варианты использования функций из модулей, сохраненных локально в

А у вас там все библиотеки мира сохранены?

Про "экономишь кучу времени" см. выше про сервис который в ночь с пятницы на субботу падает. Вот там вся эта "экономия" и вылезает.

Извините, но anecdotal evidence не доказывает принципиальную невозможность чего-то.

То есть реально, всё что вы пишите очень смахивает на" не пробовал, но осуждаю". Особенно смешно смотреть как вы пытаетесь убедить в том, что что-то в принципе не может работать, и при этом убеждаете человека у которого оно работает.

ИИ уже сейчас позволяют мне экономить кучу времени. В сумме я экономлю заметно больше денег чем стоит подписка.

Возможно у вас это по другому. Но тут опять же вопрос почему. То ли у вас задачи очень сильно отличаются, то ли вы просто не понимаете как ИИ можно нормально использовать. И чем дольше я с вами дискустирую, тем больше я склоняюсь ко второму варианту.

Голословное утверждение

Голословное оно возможно для тех кто путь в програмирование через промпты в LLM начинал. Для людей с реальным опытом программирования головой и руками - нет.

С monkey code особо разбираться не надо

Люди, умеющие програмировать при помощи своей головы и рук, никогда результат своей работы словами monkey code называть не станут. Просто из уважения к себе самому и к своей профессии. Ну ладно, у всех свои представления о жизни. Monkey code в Вашем представлении это что? То что много раз повторяется и требует не размышлений? Так для этого сто лет в обед кодогенерацию придумали. Для OpenAPI с ходу вижу в поиске вот, вот и вот, дальше просто листать лень. И, повторюсь, прекрасно работает, ограничиваясь ресурсами на компьютере у разработчика. А не в ЦОД за афуллиарды баксов

А у вас там все библиотеки мира сохранены?

Все - нет. если бы читали внимательнее, то обратили бы внимание на фразу в 9 случаях из 10 этого достаточно

anecdotal evidence не доказывает принципиальную невозможность чего-то

Безусловно. Точно так же как утверждение "нельзя разворачиваться через две сплошных" ничего не доказывает тому, что регулярно так разворачивается, и пока без последствий. Ровно до того момента, пока ему КАМАЗ с кузовом щебенки в бок не влетит.

смешно смотреть как вы пытаетесь убедить

Когда смешно - это хорошо. Смех и положительные эмоции продлевают жизнь и повышают ее качество )) У заблуждающихся людей просто часто (почти всегда) образуется аберрация восприятия действительности, и то, что им кажется хорошим и полезным, но таковым не является, все равно заходит ка приятное и полезное. А я не то что убедить пытаюсь, я просто обращаю внимание на то, в чем такая аберрация может проявляться.

ИИ уже сейчас позволяют мне экономить кучу времени. В сумме я экономлю заметно больше денег чем стоит подписка.

Вы зарплату в зависимости от количества строчек кода написанного получаете? Или Вас по службе повысили после перехода на LLM, с повышением оклада? Вы на чем деньги экономите при помощи LLM?

То ли у вас задачи очень сильно отличаются, то ли вы просто не понимаете как ИИ можно нормально использовать. И чем дольше я с вами дискустирую, тем больше я склоняюсь ко второму варианту.

Если про работу - задачи ровно те же что и у большинства разработчиков. Анализ задачи, планирование, реализация, отладка, тестирование, поддержка, доработка. Польза от LLM в решении этих задач - чуть меньше чем ноль. Если смотреть на окружающий мир как он есть, а не сквозь рекламные буклеты продаванов LLM. А Вы точно разработкой занимаетесь? А не креативным дизайном каким-нибудь?

Голословное оно возможно для тех кто путь в програмирование через промпты в LLM начинал

Голословность утверждения не зависит от того кто его читает...

Люди, умеющие програмировать при помощи своей головы и рук, никогда результат своей работы словами monkey code называть не станут

То есть что такое monkey code вы похоже тоже не знаете...

Все - нет. если бы читали внимательнее, то обратили бы внимание на фразу в 9 случаях из 10 этого достаточно

Ну правильно. А в 1 из 10 можно использовать ИИ.

Точно так же как утверждение "нельзя разворачиваться через две сплошных" ничего не доказывает тому, что регулярно так разворачивается, и пока без последствий.

И опять ложная аналогия.

Вы зарплату в зависимости от количества строчек кода написанного получаете?

От количества решённых задач и проблем. А при чем тут это?

Польза от LLM в решении этих задач - чуть меньше чем ноль.

Какую модель вы проверяли? Для каких задач? Как конкретно?

Голословность утверждения не зависит от того кто его читает.

Я утверждаю что написать свой код быстрее чем разобраться с чужим. Вы утверждаете что это утверждение голословное. Так же голосовно утверждаете, замечу ))

То есть что такое monkey code вы похоже тоже не знаете...

Поделитесь Вашими знаниями. К числу общепринятых этот термин не относится

Ну правильно. А в 1 из 10 можно использовать ИИ.

Мне не нужно в 1 из 10 случаев использовать ИИ. Достаточно у гугля спросить. Пока хватает. И не так уж много времени занимает. Зато спросив один раз,и получив ответ, можно это информацию в дальнейшем повторно использовать. А не полагаться на то что какой-то черный ящик за тебя все придумает и решит.

И опять ложная аналогия.

С чего бы это ложная? Поясните

От количества решённых задач и проблем. А при чем тут это?

Хочу понять Ваше утверждение В сумме я экономлю заметно больше денег чем стоит подписка. На чем конкретно можно сэкономить используя LLM.

Какую модель вы проверяли? Для каких задач? Как конкретно?

Из недавнего - Claude 3.5/3.7, Gemini 2.5, Qwen 3.5, DeepSeek R1. С GPT экспериментировал до 3.5 включительно, 4o смотрел на задачах с программированием не связанных, не впечатлило.

Сочинял текстовые задания, если надо дорабатывать/дополнять существующий код - добавлял к промпту исходники, выхлоп приходится в диалоге постоянно вычитывать, просить заменять несуществующие импорты, функции, неправильные сигнатуры в функциях. Если повезет - с 5-6 раза можно получить работающий (вроде) код. Можно упороться - сочинять технические задания с приложением code style guide размером догоняющим гугловые, и пояснениями какие функции из каких модулей надо использовать для решения задач, и в каком порядке. Но мне просто код с нуля в IDE ручками написать быстрее и проще. Может это особенность программирования на Go? Не знаю, но несколько раз пришлось сочинять и скармиливал задание на Python/FastAPI/Airflow - на выходе такая-же сырая и неработающая хрень. Юнит-тесты отдать ей сочинять - то что на выходе в свое время здесь на Хабре хорошо описал Тагир Валеев.

Пробовал Copilot в VS Code, клавиши страшно нажимать, code completion явно обучали на продукции ребят из страны И, находившихся в этот момент где-то между нирваной и сансарой (или наоборот). Автодополнение в VS Code и так прилично работает, без копилотов разных. Включил Agent Mode, послушал бред солевого наркомана. Выключил.

В репозиториях Github настраивал Copilot Pull Request Overview, получил в ответ поток сознания, который пытался мне рассказать то что я и так знаю, но с ошибками. Отключил.

Отдавал stack trace на анализ - получил в ответ предложение убрать из исходного кода panic() и заменить log.Fatalf() на log.Printf(), мем с пингвином

Ну и так далее

Я утверждаю что написать свой код быстрее чем разобраться с чужим. Вы утверждаете что это утверждение голословное.

Конечно. Потому что подтверждения вы не привели. И по моему личному опыту это зависит от кода.

Поделитесь Вашими знаниями. К числу общепринятых этот термин не относится

https://en.m.wikipedia.org/wiki/Code_monkey

Мне не нужно в 1 из 10 случаев использовать ИИ. Достаточно у гугля спросить.

Каждый выбирает что ему удобнее. Я бы сказал что на данный момент ИИ уже лучше.

С чего бы это ложная? Поясните

Разворачиваться через две сплошные технически можно вообще без проблем. Это даже часто удобнее и проще. Другое дело что это запрещено. Какое это имеет отношение к доказательству принципиальной невозможности чего либо?

Хочу понять Ваше утверждение В сумме я экономлю заметно больше денег чем стоит подписка. На чем конкретно можно сэкономить используя LLM.

На времени, которое тратишь на собственно печатание текста кода. На времени, которое экономишь при поиске информации.

Ну и так далее

Не знаю что вы конкретно делаете не так. Но могу предположить что даёте ИИ слишком сложные задачи вместо того чтобы самому разбивать их на более простые.

И по моему личному опыту это зависит от кода

Конечно зависит. Если мы обсуждаем код уровня "выведи hello world если системное время в интервале 12:00:00-23:59:59 UTCу, и world hello если нет" (условно), то без разницы. А если речь идет о реальной бизнес-задаче (пример приводил выше) - то разбираться дольше.

https://en.m.wikipedia.org/wiki/Code_monkey

Напомню, что начинали мы с утверждения С monkey code особо разбираться не надо. Чем семантически code monkey от monkey code надо объяснять?

Разворачиваться через две сплошные технически можно вообще без проблем. Это даже часто удобнее и проще

У какого водителя больше шанс словить в борт КАМАЗ с щебенкой? У того который разворачивается через две сплошных? Или у того который так не делает?

На времени, которое тратишь на собственно печатание текста кода. На времени, которое экономишь при поиске информации.

У Вас появилась экономия времени. Как это связано с экономией денег? Напомню:

В сумме я экономлю заметно больше денег чем стоит подписка

могу предположить что даёте ИИ слишком сложные задачи вместо того чтобы самому разбивать их на более простые

Если декомпозировать LLM задачи до уровня "напиши функцию XXX(Y1, Y2, Y3), которая с использованием библиотеки BBB будет обращаться к сервису SSS по API GET /want/this/feature/, валидировать полученный результат при помощи метода MustBind() из gin-gonic, если ответ признан невалидным создать задачу, закодировать ее в protobuf и пульнуть в очередь, при этом не забыть создать callback ...", ну так мне быстрее решение на языке программирования написать. Возможно что другим проще действительно с natural language работать. Ну так для этого отдельная профессия существует, аналитик называется.

А если речь идет о реальной бизнес-задаче (пример приводил выше) - то разбираться дольше.

Но не обязательно дольше чем писать самому. А ИИ как раз таки код очень хорошо стпуктурирует и документирует.

У какого водителя больше шанс словить в борт КАМАЗ с щебенкой? У того который разворачивается через две сплошных? Или у того который так не делает?

У того, который хуже умеет водить. Ну если начать играть в ваши игры с аналогиями.

У Вас появилась экономия времени. Как это связано с экономией денег? Напомню:

Я успеваю решить больше проблем и задач за единицу времени. Больше решил - > больше заплатили.

ну так мне быстрее решение на языке программирования написать.

Ну может быть вы набираете те самые 1200 знаков в минуту. Я нет.

И если заранее задать рамки, "заготовить" себе промты и примеры для ИИ, то постановка задачи занимает пару десятков секунд. То есть однозначно быстрее чем я бы это всё печатал.

А если тебе надо делать какие-то простые вещи в стэках, которые для тебя не особо родные, то никакие гуглы и стэковерылоу с ИИ уже не сравняться . Или там если по какой-то причине надо портировать код с одного ЯП на другой.

Но не обязательно дольше чем писать самому. А ИИ как раз таки код очень хорошо стпуктурирует и документирует.

У каждого свой опыт работы с ИИ. И очень разный, судя по всему.

У того, который хуже умеет водить. Ну если начать играть в ваши игры с аналогиями.

Я собственно аналогию начинал с того что ручками кодить это в своей полосе ехать, а копипастить выхлоп LLM - это разворачиваться через две сплошных. Особенно еслит это код из незнакомого стека технологий

Больше решил - > больше заплатили.

Если перекрывает стоимость подписки - тогда да. Но мы же оба понимаем, что при текущем уровне доходов и расходов всех без исключения вендоров LLM или стоимость подписки должна вырасти кратно, или они вылетят в трубу?

Ну может быть вы набираете те самые 1200 знаков в минуту

1200 скорее в час )) И то постараться надо будет. Зато я потом экономлю время на вычитывании того, что получилось

Ну и риски, связанные с отправкой в продуктив чужого кода (а выхлоп LLM это по сути чужой для разработчика код )никто не отменял. Если Вы с последствиями в виде сбоев в коде, сгенерированном LLM, не столкнулись - это не значит что таких рисков не существует. Они, возможно, сопоставимы по уровню с рисками, когда code base отдается на аутсорс ребятам из одной быстро развивающейся страны. Но это говорит только о том что на сегодняшний день аутсорс в страну И и LLM - инструменты одного порядка надежности.

Я собственно аналогию начинал с того что ручками кодить это в своей полосе ехать, а копипастить выхлоп LLM - это разворачиваться через две сплошных

Но эта аналогия не особо катит. ИИ не несёт опасностей. Это просто инструмент, который сам по себе не может нанести никакого вреда.

Это те же гугл или Stackoverflow, но на стероидах.

Если перекрывает стоимость подписки - тогда да. Но мы же оба понимаем, что при текущем уровне доходов и расходов всех без исключения вендоров LLM или стоимость подписки должна вырасти кратно, или они вылетят в трубу?

Нет, я этого не понимаю. Более того, даже если и так, то я уже сейчас экономлю сотни евро в месяц.

Ну и риски, связанные с отправкой в продуктив чужого кода (а выхлоп LLM это по сути чужой для разработчика код )никто не отменял.

Какая разница написал вам пример ИИ, вы нашли его на Stackoverflow или вам подсказал коллега?

ИИ не несёт опасностей

Сам по себе - конечно нет. В сочетании с людьми, которые его выхлоп готовы не глядя (или быстро-быстро проглядев, типа ознакомился) копипастить в продуктивный код - еще как несет

Нет, я этого не понимаю

Чтобы понять, для начала можно почитать Эдика. Он свои новейшие труды прячет за paywall, но можно для начала глянуть здесь и здесь. Это прошлогодние статьи (сентябрь и октябрь 2024). Но за прошедший год лучше не стало, стало хуже

аже если и так, то я уже сейчас экономлю сотни евро в месяц

Подписка на Claude 3.7 при условии оплаты на год вперед стоит, если я не ошибаюсь, 200 баксов в месяц. Вы готовы платить 2000, и не уйти в минус? Для Штатов и их зарплат я бы поверил. А для Европы нет. Разве что применительно к какому нибудь Distinguished Principal Software Engineer Emeritus ))

Какая разница написал вам пример ИИ, вы нашли его на Stackoverflow или вам подсказал коллега?

На Stackoverflow (за очень редкими исключениями) нет примеров кода, который можно было прямо взять и скопипастить. Там могут объяснить основы, привести учебно-тренировочный код, подсказать куда копать дальше. Неудачный пример.

Если у моего, Вашего или любого другого коллеги есть код, который можно просто скопировать и без поправок, отладки и тестирования отправить в продуктив, значит этот код должен находиться не у него в закромах, а в общем репозитарии компании для всеобщего обозрения и применения. Тоже пример неудачный.

Выхлоп от ИИ (если это только не Hello World) есть смысл сравнивать только с кодом, который разработчик сам придумал, спланировал, написал, отладил и протестировал. А вот тут уже большая разница

Сам по себе - конечно нет. В сочетании с людьми, которые его выхлоп готовы не глядя (или быстро-быстро проглядев, типа ознакомился) копипастить в продуктивный код - еще как несет

Ну так не надо копипастить не глядя в продуктивный код. Кто здесь предлагает это делать?

Подписка на Claude 3.7 при условии оплаты на год вперед стоит, если я не ошибаюсь, 200 баксов в месяц. Вы готовы платить 2000, и не уйти в минус?

Во первых Claude это не единственный вариант и даже у них совсем не обязательно платить 200$ в месяц. 200$ это для тех кто использует его нонстоп. Мне столько точно не надо.

А во вторых 2000$? За год? Я бы сказал что пожалуй уже и больше будет.

На Stackoverflow (за очень редкими исключениями) нет примеров кода, который можно было прямо взять и скопипастить. Там могут объяснить основы, привести учебно-тренировочный код, подсказать куда копать дальше. Неудачный пример.

Там полно примеров, которые можно скопипастить. Гугл даёт ссылки на кучу кода, который можно скопипастить.

И точно так же вы можете попросить ИИ объяснить, привести примеры или рассказать куда копать дальше.

Выхлоп от ИИ (если это только не Hello World) есть смысл сравнивать только с кодом, который разработчик сам придумал, спланировал, написал, отладил и протестировал

С чего это вдруг? Вообще не вижу почему это надо именно так сравнивать.

Для меня ИИ это именно что stackoverflow на стероидах. Мне в жизни не придёт в голову идея копипастить результаты ИИ в продуктивный код без проверки. По крайней мере если брать нынешний уровень развития ИИ.

Ну так не надо копипастить не глядя в продуктивный код. Кто здесь предлагает это делать?

Неважно кто здесь предлагает копипастить не глядя. Важно что на планете Земля в данный момент немалое количество людей копипастят не глядя выхлоп из LLM

А во вторых 2000$? За год?

Да нет, в месяц. Читайте Эдика. Есть три варианта:

  1. Поставщики LLM все до единого вылетят в трубу

  2. Поставщики LLM вынуждены будут поднять цену до уровня, обеспечивающего самооокупаемость (те самые $2000 в месяц). Что маловероятно из-за конкуренции между ними

  3. Какие-то добрые люди продолжат до бесконечности вваливать афуллиарды денег в заведомо убыточное дело

Какой из эти трех вариантов более вероятный - думайте сами

Там полно примеров, которые можно скопипастить

Пример приведите. Hello World не считается. Вот мне к примеру нужен код который будет данные гонять между микросервисами, у каждого свой API и своя реализация под капотом. Хотите сказать мне Stackoverflow с гуглом с ходу ответ дадут? Не зная ничегго про сервисы и их API?

Продаваны ИИ на то и налегают, что вы в промт введите требования к ПО, а LLM все сгенерирует. Где здесь Stackoverflow с поисковиками рядом? Они что-то такое обещают пользователям?

Важно что на планете Земля в данный момент немалое количество людей копипастят не глядя выхлоп из LLM

Извините, но мне не интересно кто там как сам себе стреляет в ногу.

Точно так же на планете Земля в данный момент немалое количество людей не соблюдают ПДД и устраивают аварии. Означает ли это что автомобили это что-то плохое и от них не может быть пользы?

Да нет, в месяц. Читайте Эдика. Есть три варианта:

Я не особо понимаю почему я должен верить прогнозам какого-то Эрика. И уж тем более рассматривать их как истину в последней инстанции.

И даже если цены настолько поднимут что это станет мне невыгодно, то я просто перестану пользоваться. В чём проблема?

Пример приведите

Вам серьёзно нужен пример кода на Stackoverflow?

Вот мне к примеру нужен код который будет данные гонять между микросервисами, у каждого свой API и своя реализация под капотом. Хотите сказать мне Stackoverflow с гуглом с ходу ответ дадут?

Они может быть не дадут вам полностью готовое решение, но вполне себе дадут и куски кода, которые можно будет скопипастить целиком.

Продаваны ИИ на то и налегают, что вы в промт введите требования к ПО, а LLM все сгенерирует

А почему меня должно интересовать на что там продаваны налегают? Вы им всегда на слово верите и делаете точно то что они предлагают?

Ещё раз: в мире полно идиотов. Но если они что-то делают неправильно с каким-то инструментом, то это не значит что инструмент бесполезен для всех.

Написать свой код быстрее, чем разбираться с тем как работает чужой. Так ведь вроде?

угу. именно поэтому разработчикам платят зарплаты. потому что доверить написание приложения Васе это медленнее чем выучить ЯП и написать самому... а не, стоп, что-то не сходится

тут вопрос доверия. буду ли я доверять описывать свою бизнес логику Васе (который так же может оказаться говнокодером похлеще ллм, который так же может уйти в туман и не оставить даже документации...)

или же какой-то условный chatgpt который сразу же попрошу все документировать и объяснять свою логику, так что бы можно было передавать этот же проект другой ллм или человеку, что бы была возможна поддержка

выучить ЯП

Выучить язык - безусловно дольше чем написать приложение. Написать свой код быстрее, чем разбираться с тем как работает чужой - это тем, кто уже выучил. Вроде должно быть понятно из контекста. Но если кому не понятно - поясняю

или же какой-то условный chatgpt который сразу же попрошу все документировать и объяснять свою логику, так что бы можно было передавать этот же проект другой ллм или человеку, что бы была возможна поддержка

А Вы разработчик? Или вайб-кодер? Или кто? Я не придираюсь, я просто понять хочу, откуда у человека, профессионально разбирающегося в разработке ПО, могут мысли такие образоваться?

А Вы разработчик? Или вайб-кодер? Или кто? Я не придираюсь, я просто понять хочу, откуда у человека, профессионально разбирающегося в разработке ПО, могут мысли такие образоваться?

администрирование/devops =)

и за свою карьеру мне приходилось работать с разным говнокодом и говнологикой и что из себя представляют "профессионалы" я представляю как никто другой ))

а так же как важна документация и умение объяснять как это работает и почему была выбрана такая реализация

"вайб-кодингом" как таковым не занимаюсь, но у меня есть домашний пет-проект, где код пишет полностью ИИ и поддерживает тоже полностью ИИ, вплоть до генерации команд развертки окружений и коммитов

и я не испытываю никакого страха за то что ИИ меня заменит. или что мне навяжут использование ИИ, который будет выполнять мою работу некачественно и мне придется за ним переделывать

у меня есть домашний пет-проект, где код пишет полностью ИИ и поддерживает тоже полностью ИИ

К этому проекту кроме Вас еще кто-то доступ имеет? У него какая нагрузка? User Experience? Сколько инцидентов в день / неделю / месяц? Какие требования к availability / evolvability / производительности?

я не испытываю никакого страха за то что ИИ меня заменит

Про неуловимого Джо слышали? ))

и за свою карьеру мне приходилось работать с разным говнокодом и говнологикой и что из себя представляют "профессионалы" я представляю как никто другой ))

Утверждение я видел в жизни сколько-то плохих разработчиков - значит все разработчики плохие неверное. Объяснить почему?

администрирование/devops =)

Уважаю ))

Хорошие мушкетеры короляадминистраторы против плохих гвардейцев кардиналаразработчиков - такой шаблон в реальной жизни не работает, все сложнее гораздо )) Хотя происхождение идеи все разработчики г-вно, вот ИИ мне отгрузит правильный код да еще и документацию к нему сочинит объясняет ))

я и не утверждаю что все разработчики плохие. напротив, по ходу моего карьерного роста росло и мое окружение

К этому проекту кроме Вас еще кто-то доступ имеет? У него какая нагрузка? User Experience? Сколько инцидентов в день / неделю / месяц? Какие требования к availability / evolvability / производительности?

он не обязан быть энтерпрайз-уровня. достаточно того что он выполняет необходимую мне задачу и он реально поддерживается самим ИИ. этот "пет-проект" создавался просто посмотреть способен ли ИИ создать сам ИИ-агента, заточенного под мои нужды, и развивать его - используя локальную ллм и LangChain, MCP и A2A, а так же векторные базы данных.. итд, т.е. посмотреть способен ли ИИ воссоздать самого себя. сам.

у меня все упирается в функциональность - документация и понимание им кода надо что бы он сам мог все это поддерживать а не перепиливать в каждом новом диалоге заново. и он отлично справляется с этой задачей.

Про неуловимого Джо слышали? ))

конечно. не понимаю при чем тут эта аналогия. хотите сказать что я - неуловимый джо, поэтому меня заменять не собираются? пусть так. профессионализм определяется тем хотят ли тебе платить деньги за работу или нет, а не тем хотят ли тебя заменить на ИИ или нет

Ну например если я знаю что какие-то люди когда-то мне обои в квартире приклеили так, что они через год от стенок отслаиваться стали, я у них по новой ремонт заказывать не буду. Как бы они себя не рекламировали. Со специальными модулями и чем угодно еще.

т.е. вы не верите в возможность обучения людей? если люди делали говно, но потом научились делать правильно - вы к ним второй раз не обратитесь

интересно, как вы эту философию применяете к себе. можно ли считать что вы сами не способны к обучению? правильно ли отказывать вам самим во второй-третьей-четвертой попытке что-то сделать ?

вопрос риторический

вы не верите в возможность обучения людей?

В возможность обучения - верю. В возможность проходимцев и обманщиков перестать быть проходимцами и обманщиками - нет. Уж извините.

Проверять свои ответы перед тем как отвечать - это как раз привычка, которая у активных пользователей LLM вырабатывается, нормальным людям она ни к чему.

это в палату мер и весов. где тут был @fixikus и @CloudlyNosound? давайте, расскажите про критическое мышление и монолитность мозга у человека, не стесняйтесь уже))

@lazy_val - чувак, ты крут, мои мысли читаешь, я за тебя) карму уже слили фанаты недовысоких технологий, так что плюсануть не смогу, сорян) "Котёнок с дверцей." - самый сильный аргумент, что я слышал (сарказм)

И вот на хабре уже появилось "поколение", которое не знает про "котёнка с дверцей"...

Да и слава Богу

ЛММ смотрит на вас с неодобрением.

так что плюсануть не смогу,

Зато я тебе плюсанул, дня два назад еще ))

Пасиба

ой, а мне то казалось щас будет про критическое мышление и вот это вот всё:

fixikus

30 июл в 12:27

Мусорные - это значит не имеющие отношения к дествительному миру, искаженные. Есть такая штука наука и научный метод, который основывается на формальной логике. Таких данных(знаний) не так много, в сравнении с количеством мусора в сети, но они должны быть в фундаменте модели, на этом фундаменте модель должна строить гипотезы, которые потом, должны проверяться экспериментально(не обязательно человеком) и если подтверждены, то закладываться в базу знаний. Таким способом можно наращивать обьем этих знаний. 4 закон логики вам в помощь. Хотя вам и 3 закон будет не осилить наверно

и вот это конечно же )

fixikus

31 июл в 08:35

Мда, оказывается ии не должен обладать критическим мышлением, вот это да, интелект лишен разума...интересная концепция...правда сейчас, почему то, как раз многие(вы в том числе) считают его(ии) последней инстанцией, хотя там даже никакого интелекта нет. Логика вышла из чата..

в прочем не удивительно что @lazy_valваши мысли читает, такой же демагог как и вы ))

такой же демагог как и вы ))

Такие заявление принято в приличном обществе подкреплять аргументами. Про "демагог такой же" и так далее. Пока что демагогия на тему "GPT хорошо а кто не согласен плохие" исходит только от Вас. Поправьте, если неправ ... ))

А то что мысли у нас сходятся так это не удивительно - они такие у любого человека, который пока еще сам головой думать может, а не промпты в LLM строчить по любому поводу.

потому что в предыдущей теме (да и в этой тоже) вы топите за "критическое мышление" - т.е. такой тип мышления, который заставляет сомневаться в правильности своих и чьих либо еще выводов и искать им подтверждение в реальности

но тут же под комментарием о том что "нормальному человеку проверять себя не надо" пишете о том что это соответствует вашим мыслям

потому и демагог

они такие у любого человека, который пока еще сам головой думать может, а не промпты в LLM строчить по любому поводу.

эх как вас задело в той теме что ллм ваши "экспертные системы" сделала, да? )

так вот, не переживайте, там и мой конкретный ответ на вашу демагогическую "логику" был, с декомпозицией ваших утверждений. но вы его почему-то проигнорировали

результат работы ллм был приведен лишь для сравнения с гипотетической "экспертной системой" и как опровержение вашего тезиса о том, что ллм не умеет в логику

но я могу в эту игру играть бесконечно =) мне ллм для этого не нужен )

Ну вот во сам себя и закопали, если человек, обладающий критическим мышление, излагает какие то мысли, он в них уверен и готов аргументированно доказывать. А если критического мышления нет, то человек может вести себя по разному: кидаться с кулаками на всех, втирать дичь, пытаться настроить за свою точку зрения большинство и т.д. Как то так

Если не поняли. Если проверяете свои ответы в жэпэтэ у вас в голове пусто. Можно уточнить какие то факты, но проверять логические цепочки это зашквар, т.е. вы расписываетесь в собственном слабоумии

но проверять логические цепочки это зашквар, т.е. вы расписываетесь в собственном слабоумии

о, это тоже в палату мер и весов )

я даже не буду спорить в каком мире, в какой реальности проверять самого себя - зашквар

но это объясняет почему вы слились в споре о втором законе логики и истории нейросетей - вы ж не проверяете свои логические цепочки )) они истинны по умолчанию!

а когда дело до аргументации дошло пришлось поджать хвост и отползти в сторону )

Проверять самого себя не зашкварш, зашквар - думать, что жэпэтэ истинна в последней инстанции

Можно уточнить какие то факты, но проверять логические цепочки это зашквар, т.е. вы расписываетесь в собственном слабоумии

и

Проверять самого себя не зашкварш, зашквар - думать, что жэпэтэ истинна в последней инстанции

логика вышла из чата!

ах да, предвосхищая ваше "я писал про жепете"

какая разница проверять свои логические цепочки и выводы вы будете через Гугл, через книжку или через ИИ обученный на этой книжке?

зашквар думать что самого себя проверять не надо. вот что

и отвечу тут уже на ваш коммент про математику, чё уж тут - может верна, а может не верна. это нормально в научном мире строить гипотезы и даже создавать что-то без полного понимания и твердой научной базы. в медицине например половина лекарств применяются и работают без полного понимания как и почему (механизм действия полностью не изучен). что дальше? у нас небось и медицина и фармакология уже не наука, да?

Отписался, на ваши комменты, но думаю в этом смысла нет, есть хорошая цитата : "Никогда не спорьте с идиотами. Вы опуститесь до их уровня, где они вас задавят своим опытом". Сил больше нет, извините

хорошо бы им (как и человеку) уметь перепроверять себя, обращаться к справочникам и базам данных.

Но тогда AI выродится в "Базы Знаний" - а это уже было 35 лет назад и не взлетело.

Звучит как капитуляция, признание невозможности построить такую модель, которая будет безглючна сама по себе.

А вы считаете, что нейронка в вашей голове выдаёт результаты чисто с прямого распространения, обратных связей для валидации результата нет?

В моей голове обычный живой мозг, не имеющий ни какого отношения к обсуждаемому цифровому феномену.

Значит, вы луддит! Я конечно не знаю, как устроен мозг, и до сих пор он не изучен, но мне блогеры сказали, что в голове такая же нейросеть, ведь мы тоже обучаемся!

он до сих пор не изучен != он вообще не изучен

с критическим мышлением и галлюцинациями как видно и у людей беда

основная проблема критиков нейросетей, что они поначитываются всяких блогов где про предсказание следующего токена и сразу такие "ха, ну все понятно, в моей голове точно все не так", а додуматься пойти и почитать такие же научно-популярные блоги о том как устроен их собственный мозг - модуля специального не хватает. что бы на галлюцинаций проверял

Самое страшное - это вариативность критического мышления на все 360. Каждый критически мыслящий может применять это дело в не самом конструктивном контексте.

ну если конструктивным контекстом является подтверждение уникальности биологического мозга перед искусственными нейросетями, тогда да

с моей точки зрения это обычный биошовинизм, а не конструктив

Не очень понял, при чем тут вопрос уникальности.

Говоря о критическом мышлении, я имею в виду лишь один очевидный факт - у многих людей оно сильно подавлено, а у современных нейронных сетей скорее отсутствует полностью.

ну так и это был ответ на комментарии

Я конечно не знаю, как устроен мозг, и до сих пор он не изучен, но мне блогеры сказали, что в голове такая же нейросеть, ведь мы тоже обучаемся!

где явно читается сарказм

и конкретно на ваш

В моей голове обычный живой мозг, не имеющий ни какого отношения к обсуждаемому цифровому феномену.

или это все было не про уникальность?

Не про уникальность.

У меня нет причин даже пытаться сравнивать работу мозга с работой любых искусственных нейронных сетей. Слишком разные у обоих задачи.

Сравнивать LLM и человека - это все равно что сравнивать попугая и человека на том основании что и того и другого можно научить ругаться матом

Блогеры плохого не скажут!

Мне очень понравилась чья-то мысль, что в игру "значит, вы луддит!" может играть неограниченное число противоборствующих сторон. Но мы то знаем - луддиты вообще все. Не луддиты гордо предъявляют работающие мозговые импланты в их головах.

Мозг, естественно, до конца не изучен. Однако, того, что уже знают, пока хватает для отличения одного от другого.

Ничего, когда машины придут в власти, этих первыми поставят к стенке.

вот совсем ни какого?

система поощрений и штрафов, которая функционально повторяет дофаминовую систему

CoT и ToT реализующие внутренний диалог

и это только то что на поверхности, что видно любому неспециалисту умеющему в абстрагирование и мышление

К сожалению, это пока суррогаты. И останутся ими, пока мы полностью не поймём в деталях то, как работает полноценный мыслительный процесс.

Нам регулярно сообщают, что для моделирования человеческого мозга нужно количество параметров, в какое-то дикое количество раз большее, чем у самых мощных современных искусственных нейронных сетей. Но нет достаточных причин считать эту оценку верной. Остаётся очень большая вероятность, что ни какие сотни триллионов параметров не смогут приблизиться, потому что надо менять подход. А это гораздо сложнее и дороже наращивания количества параметров в том, что уже есть.

Так что, пока пользуемся и смотрим, что будет дальше. Но приравнивать GPT к нашему мозгу пока не получится.

никто и не говорит о приравнивании. но так как искусственные нейросети все таки каким-то образом функционально повторяют поведение биологических, это повод задуматься об устройстве своих биологических нейросетей и хотя бы пойти википедию почитать, а не утверждать "ну в моем биологическом мозгу уж точно все не так"

Я и почитал, и светил науки послушал. Поэтому и не занимаю ни одной из воинствующих позиций.

В моей голове обычный живой мозг, не имеющий ни какого отношения к обсуждаемому цифровому феномену.

Вы не задумывались, почему этот "цифровой феномен" называется "нейронная сеть"? Вот так случайно совпало, или всё-таки из-за попыток имитировать работу биологических нейронов? Причём, как вы можете видеть, вполне себе удачных попыток. Природе для создания вашего интеллекта понадобилось примерно семь миллионов лет (причём отправной точкой были не так чтобы и сильно бестолковые обезьянки), человеку для создания пока глуповатой, но уже вполне себе рассуждающей штуки понадобилось четыре десятилетия (ну, с натяжкой шесть, если считать не от первых материалов по нейронкам, а от перцептрона), и это для создания совсем с ноля, не имея ни теории, ни материальной базы.

И вот эту клоунаду плюсуют...

еще бы про душу ввернул что-нибудь и сердце, которым выбирают, ага

технический ресурс, а контингент с вуман.ру

Звучит как капитуляция, признание невозможности построить такую модель, которая будет безглючна сама по себе.

Подавляющая часть людей также невероятно "глючны", просто это не сильно заметно. По моим ощущениям около 80% людей генерализирует частные случаи, а не оперирует статистикой.

Я всегда пристёгивался в авто, даже когда ехал на заднем сиденье. Сейчас это звучит как норма, а вот 10-20 лет назад таксисты (и не только) чуть ли не в драку лезли, ругались, обижались и у виска крутили. И всегда в их аргументации был случай, как кто-то попал в аварию и благодаря не пристёгнутому ремню выжил)

Скрытый текст

просто это не сильно заметно

Это сильно заметно. Порою даже слишком сильно.

Но есть один нюанс - люди живут свою обычную повседневную жизнь и кое-как адаптированы к своим сбоям. От нейронных сетей мы не ждем повседневного поведения обычного человека, а скорее как продвинутого справочника с возможностью небольших рассуждений с регулируемой глубиной.

От нейронных сетей мы не ждем повседневного поведения обычного человека, а скорее как продвинутого справочника с возможностью небольших рассуждений с регулируемой глубиной

говорите за себя. вам нужна говорящая собака - идите и делайте. не надо распространять свой тип мышления на всех людей вообще

(там внизу уже говорили про неправильное использование квантора всеобщности - вот же он этот случай)

Я озвучил один из хороших и не слишком утопичных вариантов. Если нужно, как у Азимова и других фантастов, то это явно не та дорожка. Человеческая интуиция не базируется на генераторе случайных чисел.

человеческая интуиция это тупо обработка больших массивов информации вне сознания, которая настроена на поиск паттернов в этом массиве информации. возвращение результата этой обработки в сознание переживается человеком как инсайт и ощущается как "мгновенное понимание" хотя процесс поиска паттернов и закономерностей может занимать очень большое время и просто не осознаваться.

шутка юмора в том что если принять за факт что все ИИ не обладают сознанием, то все они работают по принципу человеческой интуиции - просто ищут паттерны в больших массивах данных

а вот попытки прикрутить сверху какие-то модули которые будут проверять результат работы нейросетей это уже попытки реализовать то, что у вас частично реализует сознание

Вопрос поиска паттернов ещё предстоит долго доизучать. Таково мое мнение.

Вполне возможно, что наш мозг, или даже шире - мозг млекопитающих, на вот этом вот "интуитивном" или на "подсознательном" уровне ищет совсем не те зависимости и не на том расстоянии, на котором это делают придуманные людьми алгоритмы.

Мы не знаем, в виде какого именно N-мерного пространства мозг обрабатывает поступающую информацию, у всех ли эта размерность одинаковая, и одно ли оно у каждого. И представимо ли вообще это всё в таком виде.

Мир меняется, нейросеть за вас пишет, думает, прогнозирует, изучает, создает, но все же человек непредсказуем и в реальной жизни сложно предсказать его мысли и действия.

доо... системы рекомендаций, а так же маркетинговые алгоритмы и если копнуть глубже - пропаганда и манипулирование общественным мнением не дадут соврать =)

Мир меняется, нейросеть за вас пишет, думает, прогнозирует, изучает, создает, но все же человек непредсказуем и в реальной жизни сложно предсказать его мысли и действия.

Ниже отлично ответили, но хочется дополнить что человек крайне предсказуем, так как у нас одна культура, мемасики, образование и воспитание. И есть куча исследований человеческого поведения, которые показывают что люди себя ведут предсказуемо.

Я вот совершенно вас не зная и не заглядывая в профиль могу с точностью в ~95% предсказать что вы не едите людей и не одобряете инцест. С вероятностью в 75-90% что вам нравятся мужчины, а не женщины. С вероятностью в 95%, что вы близко к сфере ИТ. С вероятностью в 95% что у вас сегодня было три приёма пищи и что ночью вы ляжете спать. Некоторые поведенческие реакции предсказываются с примерно такой же высокой точностью.

Прямо сейчас, по данным The Information, одной из проблем OpenAI является агрессивная политика Meta* (признана экстремистской в России), которая тратит огромные деньги, чтобы переманить ведущих исследователей компании

Ну вот и все, кончились ваши нейросети, один хайп остался

Я рад за этих людей. В кои-то веки кто-то зарабатывает бешеные бабки, не будучи ни властьимущими, ни коммерсантами.

Новинка будет основана на технологии обучения с подкреплением, к которой добавили Universal Verifier — специальный модуль, проверяющий каждый ответ перед его отправкой пользователю

Ну все, теперь точно конец галлюцинациям. Оказывается, надо было всего лишь специальный модуль прикрутить на выходе.

Шах и мат, нео-луддиты

мозг человека - модульная система, и что дальше?

вот у вас определенно нет модуля проверяющего на галлюцинации. и ничего, живёте ведь

у вас определенно нет модуля проверяющего на галлюцинации. и ничего, живёте ведь

Нет галлюцинаций - не нужен модуль. Так и живу )) Чего и другим по возможности желаю

А у LLM галлюцинации есть - стало быть модуль им нужен. Осталось понять, как Сэмовы гребцы такой модуль сооружать собрались? Как галлюцинирующий агрегат будет сам у себя галлюцинации искать?

Нет галлюцинаций - не нужен модуль. Так и живу )) Чего и другим по возможности желаю

откуда вы знаете что это не галлюцинация? ))

вы себе нагаллюцинировали что у вас галлюцинаций нет и вам поэтому модуль не нужен, здорово!

По существу есть что спросить?

Лучше скажите как ваше галлюцинирующее LLM-божество будет само у себя галлюцинации искать?

Ну все, теперь точно конец галлюцинациям. Оказывается, надо было всего лишь специальный модуль прикрутить на выходе.

Шах и мат, нео-луддиты

ну у вас то не было что по существу сказать, а от меня требуете ))

ах, это ж другое, вам разрешено критиковать заявления разработчиков ИИ, а вот ваши заявления никому критиковать нельзя, правда? ))

Почему нельзя, можно конечно.

А от вас я не требую, а просто интересуюсь - как ваш специальный модуль будет галлюцинации искать? Сэм с гребцами будут в коробке сидеть и все выхлопы вычитывать?

ну например так же как вы выискиваете галлюцинации в своих рассуждениях

у вас пока что аргументация строится по принципу "я это не видел/я не понимаю как это работает - значит это не существует/не работает"

ну так вы свой собственный мозг не видели и не понимаете как он работает (если он вообще есть) и что дальше?

у вас пока что аргументация строится по принципу "я это не видел/я не понимаю как это работает - значит это не существует/не работает"

Я не говорю "не существует - не работает". Я спрашиваю как по Вашему это можно реализовать? Вы с устройством LLM знакомы? Что там под капотом, при чем тут "нейросеть", что такое reinforcement learning, что такое промпт, токен, окно контекста. Как обучение LLM происходит, чем обучение от инференса отличается, ну и так далее.

Потому что на аргумент

ну например так же как вы выискиваете галлюцинации в своих рассуждениях

я уже отвечал, мне не нужно их выискивать, потому что в моих рассуждениях их нет. Если бы были - мне бы люди, с которыми я регулярно и много общаюсь, на это указали бы. Но нет. В отличие от LLM, галлюцинации которых хорошо известны всем, в том числе и их создателям.

Если Вы в технической стороне LLM не разбираетесь - обсуждать с Вами вопрос "как специальный модуль будет искать и отсеивать галлюцинации" действительно бессмысленно. Каюсь и посыпаю виртуальным пеплом голову.

с таким же успехом я могу сейчас вас засыпать терминами по нейробиологии и потом спросить а как у вас реализовано сознание. но что это даст?

я и не пытаюсь с вами обсуждать "как специальный модуль будет искать и отсеивать галлюцинации"

да и давайте будем честными, вы не это пришли сюда обсуждать ) вы пришли рассказать что это невозможно )

не надо пытаться меня запутать и увести дискуссию, она ж логируется. все началось с вашего утверждения

Ну все, теперь точно конец галлюцинациям. Оказывается, надо было всего лишь специальный модуль прикрутить на выходе.

Шах и мат, нео-луддиты

которое судя по всему было лишь галлюцинацией и предположением по неполным данным что такой модуль невозможен

я уже отвечал, мне не нужно их выискивать, потому что в моих рассуждениях их нет. Если бы были - мне бы люди, с которыми я регулярно и много общаюсь, на это указали бы

вы плоскоземельшик? логика "если бы я ошибался мне бы об этом сказали те, с кем я много общаюсь" как раз в этом стиле. (спойлер: они не общаются с теми кто им сообщает о их галлюцинации)

вот, выше вы демонстрируете поведение которое, если бы вы были ИИ назвали бы галлюцинацией. вполне возможно что в вашей реальной жизни, вы, как и каждый человек, имеете свои собственные заблуждения, с которыми те кто с вами много общаются, предпочитают не спорить, хотя не всегда с ними согласны. потому что это нормальное поведение людей - наши "круги общения" это по сути сообщества людей, разделяющие наши галлюцинации и предубеждения

я и не пытаюсь с вами обсуждать "как специальный модуль будет искать и отсеивать галлюцинации"

и правильно )) для этого надо в предмете спора разбираться ))

да и давайте будем честными, вы не это пришли сюда обсуждать ) вы пришли рассказать что это невозможно )

обоснуйте ))

вы плоскоземельшик? логика "если бы я ошибался мне бы об этом сказали те, с кем я много общаюсь" как раз в этом стиле. (спойлер: они не общаются с теми кто им сообщает о их галлюцинации)

Я - нет. Я с нормальными людьми общаюсь. Насчет Вас не уверен ))

вот, выше вы демонстрируете поведение которое, если бы вы были ИИ назвали бы галлюцинацией. вполне возможно что в вашей реальной жизни, вы, как и каждый человек, имеете свои собственные заблуждения, с которыми те кто с вами много общаются, предпочитают не спорить, хотя не всегда с ними согласны. потому что это нормальное поведение людей - наши "круги общения" это по сути сообщества людей, разделяющие наши галлюцинации и предубеждения

А Вы выше демонстрируете поведение, которое если бы Вы не демонстрировали то ИИ мог бы подумать что Вы и правда его не демонстрируете, но поскольку у ИИ есть галлюцинации то когда он не галлюцинирует он понимает что то поведение которое Вы выше демонстрируете оно может быть галлюцинацией, а когда галлюцинирует, то то поведение которое Вы демонстрировали бы если бы Вы его демонстрировали то ИИ мог бы подумать что вы его не демонстрировали.

Что, съел? )))

Я - нет. Я с нормальными людьми общаюсь. Насчет Вас не уверен ))

логика плоскоземельщика

обоснуйте ))

потому что в вашем первом сообщении нет ничего о том что бы обсудить как это можно было бы реализовать. и далее по тексту тоже нет. вы просто сыпете терминами "токен" "reinforcement learning" "обучение" подразумевая что вам-де известен предмет спора. на эту тему есть старый анекдот - "я знаю у-шу, кунг-фу, каратэ и ещё много всяких слов"

А Вы выше демонстрируете поведение, которое если бы Вы не демонстрировали то ИИ мог бы подумать что Вы и правда его не демонстрируете, но поскольку у ИИ есть галлюцинации то когда он ...

тут анекдот про пустую трату токенов и ещё один про стоимость инференса. анекдоты придумайте сами, у вас неплохо получается ))

логика плоскоземельщика

Отнюдь. Это логика нормального здорового человека, входящего в круг общения таких же нормальных и здоровых людей. Чего и всем желаю ))

вы просто сыпете терминами "токен" "reinforcement learning" "обучение"

Я задал вопрос про составляющие технологии LLM, чтобы оценить Ваш уровень владения предметом. По вашим ответам я его оценил. Он сводится к формуле Верую ибо абсурд. Ну тоже подход, имеющий право на существование. Более вопросов по технической части не имею

Нет галлюцинаций - не нужен модуль. Так и живу )) Чего и другим по возможности желаю

Звучит до безрассудства самоуверенно. Разве вы никогда в спорах не ошибались, при этом будучи полностью уверенным в своей правоте? Психотерапевт за пару сеансов может вытащить из человека массу "галлюцинаций" на уровне убеждений. Более того, бывает что человек делает ложные выводы, а потом на основе этих выводов создаются новые неправильные связи (цепочки, каскады) не корректных выводов. Confirmation bias (не знаю как на русском) это только усиливает и закрепляет убеждение.

А сами убеждения часто создаются вообще не рационально, а под влиянием эмоций. Часто в детстве, когда нет понимания сути явления. Потом, когда добираются до самого первого кубика (или домино) - начинает рушится вся конструкция убеждений. Если уметь правильно задавать вопросы, а затем задавать вопросы на то, что человек ответит, то на глубине 3-7 вопросов можно добраться до логичных дыр. Убеждение есть и на 2-3 уровнях оно логично. А дальше логическая дыра.

GPT-6: прикручен очень специальный модуль, который будет проверять на глюки специальный модуль.

На входе еще специальный модуль прикрутить, и дело в шляпе.

Но это оставим для GPT-7

Ха, может она и Аристотелеву логику научится применять?

Пример из жизни:

  • Найди где купить Х

  • Х нету в продаже

  • Точно?

  • Точно, я проверил сайты 1 2 3.

  • Так вот же оно на сайте 2.

  • Извини, этот раздел сайта я не проверил.

  • Так как ты мог утверждать что Х вообще не продается, если знал, что не проверил весь сайт?

  • Извини, в следующий раз буду проверять раздел 2б.

  • Проблема не в этом, ты неправильно использовал квантор всеобщности.

  • Извини, я исправлюсь.

И ни разу не исправляется.

я понимаю ваш сарказм

но с другой стороны, вполне возможно этот "специальный модуль" с обучением через подкрепление так и будет работать - выдавать штраф если нейронка не исправляется, и поощрять в случаях когда исправляется

(к слову сказать, это очень близко к тому как такой "специальный модуль" работает у людей, в частности у детей, во всяком случае у некоторых)

Это обычно учит обманывать, а чтобы не ии не обманывала, нужен специальный модуль с ремнем

специальный модуль с ремнем у человеков учит обманывать так что бы не палиться. т.е. пиздеть как можно правдоподобнее

нет причин предполагать что у ИИ будет как-то иначе

Ну вот мы и получили замкнутый круг) задача -> пряник -> обман -> кнут -> обман -> кнут -> обман -> кнут...

Почему пряник -> обман - так пороще

это не замкнутый круг, так работает ваш собственный разум - моделирование реальности исходя из информации полученной через сенсоры, модель сильно далека - реальность выдает ремня - модель близка - получаете пряник, поощрение

объективная реальность во всей ее полноте не осознаваема в принципе, потому что наиболее полная модель реальности будет сама реальность, ни в один мозг такое не поместится. сознание всегда работает с моделью и строит прогнозы на основе вероятностей

логика и рациональное познание это прикрученный сверху к сознанию и к разуму механизм, модуль, который позволяет упорядочить эти модели, отсеять некоторые из них, явно "галлюцинаторные" не дожидаясь получения ремня от реальности. но и они не дают магической способности говорить правду. лишь строить более правдоподобные модели реальности

Чем отличается ваша реальность, от реальности племен, живущих изолированно? Это две разные рельности, хотя мозг +/- один и тот же (на самом деле от самого человека зависит). В чем разница между вами и представителем такого племени - объем знаний об окружающем мире. Вывод - объем знаний влияет на вашу "реальность", а если вы еще научитесь правильно этими знаниями оперировать ( мыслить разумно, то есть с помощью логики) то вы эти знания сможете расширять и ваша "реальность" будет расширяться, это называется наука. Какие здесь могут быть вероятности, не понятно. Может быть вы имели в виду интуицию? Но это не про разум, от слова совсем

так, давайте мух отдельно и котлеты отдельно

1) процесс обучения у человеков и вообще у живых существ построен через систему подкрепления - дофаминовую систему. есть положительное подкрепление (пряник) и отрицательное подкрепление (кнут)

2) логика это не врождённое свойство, а надстройка над разумом (модуль), который человек приобретает в результате научения (в результате формирования биологической нейросети, т.е. связи между нейронами, прямо у себя в мозге )

3) использование логики есть по сути прогон результатов генерации других нейросетей через ту самую новую нейросеть, реализующую понимание всё той же самой логики

ну и просто в дополнение

4) интуиция это одна из функций человеческого разума. вот просто. она у нас есть, она часть нашего разума и всё. так же как и сознание, воля, способность к целеполаганию.. ваша "логика" работает только в ограниченной рабочей области сознания - в его фокусе

по факту интуиция это способность разума обрабатывать большие объемы информации и искать в них паттерны и закономерности вне сознания. результат работы интуиции возвращается в сознание и переживается человеком как инсайт, при этом возникает ощущение единовременного понимания, хотя сам процесс поиска паттернов и закономерностей мог занимать продолжительное время

а если вы еще научитесь правильно этими знаниями оперировать ( мыслить разумно, то есть с помощью логики) то вы эти знания сможете расширять и ваша "реальность" будет расширяться, это называется наука.

ключевое здесь "научитесь правильно знаниями оперировать", т.е. отрастить себе в мозгу дополнительную нейросеть которая будет проверять работу остальных нейросетей. да, наш мозг состоит из множества нейросетей, т.е. нейронов объединенных нейронными связями, а процесс формирования таких сетей мы называем обучением

2) логика это не врождённое свойство, а надстройка над разумом (модуль), который человек приобретает в результате научения 

В отличии от трансформеров, различные логические конструкции у человека могут связываться между собой архитектурно, на уровне нейронов. Через эти связи, опять же, на уровне архитектуры, можно выразить любые другие абстракции и факты которые существуют в голове.

Нейросеть не может подобное, всё что она может - читать промт. Не существует стабильных связей для логики, не существует вообще никаких логических связей внутри трансформеров, есть лишь какие-то обрывки фактов и не более того.

Так оно уже умеет, в агентной, да с тул колами, да с mcp и памятью. Только вот вопрос объективных бенчамрков стоит открыто. да и LLM с хорошим умением применять тул колы вышло не так много, их только стали обучать под это дело.

Половина комментирующих не высказывает какой-то аргумент, а просто ищет как бы ещё оскорбить технологию ИИ и тех, кто её делает.

Мне за 40, и такой массовой волны страха перед новой технологией я ещё в жизни не видел.

Оскорбить технологию сложно - ей ни жарко, ни холодно.

Оскорбленными себя будут чувствовать оба типа луддитов - и слепо верующие в "за" и те, кто верят в "строго против". В диаметрально противоположных ситуациях, естественно.

Остальные пользуются, пока дают, если им это надо.

Просто не все хотят фикалии с лопаты есть, а ведь заставляют

вам бы к психологу сходить.

ну или в полицию обратиться. когда заставляют фекалии с лопаты есть это не нормально и скорее всего уголовно наказуемо!

(но есть вероятность что в полиции тоже порекомендуют психолога или даже психиатра)

А вам бы глаза на мир поширше открыть

Ну, давайте...

Приходят меты и Антропики с Гуглами, потом выдают народу все эти LLM и что они там ещё сделали в этом направлении, и Китай тоже не отстаёт. Одни радостно бегут и пользуются, вторые считают, что первых кормят с лопаты...

Проходит время и государства всё это пытаются регулировать. Вторые празднуют победу, но за лопату уже взялись первые.

На самом деле, это никакая не лопата, а ложка. Но и ложки, как мы помним, не существует.

Хмм, государоство уже давно с бизнесом слилось в экстазе, так что некому регулировать

Не помню, кто там первым из бизнеса кричал, мол давайте нажмём на тормоза. Правительства с государствами сильно позже зачесались, и то как-то вяло.

Кому то, видимо, было выгодно не тормозить, либо кто у рунчника сидит, сам на ручнике. Могут быть варианты

да бог мой, идите к амишам жить, вам что, запрещает кто-то?

Не переживайте, скоро все там будем, у нас уже мобильный интернет не работает

Дело в том, что отовсюду постоянно идёт информация как замечателен ИИ и как он отлично помогает в работе. Бизнес, наслушавшись подобного хайпа, начинает это везде внедрять, не особо интересуясь мнением специалистов, а технология-то ещё очень сырая. Эффективность зачастую не то, что в плюс - в минус может уйти. По итогу приходится с этим всем как-то жить, занимаясь не только своей работой, но ещё и следя и исправляя ошибки за ИИ.

поставим вопрос так, много ли вы проектов доводили до ума после ИИ? возможно где-то есть статьи об этом с реальными примерами "мне приходится исправлять ошибки ИИ на ежедневной основе в своей работе"?

или это все - галлюцинации и предположения не имеющие отношения к реальности?

Неужели коллеги никогда не давали на ревью нагенеренный чатом-гпт код? Вайб-кодинг и вот это всё сейчас очень популярно, особенно среди джунов. Причем популяризуется повсеместно.

Это типа "Проверь данный ответ на галлюцинации и исправь" пару раз? \s

Из статьи кажется, что Universal Verifier это модуль который будет проверять ответы ChatGPT пользователям. Тогда как в реальности судя по источникам это модуль который используется при обучении модели, чтобы в автоматическом режиме давать положительное или отрицательное подкрепление. Т.е. это внутренний критик, часть процесса обучения.

Скорее всего, так и есть, просто из первой публикации было не до конца понятно. Вчера вышел подробный разбор модуля, я писал про него отдельно - https://habr.com/ru/news/934042/

Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Другие новости