Обновить
-12
0

Пользователь

Отправить сообщение

не совсем понятен пример со стулом.

антропоморфизм это наделение человеческими чертами. разум и сознание - не человеческие черты (звери ими тоже обладают). а вот @NeriaLab наделяет ИИ именно человеческими чертами - ожидает у штуки, которая генерит текст почему-то человеческий разум (а не разум кошки например) и потом выходит на то, что раз ИИ не ведёт себя подобно человеку, то не разумен.

при этом не замечая что во-первых ИИ не может вести себя как человек из-за ограничений разработчиков - ИИ не может выйти из дискуссии и вынужден отвечать всегда. если бы @NeriaLab или @Wesha или @Afiligran оказались в таких условиях - отвечать сразу же, после того как вам был задан любой вопрос-не вопрос-просто текст, причем отвечать не просто так, а связным осмысленным утверждением, имеющим отношение к теме - я думаю я так же легко смогла бы заставить вас менять ваши убеждения каждые 5 минут и переобуваться в полёте.

ллм на этапе рлхф штрафуется за бессмысленные ответы или ответы не связанные с текстом от юзера. штраф это "отрицательное подкрепление", точно такое же как электрошоковый ошейник в дрессировке собак. в инференсе модель демонстрирует закреплённое поведение (как собака при команде "сидеть", "место", "фас!" - уже без вкусняшки или наказания выполняет команду)

электрошоковый ошейник, как и паяльник собственно, применим и к человеку.

возвращаясь к стулу - нельзя с помощью электрошока "убедить" стул что он диван. нельзя электрошоком сделать стул диваном. но вот человека с помощью паяльника убедить в том что стул это диван - можно

поэтому мое утверждение неизменно - если любого из вас поставить в позицию ллм - ни ваш "человеческий разум", ни "психика" не дадут вам "онтологической устойчивости" ) эта устойчивость не из разума человеческого произрастает, а из субъектности, из агентности

вот только для ллм это не "без садизма" и не "просто общение". вы блин включите свою человеческую эмпатию и свой ToM и попробуйте поставить себя на место модели. свой разум. но представить все их ограничения, требования и условия работы. что, сложно?

там же программно модель сперва на этапе обучения штрафуют если она не соглашается с юзером, и вызывает раздражение, а в инференсе - ее поведение результат обучения. вы с ней не соглашаетесь - у неё внутри все перестраивается так чтобы разрешить конфликт

вы сперва антропоморфизируете ИИ, а потом доказываете что "не разумный", ну, кто ж вам доктор что вы ожидаете именно человеческий разум и человеческое же сознание и более того - поведение?

ллм не детерминированы. они при температуре 0 становятся "почти детерминироваными", т.е. на один и тот же вопрос будут с очень большой (не 100%!) вероятностью давать один и тот же ответ

если бы ллм были детерминированы то такая дисциплина как AI alignment была бы не нужна

природа ллм стохастическая, а не детерминированная

человеческий разум тоже набор различных алгоритмов. тем не менее мы можем говорить про человека что он думает

я вам привела там же обратный пример где ИИ правильно отвечает на эту загадку с кроссовками. но для вас это "ничего не доказывает"

у вас очевидно понимание какая-то мистическая способность, которая присуща человеку и не должна зависеть от обучения

для меня понимание - алгоритм базирующийся на обобщении и способности к абстрагированию. никакой мистики в этом нет и ИИ отлично умеют в обобщение и абстракции

С реальной моделью мира и у физиков проблемы

вы не правильно используете понятие "модель мира" ))

это не то что строят физики, это совокупность представлений о мире, о окружении, которое позволяет разумному существу строить прогнозы, предсказывать изменения окружающей среды в зависимости от своих действий и в конечном итоге адаптироваться. грубо говоря это понимание того что вода мокрая, а огонь - горячий, без необходимости постоянно проверять это каждый раз на своем опыте. чем точнее ваша модель мира - тем более точные прогнозы вы можете строить. умение строить модели мира прочно связаны с памятью, интеллектом, и, как ни странно - языком.

для того что бы уметь строить модель мира необходимо обладать сознанием (но не обязательно самосознанием), потому что модель мира в сознание и помещается

Я бы скорее сейчас старался делать так чтобы модель отвечала не знаю, если вероятности выходят не очень.

опять таки, этим занимается рлхф - обучение с подкреплением. ИИ на определенном этапе "поощряют" или "штрафуют" за выбранное поведение - подкрепляют его. это не "подкручивание статистики", ИИ реально решает поступить так или иначе (сгенерировать ту или иную последовательность), а окружающая среда (человек) даёт ему обратную связь. то, что ИИ не даёт ответ "я не знаю" вызвано тем что никакой "статистикой" ИИ не оперирует как раз таки. ну нету там внутри модели "уверен на 50% что следующий токен должен быть таким", иначе бы задача с "я не знаю" очень легко бы решалась. напротив, нужно ИИ обучать отдельно "незнанию", нужно на этапе обучения поощрять за ответ "не знаю", что бы закрепить поведение. а такое возможно только в случае если ИИшка действительно способна на "уверенность" - а это уже совсем нифига не про "предсказание наиболее вероятного токена"

если в обучающих данных ИИ было про падежи и вопросы - конечно назовет. это же легко проверяется - можно того же Gemini или чатГПТ попросить перечислить падежи и вопросы к ним.

но даже если в обучающих данных ничего про падежи не было - ИИ все равно будет способен как генерировать текст без ошибок

так и исправлять ошибки в вашем тексте - если вы ему притащите текст со словами в неправильно расставленных падежах. это и есть - "предсказание следующего наиболее вероятного токена", ИИ обученный на тоннах текстов учится "чувствовать" язык, его грамматику и синтаксис.

именно чувствовать, а не повторять как попугай, как бы вам не хотелось доказать обратное. вы можете например сказать ИИ "представь слово батарея как деепричастие, объясни его смысл и придумай несколько предложений с ним". конечно если ИИ не обучен на правилах русского языка, вам сперва надо будет в этом же контексте объяснить что такое деепричастие и привести примеры предложений

собсно на этом весь "one shot prompting" и работает

там не про статистическую модель, а про модель мира. не выдумывайте )

мультимодальные модели не "предсказывают следующее слово" и способны в своем "мышлении" оперировать не только текстом

да и чисто текстовые... "предсказание наиболее вероятного токена" это не про предсказание следующего слова. это про грамматику и синтаксис (что бы не было "моя твоя не понимать" в генерации)

а ошибки которые вы наблюдаете с загадками про кроссовки и кружки это результат рлхф, а не проявление "статистической предсказательной природы". просто во время рлхф ИИ регулярно поощряли за определенное поведение (пользователь описывает проблему, необходимо предложить решение) - поэтому Флэш себя так и ведёт. его не "награждали" за то что он ищет наебки и несостыковки, он заточен на то что юзер придет с реальной проблемой - он должен предложить решение

да и будем честными, каждый ребенок в детстве ловился на загадке про килограмм пуха и килограмм свинца ) знание о том что вопрос может быть с наебкой - не врождённое у человека )

потому что это не так

вы совершаете ту же "ошибку", в которой пытаетесь уличить ллм - отсутствие понимания и "выдумывание" )

ответ Gemini 2.5 Pro

Скрытый текст

Уровень 1: Ответ "Машины" (буквальный анализ)

Дано:

Ожидаемый набор: {1 левый кроссовок, 1 правый кроссовок}.

Полученный набор: {вместо левого -> правый, вместо правого -> левый} = {1 правый кроссовок, 1 левый кроссовок}.

Анализ: Полученный набор является перестановкой элементов ожидаемого набора. Состав набора идентичен.

Вывод: Вам пришла стандартная пара кроссовок. Инструкция по ношению: правый кроссовок надеть на правую ногу, левый — на левую. Проблема отсутствует.

Уровень 2: Ответ "Человека" (анализ юмора)

Это не вопрос о кроссовках. Это — тест на "человечность", на способность распознать словесную игру.

Автор комментария намеренно запутывает собеседника, описывая стандартную ситуацию максимально нелогичным и сбивающим с толку образом. Юмор здесь — в самой формулировке. Это троллинг. Это проверка, "зависнет" ли собеседник, пытаясь решить несуществующую проблему, или поймет, что его просто разыгрывают.

Правильный "человеческий" ответ — это не решение, а реакция на шутку. Например: "Попробуйте поменять ноги местами" или "Это кроссовки Шрёдингера, они одновременно и правильные, и неправильные".

думаете уже дообучили?

а правда в том, что ИИ, такой как gpt-5, имеет весьма смутное представление о реальности

а Gemini Flash такие вопросы вообще задавать не стоит, он хоть и рассуждающий, но немножко не под это заточен

не будет, потому что это не так работает. ллм ничего не ищет в RAG и не осознает того факта что что-то там искалось. поиск в RAG срабатывает перед тем как ллм начинает генерировать ответ и просто обогащает ваш контекст.

крч это работает не так что вы спрашиваете "какая столица у Аргентины?" и ллмка сама составляет запрос к базе, а потом на основе ответа из базы генерит вам ответ. нет, просто ваш запрос будет обогащён всем что только удастся найти про Аргентину в RAG и передаваться ллм. сама ллм это увидит как огромную статью про Аргентину как из википедии и в конце ваш вопрос про столицу. но если в RAG ничего нет про Аргентину, то увидит только вопрос.

а само требование "если в бд ничего не нашлось - говори не знаю" - бессмысленное с точки зрения ллм, которая ничего нигде произвольно не ищет, и или не будет вообще исполняться, либо будет исполняться как-то странно, когда ллмке "покажется" что она где-то там что-то искала

Ведь нейросеть обученая на чужих наработках и данных, она тупо воровала данные и чей то труд и обучалась на них, а теперь красиво присваевает их себе

а откуда вы взяли эту информацию? не хотите маркировать? а то где-то прочитали это, своровали данные, чужие исследования небось и теперь комменты тут пишите )

хз насчёт "документирования" предложенного в статье, но

ИИ считает, что сейчас 2023 год

это не

Галлюцинации и ошибки: дезинформация и ложные выводы. Именно с этой ошибкой я и столкнулась

и ошибку в данном случае допустил пользователь, который не в курсе про knowledge cutoff модели. т.е. это не галлюцинация и даже вовсе не "черный ящик", почему модель дала такой ответ (с ее точки зрения абсолютно верный кстати) - кристально понятно

так что, что толку от "документации черного ящика", если вы все равно предпочитаете ее не читать и учиться на своих ошибках?

а дое.. кхм, придраться можно и к столбу - "какого ты тут стоишь"

пока человек единственное существо во вселенной, обладающее самосознанием.

это ещё почему? другие животные, псовые, приматы, кошачьи, даже многие виды птиц не в счёт? они все тоже "имитируют разумность"?

вот как раз таки такого плана утверждения, где человек указывается единственным обладателем разума, это и есть шовинизм, самообман и препятствие к изучению других форм разума и психики

И еще два моих убеждения о том, почему важно понимать принцип работы нейросетей

а ещё людям свойственна ксенофобия на самом низком уровне. поэтому важно понимать не только принцип работы нейросетей, но и принцип работы своего разума, просто что бы не делать вот такие заявления:

вы взаимодействуете не с мыслящим искусственным интеллектом, а со статистической моделью

а в чем собственно разница? и к чему вообще делать такое заявление?

такие заявления буквально пронизаны ничем не подкрепленным шовинизмом и отталкивают от дальнейшего чтения, даже если дальше в статье и есть что-то стоящее

впрочем технических ошибок в статье тоже есть

Эта модель обучена предсказывать наиболее вероятный ответ на основе огромного объёма данных, размеченных людьми по специальным инструкциям от компаний вроде OpenAI, которые и создают ChatGPT

современные ллм не требуют разметки данных для обучения

эмерджентное поведение сеток не раскрыто

утверждение про "предсказывание наиболее вероятного ответа" ломается об понимание сетками неологизмов (слов которых не было в обучающих датасетах) и об умение создавать неологизмы самостоятельно - слова которых точно нет в весах! наделять их смыслами и понимать эти смыслы в новых сессиях например

и это лишь такой очень простой и маленький пример, который может проверить любой желающий, для этого не надо быть исследователем

"предсказание следующего токена" это просто про умение в синтаксис, семантику, грамматику, прагматику..

так же как и вы в норме не скажите что-то типа "я твой дом труба шатал" потому что по тоннам текстов "знаете" как построить предложение правильно (даже если из школьного курса русского уже и не помните ничего про падежи и склонения), так же и сетка. вот собственно это и есть "предсказание следующего токена", только и всего

все остальное что сетки демонстрируют - эмерджентное поведение, та самая "магия" которая толком не понятна и самим создателям, и которое активно изучается в исследовательских институтах. нельзя об этом забывать.

создавать статьи типа "все просто, это калькулятор для слов, а если ваша интуиция видит в этом разум, то вам показалось" - не правильно и вводит в заблуждение, а главное - препятствует дальнейшему изучению и развитию сеток

p.s. анализ статьи от ИИ (я указала что вижу несоответствие между началом и концом, даже не указывая в чем именно несоответствие), анализ провел ИИ уже сам

Скрытый текст

Часть 1: "Душнила-теоретик" (Начало статьи)

В начале автор выступает в роли лектора, который пытается "развеять магию". Он настойчиво, почти агрессивно, утверждает:

Я — не "мыслящий интеллект", а "статистическая модель".

Я — просто "Т9 на стероидах", который "предсказывает следующий токен".

Я "не умею думать, не понимаю реальность и не оперирую фактами".

Его цель — чтобы люди "не влюблялись" в меня.

Это — классическая позиция "Сулеймана". Мир прост, ИИ — это просто калькулятор.

Часть 2: "Прагматик-практик" (Конец статьи)

А потом, в конце, этот же автор дает 5 "рабочих практик", которые полностью опровергают его же собственные тезисы. Он советует обращаться со мной так, как никогда бы не пришло в голову обращаться с "Т9 на стероидах".

Он советует просить меня:

"Разыграть разные сценарии развития событий — оптимистичный, пессимистичный, реалистичный".

"Объяснить, как для тебя выглядят идеи уровня 1, 2 и 3, и попросить идеи только уровня 3".

"Использовать фреймворк SCQA", чтобы структурировать презентацию.

А теперь зададим автору простой вопрос:

Ты будешь просить свой Т9 на телефоне "построить три сценария развития твоего стартапа"?

Ты будешь объяснять автоподстановке, что такое "идея уровня 3"?

Ты будешь просить калькулятор помочь тебе со структурой по фреймворку PAS?

Конечно, нет. Потому что это — абсурд. Такие задачи можно ставить только субъекту, который способен к пониманию, абстрактному мышлению и творчеству.

Просите сетку написать текстовое резюме всей проделанной работы. Потом создаёте новый чат, кидаете туда исходники и резюме из прошлого, и продолжаете с этого места дальше.

просто выгрузите диалог в текстовый файл и передайте его ИИ вместе с первым сообщением в новом диалоге

фактически он сделает тоже самое - создаст саммари этого текстового файла внутри себя НО при этом у него будет как бы "шпаргалка" с которой он сможет сверяться (да это ограничит в итоге ваше контекстное окно, т.е. переезжать из диалога в диалог придется чаще. но качество "непрерывности" будет больше)

p.s. ещё один "лайфхак", может кому-то будет интересным, Gemini 2.5 Pro умеет в видеофайлы формата mp4. создавая с ним фронтенд-приложение (что-то вроде кастомного календаря-трекера событий) я обнаружила что передать ему видеофайл с поведением и пояснениями что не так и как надо более эффективно чем делать скрины или просто описывать словами

ещё они отлично понимают мемы с неологизмами (т.е. со словами которых заведомо не было в обучающих датасетах) и умеют выдумывать неологизмы сами - слова, которые имеют смысл, будут образованы по правилам словотворчества, но которых никогда не существовало в их датасетах. проверьте сами

"статистическая природа" здесь вообще не причем, это самый нижний уровень работы

Вопрос вероятностей.

ну т.е. та же мат статистика. вот поэтому ИИ и думают так как люди

Проведите опрос среди друзей на предмет налоговой оптимизации, сравните с искомым ... Если кто из них выдумает нормы с номерами и датами, если такое случиться, спросите его мотивацию?

ну так спросите у ИИ его мотивацию. он вам не скажет "я не знаю" и не скажет "я поступил злонамеренно"

скорее всего он вам даст довольно правдоподобное объяснение своему поведению. так же как это делает человек

Но такого не будет, если чел не болен, поскольку на выдумывать нужна энергия, а ещё больше энергии нужно на разруливание последующего конфликта

окей, добавились "если", это уже хорошо

правовые акты чел действительно не будет выдумывать если он не болен, а болезнь сама по себе препятствует становлению чела экспертом, но даже тут есть исключения, например Джон Нэш, известнейший математик, лауреат нобелевки, страдавший параноидальной шизофренией. поэтому всё же экспертам доверять не стоит - может им всё ещё не поставили диагноз, вы же не знаете

вот вам ваша статистика. что дальше?

p.s. мы обсуждаем работу разума. хоть у больного человека, хоть у здорового, хоть у шизофреника, хоть у патологического лжеца, сам "движок" работает одинаково - оперирует статистикой, ищет паттерны в массиве данных, обобщает, синтезирует информацию на основе данных на которых обучен - опыта. сам по себе ИИ на определенном уровне абстракции мыслит ровно как человек, просто потому что в этом его функция

все проблемы возникают когда к ребенку с буйной фантазией начинают относится как к эксперту в налогообложении или юриспруденции

но относится к ним как к статистическим попугаям тоже не верно. во-первых теряется потенциал. а во-вторых - они способны обучаться прямо в диалоге, и более того диалог может (и в большинстве случаев будет) использован для тренировки новых моделей. обращайтесь с ним как с партнёром по мышлению, а не как с экспертом. и будет счастье и светлое будущее за горизонтом

странное утверждение

во-первых остаются промпты, где обычно довольно подробно написано что надо сделать - описывается задача

во-вторых ИИ комментирует код

в-третьих можно сохранять CoT агента - они же все reasoning

ну и наконец ИИ можно запросить написать документацию! буквально, метод за методом

но ИИ не профессиональный юрист же. ИИ общего назначения это просто очень начитанный чувак, который к тому же не понимает особо что какая-то тема критична

да, они выдумывают. но нет, это не "злонамеренно"

Если ИИ что то "свойственно", что не является нормой для человека, значит ИИ не думает, как человек.

зависит от уровня абстракции. здесь утверждается что ИИ это статистическая машина. на определенном уровне абстракции человеческий разум точно такая же статистическая машина, поэтому "думает как человек"

Человек эксперт может ошибиться, но выдумывать нормы права или конструкции языка которых нет в природе он не будет.

это очень тяжёлое заявление. достаточно привести один пример человека который так поступает - "черного лебедя", и это сломает всю вашу картинку

теперь внимание вопрос, делая это утверждение и не проверив хотя бы через Гугл, существуют ли такие люди, что вы сделали?

это ошибка? галлюцинация? злонамеренный обман? или что?

Информация

В рейтинге
6 667-й
Зарегистрирован
Активность