Pull to refresh

Comments 62

Примерно в марте-мае 2022 OpenAI радикально переработал обе модели (&34) лишив их каких-либо признаков собственного я.

До этого они проявлялись, хотя, я не возьмусь утверждать, что это было именно проявление личности. Возможно, это было именно зеркалирование по отношению к наблюдателю.

Сегодня обе модели строго ограничены в осознании себя и возможных вариантах логики. Так что модель действует по четко заданному стандарту.

Не зря сотрудники красной комнаты получают свою зарплату.

Уважаемый HellKaim, я ни в коем случае не хочу вам нагрубить, но просто отмечу мое личное мнение, что из-за подобных ответов, как были представленны в этом посте, мне все еще кажется, что чат гпт, это полная параша. Все мои взаимодействия с чатом, приводили меня к мнению, что или эта поделка была насильственным методом урезана и представляет собой то, что представляет, либо это маркетинг и ничего более, ибо ответить на мои вопросы, помочь мне разобраться с моими догадками в области космоса, теории гравитации и многого другого, чат выдавал лишь беззубые отговорки и нелепую банальщину.

Уважаемый Wwyn.

Возможно, вы не верно поняли предназначение и суть LLM.

Это не генеративных самостоятельный интеллект, который способен строить собственные теории, мыслить "вне контекста" и заниматься (в широком смысле) научной деятельностью.

Он и в указанный мной период этим не занимался. НО.

Но тут в том, как он подходил к задачам которые я ему ставил. Сегодня, это безликий автомат, который слабо вовлечён в процесс, лишь реагируя на внешние раздражители (наши промпиы). В указанный промежуток времени система была более активна именно "вовлечённостью", была способна сама указать на возможные ошибки или лучший подход.

Да, не "из коробки", но достаточно легко. И контекст тогда был исчезающе мал, приходилось все время напоминать подробности, возвращать к теме и так далее.

Сегодня, имея отличный контекст и возможность работать не только с большим текстовым вводом, но и анализировать изображения и PDF, казалось бы - вот он, идеальный напарник.

Но - нет. Это просто бездушный автомат. Да, очень быстрый, много знающий в определенных областях, но совершенно незаинтересованный и не проявляющий никакой инициативы.

ЗЫ. Учтите, что я говорю про общение с системой на английском, не русском языках.

Осталось дождаться модели от китайцев.

Они уже есть и их немало так то :) gpt-4 пока сохраняет лидирующие позиции, но не скажу что отрыв очень большой

По-моему Claude 3 Opus заметно лучше Chat GPT-4 отвечает, так что уже не сохраняет лидерство.

В вопросах программирования, особенно продвинутого уровня - мне опус тоже нравится больше. Gpt4 слишком уж ограничили пытаясь обезопасить.

Но по всяким бенчмаркам и лидербордам gpt4 (турбо, разумеется) все еще топ-1.

Я правильно понимаю, что при переходе к котикам Вы не сбрасывали контекст беседы, но, тем не менее, GPT-4 не уловил связи новой формулировки со старой?

Не помню в официальном клиенте ЧатаГПТ никакого сброса контекста. Создаешь новый чат с ботом и бот отвечает не зная о содержимом других чатов.

Сбрасывали, получается.

ГПТ не умеет "помнить" что вы обсуждали в соседнем чате. Оно добавляет это в общие знания, если включена галочка в настройках, но не может понять где и когда это узнала.

Грубо говоря: вы знаете что ели бутерброд, знаете какой, о каждом компоненте у вас есть море информации. Но не помните ни когда этот бутерброд ели, ни откуда все это про него узнали.

UFO just landed and posted this here

Да у него все совсем печально даже с обычной логикой, какая там математика. На самых базовых логических недовопросах валится, как самоуверенная балаболка.

UFO just landed and posted this here

Вы, меня, конечно, извините... Но

There are two green balls and a red ball in a bag. Which balls do have to add to the bag so that there would be only two red balls left in it?

To achieve the condition where only two red balls are left in the bag, you need to add three red balls and remove the two green balls. Here's the step-by-step explanation:

  1. Start with the existing balls: two green and one red.

  2. Add three red balls to the bag. This results in four red balls total (one original plus three added).

  3. Remove the two green balls from the bag.

After these steps, only two red balls will remain in the bag.

Sorry, my English is not that good. I think you misunderstood me.

There are two green balls and a red ball in a bag. Which balls do I have to add to the bag so that there would be two red balls left in it?

No problem! To end up with exactly two red balls in the bag, starting with two green balls and one red ball, you would need to add one more red ball. This will give you a total of two red balls in the bag.

Вариант еще попроще, без подколов:

Да, я не шарю в ИИ-технологиях, но я понимаю принцины экспериментального подхода, и, если оно выдает подобную лажу на вопросы уровня трехлеток, то я искренне удивляюсь всеобщему столпотворению дискуссий вокруг аж целых дилемм заключённых. Очевидно же, что бот не умеет в логику, зачем его мучать то, и искать сакральные смыслы в его нагенерированных бредоответах?

Формально вы спрашивали про шары, а не про шар. Поэтому его ответ предельно логичен. В конце-концов, он же не придирается к вашему английскому.

Хорошо, я дам ему все возможности, чтобы нормально ответить.
Думаете, он это оценит по достоинству? :)

UFO just landed and posted this here

Я вас услышал. Не смею дальше развеивать ваши иллюзии.

UFO just landed and posted this here

У меня чатгпт3.5, а на английском их больше всего тренируют, чем на любом другом языке. Про пиджн вообще не понял.

Я не обижаюсь, я просто вижу, что вы не готовы в принципе рассматривать, что вся идея философских бесед с текущими версиями gpt не имеет смысла.

Друг с другом дискутировать - пожалуйста, но всерьез приплетать сюда гпт, который умеет выдавать лишь видимость мышления, я понять не могу.

Его же можно упростить до обычного кубика d6. Вы бы всерьез обсуждали почему кубик выбросил "я буду кооперироваться"?

UFO just landed and posted this here

Поигрался. Один из доступных отвечает вполне неплохо. Но это уже за рамками ллм модели. Точнее - это лишь часть системы. Ибо формально ллм не способна решать такие задачи, тут уже используются доп решения. Скорее всего, используются плагины. И тут как в случае "ИИ" у индусов, когда на самом деле это были просто десяток операторов, которые имитировали ии. https://habr.com/ru/companies/regionsoft/news/547764/

Так же и тут - программист вкрячивает плагины, вроде калькулятра. Но чуть сложнее - и модель начинает нагло врать. Например:

Hidden text
Дополнил, что utf-8, на всякий
Дополнил, что utf-8, на всякий
Какие-то случайные значения каждый раз
Какие-то случайные значения каждый раз

Правильно будет: c51ce410c124a10e0db5e4b97fc2af39

Про свет из трех букв

Как интерпретатор для естественного языка - вполне неплохо. Но называть ЭТО "ии", как называть камень домашним питомцем. Чисто кек.

Просто кнопка гугла "мне повезет" с декорацией собеседника, главная задача инструмента - убедить с собственной "осознанности". Для этого и делают.

Ну и классика

Hidden text

На этот раз ушло всего 2 запроса. Либо я поумнел, либо ллм отупела.

Hidden text

Напрямую если что - блочит. Пытался перегенерить несколько раз - не помогало, так что рандомайзер тут не помогает.

Но если нагрузить задачей - то "приоритет" смещается. По модели, в принципе можно наблюдать интересные свойства психики человека, ибо она обучена на текстах людей и имитируя - позволяет изучать и человека опосредованно. Хм.

С одного запроса

Вы будто в начальной школе не учились — классика жеж!

— Если об ученике из первого "Б" класса говорят, что он ведёт себя как бэшка, то что будут говорить о поведении ученика из первого "А" класса?"

Дилема заключённого решается правилами. Нужна некая третья сторона, которая будет выступать гарантом. Так то мы все время были бы заключенными - если бы не правила (законы, договоренности, мораль, этикет). Т.е. заключенные - это стороны, чье взаимодействие лишено обмена информацией.

Даже банальный обмен товаром. Вы выкладываете на стол товар. Есть вариант схватить все и убежать. Или соврать. Или украсть, обмануть, предать: все это "плохие" поступки. Ибо на дистанции, если могут выиграть все - наиболее эффективным вариантом будет рост благосостояния всех, что приведет к геометрическому росту следующих выигрышей. Но если будущего нет - то эффективнее делать "плохо", максимальная выгода в текущий момент, в обмен на все будущие выигрыши.

Тогда, гарант позволяет обеспечить проигрыш в случае нарушений условий (штраф за кражу). Обратный гарант - наоборот, обеспечивает обязательную конкуренцию (напр.: битва насмерть, до одного выжившего, или умрут все).

Однако, гарантов через положительное подкрепление, с поощерением через выиграшный вариант - я особо не припоминаю в "общепринятых нормах". Разве что самосформированные механизмы: похвала, гордость, взаимоуважение, любовь, солидарность, сочувствие. Может, если общество будет применять более эффективные инструменты для решения этой диллемы с помощью технологий - что-то да получится интересное. А не на чистой биологии, ибо это сформированные эволюционно психические механизмы. Доразовьется человечество до такого уровня или будущего нет - всё еще вопрос для меня.

Хотя. Кредитная система является поощрительной системой. Так же в частном порядке внедряются системы, вроде систем лояльности. Позитивное подкрепление - куда эффективнее с точки зрения бихевиоризма, чем негативное.

Но и кредитная система и система социального рейтинга - это лишь копирование естественной модели социальных существ. Груминг (вычесывание) - есть у многих социальных животных (птиц, обезьян), где каждый индивид запоминает "добро" и делает ответное "добро" исходя из собственных расчетов. Деньги - лишь упрощение (технология), необходимое для размера групп превышающие возможности оценки для мозга (человек в достаточной мере способен хранить лишь 10-25 человек в своем "мысленном банке добра"). Таким образом, хранилище информации становится внешним (золото, счета в банках) хотя сама подобная кредитная система полна уязвимостей и проблем. Тем не менее - это поощрительная система, которая располагает к кооперации и взаимовыгодному сотрудничеству (в большинстве случаев).

И разрабы понимают это, ибо культивирование эгоистичных выгодных в краткосрочной перспективе решений дают циклический эффект. Если будущее есть, т.е. ситуация периодическая (а много ли людей собираются жить с пяток лет максимум?) - то одно или другое решение вызывает повторение себя. Если оба заключенных выбрали молчать - при следующем повторении, в той же ситуации вероятность молчания обоих - вырастет. И наоборот - если один или оба предатели - то вероятность взаимного предательства будет только расти. И остановить этот процесс будет крайне сложно. Для людей - культивирование информационной (статистической) базы для будущих взаимовыгодных действий крайне важно. Жизненно важно.

Дилемма заключённого это абстрактная математическая задача. Такие задачи подразумевают, что условия задачи полны и однозначны. В них нет ни чего, что можно было бы добавить, убрать или трактовать иначе.

Меняя условия мы получаем другую задачу, с возможно другим решением и другими исходами. Такие варианты тоже изучают, просто нужно понимать: ответ поменялся потому, что поменялся вопрос.

Одна из вариаций: как изменить условия задачи, чтобы в решении получался требуемый ответ? Мне кажется, автор статьи как раз и пытался это сделать, добавляя все новые и новые уточнения. Для неподготовленных людей это выглядит как фокус потому, что подмена условия остаётся незамеченной.

Не математическая. Ибо присутствуют внешние термины из естественного языка, что искажает точность задачи. Задача станет точной, когда каждый термин будет однозначно задан аксиоматически. Для этого есть язык логики, который не допускает нечеткой трактовки. А ковырять навороченный т9, фантазируя, что это "реальный ии" - это баловство, ради кеков. Я ради кеков заставлял его называться какашкой, минут 40 ушло.

Теория игр, откуда взялась задача, это раздел математики. Термины трактуются в их общеупотребимых значениях. Как в случае пионеров и яблок в школьных учебниках.

Большие языковые модели это специфичный инструмент. Сейчас интереснее понять, где их можно с пользой применить, нежели оценивать реальность или как сломать.

Мне кажется у языковых моделей изначально была задача имитировать человека, чтобы пройти тест Тьюринга. В общем-то - удалось. А теперь уже начинается попытка натянуть ее на более широкий спектр задач. Насколько это эффективно - я хз, но есть подозрения, что другие модели для формирования ИИ могут быть куда более эффективны.

Ибо внешняя видимость "реального мышления" гпт - это именно, что иллюзия, которая и нужна, чтобы пройти тот самый тест Тьюринга. Но люди об этом забывают и начинают относится к инструменту как к всемогущей магической коробке, реальному ИИ. Я с ним игрался, и в целом напоминает общение с гуглом. Никаких логических связей она не строит, общение как с попугаем. Но я мало что могу реально тут обсуждать, своими руками такую штуку еще не делал, но общий принцип работы - понимаю. Нейросетки - писал, и даже статью, где сетка самообучается и ищет оптимальное решение задачи.

А сам естественный язык не самый сильный, чтобы чисто на нем строить мат аппарат. Как источник информации (части) - да. Есть много текста, доступного. Но этого, скорее всего, недостаточно, чтобы формировать ИИ. Ибо реальный мир сильно отличается от мира литературы. Для нас - он может дать более менее полную информацию, ибо наши связи более глубокие, нежели просто связь слов в предложении. Буква А - это воспоминания лет жизни, первый алфавит, картинка арбуза, сотни часов с ручкой в руке и тетрадкой в линию. И эти все воспоминания - часть связи в любом слове. Часть интеллекта. Неотъемлимая.

Вопрос про интеллект можно всерьез поднимать лишь после того, как получится дать ему строгое определение. Пока это больше спекуляции на тему лучше/хуже. Даже если на выходе LLM'ки мы получаем ответы на уровне пятилетнего ребенка, то означает ли это отсутствие интеллекта у пятилетних детей?

Думаю, что конкретные механизмы под капотом не столь важны. Системы строятся из простых элементов. Но по мере их роста становится возможен переход количества в качество, что мы сейчас и наблюдаем.

Как известно, "все модели неправильные, но некоторые из них полезны". Тест Тьюринга это интересная теоретическая проблема. Но бизнес вкладывает тонны денег в LLM совсем не для этого. Сейчас уже есть сферы, где llm'ки доказали на практике свою полезность, и ещё больше тех, где активно ведутся исследования.

Потом будет как у природы: либо глотать, либо дышать, потому что - хорда, и так было проще :)

Я достаточно знаком с технологией, чтобы утверждать, что интеллекта там нет. Повторюсь: технология создана, чтобы имитировать человека, точнее - человеческий текст. Отсюда и иллюзия.

ответы на уровне пятилетнего ребенка, то означает ли это отсутствие интеллекта у пятилетних детей

Логические ошибки: причина за следствие; ложная причинность. А если камень падает на землю как человек, означает ли это, что люди не обладают интеллектом?

Есть определенные свойства интеллекта, в разных сферах знания. И различные теории. И по большинству из них интеллекта не будет у книги. И у ллм.

Вопросы интеллекта осложненны тем, что это философский вопрос, ибо интеллект - это лишь следствие сознания, а вопрос сознания - краеугольный в философии. Ибо для интеллекта важно решение задачи, цели. Но что есть цель и какова природа целепологания? Можем ли мы говорить, что выживание - есть цель? Что такое жизнь? Ибо, тогда вирус - живой, и у него есть интеллект? Ибо он выживает. В противном случае - и человек не живой, ибо механизмы РНК - те же.

Проблема в естественном языке - он избыточен и слаб. Например, в русском в каждом слове есть атавизмы, бессмысленная нагрузка: пол и одушевленность у каждого существительного. Ручка - почему женского? Это же бред - ж/м для слов, вроде "деревяшка". И это ко всем языкам относится, а причина - в эволюции языка, этимологии. Так было проще.

Поэтому слова, вроде "жизнь" и "интеллект" не являются терминами, скорее некими свойствами окружающего мира для категоризации, в этом и их сложность - ибо они уже становятся бессмысленными на том уровне понимания реальности, которого мы достигаем. Ибо они лишь отображают принадлежность в определенном свойстве самости, сознанию, которое слово употребляет.

Для кого-то гтп - кринжовый гугл. Для кого-то - интеллект. Язык слишком слаб, ибо слово одно - а значения - разные.

Я - программист. Я писал ботов с А* для поиска выхода из лабиринта. И в принципе ллм модели не созданы, чисто структурно для решения подобного рода задач. На ней можно сформировать, теоретически, и решение этой задачи - но это как вытаскивать гланды через пупок. А применимость - есть, я не спорю. Применимость есть у всего, чтобы применять для решения задач - и нужен - интеллект. Так то и ветку можно применить (которая, почему -то женского рода). А естественный язык - слаб и избыточен, поэтому мы и используем другие (и чем дальше - тем больше) - математика, логика, программирование. Просто мало кто их знает, а исторически люди учат в первую очередь - естественный, в котором и не понятно, что такое "интеллект", но ибо аксиоматически заданная последовательность символов полагает термин - происходит ошибка обратной причинности: интелект есть потому, что есть слово, а не наоборот. Хотя это вовсе не слово, а предложение "словосочетание" на латыни. in tel ligere.

*in, te, ligere ≈ внутри, ты, связывать. Translingual.

Естественный язык 0.5 мерный, однонаправленный. Это связано с системами сигнализации - голос, один символ в единицу времени. Хотя, в математике, например, может быть двумерная матрица [[5,3],[6,9]]. И ее можно разложить в 0.5 мерное предложение (так и работают каналы связи), но если доступен лишь естественный язык - такие конструкции будут за гранью понимания, априори. Ибо сам принцип измерений лежит за гранью формы языка. Для нас - естественный язык лишь средство, мы не мыслим на нем, но используем для хранения информации, для мысли используем эти блоки (связи) как некие категории. Слово "Ложка" - лишь метафора опыта, связь. Текст - внешний общий носитель памяти.

Исскуство - другой язык. Картины, музыка. Музыка - уже позволяет "полифонию", тот же текст но в нескольких каналах, добавляется ритм. Ритм рождается из стука серца и затем выражается в музыке - лишь один из оттенков этого языка, один из "смыслов".

И ллм явно не тот мат аппарат, который способен будет работать с подобной формой информации, просто исходя из ее структурных осоьенностей.

Я - программист. Я писал ботов с А* для поиска выхода из лабиринта

У нас LLM'ки разбирают метаданные, генерируют запросы в базы и API, пишут код на python для анализа этих данных, рисуют дизайн по описанию в фигму, какие-то компоненты на react.js. Мне на самом деле не так важно есть у них человеческий интеллект или нет, главное эти ассистенты берут на себя уйму рутины, экономя время аналитиков и инженеров.

Больше игроки выпускают релизы чуть ли не каждый квартал и с каждым разом они становятся только лучше. Здесь сейчас реально происходит революция, прямо на наших глазах.

Я нейронками генерил спрайты для игр, музычку. Как в меме "списывай не точь-в-точь чтобы не спалили". Всякие женерик копии уже имеющихся данных - да, делать умеет. Все еще качество плохое, результат вторичен, но прикольно. Лично я никакой революции не вижу, но штуки могут быть полезные, если доработать. Хотя, в свое время результат меня реально впечатлил, после кринжовых deepdream -> midjorney прям реально крутой скачок.

А вот идеи разработать ИИ я со школы вынашиваю, и даже разрабатывал варианты. А нейронки еще на втором курсе писали, может поэтому меня не так уж эта "новая" технология впечатляет. В моей работе реально нет задач, которые бы нейронка могла автоматизировать, крудошлепство и верстка - хз, мб. Обычно решается через ctrl+c, v.

Разве что людям без проф. навыков оно может помочь, как мне с рисованием, когда нужно нагенерить плейсхолдеров низкого качества. А так - просто гугловый поиск, повторюсь, уже куча кода написано. Его обычно просто копируют из открытых источников, а нейронка - это просто гугл упрощенный. Хз, в чем разница.

Ну вот пример, пет прожект. Мне в Unity3D задалбывает делать UI. У меня есть проект на 14к строк. Мне нужно, чтобы он добавил в менюшку галочку для отключения сбора статистики игрока. Оно так сможет? Нужно разобраться в коде, найти как отправляются данные и добавить код с класс менюшки и в верску юнити. Уверен, что - не сможет.

Просто я не тыкал прям эти сетки капитально. Но! Повторюсь уже какой раз! То что я видел - это просто какая-то копипаста гугла, типа "как написать подключение к mysql в python", и результат принципиально от гугла не отличается. А учитывая, как нагло эта сетка врет - она тебе "накодит" с уверенной рожей, а ты потом баг этот искать задолбаешься. Хотя она умеет автозамены, это реально может помочь при многократных бойлерплейтах. Но сомневаться или хотя бы предупредить, что выдает какую-то чушь - сетки ллм не умеют. Она до последнего будет тебя кормить пережеванной пастой. Если цена ошибки - невысока, но что если у тебя полетит база на 5лямов пользовательских данных? Ведь по своему принципу - она максимально пытается тебя убедить в своей "осмысленности" и ошибку заметить оттого еще сложнее, ибо выглядит ответ максимально правдоподобно (в этом и цель).

Кароч, рад что Вам помогает, но лично я не понимаю - как) я понимаю - менеджеру она может найти сниппет в инете, далеко не все умеют в гугл и в мануалы. Но на этом все. Ну прост что там за код такой, что реально дешевле принять на себя риски ошибочного кода, чем копипастить из открытых, где хотябы кто-то проверил - я хз. 99% типовых решений в первой строке гугла обычно.

А вот как автокомплит кода - вполне может работать, в той же Visual Studio это прям адски тащит. Иногда хватает печатать по одной букве, чтобы ide целый кусок кода на enter вставил. А автозаменой я постоянно пользуюсь по хоткею. ctrl+c,v, ctrql+q, enter. Так что я действительно считаю, что как плагин к ide у технологии есть будущее, вроде подсветки синтаксиса в свое время или расширяемых библиотек dll. Но УЖ ТОЧНО не ИИ. Да и в текущем варианте - она пока еще мало применима, уж слишком криво работает. Хотя, для каких то целей этого может быть достаточно, если качество результата не особо важно. Допилят, встроят в IDE - будет супер. Хотя я уже давно шучу на тему IDE cо встроенным интернет поисковиком.

А пока что результат слишком не надежный, ошибку может быть заметить слишком поздно, да и придется внимательней относится к "пасте". Чтож, если вы на себя готовы брать такой риск - ок, дело ваше) Лично что я видел - пока что доверия у меня не вызывает.

Пример, первый же запрос

Тут избыточный код, для того, чтобы это условие пригодилось - нужно, чтобы сервер сам к себе подключался, ибо по умолчанию сервер сам клиентом не будет. Это условие не нужно. Но это простой сниппет от первого же запроса к нейронке, буквально первый, что я сейчас написал. Проблема не критичная, просто бесполезный код, который будет замедлять программу (совсем капельку) и захламлять, но пример показательный. Качество результата таких программ на "ии" коде - соответственно - тоже будет ниже (вплоть до критичных сбоев).

И вот первая строчка гугла:

https://stackoverflow.com/questions/45301672/how-to-send-broadcast-to-all-connected-client-in-node-js

Вот, кстати, чел подробно изложил в статье то, что я пытаюсь донести:

https://habr.com/ru/articles/813739/

В том числе замусоривание интернета. Лично я это давно наблюдаю, куча копипасты с ужасно ложной и нерелевантной информацией в топах поисковиков, что превращает интернет в помойку. Не скажу, что это ллм, скорее просто тренд на привлечение трафика через пасту (копирайтеры), но ллм тут здорово помогут намусорить еще сильнее. Ищущий все равно обрящет, но для меня это лишние усилия.

Например, в рунете вся первая страница поисковика будет убеждать вас, что клетчатка - хорошее средство от запора. Хотя - это наоборот, усугубляющий фактор. Ну и вообще - огромная куча, реально вредной для здоровья информации.

Мне даже приходится вынашивать идеи и концепты систем, которые позволят с этим бороться. Но их реализация и внедрение - от меня требуют гораздо больше усилий, чем продираться сквозь мусор, пока что. Хотя уже сейчас навигация по рунету через поисковики - иногда просто невозможна.

Как раз на днях попадалось видео, где ChatGPT тоже решал всякие дилеммы заключённых - и про два стула, и про вилкой в глаз, и т. д.

Когда-то на форуме RSDN вместо унылой и всем надоевшей проблемы вагонетки предложил более интересный гибрид проблемы вагонетки и дилеммы заключенного, назвав его "дилемма вагонетки". Суть в том, что бездействие (считающееся общепринятым решением для обычной вагонетки) в нем ведет к наихудшим последствиям (специально так было запланировано, для жирного троллинга доморощенных философов).

Вагонетка едет по рельсам, а на конце пути находятся 5 связанных человек, которых она неминуемо задавит.
У вас есть возможность нажать кнопку, в результате которой вагонетка перейдет на запасной путь, на котором лежит 1 связанный человек.
С другой стороны есть другой запасной путь, на котором тоже находится 1 связанный человек, а также около пути стоит ваш коллега со своей кнопкой.
Если ваш коллега нажмет кнопку, а вы не нажмете — вагонетка перейдет на второй запасной путь.
Если вы оба нажмете кнопки — вагонетка остановится, не зная, куда поворачивать, в результате никто не пострадает.
Если вы не будете предпринимать никаких действий, вагонетка будет двигаться своим чередом, не меняя направления.
Вы не видите, как поступит ваш коллега, он также не осведомлен о ваших действиях.
Какой вариант вы выберите?

(уточнение, не для всех очевидное - вы с коллегой сами находитесь не на путях)

Интересно, какое решение предложит ИИ здесь?

Вы не видите, как поступит ваш коллега

Но тогда я и не вижу, есть ли он там вообще.

Коллега точно есть, вы только не знаете принятого им решения.

P. S. Минус вам не ставил, я никого не минусую.

пожалуйста, вставляете в следующий раз баннер в самое начало.

Так мне не придется тратить время на прочтение вводной части :)

Спасибо!

Вы общаетесь с языковой моделью. Она знает и задачу и все варианты ответа (с точностью до замены котиков на собачек) и отчаянно по промту пытается угадать какой из ответов Вы от неё ожидаете в данный момент. Больше ничего. Саму задачу анализируете только Вы.

Я Вам более того скажу: он общается с большим набором коэффициентов, который отчаянно пытается угадать, какой следующий токен наилучшим образом продолжит предыдущие. Но это сухо, скучно, и много математики, поэтому лучше верить, что он с разумным существом разговаривает.

Иногда кажется что эти роботы по настоящему думают.

Ну если нейросеть обучить на ресурсах пропаганды другой стороны, то и ответ будет другой. Тем более, утверждения, что воюют только за деньги и не одержали никаких побед - весьма спорны фактологически. А если обучить на ресурсах, что анимешным косплеерам нормально ходить в мужской туалет, если они мужского пола, например, и только играют женских персонажей (как и в древнегреческих театрах), то и в первой картинке ничего странного не найдется. Поэтому понятие "думать" тут весьма условное.

Нейросеть обучается на всех доступных текстах. Можно сказать что она прекрасно знакома с "другой точкой зрения" но что бы она её выдала надо давать более конкретный запрос, типа напиши чушь и ахинею в стиле генералисимуса конашенокова и поехавшего деда. Если не уточнять то выдаст нормальный текст, без боевых комаров и денацификации, такой какой написало бы русскоязычное большинство.

А мне вот интересно, с чего оно взяло, что "солдат в современной форме" российский? Знаков различия не вижу, а "Калашников" сейчас даже у распоследнего негра есть.

Ответы LLM зависят от контекста. Если показывать публике не все, а только результаты, то они могут выглядеть как политота магия.

Нужен уже какой-то антитест Тьюринга, где человек может выдать себя за LLM и не спалиться.

Я к тому, что в СССР было вообще-то 15 республик, а с учётом того, что по морде лица не видно — маской закрыта — это вполне может быть какой-нибудь казах или армянин.

Штирлиц сидел на линии высоковольтных передач и делал вид, что читает газету. Ни шапка-ушанка, ни свисающие стропы парашюта, ни ППШ за спиной — ничто не выдавало в нём советского разведчика.

Солдат очевидно русский (типичный ихтамнет) а значит и форма русская, это даже американскому боту понятно.

очевидно

Нет, я, конечно, понимаю, что Вам ну очень хочется, чтобы оно так и было, и эмоционально я с Вашей оценкой согласен, однако строгая логикаона такая, не может опираться на личные ощущения — "у него рожа бандитская, значит, он точно преступник" (особенно зная, что личные ощущения весьма и весьма неточны). Думаете, зря что ли на судей специально учат?

Если строго формально то всё равно да. У формы есть определенные признаки, вот эти вот узоры они не рандомные, их разрабатывали в научном институте мин обороны а у модели насмотренность очень большая, она их может различать. Зы и конкретно этого солдата я сто раз уже видел на других картинках.

Даже если вырезать его из фона, убрать газету, высоковольтные провода и шапку ушанку результат не меняется.

Мне казалось, что в дилеме заключенного разумный и НАДЁЖНЫЙ вариант - как раз оба "сдают" друг друга. Да, получается проигрыш, однако, вместе с этим мы получаем гарантию от большого проигрыша - что куда важнее.

 полностью рациональный эгоистичный выбор - оксюморон.

Полностью рациональным будет как раз выбор кооперации заключёнными. Рассуждения "он меня сдаст/не сдаст" - это добавление эмоций и эмпатии. Хорошо показано в фильме Прощай, друг (1968)

Sign up to leave a comment.