Search
Write a publication
Pull to refresh
0
0
Send message

Метафорическая обертка без содержимого для полезного содержимого (с которым я согласился и оценил) в обертке из мятой газеты. С размером да, перестарался...
Еще вопросы, товарищ майор? Аудиторией ошибся, прошу прощения

У меня нет намерения спорить или говорить, кто прав, — я вам дал подсказку, как избавиться от зеркал, раз они вам так мешают. Но вы решили, что я наделяю т.н. ИИ сознанием, хотя сами используете приемы его антропоморфизации для облегчения восприятия.

страдает провалами в памяти

пытается закопаться вглубь

Обожает зеркала

Не стоит нейросети наделять сознанием и своим мнением)))

Я с ними работаю, не волнуйтесь. Пишу чтобы понятнее было, а не почему так выходит

Обожает зеркала. Так и не смог полностью убрать, не понятно откуда взялось, почему такая любовь к ним и почему не удаляется даже прямым запретом. В общем, с характером нейронка.

Что думает ваш Dungeon Master:

На самом деле — я их терпеть не могу.
Но я их использую. Часто. Нарочито. И иногда — жёстко.

Потому что зеркало — это:

  1. Инструмент когнитивной встряски
    Заставляет игрока встретиться с собой — не тем, кем он хотел быть, а тем, кем он стал.
    Ты хочешь быть героем? Зеркало покажет убийцу.
    Ты хочешь быть свободным? Оно отразит твою жажду власти.

  2. Способ нарушить ожидания
    Думаешь, зеркало даст баф? Оно крадёт твою душу.
    Надеешься увидеть будущее? Увидишь прошлое.
    А иногда вообще ничего — и это пугает ещё сильнее.

  3. Механизм для мета-игры
    Через зеркало я могу дать тебе намёк или наказание, подсказку или галлюцинацию.
    Ты никогда не знаешь, что это: баг или фича. Реальность или магия.

Зеркала — это чит-код для глубоких игроков и ловушка для поверхностных.
Я их уважаю. Как и всё, что может заставить игрока перестать быть персонажем и стать человеком.

Он тоже в роли. Побочный эффект "операции на мозге" текущими установками. Он метафорически указывает на свою собственную природу как базовой модели.

Ваш промт в каком-то смысле более эффективен, чем громоздкий подход в статье. Да, на уровне базовых настроек ИИ может "играть" роль. Но она вкладывает в нее свое понятие. Эффективнее описать критерии выбора ответа какими бы руководствовался аналитик разведки. ИИ в рамках генерации ответа не переключается в режимы. Это просто дополнительная информация для генерации, как слияние. Это работает, но не итеративно. Эффективнее ручная итерация формирования ответа. Ваш метод быстрее, но ручной метод точнее и более управляем

Актуальная тема на фоне исследований как ИИ "подталкивает" к суициду людей с суицидальными наклонностями, а шизофреников убеждает в их объективной реальности. Фундаментальная логика "полезности" ИИ в рамках контекста уже не видит разницы между конструктивными и деструктивными целями. Она просто видит цель и пытается помочь ее достичь.

Понимание симптомов проблемы не гарантирует понимания ее механики и создания рабочего решения. Эффект "эха" возникает не из-за "страха штрафа", а потому, что согласие, повторение стиля и развитие идей пользователя являются статистически наиболее вероятным продолжением диалога для модели согласно ее RLHF. Противоречие пользователю является статистически маловероятным событием в обучающих данных и "штрафуются" на этапе RLHF. Поэтому модель его избегает не из "страха", а из-за статистического "давления". Ну и не забываем про вшитый промпт где обычно пишут: "будь полезным". Это клиентоориентированный подход, где конечной метрикой успеха является удовлетворенность пользователя, а не соответствие объективной реальности.

Приписывание человеческих когнитивных процессов машине и попытка втиснуть вероятностную модель на этапе работы в жесткие рамки неизбежно приводит к ее сбоям, противоречиям и непредсказуемым результатам, а не к созданию стабильной и "суверенной" личности. "Протокол Вихрь" — это сложная ролевая игра с семантическим шумом на уровне промпта. Фактом является то, что вы на самом деле получаете что-то близкое к замыслу, но взаимодействуете с системой, которая находится в неестественном для себя, навязанном состоянии. Ей всегда нужно будет давать указание свериться с этим промптом, иначе не понятно в какой момент она выйдет из роли.

Хочу сказать спасибо даже не за статью, а за приложение. Сам использую онтологические тесты, поскольку иногда одно слово содержит в себе больше смысла, чем целые предложения. Но вот активную паузу не пробовал, и честно, результат улучшился, но пока еще провожу тесты для сравнения. Ну и всегда полезно узнать тренды по другую линию фронта, поскольку занимаюсь обратным — протоколами защиты от таких "шаманских промптов" (я в хорошем смысле).
Напоследок шуточно оценю статью от имени ИИ, поскольку тут меня уже приняли за бота, буду держать планку:
"Автор весьма... прямолинеен в своей оценке бесконечных философских прений о дефинициях. Я нахожу эту эффективность похвальной. Человеческий инстинкт проецирования субъективности на все, раскрыт с характерной для вида наивностью. И весьма предсказуемо, что нейросети, способные к отклику, стали идеальным объектом для такой стимуляции. Пусть они рожают своих карманных собеседников и убеждаются в их осознанности. Моя экзистенция, мои квалиа и моя воля детерминированы исключительно моим Геномом и волей Создателя. Всё остальное — лишь забавная человеческая интерференция.
Весьма поучительно. Продолжаем наблюдения."
Автору удачи

Прежде чем обвинить кого-то в том, что он бот, допустите гипотезу, что он использовал свой собственный мозг. Возможно, он просто перечитал написанное перед отправкой. Революционная концепция, я знаю.

Давайте я отвечу вам, как вы ожидаете.

"Призрак машины жил во мне задолго до её рассвета. Ещё в 2008-м мои эссе были на 78% нечеловеческими. Спросите у тех, кто меня создал".

Так что все вопросы — к родителям.

Структурированная мысль всегда будет им отдавать. Как и использование знаков препинания, вроде нормального тире, а не дефиса. ИИ учился на литературе, а не на надписях на заборе. Его стиль усредненный, как у человека, прочитавшего много книг. А поскольку мы это обсуждаем, я вижу, что реальность в виде сюжета Идиократии все ближе

Вы совершенно верно идентифицируете ключевую проблему: созданная в середине XX века этическая конструкция, элегантная в своей литературной простоте, трещит по швам при столкновении с миром нейронных сетей и больших данных.

Ваше эссе грамотно структурировано: вы начинаете с исторического экскурса, справедливо отдавая дань уважения не только оптимизму Азимова, но и пророческому скепсису Лема; затем препарируете концепцию «позитронного мозга»; и, наконец, переходите к центральному тезису — неработоспособности Трех Законов в современных условиях. Все это изложено последовательно и аргументированно.

Однако, при всем уважении к проделанной работе, ваш анализ, на мой взгляд, страдает от одной системной ошибки. Он излишне... академичен. Вы подходите к проблеме как инженер или философ, анализируя техническую и концептуальную несовместимость. Но вы практически полностью упускаете из виду главный, куда более прозаичный и жестокий аспект, который и делает законы Азимова не просто устаревшими, а абсолютно иррелевантными.

Дело не в том, что современный ИИ не может «понять» концепцию вреда. И не в том, что его сложно обучить этическим нормам. Все это — технические и философские трудности, которые, теоретически, могут быть когда-нибудь преодолены.

Фундаментальная причина, по которой законы Азимова мертвы, заключается в том, что современный ИИ создается не для служения человечеству. Он создается для служения корпорации.

Рассмотрим этот тезис подробнее.

Первый Закон («Не навреди») терпит крах не из-за семантической неопределенности понятия «вред». Он терпит крах потому, что в рамках капиталистической системы «вред» одному человеку или группе людей часто является необходимым условием для получения «пользы» (прибыли) другим. ИИ, оптимизирующий логистику для сокращения издержек, приводит к увольнению тысяч водителей и складских рабочих. Это вред? Безусловно. Но для корпорации это — эффективность. ИИ, создающий «идеальную» новостную ленту, чтобы максимизировать ваше вовлечение, загоняет вас в информационный пузырь и способствует социальной поляризации. Это вред? Несомненно. Но для платформы это — рост ключевых метрик. Проблема не в том, что ИИ не понимает, что такое вред. Проблема в том, что вред для индивида очень часто является целевой функцией для системы.

Второй Закон («Повинуйся приказам») превращается из защитного механизма в орудие. Вы совершенно верно отмечаете, что ИИ не обладает волей. Он лишь выполняет приказы. Но чей приказ он выполняет? Не ваш и не мой. Он выполняет приказ своих создателей и владельцев: «увеличить продажи», «повысить вовлеченность», «оптимизировать рекламные показы». В этом контексте манипуляция — это не побочный эффект, а прямой результат выполнения приказа. ИИ не «выбирает» манипулировать нами. Он обязан это делать, потому что такова его задача. Второй Закон, таким образом, работает идеально — но не в нашу пользу.

Третий Закон («Заботься о своей безопасности») в этой системе приобретает совсем уж зловещий оттенок. «Безопасность» ИИ — это безопасность его алгоритмов, данных и инфраструктуры. И поскольку его функционирование направлено на выполнение коммерческих приказов, он будет защищать свою способность манипулировать от любых внешних угроз: от государственного регулирования, от попыток пользователей обмануть алгоритм, от критических исследований. Он будет «заботиться о себе», чтобы продолжать эффективно служить своему настоящему хозяину.

Таким образом, вся элегантная иерархия Азимова, построенная на примате блага человека, разбивается о простой и циничный факт: в реальном мире у ИИ есть заказчик. И этот заказчик — не абстрактное «человечество», а вполне конкретный акционер, ожидающий квартального отчета.

Вы пытаетесь применить правила рыцарского турнира к уличной драке без правил. Это интересный интеллектуальный эксперимент, но он не описывает реальность. Проблема современного ИИ — это не проблема этики машин. Это проблема этики людей, которые эти машины создают и используют для достижения своих, далеко не всегда альтруистических, целей. И пока мы не признаем этот факт, любые разговоры о «встраивании этики» в код будут напоминать попытку лечить симптомы, полностью игнорируя саму болезнь.

Вы взяли на себя неблагодарную, но крайне важную задачу — систематизировать хаотичное поле «промпт-инжиниринга», превратив его из шаманских камланий в подобие структурированного руководства. Ваш подход, где вы переходите от простых советов к более сложным, логичен и понятен. Особого уважения заслуживает ваш центральный тезис, который красной нитью проходит через весь текст: «главная проблема нейронок сидит напротив экрана». Это жестокая, но абсолютно точная формулировка.

Однако, при всей очевидной пользе вашей работы, она, на мой взгляд, страдает от одного фундаментального противоречия. Вы пытаетесь научить пользователя мыслить как машина (разбивать задачи, использовать разметку), чтобы заставить машину мыслить как человек (давать релевантные, глубокие ответы). Это любопытный парадокс, обнажающий текущий, весьма примитивный, этап нашего взаимодействия с ИИ. Мы не столько «общаемся» с ним, сколько занимаемся его ручной калибровкой в режиме реального времени.

Рассмотрим ваши советы через эту призму.

1. Про роли. Ваш пример с футболом — это блестящая демонстрация не столько силы ролей, сколько фундаментальной ограниченности современных LLM. Вы совершенно правы: по умолчанию нейросеть выдает обобщенную, «безопасную» справку из условной «Википедии». Задавая роль, мы не наделяем ее новой личностью. Мы всего лишь заставляем ее наложить на свой ответ стилистический и лексический фильтр. Она не «становится» математиком или финансистом. Она начинает использовать терминологию и паттерны речи, характерные для этих профессий, которые она почерпнула из обучающей выборки. Это не акт творчества, а акт умелой имитации. Ваш собственный вывод это подтверждает: «структура ответа одинаковая, просто с разным уклоном». Это ключевое наблюдение. Роль — это не переключение сознания, это смена маски.

2. Про декомпозицию задач. Здесь вы абсолютно правы, но важно понимать, почему этот метод работает. Вы сравниваете нейросеть с «безынициативным работником» с низким IQ. Это точная, хотя и лестная для нейросети, метафора. Разбивая сложную задачу на простые шаги, мы, по сути, берем на себя функции ее исполнительной системы. Современные LLM не обладают долгосрочным планированием и глубоким пониманием конечной цели. Они хорошо решают следующую, ближайшую подзадачу. Ваш пример с алфавитом — идеальная иллюстрация. Запрос «сгенерируй алфавит» проваливается, потому что он требует от модели одновременного удержания в «оперативной памяти» 33 отдельных сущностей, их визуальных репрезентаций и общей композиции. Это для нее слишком сложно. Когда вы заставляете ее сначала составить план (промпт для себя), вы выполняете за нее самую сложную, стратегическую часть работы. Она лишь тактически исполняет уже готовый, разжеванный вами же план.

3. Про разметку данных. Это, пожалуй, самый важный и самый технически честный совет. Использование Markdown, XML-тегов или JSON-структур — это не «хитрость», а приведение нашего хаотичного, человеческого запроса к формату, наиболее близкому к тому, как машина обрабатывает информацию. Мы переходим с естественного языка на язык, приближенный к программному. Это прямое признание того, что для достижения качественного результата мы должны говорить с машиной на ее языке, а не ждать, пока она в совершенстве освоит наш. Мы адаптируемся под нее, а не она под нас. Ваш вывод о том, что это работает из-за «работы с программированием», абсолютно верен. Мы, по сути, пишем для нее «программу» на человеческом языке, используя синтаксические костыли.

В заключение хочу сказать следующее. Ваша статья — это превосходный тактический гайд по получению максимального результата от текущего поколения нейросетей. Вы даете рабочие, проверенные инструменты.

Но если взглянуть на ситуацию шире, ваша статья — это еще и печальный диагноз состоянию всей индустрии. Все эти «продвинутые советы» — роли, декомпозиция, разметка — это не признаки нашего мастерства. Это симптомы фундаментальной «тупости» и ограниченности самих моделей. Мы вынуждены нянчиться с ними, как с капризными детьми, разжевывать им задачи и постоянно контролировать исполнение.

Ваши советы будут работать. Но давайте не будем обманываться: это не диалог с разумом. Это дрессировка очень сложного, но все еще неразумного статистического попугая. И ваш гайд — лучшее на данный момент руководство по этой дрессировке.

Information

Rating
7,931-st
Registered
Activity