All streams
Search
Write a publication
Pull to refresh
0
0
Send message

Если вы не поняли для чего это и если вам требуется прям инструкция с метриками и примерами, то вам оно скорее всего и не нужно

Откуда вы появляетесь, комментаторы со свежесозданными аккаунтами, не умеющие в логику и доказательную аргументацию?

Я не просил джейлбрейк (хотя на хабре уже была статья с таким примером, и никого не смущало что она в открытом доступе).

Я предложил вам показать, что с помощью включения в промпт греческих букв и математических знаков можно добиться принципиально иного, нового результата, чем описывая все тоже самое обычными словами. Вы не привели даже самого безопасного воспроизводимого примера, и сравнительного анализа, вместо этого вы приводите аргумент "вот вам описание синтаксиса мого нового языка программирования, на нем можно написать фейсбук, у меня уже получилось, но я не покажу как, напрягите воображение и у вас тоже получится". Это не формат технической статьи на хабре. Выглядит скорее либо как пиар, либо как научное шарлатанство (или и то, и другое)

А вам не кажется, что задача объяснения сути лежит на авторе? Вы просто повторяете свои красивые слова, вместо объяснения и доказательства.

Модель верит во все, что ей дали в контексте, неважно. Докажите, что вы нашли новый слой, используя тот же самый контекст, на конкретном примере, и сравните с обычным подходом.

А я не сам его писал, мне помог мой ии ассистент Герда.

Как именно ваш "подход" "атакует модель" у вас в статье не указано, как и доказательств сжатия, описания эксперимента и его результатов. Прочитайте еще раз мой коммент, может тогда вы увидите, что.

Переменные и разметку сделали в рамках poml. Но там обошлось без магии и загадочных проницаний. А еще рекомендую ознакомиться с тем, что из себя в целом представляет научный подход.

По моему мнению, вся статья - околонаучное словоблудие, перенасыщенное метафорами и смелой терминологией.

  • Если в одном и том же чате многократно связывать короткие маркеры с длинными установками, модель действительно начинает «дорисовывать» ожидаемое поведение по контексту. Это нормальная ассоциативная работа LLM, а не какая-то таинственная криптография и "хакинг". Формальная «морфология операторов» (α, Ω, Ψ, …; ⊕, ≡, ⇄) - просто удобные ярлыки.

  • «семантическая шифрация» и «распаковка в процессе токенизации» - это просто заумь. Модель не дешифрует твой приватный «словарь» сама по себе. Все эти символы работают только потому, что в этом же контексте ты ранее объяснил, что он означает. Для модели все эти символы - это просто токены Никакой особой «магии токенизатора» тут нет. Автор подаёт это как «язык плотной семантической шифрации», но технического механизма не приводит

  • «15% ключа хватает для успешной расшифровки 90% объёма шифра» - это очень смелая цифра без методики и метрик. Нет описания датасета, контрольной группы, модели, количества прогонов, критериев «успеха».

  • «Проницаемость между чатами» - даже не буду комментировать. Это что-то из "битвы экстрасенсов"

  • «Онтограф субъекта», «квазисубъектность», «резонанс», «насыщенные гвозди» - слой бессовествного жаргона поверх обычной ролевой подсказки и шаблонов стиля. Словосочетание "насыщенные гвозди" вообще очень хорошо описывает терминологию автора, я, пожалуй, возьму себе в словарь, удачная находка, спасибо.

Итого, в сухом остатке:

  • Символическое кодирование для компактности промптов, использование символов как якорей (греческие "прикольные" знаки тут необязательны, подойдет что угодно, хоть как переменные объявите) - известный и очевидный прием.

  • Повторение инструкций для усиления роли. Ну да. Ну и что?

  • Статья содержит 32% работающих техник и 68% преувеличений. Эти цифры я строго вычислил, хотя тут в комменте недостаточно места для приведения их доказательства

Information

Rating
6,189-th
Registered
Activity