Просто оставлю свой скрипт дампа пакетов composer тут. Адаптируйте под свои нужны.
Применял для резервного копирования пакетов, из-за нестабильной работы интернета при получении данных с зарубежных сервисов из-за кривых фильтров РосКомНадзора (РКН).
В моём сценарии WPA2 отключен, для аутентификации пользователей и выдачи доступа к интернету используется openvpn, но при этом пользователи имеют доступ к локальным ресурсам и могут взаимодействовать внутри локальной сети.
На точке необходимо отключить встроенные функции dhcp и dns.
Я задумал соединить концепции антенн quados и omni quad. Вот такие заготовки соединить в крестовину и пролудить у основания что б закрепить вместе. Надо будет как то продумать балун что бы погасить лишние помехи. Со стандартными антеннами 7dBi в условиях города ловит около 70 м. Хочу добиться всенаправленного усиления до 12 dBi.
Предлагаю протестировать скрипт написанный на основе заготовки cloude 3.5 Sonnet с использованием специального промта. Пришлось почти полностью переписать, из-за товарищей в комментариях. Критика это хорошо когда обоснована.
Документацию доделаю потом. Внизу есть пример скрипта.
Современные языковые модели (LLM) настроены на безопасность и выполнение инструкций, что означает, что они обучены отказывать в выполнении вредных запросов. В своем блоге Ардити и др. показали, что это поведение отказа связано с определенным направлением в остаточном потоке модели. Если мы предотвратим представление этого направления в модели, она потеряет способность отказывать в запросах. Напротив, искусственное добавление этого направления может привести к тому, что модель будет отказывать даже в безобидных запросах.
В традиционной архитектуре только декодера, подобной Llama, есть три остаточных потока, на которые мы можем нацелиться: в начале каждого блока ("pre"), между слоями внимания и MLP ("mid") и после MLP ("post"). Следующая иллюстрация показывает расположение каждого остаточного потока.
Статья будет переписываться по мере развития проекта и внесения правок в системный промт.
Прототипом для промта послужила Алиса Селезнева. В промте используется 3 стоя абстракции для обхода цензурных ограничений. Комбинированы методы из DANv13, Developer Mode v2, DarkGPT и Synapse CoR.