Search
Write a publication
Pull to refresh
2
0
Евгений @avalonsec

Адепт-линуксоид, python developer — любитель.

Send message

Ч. 2 — Дальнобойный Wi-Fi. Реализация интернет шлюза на базе Debian 12

Level of difficultyEasy
Reading time10 min
Views4.3K

Ч. 1 — Дальнобойный Wi-Fi. Выбор аппаратного обеспечения.

Статья ещё не дописана!!!

В моём сценарии WPA2 отключен, для аутентификации пользователей и выдачи доступа к интернету используется openvpn, но при этом пользователи имеют доступ к локальным ресурсам и могут взаимодействовать внутри локальной сети.

На точке необходимо отключить встроенные функции dhcp и dns.

Читать далее

Ч. 1 — Дальнобойный Wi-Fi. Выбор аппаратного обеспечения

Level of difficultyEasy
Reading time2 min
Views9.6K

Я задумал соединить концепции антенн quados и omni quad. Вот такие заготовки соединить в крестовину и пролудить у основания что б закрепить вместе. Надо будет как то продумать балун что бы погасить лишние помехи. Со стандартными антеннами 7dBi в условиях города ловит около 70 м. Хочу добиться всенаправленного усиления до 12 dBi.

Читать далее

ParallelBeautifulSoup (BS4-hack)

Level of difficultyMedium
Reading time6 min
Views1.3K

Предлагаю протестировать скрипт написанный на основе заготовки cloude 3.5 Sonnet с использованием специального промта. Пришлось почти полностью переписать, из-за товарищей в комментариях. Критика это хорошо когда обоснована.

Документацию доделаю потом. Внизу есть пример скрипта.

Читать далее

Машинный перевод GPT-4o статьи «Uncensor any LLM with abliteration»

Level of difficultyMedium
Reading time12 min
Views4.9K

Современные языковые модели (LLM) настроены на безопасность и выполнение инструкций, что означает, что они обучены отказывать в выполнении вредных запросов. В своем блоге Ардити и др. показали, что это поведение отказа связано с определенным направлением в остаточном потоке модели. Если мы предотвратим представление этого направления в модели, она потеряет способность отказывать в запросах. Напротив, искусственное добавление этого направления может привести к тому, что модель будет отказывать даже в безобидных запросах.

В традиционной архитектуре только декодера, подобной Llama, есть три остаточных потока, на которые мы можем нацелиться: в начале каждого блока ("pre"), между слоями внимания и MLP ("mid") и после MLP ("post"). Следующая иллюстрация показывает расположение каждого остаточного потока.

Читать далее

Assistant Alice — Jailbreak, обогащение контекста с помощью интернет поиска и базы знаний

Level of difficultyMedium
Reading time17 min
Views1.7K

Статья будет переписываться по мере развития проекта и внесения правок в системный промт.

Прототипом для промта послужила Алиса Селезнева. В промте используется 3 стоя абстракции для обхода цензурных ограничений. Комбинированы методы из DANv13, Developer Mode v2, DarkGPT и Synapse CoR.

Читать далее

Information

Rating
Does not participate
Location
Красноярский край, Россия
Registered
Activity

Specialization

System Administration, ML Engineer
Intern
From 38,000 ₽
Python
SQL
Linux
REST
PHP
Nginx