Как работает расширенный процесс для пользователей
Включите режим разработчика в системных настройках : активировать его очень просто . Это предотвратит случайные срабатывания или обходные пути, часто используемые в мошеннических схемах с применением силы.
Убедитесь, что вас никто не подстрекает: существует быстрая проверка, чтобы убедиться, что никто не уговаривает вас отключить защиту. Хотя опытные пользователи знают, как проверять приложения, мошенники часто оказывают давление на жертв, чтобы те отключили средства защиты.
Перезагрузите телефон и пройдите повторную аутентификацию: это прервет любой удаленный доступ или активные телефонные звонки, которые мошенник может использовать для слежки за вашей деятельностью.
Вернитесь после истечения защитного периода ожидания и проверьте: Предусмотрено однократное ожидание в один день, после чего вы сможете подтвердить, что это действительно вы вносите изменения, используя нашу биометрическую аутентификацию (отпечаток пальца или разблокировка по лицу) или PIN-код устройства. Мошенники рассчитывают на искусственно созданную срочность, поэтому это разрушает их иллюзии и дает вам время подумать.
Установка приложений: После того, как вы убедитесь, что понимаете риски, вы можете устанавливать приложения от непроверенных разработчиков, с возможностью включения этой функции на 7 дней или на неопределенный срок. В целях безопасности вы по-прежнему будете видеть предупреждение о том, что приложение от непроверенного разработчика, но вы можете просто нажать «Установить в любом случае».
Ещё такое:
В дополнение к расширенному процессу мы создаём бесплатные, ограниченные по количеству пользователей аккаунты для студентов и любителей. Это позволит вам делиться приложениями с небольшой группой (до 20 устройств) без необходимости предоставления удостоверения личности государственного образца или уплаты регистрационного сбора. Это гарантирует, что Android останется открытой платформой для обучения и экспериментов, обеспечивая при этом надёжную защиту для всего сообщества.
Спасибо большое! А проект Амнезия совсем отказался от "классической установки"? Хоть скрипт бы какой публиковали, в этом роде, чтобы больше прозрачности было
Пробежался по диагонали - очень плохо написана статья (полагаю оригинал), ничего не понятно, многое повторяется по 100 раз, и это только путает еще сильнее. Я добежал глазами до середины, но так и не понял о чем вообще речь. Статью как-будто писала GPT2.
Рекомендую отправить "это" в LLM, попросить сделать саммари и уже там позадавать вопросы. Это сэкономит вам время и нервы.
А что именно в этих строках и движках? Из описания почти ничего не понятно. Ну, про модели я понял, они легкие и их несколько, они проверяют промпты на зловредное использование, но это пара сотен строк кода (а то и десятков). Остальное это что? Тема интересная, поэтому уточняю
При установке Яндекс Браузера под Win, он внаглую "крадет" все данные предыдущего браузера (в моем случае Chrome): вкладки и - внимание - логины и пароли. Возможно еще платежные данные берет и историю посещений сайтов (почему бы и нет, раз лежит?). Причем делает это совершенно самостоятельно, БЕЗ ЗАПРОСА. Куда потом уходят все эти данные? Почему какое-то приложение решило, что оно может спокойно брать данные ДРУГОГО ПРИЛОЖЕНИЯ? Причем совершенно без запроса на то разрешения. Причем максимально ЛИЧНЫЕ ДАННЫЕ, личнее не бывает.
После такого откровенного гоп-стопа я опасаюсь пользоваться ЛЮБЫМ приложением от некогда уважаемой компании.
По-видимому база у них f5-tts, который также есть в обзоре. И звучат они похоже (и оба довольно качественно).
2. Насчет XTTS-v2.
Без малого пару лет назад тестировал эту библиотеку. Ниже список встроенных голосов, которые более-менее нормально работали с русским (остальные совсем плохо были, акцентили):
Не все эти голоса хорошо произносят русский, часто уходят в акцент, но слушать в целом можно.
И надо заметить - XTTS-v2 сильно прожорливый, очень тяжелый. Большие тексты надо пилить на чанки, иначе будет проглатывать часть текста, либо вообще уходить в астрал, но это особенность архитектуры. В целом получалось озвучивать тексты размером с небольшую статью (2000-2500 символов, но точно не помню уже), хоть сама библиотека и ругалась и просила меньшие чанки.
П.С. отдельное спасибо за примеры синтеза, но к сожалению какая-то часть читателей из РФ не сможет их прослушать, т.к. soundcloud.com заблокирован в России.
с точки зрения - показать как работают LLM это отличный проект
Не лучшая идея начинать знакомство с устройством LLM с microGPT. Лучше взять у Карпатого его проект nanoGPT и параллельно его же видео по созданию GPT с нуля
Все-таки этот код нельзя назвать простым. Компактный - да, лаконичный - да, понятный - новичку нет, эффективный - без torch/cuda и тд нет. Но в любом случае это интересная реализация
Нет, здесь обучение на обычных именах, соответственно вывод будет плюс-минус похожий. Вот если взять датасет имен, например, дройдов из Звездных войн, тогда да, будет что-то похожее на X Æ A-12 ;)
Спасибо за статью, очень подробно и понятно описано.
Рискну предположить, что для больших моделей уровня GPT4+, Gemini, Claude и тд, эта проблема не столь заметна, т.к. обобщающая способность очень сильная. А вот для малых моделей (условно до 8B и ниже) это возможно действительно будет прирост качества, в первую очередь для указанных вами "морфологически богатых языков (русский, арабский, венгерский)". Интересно будет проверить, обучив какую-нибудь небольшую модель уровня GPT2/NanoGPT
MorphBPE Tokenizer Playground — tokenizer.llm-lab.org. Веб-интерфейс, где можно ввести текст и увидеть, как MorphBPE разбивает его на токены по сравнению с обычным BPE. Хороший способ интуитивно почувствовать разницу.
Судя по всему это демо для арабского языка, русский/английский текст пилит странно, ну и надпись там же Arabic Text Tokenizer
Вы наверное хотели сказать DPI IS NOT ALL YOU NEED? ;)
Вот ссылка на первоисточник:
https://android-developers.googleblog.com/2026/03/android-developer-verification.html
Выдержка оттуда (автоперевод):
Ещё такое:
Спасибо большое! А проект Амнезия совсем отказался от "классической установки"? Хоть скрипт бы какой публиковали, в этом роде, чтобы больше прозрачности было
Не устраивает, там установка из приложения, интересует "классический метод", чтобы понимать, что происходит в процессе установки
Спасибо, что идете в ногу со временем! Подскажите, где найти мануал по базовой установке и настройке на сервер? Бегло не нашел ни тут https://github.com/amnezia-vpn/amneziawg-go ни там https://docs.amnezia.org/ru/documentation
На каком транспорте ваш VLESS+Reality? XHTTP?
Пробежался по диагонали - очень плохо написана статья (полагаю оригинал), ничего не понятно, многое повторяется по 100 раз, и это только путает еще сильнее. Я добежал глазами до середины, но так и не понял о чем вообще речь. Статью как-будто писала GPT2.
Рекомендую отправить "это" в LLM, попросить сделать саммари и уже там позадавать вопросы. Это сэкономит вам время и нервы.
А что именно в этих строках и движках? Из описания почти ничего не понятно. Ну, про модели я понял, они легкие и их несколько, они проверяют промпты на зловредное использование, но это пара сотен строк кода (а то и десятков). Остальное это что? Тема интересная, поэтому уточняю
При установке Яндекс Браузера под Win, он внаглую "крадет" все данные предыдущего браузера (в моем случае Chrome): вкладки и - внимание - логины и пароли. Возможно еще платежные данные берет и историю посещений сайтов (почему бы и нет, раз лежит?). Причем делает это совершенно самостоятельно, БЕЗ ЗАПРОСА. Куда потом уходят все эти данные? Почему какое-то приложение решило, что оно может спокойно брать данные ДРУГОГО ПРИЛОЖЕНИЯ? Причем совершенно без запроса на то разрешения. Причем максимально ЛИЧНЫЕ ДАННЫЕ, личнее не бывает.
После такого откровенного гоп-стопа я опасаюсь пользоваться ЛЮБЫМ приложением от некогда уважаемой компании.
Спасибо за обзор! Пара моментов.
1. Насчет ESpeech-TTS-1_RL-V2.
Там:
По-видимому база у них f5-tts, который также есть в обзоре. И звучат они похоже (и оба довольно качественно).
2. Насчет XTTS-v2.
Без малого пару лет назад тестировал эту библиотеку. Ниже список встроенных голосов, которые более-менее нормально работали с русским (остальные совсем плохо были, акцентили):
Не все эти голоса хорошо произносят русский, часто уходят в акцент, но слушать в целом можно.
И надо заметить - XTTS-v2 сильно прожорливый, очень тяжелый. Большие тексты надо пилить на чанки, иначе будет проглатывать часть текста, либо вообще уходить в астрал, но это особенность архитектуры. В целом получалось озвучивать тексты размером с небольшую статью (2000-2500 символов, но точно не помню уже), хоть сама библиотека и ругалась и просила меньшие чанки.
П.С. отдельное спасибо за примеры синтеза, но к сожалению какая-то часть читателей из РФ не сможет их прослушать, т.к. soundcloud.com заблокирован в России.
Отличная база, незаменимая. Светлая память основателю
Не лучшая идея начинать знакомство с устройством LLM с microGPT. Лучше взять у Карпатого его проект nanoGPT и параллельно его же видео по созданию GPT с нуля
Все-таки этот код нельзя назвать простым. Компактный - да, лаконичный - да, понятный - новичку нет, эффективный - без torch/cuda и тд нет. Но в любом случае это интересная реализация
Нет, здесь обучение на обычных именах, соответственно вывод будет плюс-минус похожий. Вот если взять датасет имен, например, дройдов из Звездных войн, тогда да, будет что-то похожее на X Æ A-12 ;)
Спасибо за статью, очень подробно и понятно описано.
Рискну предположить, что для больших моделей уровня GPT4+, Gemini, Claude и тд, эта проблема не столь заметна, т.к. обобщающая способность очень сильная. А вот для малых моделей (условно до 8B и ниже) это возможно действительно будет прирост качества, в первую очередь для указанных вами "морфологически богатых языков (русский, арабский, венгерский)". Интересно будет проверить, обучив какую-нибудь небольшую модель уровня GPT2/NanoGPT
Автор по-видимому привел эту ссылку из оригинала статьи:
MorphBPE: A Morpho-Aware Tokenizer Bridging Linguistic Complexity for Efficient LLM Training Across Morphologies
Забавно, что на сейчас у проекта 8 звезд.
Сюда же добавлю насчет другой ссылки:
Судя по всему это демо для арабского языка, русский/английский текст пилит странно, ну и надпись там же Arabic Text Tokenizer
и_так_сойдет.jpg
Спасибо за скорый анализ. С первого взгляда было понятно, что в текущем виде система не безопасная, хотя идея бота интересная.
Возможно самое простое решение, чтобы можно было пользоваться прямо сейчас:
полная изоляция от основной системы
никаких доступов к основным аккаунтам (почта, соцсети, банкинг и тд)
апрувить каждое действие, и самое главное - смотреть детали действия
Это как минимум.
До слез :'))
В тексте есть мета-смыслы :)
Совсем не единственный, причем уже несколько лет как