Как стать автором
Обновить

Комментарии 16

Православие не совместимо с i2p, и любой человек, который пропагандирует i2p автоматически включается в список на изгнание из церкви. Это необратимое действие.

А список односвязный или двусвязный?

Этого я сказать не могу, но он точно закольцованный, потому как говорят о "кругах Ада".

кольцо ада с делителями нуля.

Это специальный божественный список, у которого o(1) на добавление, o(bottom) на удаление, o(1) на поиск, o(1) на определение длины, o(1) на сортировку, o(1) на рандомизацию.

Тише, тише, я же так скоро верующим стану

o малое, это вам не O большое!

Использование юниксов тоже дело не богоугодное. Там же сплошь демоны! У FreeBSD маскот вообще чёрт с рогами и вилами!

За использование продукции Apple - сразу на костёр. У них же эмблема - погрызенное яблоко, что уже намекает. Да и их операционки, под капотом, те же юниксы, с богомерзкими демонами! Впрочем, за Android тоже на костёр!

Да и Интернет диавольское изобретение. Там же большинство серверов на этих ваших юниксах работает. Да и в винду демоны в последнее время активно прорываются.

Со всех сторон обложили. Богобоязненному человеку уже и шагу ступить нельзя. Везде на демонов наткнёшься...

Windows — православный. Там иконки, а вместо демонов — службы.

В этой статье чудесно все, спасибо. Сделал для себя выводы:

  1. Использовать User-Agent "MYOB/6.66 (AN/ON)" вместо юзерагента Google Chrome актуальной версии под Windows это конечно же лучший способ выглядеть незаметно, чтобы никто не мог идентифицировать. Штирлиц шел по улицам Берлина в белом маскировочном халате прикрытом еловыми ветками, стараясь выглядеть незаметно.

  2. Замаскировать User-Agent для сайта который может получить информацию о клиенте (и еще кучу параметров, включая версии движка, разрешения экрана и тп) через JS это супер-важно. А главное подменить User-Agent в браузере совершенно нереально.

  3. Читать версию сайта рассчитанную на ботов и пользователей Internet Explorer 6 гораздо интересней, чем ту версию сайта, которая рассчитана на актуальные браузеры (потому что на сервер-сайде для выбора какую версию отдавать как раз таки User-Agent и используется).

  4. http сейчас это сверх-актуальный протокол потому что https (в котором прокси ничего не знает про передаваемые заголовки и не может их поменять) ушел в небытие.

  5. Ходить на сайты без шифрования обязательно следует через tor или i2p. Без них наш трафик видит плохой провайдер и товарищ майор, которые все свое свободное время только сниффингом и занимаются, а с tor и i2p всего лишь хороший добрый человек поднявший exit node с очевидно альтруистическими намерениями, что он может сделать плохого? Он же явно не будет всякую бяку подсовывать в страничку

  6. i2p с тором как раз и нужны же для того чтобы через них всегда ходить своим любимым фаерфоксом. И фейсбучики с твиттерами читать и параллельно анонимность соблюдать.

P.S. (sarcasm off) использовать http(s)-прокси вместо сокс действительно может быть эффективней, там где его хватает, но по совершенно другой причине - у http(s) прокси хендшейк короче, но в случае когда и прокси и клиент на одной машине это мало на что влияет.

Рад именитому комментатору! Ave 3proxy. На минус рука не поднялась, однако не согласен с вашими доводами.

Использовать User-Agent "MYOB/6.66 (AN/ON)" вместо юзерагента Google Chrome актуальной версии под Windows это конечно же лучший способ выглядеть незаметно, чтобы никто не мог идентифицировать.

I2P по умолчанию не подразумевает наличие выходных прокси. При подмене юзер-агента в данном случае речь идет о затруднении идентификации пользователя, которому нужна приватность, а не модные лендинги с тонной JS, ибо он залез в самый настоящий даркнет явно не за этим.

Замаскировать User-Agent для сайта который может получить информацию о клиенте (и еще кучу параметров, включая версии движка, разрешения экрана и тп) через JS это супер-важно. А главное сделать это в браузере совершенно нереально.

От всего не защитишь, поэтому отключение JS лежит на плечах самого пользователя.

Читать версию сайта рассчитанную на ботов и пользователей Internet Explorer 6 гораздо интересней, чем ту версию сайта, которая рассчитана на актуальные браузеры (потому что на сервер-сайде для выбора какую версию отдавать как раз таки User-Agent и используется).

Видимо, вы не часто посещаете i2p-сайты. Лично я не встречал скрытые сайты, которые избирательны к юзер-агентам и требовательны к последним html-фичам. IE6 вполне вероятно адекватно откроет большую их часть.

http сейчас это сверх-актуальный протокол потому что https (в котором прокси ничего не знает про передаваемые заголовки и не может их поменять) ушел в небытие.

Если речь о выходном прокси-сервере и https для такого случая, материал статьи на подобный кейс не распространяется. I2P - в первую очередь "сеть сама в себе" с исчерпывающим транспортным шифрованием без малейшей нужды в https и по умолчанию не ориентированная на выход в клирнет (в отличие от Tor, которому эта статья не посвящена).

Ходить на сайты без шифрования обязательно следует через tor или i2p. Без них наш трафик видит плохой провайдер, а с ними всего лишь хороший добрый человек поднявший exit node с очевидно альтруистическими намерениями, что он может сделать плохого?

Абсурдное обвинение. Ни в коем случае не рекомендую использовать анонимные публичные выходные узлы, тем более при отсутсвии оконечного шифрования с конечным ресурсом! Да и где нынче голый http в клирнете?)

В статье упомянут HTTP как самый востребованный протокол для веб-серфинга и в этом нет лжи. HTTPS - наслоение для данного протокола, которое никоим образом не исключает наличие HTTP-заголовков, о которых идет речь.

В данной статье сделан акцент на I2P и I2P-роутер, который, как правило, пропускает трафик пользователя не имеющий дополнительного шифрования в виде HTTPS, так как скрытые сети обеспечивают исчерпывающий уровень шифрования, который, однако, начинается чуть ниже локального прокси пользователя - после попадания в I2P-маршрутизатор. Следовательно, в 99% случаев I2P-роутер работает с пользовательскими заголовками в открытом виде и их подмена является первым рубежом борьбы с элементарной деанонимизацией.

Пожалуйста не пишите статей ради статей, дайте копирайтерам отдохнуть.

Пишу заметки без каких-либо нормативных требований по их количеству, исключительно по личному вдохновению. Материал считаю полезным, т.к. тема HTTP-заголовков в I2P в рунете вовсе отсутствует как явление.

P.S. Наверное, ваша бурная негативная реакция на материал рождена в следствие вашего тесного знакомства с прокси-реалиями современного интернета, однако эта статья хоть и содержит знакомую вам терминологию, но повествует несколько о другой плоскости предмета, где даже слово "прокси" обозначает не опционального сетевого посредника, а непосредственный шлюз в скрытую сеть.

Боюсь, что вы не поняли о чем сарказм.

У вас на скриншоте Firefox получает css. CSS позволяет фингерпринтить браузер через media query без всякого JS. Чтобы минимизировать такие риски TorBrowser (вы же с tor сраниваете) например стартует с рандомным размером окна и рандомизирует несколько других параметров, чтобы фингерпринт получался разным при разных запусках.

Если у вас в браузере прописан только HTTP прокси, то переход в некоторые протоколы (например в HTTP/3 или использование WebRTC, если опять же используется браузер "общего назначения") приведет к раскрытию реального адреса, потому что запрос просто не уйдет в прокси (и, как следствие, в I2P). С SOCKS кстати такие риски несколько ниже + тот же tor browser правильно конфигурирует тор в качестве прокси и отключает поддержку WebRTC. Инициировать все это может тот сайт i2p от которого вы прячетесь, точно так же он может инициировать и запрос по протоколам отличным от http.

Поэтому гораздо важней НЕ использовать tor или i2p через обычный браузер, точно так же как НЕ использвоать их для обычного браузинга. Вырезание User-Agent в противном случае это просто смешно. Даже по невырезанным заголовкам Transfer-Encoding можно вычислить браузер, кстати.

В случае I2p надо не подменять User-Agent а написать свой браузер MYOB/6.66 в котором будет функциональности сильно меньше чем в IE6, никакая информация о клиенте не будете утекать by design и все запросы опять же by design будут идти в i2p и только по http.

По поводу предпочтительного использования http есть другая причина: серверный I2P тоннель вставляет дополнительные заголовки с I2P адресом клиента, что позволяет HTTP серверу использовать их в своих целях.

P.S: Не планируется ли в 3proxy реализация протокола gopher?

Не знаю серьезно вы или нет, но gopher может работать через HTTP(s) и SOCKS прокси, а вот специального application-specific типа прокси для него не предусмотрено, там host в протоколе не передается.

да, и, разумеется, то что SOCKS прокси не может править HTTP-заголовки это тоже не так, в 3proxy можно поменять или добавить заголовки для клиента подключающегося по SOCKS. SOCKS это просто интерфейс подключения клиента, дальше с траффиком можно делать все что угодно если он не шифрован или если можно его дешифровать, вопрос исключительно в реализации i2pd.

>Не знаю серьезно вы или нет, но gopher может работать через HTTP(s) и SOCKS прокси,

У меня не получилось подсунуть 3proxy lynx-у в качестве gopher прокси (HTTP). Возможно что не так делал, и где то в документации упоминалось что не поддерживается.

>да, и, разумеется, то что SOCKS прокси не может править HTTP-заголовки это тоже не так

Речь шла об http vs. https — почему в I2P применяется именно http, а не https. Ну а в I2P просто нет специального серверного SOCKS тоннеля.
Зарегистрируйтесь на Хабре , чтобы оставить комментарий

Публикации

Истории