Pull to refresh
16K+
70
0,3
Rating
12
Subscribers
Send message

Фундаментальная причина - сетевой стек не предусматривает. Всё остальное грязные хаки. Идею работы в тандеме с локальным прокси - сам поприветствовал бы.

Не IPv6 случаем?

Все ответы не поняли вопроса и неверны.

Не все протоколы одинаково подходят для мимикрии:

Wireguard - работает только на UDP. Соответственно мысль -- слать пакеты от другого протокола на UDP в роли мусора. Ведь фильтр будет сверяться только с UDP-протоколами.

/dev/random в netcat по всему миру. ICMP, TCP, UDP. Как рандом захочет.

Расскажу, какие именно методы использует оператор, чтобы определить VPN-соединение — от простых до тех, что обходятся государствам в миллиарды рублей.

Где логика? В каком случае оператор сможет определить VPN-соединение, которое не определило ТСПУ? То есть, чтобы вообще соединиться с VPN, оно должно быть либо в белом списке, либо изначально не блокироваться, либо быть скрыто. Учитывая реалии, речь идет о скрываемых соединениях. Иначе же вычленить "только VPN" из зарубежного трафика под силу только ТСПУ или ужасно неточным спискам IP и подсетей.

Если весь отдел состоит из уверенных пользователей MS Office, то не удивительно. Тут еще вопрос целеполагания. Если инфра оплачивается за счет краденных реквизитов, то закрыть всё еще большой проблемой быть не должно, а хотеть они могут именно добраться до конкретных участников.

Статье не хватает все же введения. Что будет устанавливаться, за чей счет и как работать. А сама инструкция хорошо пошагово описана.

Команда выводит готовую tg:// ссылку, которую можно сразу открыть в Telegram-клиенте.

Нужно также выводить через qrencode. У нее имеются несколько текстовых режимов.

так, чтобы список [...] и проверяемым по источникам:

Автор, не приведете ссылок на источники? Ведь проведена такая масштабная работа по отбору материала! Если можно, "кратко"

(кратко):

А то очень даже похоже на ИИ-сгенерированное нечто. Без претензии на оригинальность или вывод через обученный взгляд человека, который разбирался и долго копался в теме.

https://github.com/BerriAI/litellm/blob/main/litellm/main.py

Так это те же ребята, где мы с полтора месяца назад функцию в 1000 строк высмеивали. Неудивительно, что у таких разработчиков поверхность атаки достигает 9000%.

Advanced Shader Delivery

Да, интересно, чем оно будет отличаться от того же shader pre-caching, которое в клиенте Steam лет 7 уже есть.

Да и по-хорошему эту тему стоило продвигать раньше производителям железа. Это их драйвера и их быстродействие.

Мне до сих пор интересно, почему цифровые текстовые логи одной стороны в судах предстают как неопровержимые доказательства, которые как-то надо опровергать, а не просто заявления очевидца.

Как (один из) людей, которому @Nomad_77 просто так ответил в личке по поводу 1_000_000 (мог бы и проигнорировать), подтверждаю, что никаких жабр не было. Я спросил, он ответил. Могли бы зарезервировать на уровне кода? Да. Могли бы подготовиться заранее и опубликовать статью ровно в срок? Тоже да, тогда бы вы ничего не заметили, выглядело бы органично.

Ровно как вы и сказали, но только не когда уже взяли за ж..абры.

И объявить, что вырученные средства направлены на поддержку талантливых авторов, инфраструктуру и прочие ништяки для Хабра.

Ну... оно как бы коммерческая компания и так реинвестирует средства на поддержание платформы и подогрева интереса авторов. Условия заработка поощрения публичные.

Имхо, такая вспыльчивость по поводу и без -- та причина, по которой PR предпочитает вообще ничего не говорить и отвечать выхолощенными фразами, минимизируя поверхность "атаки", чтобы не было за что зацепиться. Оттуда и появляются правила, членам компании ничего без согласования с PR, юристами и безопасниками наружу не говорить.

PS: Прежде чем начнете в чём-то еще уличать, конечно, тема меня интересовала, скачок в 3000 номеров тоже, а статью ВК дочитал только сейчас и пришел по комментариям оттуда. Эту тему сам поднимать не хотел, но не могу не дополнить дискуссию информацией о реальности. А то получится как в журналистике: на полосы печатается фанфик о реальности, а участникам событий либо все равно, либо никто не спросил.

На Хабре была взвешенная статья. Только прямо её найти - покопаться надо.

Примеры производительности на языке C++ настолько же отдалены от реальности как современная разработка от оптимизации. Если Сишный код один в один ложится на железо (и через компилятор можно еще понять что во что превратилось), то Javascript-еру нужно продраться через дебри фреймворка, API, VM, а уже затем вспомнить, что где-то там процессор молотит его тяп-ляп код.

Не все сайты она берет нормально, а особенно хитрые скрывают от нее содержание. В прочем -- да.

16 ! ! ! ! ! человек которые не умели на тот момент разрабатывать с AI?

Пруф, что не умели?

https://metr.org/blog/2025-07-10-early-2025-ai-experienced-os-dev-study/

Q: You only had 16 developers, so these results will not generalize/replicate.

We compute confidence intervals accounting for the number of developers by using clustered standard errors (not reported in the released paper, but forthcoming). Because we don’t observe meaningful within-developer structure, and each developer completes issues in both conditions, the 246 total completed issues give us (just enough) sufficient statistical power to reject the null hypothesis of zero speedup/slowdown. See Appendix D for discussion of our empirical strategy.

There is still a question of representativeness—i.e. there are likely biases in which developers ended up participating in the study. For example, there may be experienced, open-source developers who decided to not participate because they believe they have significant positive speedup from AI, and they didn’t want to be forced to not use AI on 50% of their tasks. No developer reports thinking in this way, but we can’t rule this (or other sampling biases) out.

Добрая часть статьи сгенерирована да скопирована. Если отжать воду, останется вводный пример и концовка с саморекламой.

1
23 ...

Information

Rating
3,015-th
Location
Niedersachsen, Германия
Registered
Activity