All streams
Search
Write a publication
Pull to refresh
34
0.1
Regis @Regis

User

Send message
6925655667998614b70a72af0b4879c7
Хм. Мистика. Точно не работало.
Во всяком случае для многих поддоменов БГУшных все еще требуется www.
Вначале вода, в конце вода, да еще и нагретая. Откуда энергия? Брр…
Да неоткуда ей тут взяться. Именно поэтому этот «водяной» двигатель и не будет работать.

А резонанс тут используется как звучное слово, которым называют процесс, который многие не понимают и на который можно списать всякие чудеса :)
Всё верно :)

В данном случае я говорил о «полезной энергии процесса», то есть без учета потерь на тепловыделение в силу неидеальности установки. В реальной жизни у нас конечно будет схема другая: на разделение мы потратим некоторое Y (Y > X), а при сжагании сможем эффективно использовать только Z (Z < X) энергии.

X/Y = КПД процесса получения газа.
Z/X = КПД процесса использования газа.
Обе величины будут меньше 100% процентов :)
Вторая величина для двигателей внутреннего сгорания не более 30% обычно.
0. Хотя возможно КПД установки через резонанс можно повысить. Но их это не спасет :)
0. Они не говорили, что их метода позволяет тратить меньше энергии :)
Они говорили, что напряжение можно сделать низким. Энергия преобразования всегда останется одинаковой.

1. Да, именно так.

2. Для получения водорода и кислорода из воды мы тратим энергию X. При сжигании мы получаем энергию X. «Профтиа» тут нет :)
Тогда ждем ваших предложений :)
Основная фишка здесь — если захотят ддосить «корневые» сайты (публикующие скомпонованные списки), то можно обойтись вообще без них.

Кстати, возможно есть смысл сразу договориться насчет имен для скомпанованных списков тоже. Например:
example.com/merged_friendly_domains.txt (список доменов, которые домен example.com и его окружение считают «хорошими» на основании алгоритма, который использует сайт example.com)
example.com/merged_suspected_domains.txt (список доменов, которые домен example.com и его окружение считают «хорошими» на основании алгоритма, который использует сайт example.com)
Почему бы не использовать идею robots.txt и Sitemap.xml?

Выбираем название для пары файлов с белым и черным списком и договариваемся, что эти файлы будут лежать в корне сайта. Например:
example.com/friendly_domains.txt (список доменов, которые домен example.com считает «хорошими» ;)
example.com/suspected_domains.txt (список доменов, которые домен example.com считает подозрительными)

В этих файлах просто перечисляем по белые/черные домены по одному в строчку. И всё. Ну почти ;)

Дальнейшие действия — а именно использование этих самых списков — каждый желающий определяет для себя сам. Можно например написать примитивного бота, который стартуя с одного сайта обходит все сайты из его белых списков, все посещенные списки компонует в один белый и один черный список (отсортированные и без дубликатов). И уже эти скомпонованные списки используются для фильтрации.

Небольшие пояснения.
С одной стороны, в такой системе каждый сайт формирует свой собственный список доверия/недоверия по отношению к другим сайтам (необязательно, чтобы сайт сам нуждался в защите от спама).
С другой стороны, сайт, нуждающийся в защите от спама, может формировать свои составные списки на основе списков других сайтов по любым желаемым алгоритмам либо же использует готовый кем-то собранную итоговую пару списков.

Плюсы:
1. Децентрализация. При такой схеме DDoS по отдельным сайтам практически не имеет смысла. Будет всего лишь потеряно «мнение» этого конкретного сайта. Если же будет выполняться DDoS сайтов, которые публикуют свои сборки «итоговых» списков собранных по какому-то алгоритму, то будет совершенно не проблема запустить сколь угодно зеркал либо собрать список самому (в данном случае предполагается публичность алгоритмов).
2. Гибкость. Каждый может по-разному отвечать на вопросы вида «Доверяю ли я своему другу? А другу своего друга? А друг друга моего друга? <… и т. д.… >». С данной же схемой каждый сможет сможет реализовать и использовать алгоритмы и принципы составления списков на свой вкус. При желании можно учитывать самые различные характеристики: удаленность от некоторых начальных доверенных доменов, частота появления в списках, максимальная глубина обхода и т. д.
3.Автоматизация. Такая схема очень легко автоматизируется. Написать бота, который выполняет обход сайтов — совсем не сложно.

Что нужно для этой схемы? Для начала достаточно договориться насчет имен файлов :)
Спасибо, крайне признателен )))
В этом смысле — конечно да :)
Просто выше обсуждалось уже соотношение объемов, потому и начались уточнения.
Это я насчет соотношения пары водоро/кислород, а не насчет других возможных составов (тут вы, конечно, правы).
Посмотрите в википедии формулу реакции водорода с кислородом, если вы ее подзабыли :)
Нет, два моля водорода на моль кислорода.
Для холодного термояда еще нет даже потенциально работоспособной теории.
Если в ролике он — то я в шоке, почему автор еще не получил Нобелевку :)
* Низкое напряжение и мало энергии — это совсем не одно и тоже.
Там сказано, что напряжение, при котором выполняется разложение — низкое. А получить от такого разложения энергии больше, чем мы потратили — нам не даст ЗСЭ.
На всякий случай, дабы не злоупотреблять:
Статья про термоядерный синтез в Вики. Сразу ищите раздел «Условия».
Схему чего? Этого супердвигателя? :)

Information

Rating
3,554-th
Registered
Activity