В данном случае я говорил о «полезной энергии процесса», то есть без учета потерь на тепловыделение в силу неидеальности установки. В реальной жизни у нас конечно будет схема другая: на разделение мы потратим некоторое Y (Y > X), а при сжагании сможем эффективно использовать только Z (Z < X) энергии.
X/Y = КПД процесса получения газа.
Z/X = КПД процесса использования газа.
Обе величины будут меньше 100% процентов :)
Вторая величина для двигателей внутреннего сгорания не более 30% обычно.
0. Они не говорили, что их метода позволяет тратить меньше энергии :)
Они говорили, что напряжение можно сделать низким. Энергия преобразования всегда останется одинаковой.
1. Да, именно так.
2. Для получения водорода и кислорода из воды мы тратим энергию X. При сжигании мы получаем энергию X. «Профтиа» тут нет :)
Основная фишка здесь — если захотят ддосить «корневые» сайты (публикующие скомпонованные списки), то можно обойтись вообще без них.
Кстати, возможно есть смысл сразу договориться насчет имен для скомпанованных списков тоже. Например:
example.com/merged_friendly_domains.txt (список доменов, которые домен example.com и его окружение считают «хорошими» на основании алгоритма, который использует сайт example.com)
example.com/merged_suspected_domains.txt (список доменов, которые домен example.com и его окружение считают «хорошими» на основании алгоритма, который использует сайт example.com)
Почему бы не использовать идею robots.txt и Sitemap.xml?
Выбираем название для пары файлов с белым и черным списком и договариваемся, что эти файлы будут лежать в корне сайта. Например: example.com/friendly_domains.txt (список доменов, которые домен example.com считает «хорошими» ;) example.com/suspected_domains.txt (список доменов, которые домен example.com считает подозрительными)
В этих файлах просто перечисляем по белые/черные домены по одному в строчку. И всё. Ну почти ;)
Дальнейшие действия — а именно использование этих самых списков — каждый желающий определяет для себя сам. Можно например написать примитивного бота, который стартуя с одного сайта обходит все сайты из его белых списков, все посещенные списки компонует в один белый и один черный список (отсортированные и без дубликатов). И уже эти скомпонованные списки используются для фильтрации.
Небольшие пояснения.
С одной стороны, в такой системе каждый сайт формирует свой собственный список доверия/недоверия по отношению к другим сайтам (необязательно, чтобы сайт сам нуждался в защите от спама).
С другой стороны, сайт, нуждающийся в защите от спама, может формировать свои составные списки на основе списков других сайтов по любым желаемым алгоритмам либо же использует готовый кем-то собранную итоговую пару списков.
Плюсы:
1. Децентрализация. При такой схеме DDoS по отдельным сайтам практически не имеет смысла. Будет всего лишь потеряно «мнение» этого конкретного сайта. Если же будет выполняться DDoS сайтов, которые публикуют свои сборки «итоговых» списков собранных по какому-то алгоритму, то будет совершенно не проблема запустить сколь угодно зеркал либо собрать список самому (в данном случае предполагается публичность алгоритмов).
2. Гибкость. Каждый может по-разному отвечать на вопросы вида «Доверяю ли я своему другу? А другу своего друга? А друг друга моего друга? <… и т. д.… >». С данной же схемой каждый сможет сможет реализовать и использовать алгоритмы и принципы составления списков на свой вкус. При желании можно учитывать самые различные характеристики: удаленность от некоторых начальных доверенных доменов, частота появления в списках, максимальная глубина обхода и т. д.
3.Автоматизация. Такая схема очень легко автоматизируется. Написать бота, который выполняет обход сайтов — совсем не сложно.
Что нужно для этой схемы? Для начала достаточно договориться насчет имен файлов :)
Там сказано, что напряжение, при котором выполняется разложение — низкое. А получить от такого разложения энергии больше, чем мы потратили — нам не даст ЗСЭ.
Во всяком случае для многих поддоменов БГУшных все еще требуется www.
А резонанс тут используется как звучное слово, которым называют процесс, который многие не понимают и на который можно списать всякие чудеса :)
В данном случае я говорил о «полезной энергии процесса», то есть без учета потерь на тепловыделение в силу неидеальности установки. В реальной жизни у нас конечно будет схема другая: на разделение мы потратим некоторое Y (Y > X), а при сжагании сможем эффективно использовать только Z (Z < X) энергии.
X/Y = КПД процесса получения газа.
Z/X = КПД процесса использования газа.
Обе величины будут меньше 100% процентов :)
Вторая величина для двигателей внутреннего сгорания не более 30% обычно.
Они говорили, что напряжение можно сделать низким. Энергия преобразования всегда останется одинаковой.
1. Да, именно так.
2. Для получения водорода и кислорода из воды мы тратим энергию X. При сжигании мы получаем энергию X. «Профтиа» тут нет :)
Кстати, возможно есть смысл сразу договориться насчет имен для скомпанованных списков тоже. Например:
example.com/merged_friendly_domains.txt (список доменов, которые домен example.com и его окружение считают «хорошими» на основании алгоритма, который использует сайт example.com)
example.com/merged_suspected_domains.txt (список доменов, которые домен example.com и его окружение считают «хорошими» на основании алгоритма, который использует сайт example.com)
Выбираем название для пары файлов с белым и черным списком и договариваемся, что эти файлы будут лежать в корне сайта. Например:
example.com/friendly_domains.txt (список доменов, которые домен example.com считает «хорошими» ;)
example.com/suspected_domains.txt (список доменов, которые домен example.com считает подозрительными)
В этих файлах просто перечисляем по белые/черные домены по одному в строчку. И всё. Ну почти ;)
Дальнейшие действия — а именно использование этих самых списков — каждый желающий определяет для себя сам. Можно например написать примитивного бота, который стартуя с одного сайта обходит все сайты из его белых списков, все посещенные списки компонует в один белый и один черный список (отсортированные и без дубликатов). И уже эти скомпонованные списки используются для фильтрации.
Небольшие пояснения.
С одной стороны, в такой системе каждый сайт формирует свой собственный список доверия/недоверия по отношению к другим сайтам (необязательно, чтобы сайт сам нуждался в защите от спама).
С другой стороны, сайт, нуждающийся в защите от спама, может формировать свои составные списки на основе списков других сайтов по любым желаемым алгоритмам либо же использует готовый кем-то собранную итоговую пару списков.
Плюсы:
1. Децентрализация. При такой схеме DDoS по отдельным сайтам практически не имеет смысла. Будет всего лишь потеряно «мнение» этого конкретного сайта. Если же будет выполняться DDoS сайтов, которые публикуют свои сборки «итоговых» списков собранных по какому-то алгоритму, то будет совершенно не проблема запустить сколь угодно зеркал либо собрать список самому (в данном случае предполагается публичность алгоритмов).
2. Гибкость. Каждый может по-разному отвечать на вопросы вида «Доверяю ли я своему другу? А другу своего друга? А друг друга моего друга? <… и т. д.… >». С данной же схемой каждый сможет сможет реализовать и использовать алгоритмы и принципы составления списков на свой вкус. При желании можно учитывать самые различные характеристики: удаленность от некоторых начальных доверенных доменов, частота появления в списках, максимальная глубина обхода и т. д.
3.Автоматизация. Такая схема очень легко автоматизируется. Написать бота, который выполняет обход сайтов — совсем не сложно.
Что нужно для этой схемы? Для начала достаточно договориться насчет имен файлов :)
Просто выше обсуждалось уже соотношение объемов, потому и начались уточнения.
Если в ролике он — то я в шоке, почему автор еще не получил Нобелевку :)
Статья про термоядерный синтез в Вики. Сразу ищите раздел «Условия».