Все это конечно сложно для понимания. Никогда интиутивно не понимал СТО (по крайней мере в той форме которая излагается в школьных учебниках).
Вот например время на космическом корабле, движущемся с околосветовой скоростью, замедляется, и говорят что на Земле могут пройти миллионы лет по сравнению а на корабле лишь десятки. На предложение «а что если мы будем считать корабль неподвижным, а планету движущейся с околосветовой скоростью» следует ответ — нет, корабль же движется с ускорением, поэтому так нельзя.
Но если так действительно нельзя, то может «школьная» формулировка все-же кривая, и нужно как-то ее откорректировать? Может во всех этих эффектах нужно все-же учитывать массу и обращать внимание на нее, а не только на скорость движения?
Интересно. Получается что электрическое статическое поле способно выходить за границы горизонта событий?
Я тут пытался найти на вики и вообще в инете толковое объяснение того, что же физически такое электрическое поле. Обычно говорят что электромагнитное поле это фотоны, а как понимать чисто электрическое (как и чисто магнитное)?
Наверное по принципу сохранения заряда. Но ответить на эти вопросы мы сможем лишь тогда когда поймем саму природу заряда. Что это такое и почему должно непременно сохраняться?
Это значит взяли некую математическую абстракцию, решили что она похожа на нашу Вселенную, затем применили к абстракции некую математическую теорему и решили что и наша Вселенная должна соответствовать этой теореме. А она не соответствует — вот ведь парадокс! :)
Для того чтобы противоположно заряженным частицам было легче попасть в ЧД, сама ЧД должна выпускать фотоны (основа в том числе и электростатического взаимодействия), а она этого сделать не может. Так что — сохранять сохраняет, а снаружи этого скорее всего не видно. Возможно информация о заряде высвободится только при взрыве заряженной ЧД после испарения до критически малой массы.
Непонятно что в этом парадоксального. Ну что такого что теряется информация? Что есть какой-то закон, обязывающий информацию всегда сохраняться?
Даже закон сохранения энергии это всего лишь постулат, и строго говоря, мы не знаем границ его применения.
Вообще проблема анонимности очень интересная.
Мы все так или иначе привязаны к IP адресам. А государства постоянно борются с анонимностью, все больше и больше привязывая IP адреса к конкретным людям: это и запреты на открытые wi-fi сети, и продажа симок по паспорту, и обязательные требования к провайдерам по установке СОРМ, и даже различные требования к системам информационной безопасности на предприятиях, без которых не дают всякие госзаказы и сертификации.
Но все-же очень хочется чтобы была полностью анонимная сеть. И тут возникает вопрос — а возможно ли это вообще, математически (по аналогии с криптографией)? Возможно ли например придумать гарантированно анонимный постинг информации на некоторый сервис типа блога? Кажется что нет, потому что в конечном итоге все равно привязка к IP и времени. Тор и onion-сайты все равно основаны в конечном итоге лишь на запутывании следов, на вероятности того что большинство узлов не компрометированы и т.д.
С работы например я на личную страничку в социальной сети хожу именно через тор запущенный в личной виртуалке, просто для того чтобы местные админы не имели информации о моей страничке. Цели использования тора бывают разные — иногда это просто туннелирование трафика, а не полная анонимность.
Мне непонятно почему закрывают а не интегрируют. Можно же путем постепенной замены элементов интерфейса и фуникционала, слияния баз данных и прочих веей просто перетащить сервис и все его данные в тот же google+. Да, возможно для этого придется модифицировать и сам google+ — ну так а для чего там программисты? Зато для пользователей все пройдет почти незаметно: в какой-то момент появятся дополнительные возможности, чуть поменяется интерфейс, затем еще немного — и в какой-то момент они окажутся внутри google+ сами того не заметив. И никаких закрытий.
Мне вообще кажется все это странным. Зачем такое жесткое разделение обязанностей? Зачем рисовать сайт в фотошопе попиксельно? Дизайн это так, приблизительный внешний вид. Приблизительный.
Должно быть так — идеологи придумывают функционал сайта, определяют что где будет находиться, меню там всякие и формы ввода, совместно с дизайнером придумывают приблизительные эскизы страниц. Пусть в фотошопе, но эскизно. Далее разработчики делают сайт, пытаясь при этом минимизировать его размер, количество всяких картинок, скриптов и прочего шлака, что мы закачиваем мегабайтами каждый раз при заходе на страницу. Максимизируют скорость загрузки (для этого в конторе должна быть специальная машина, желательно старая и дохлая, с зарезанной до предела скоростью интернета и древней операционной системой, по возможности с вирусами). И самое главное — разработчики повышают удобство работы, логичность всего на сайте.
А дизайнер смотрит на все это, на промежуточные этапы, на конечный результат, на юзабилити сайта и говорит — вот здесь шрифт нечитаемый, здесь сочетание цветов неадекватное, здесь слишком мелко, здесь неровно и т.д. То есть советует, корректирует работу в процессе и оценивает результат. А не рисует никому не нужные макеты в фотошопе и не заставляет нас, пользователей, закачивать тонны никому не нужных шрифтов, картинок и css-ок.
Есть одна тема, которую надо бы раскрыть. Социальные сети монополизировали интернет. Если раньше у каждого желающего была своя страничка (со своим функционалом), то теперь это почти никому не надо — есть же фейсбук с контактом. То есть значительная часть интернета, «всемирной паутины» просто перетекла внутрь десятка корпораций.
С одной стороны это дает дополнительные возможности — единые базы данных на сотни миллионов пользователей, унификация страниц, а значит и поиска по ним, но с другой — мы становимся зависимы от функционала, заложенного этими соцсетями. Если какой-то функции, которая кажется нам полезной, там нет — то скорее всего ее никогда и не будет, сети подстраиваются под потребности большинства. Также мы становимся зависимы от различной цензуры, существующей в таких соцсетях. Создать же свою соцсеть простому человеку не под силу просто в силу того, что это требует огромных вычислительных мощностей, серьезной команды разработчиков, а значит и немалых денег. Цукерберг и Дуров успели первыми, теперь чтобы вклиниться в этот рынок нужно придумать что-то принципиально лучшее.
Что касается бутербродов, то я все жду когда сделают полноценную машину для автоматического приготовления еды. То есть некий гибрид устройства хранения ( холодильник + шкаф), устройства приготовления (плита + микроволновка) и системы подготовки ингридиентов (ну и подключение к воде еще нужно). Это же может быть и посудомоечная машина. Ну и разумеется устройства контроля, в том числе химического состава пищи, температуры, давления и прочее. Продукты загружаются в специальные контейнеры, которые доступны как человеку, так и машине изнутри.
Все что нужно будет человеку это выбрать/загрузить рецепт в специальном формате, и получить на выходе готовое блюдо.
По моему bash это вообще одна сплошная ошибка. Неужели в линукс сообществе до сих пор нет попыток прикрутить вместо этого ископаемого монстра нормальный современный интерпретируемый язык программирования?
Просто взять и сделать дистрибутив целиком без bash.
Я точно помню что Путин когда-то давно говорил о недопустимости регулирования интернета. Жалко что найти сейчас не могу, может кто знает в каком интервью это было?
Резко отрицательно отношусь к любому закручиванию гаек. Но в данном случае они предлагают штафовать за скачивание того, за что по хорошему доплачивать надо:)
Хорошая статья, спасибо! Где-то я читал, что виртуальный хостинг динамически перераспределяет нагрузку между сайтами. То есть если на ваш сайт большая нагрузка, а на соседним — почти ничего, то ресурсы почти всего физического сервера могут временно обслуживать ваш сайт, а на VPS каждому дается виртуалка с фиксированными ресурсами и такое перераспределение невозможно. Это правда или все равно есть какие-то ограничения?
Предоставляют ли VPS какую-то защиту от DDoS?
Вот например время на космическом корабле, движущемся с околосветовой скоростью, замедляется, и говорят что на Земле могут пройти миллионы лет по сравнению а на корабле лишь десятки. На предложение «а что если мы будем считать корабль неподвижным, а планету движущейся с околосветовой скоростью» следует ответ — нет, корабль же движется с ускорением, поэтому так нельзя.
Но если так действительно нельзя, то может «школьная» формулировка все-же кривая, и нужно как-то ее откорректировать? Может во всех этих эффектах нужно все-же учитывать массу и обращать внимание на нее, а не только на скорость движения?
Я тут пытался найти на вики и вообще в инете толковое объяснение того, что же физически такое электрическое поле. Обычно говорят что электромагнитное поле это фотоны, а как понимать чисто электрическое (как и чисто магнитное)?
Даже закон сохранения энергии это всего лишь постулат, и строго говоря, мы не знаем границ его применения.
Мы все так или иначе привязаны к IP адресам. А государства постоянно борются с анонимностью, все больше и больше привязывая IP адреса к конкретным людям: это и запреты на открытые wi-fi сети, и продажа симок по паспорту, и обязательные требования к провайдерам по установке СОРМ, и даже различные требования к системам информационной безопасности на предприятиях, без которых не дают всякие госзаказы и сертификации.
Но все-же очень хочется чтобы была полностью анонимная сеть. И тут возникает вопрос — а возможно ли это вообще, математически (по аналогии с криптографией)? Возможно ли например придумать гарантированно анонимный постинг информации на некоторый сервис типа блога? Кажется что нет, потому что в конечном итоге все равно привязка к IP и времени. Тор и onion-сайты все равно основаны в конечном итоге лишь на запутывании следов, на вероятности того что большинство узлов не компрометированы и т.д.
Должно быть так — идеологи придумывают функционал сайта, определяют что где будет находиться, меню там всякие и формы ввода, совместно с дизайнером придумывают приблизительные эскизы страниц. Пусть в фотошопе, но эскизно. Далее разработчики делают сайт, пытаясь при этом минимизировать его размер, количество всяких картинок, скриптов и прочего шлака, что мы закачиваем мегабайтами каждый раз при заходе на страницу. Максимизируют скорость загрузки (для этого в конторе должна быть специальная машина, желательно старая и дохлая, с зарезанной до предела скоростью интернета и древней операционной системой, по возможности с вирусами). И самое главное — разработчики повышают удобство работы, логичность всего на сайте.
А дизайнер смотрит на все это, на промежуточные этапы, на конечный результат, на юзабилити сайта и говорит — вот здесь шрифт нечитаемый, здесь сочетание цветов неадекватное, здесь слишком мелко, здесь неровно и т.д. То есть советует, корректирует работу в процессе и оценивает результат. А не рисует никому не нужные макеты в фотошопе и не заставляет нас, пользователей, закачивать тонны никому не нужных шрифтов, картинок и css-ок.
С одной стороны это дает дополнительные возможности — единые базы данных на сотни миллионов пользователей, унификация страниц, а значит и поиска по ним, но с другой — мы становимся зависимы от функционала, заложенного этими соцсетями. Если какой-то функции, которая кажется нам полезной, там нет — то скорее всего ее никогда и не будет, сети подстраиваются под потребности большинства. Также мы становимся зависимы от различной цензуры, существующей в таких соцсетях. Создать же свою соцсеть простому человеку не под силу просто в силу того, что это требует огромных вычислительных мощностей, серьезной команды разработчиков, а значит и немалых денег. Цукерберг и Дуров успели первыми, теперь чтобы вклиниться в этот рынок нужно придумать что-то принципиально лучшее.
Все что нужно будет человеку это выбрать/загрузить рецепт в специальном формате, и получить на выходе готовое блюдо.
Просто взять и сделать дистрибутив целиком без bash.
Предоставляют ли VPS какую-то защиту от DDoS?