Обновить
63
2.1

Programmer

Отправить сообщение
Все это конечно сложно для понимания. Никогда интиутивно не понимал СТО (по крайней мере в той форме которая излагается в школьных учебниках).
Вот например время на космическом корабле, движущемся с околосветовой скоростью, замедляется, и говорят что на Земле могут пройти миллионы лет по сравнению а на корабле лишь десятки. На предложение «а что если мы будем считать корабль неподвижным, а планету движущейся с околосветовой скоростью» следует ответ — нет, корабль же движется с ускорением, поэтому так нельзя.
Но если так действительно нельзя, то может «школьная» формулировка все-же кривая, и нужно как-то ее откорректировать? Может во всех этих эффектах нужно все-же учитывать массу и обращать внимание на нее, а не только на скорость движения?
Интересно. Получается что электрическое статическое поле способно выходить за границы горизонта событий?
Я тут пытался найти на вики и вообще в инете толковое объяснение того, что же физически такое электрическое поле. Обычно говорят что электромагнитное поле это фотоны, а как понимать чисто электрическое (как и чисто магнитное)?
Если честно то не распарсил:) Порядок чего? И что вообще может меняться при сравнении, которое как известно не модифицирующая операция?
Наверное по принципу сохранения заряда. Но ответить на эти вопросы мы сможем лишь тогда когда поймем саму природу заряда. Что это такое и почему должно непременно сохраняться?
Это значит взяли некую математическую абстракцию, решили что она похожа на нашу Вселенную, затем применили к абстракции некую математическую теорему и решили что и наша Вселенная должна соответствовать этой теореме. А она не соответствует — вот ведь парадокс! :)
Для того чтобы противоположно заряженным частицам было легче попасть в ЧД, сама ЧД должна выпускать фотоны (основа в том числе и электростатического взаимодействия), а она этого сделать не может. Так что — сохранять сохраняет, а снаружи этого скорее всего не видно. Возможно информация о заряде высвободится только при взрыве заряженной ЧД после испарения до критически малой массы.
Непонятно что в этом парадоксального. Ну что такого что теряется информация? Что есть какой-то закон, обязывающий информацию всегда сохраняться?
Даже закон сохранения энергии это всего лишь постулат, и строго говоря, мы не знаем границ его применения.
Вообще проблема анонимности очень интересная.
Мы все так или иначе привязаны к IP адресам. А государства постоянно борются с анонимностью, все больше и больше привязывая IP адреса к конкретным людям: это и запреты на открытые wi-fi сети, и продажа симок по паспорту, и обязательные требования к провайдерам по установке СОРМ, и даже различные требования к системам информационной безопасности на предприятиях, без которых не дают всякие госзаказы и сертификации.
Но все-же очень хочется чтобы была полностью анонимная сеть. И тут возникает вопрос — а возможно ли это вообще, математически (по аналогии с криптографией)? Возможно ли например придумать гарантированно анонимный постинг информации на некоторый сервис типа блога? Кажется что нет, потому что в конечном итоге все равно привязка к IP и времени. Тор и onion-сайты все равно основаны в конечном итоге лишь на запутывании следов, на вероятности того что большинство узлов не компрометированы и т.д.
С работы например я на личную страничку в социальной сети хожу именно через тор запущенный в личной виртуалке, просто для того чтобы местные админы не имели информации о моей страничке. Цели использования тора бывают разные — иногда это просто туннелирование трафика, а не полная анонимность.
Какие там требования? На семерку поставится еще?
Мне непонятно почему закрывают а не интегрируют. Можно же путем постепенной замены элементов интерфейса и фуникционала, слияния баз данных и прочих веей просто перетащить сервис и все его данные в тот же google+. Да, возможно для этого придется модифицировать и сам google+ — ну так а для чего там программисты? Зато для пользователей все пройдет почти незаметно: в какой-то момент появятся дополнительные возможности, чуть поменяется интерфейс, затем еще немного — и в какой-то момент они окажутся внутри google+ сами того не заметив. И никаких закрытий.
Ну если все упирается в деньги то да, будем иметь такой интернет как имеем.
Мне вообще кажется все это странным. Зачем такое жесткое разделение обязанностей? Зачем рисовать сайт в фотошопе попиксельно? Дизайн это так, приблизительный внешний вид. Приблизительный.

Должно быть так — идеологи придумывают функционал сайта, определяют что где будет находиться, меню там всякие и формы ввода, совместно с дизайнером придумывают приблизительные эскизы страниц. Пусть в фотошопе, но эскизно. Далее разработчики делают сайт, пытаясь при этом минимизировать его размер, количество всяких картинок, скриптов и прочего шлака, что мы закачиваем мегабайтами каждый раз при заходе на страницу. Максимизируют скорость загрузки (для этого в конторе должна быть специальная машина, желательно старая и дохлая, с зарезанной до предела скоростью интернета и древней операционной системой, по возможности с вирусами). И самое главное — разработчики повышают удобство работы, логичность всего на сайте.

А дизайнер смотрит на все это, на промежуточные этапы, на конечный результат, на юзабилити сайта и говорит — вот здесь шрифт нечитаемый, здесь сочетание цветов неадекватное, здесь слишком мелко, здесь неровно и т.д. То есть советует, корректирует работу в процессе и оценивает результат. А не рисует никому не нужные макеты в фотошопе и не заставляет нас, пользователей, закачивать тонны никому не нужных шрифтов, картинок и css-ок.
Если честно, я так и не понял зачем в телеграме все эти боты и чем это лучше обычной социальной сети типа vk.
Есть одна тема, которую надо бы раскрыть. Социальные сети монополизировали интернет. Если раньше у каждого желающего была своя страничка (со своим функционалом), то теперь это почти никому не надо — есть же фейсбук с контактом. То есть значительная часть интернета, «всемирной паутины» просто перетекла внутрь десятка корпораций.
С одной стороны это дает дополнительные возможности — единые базы данных на сотни миллионов пользователей, унификация страниц, а значит и поиска по ним, но с другой — мы становимся зависимы от функционала, заложенного этими соцсетями. Если какой-то функции, которая кажется нам полезной, там нет — то скорее всего ее никогда и не будет, сети подстраиваются под потребности большинства. Также мы становимся зависимы от различной цензуры, существующей в таких соцсетях. Создать же свою соцсеть простому человеку не под силу просто в силу того, что это требует огромных вычислительных мощностей, серьезной команды разработчиков, а значит и немалых денег. Цукерберг и Дуров успели первыми, теперь чтобы вклиниться в этот рынок нужно придумать что-то принципиально лучшее.
Что касается бутербродов, то я все жду когда сделают полноценную машину для автоматического приготовления еды. То есть некий гибрид устройства хранения ( холодильник + шкаф), устройства приготовления (плита + микроволновка) и системы подготовки ингридиентов (ну и подключение к воде еще нужно). Это же может быть и посудомоечная машина. Ну и разумеется устройства контроля, в том числе химического состава пищи, температуры, давления и прочее. Продукты загружаются в специальные контейнеры, которые доступны как человеку, так и машине изнутри.
Все что нужно будет человеку это выбрать/загрузить рецепт в специальном формате, и получить на выходе готовое блюдо.
По моему bash это вообще одна сплошная ошибка. Неужели в линукс сообществе до сих пор нет попыток прикрутить вместо этого ископаемого монстра нормальный современный интерпретируемый язык программирования?
Просто взять и сделать дистрибутив целиком без bash.
Я точно помню что Путин когда-то давно говорил о недопустимости регулирования интернета. Жалко что найти сейчас не могу, может кто знает в каком интервью это было?
Резко отрицательно отношусь к любому закручиванию гаек. Но в данном случае они предлагают штафовать за скачивание того, за что по хорошему доплачивать надо:)
Хорошая статья, спасибо! Где-то я читал, что виртуальный хостинг динамически перераспределяет нагрузку между сайтами. То есть если на ваш сайт большая нагрузка, а на соседним — почти ничего, то ресурсы почти всего физического сервера могут временно обслуживать ваш сайт, а на VPS каждому дается виртуалка с фиксированными ресурсами и такое перераспределение невозможно. Это правда или все равно есть какие-то ограничения?
Предоставляют ли VPS какую-то защиту от DDoS?

Информация

В рейтинге
1 184-й
Зарегистрирован
Активность