я пробовал блокировать скайп фаерволом с мгновенным отфутболиванием — это еще хуже он тупо с минимальной задержкой начинает коннектится снова. Итого сплошной поток попыток соединится с отказами. Нехорошо-с это. Другое дело когда он пытается соединится с хостом который не отвечает — скайп ожидает таймаута в течении 5 минут, может и больше. 127.0.0.0 на эту роль подходит как нельзя лучше, и точно так же его обработка не попадает даже в ядро.
Ну не скажи. А как быть с HD и FullHD камерами? Телевизионными панелями поддерживающими 4К и FullHD — они ведь тоже клиенты интернета вещей… и тоже требуют экономности в передаче данных.
Ладно для одной камеры может хватить низкой скорости, а если в зоне охвата сети их сотня? А еще мешкается тут же тысяча каких-то датчиков и их всех надо обслужить!
Я как-то тоже удивлялся требованиям к каналу в 100Мбит когда клиенты потребляют трафик на уровне 19200 бод… когда их становится много, даже 20Мбит канал уже не справляется. Это всего около 1000 клиентов.
Странно, почему все забывают про 127.0.0.0? Или в этом что-то есть сильно неправильное? Насколько я знаю, этот адрес даже не маршрутизируется в ядре виндовс в отличие от 127.0.0.1 который может привести к активным сервисам на локальной машине.
вопрос в том сколько надо для этого вычислительных ячеек.
Чтобы полностью промоделировать поведение 1 куб. метра атмосферы нужен вычислитель в миллионы раз меньше(иначе смысл такого вычислителя в планетарном масштабе) этого самого куб.метра который бы не только хранил текущее и прогнозируемое состояние а еще и был бы способен просчитать прогноз с установленной точностью быстрее реального объекта.
Пока это возможно только за счет изменения времени прогноза в будущее, и заданной точности и частично за счет соотношения объема вычислительной аппаратуры(более эффективные вычислители способны быстрее или с большей точностью просчитать один и тот же объем атмосферы) к объему прогнозируемого объекта — фактически это соотношение килограмма серверов к кубическим метрам атмосферы.
Совет всегда имеет смысл. Ибо нефиг выкладывать в репозиторий временные файлы(и резервные копии рабочих, как любят делать многие IDE для защиты от порчи файлов в момент их сохранения) которые могут создаваться любым IDE или отладчиком. Туда могут быть внесены и отладочные файлы, которые существуют на конкретном рабочем месте и т.д.
Даже кубический метр, и тот проблема. Нынешние модели используют ячейки в 16 кубических километров, и то сложность огромная. При этом из-за низкой точности еще даже не приступили к учету влияния гравитационного поля…
Можно кстати оценить примерно какую площади должны занимать микросхемы памяти только для хранения промежуточных состояний прогноза в масштабах планеты — количество параметров известно, количество элементарных ячеек для анализа и размеры ячейки памяти тоже.
Эта проблеме не решаема. Абсолютно точных моделей объекта кроме самого объекта попросту не существует. Что-то хоть менее точное чем сам объект уже не может быть абсолютно точной моделью.
Даже грубо рассчитать гидродинамику на основе масштабной модели может оказаться на порядки точнее чем нынешние матмодели, но это потребует наличия модели размером с луну, например. А у нас пока имеются модели в виде компьютеров, которые оперируют ячейками со стороной в 40км, и те едва способны дать прогноз на несколько часов.
Правильные расклады под ковром как раз этой цели и способствуют. Даже если самому расклад не делать — надо знать как правильно его считать и использовать в свою пользу.
Полностью точный прогноз погоды сделать будет нельзя только по той простой причине что для этого потребуется математическая модель планеты в натуральную величину.
Какое-нибудь олеофобное покрытие и никакая грязь приставать не будет. Раз в год протереть от минеральных отложений — и этого может быть вполне достаточно. Темболее, что сам прибор может сказать когда это будет необходимо сделать.
Да, а принцип-то не сильно отличается от датчика чистоты воздуха, который подсчитывает количество пылинок в объёме.
Ладно для одной камеры может хватить низкой скорости, а если в зоне охвата сети их сотня? А еще мешкается тут же тысяча каких-то датчиков и их всех надо обслужить!
Я как-то тоже удивлялся требованиям к каналу в 100Мбит когда клиенты потребляют трафик на уровне 19200 бод… когда их становится много, даже 20Мбит канал уже не справляется. Это всего около 1000 клиентов.
Чтобы полностью промоделировать поведение 1 куб. метра атмосферы нужен вычислитель в миллионы раз меньше(иначе смысл такого вычислителя в планетарном масштабе) этого самого куб.метра который бы не только хранил текущее и прогнозируемое состояние а еще и был бы способен просчитать прогноз с установленной точностью быстрее реального объекта.
Пока это возможно только за счет изменения времени прогноза в будущее, и заданной точности и частично за счет соотношения объема вычислительной аппаратуры(более эффективные вычислители способны быстрее или с большей точностью просчитать один и тот же объем атмосферы) к объему прогнозируемого объекта — фактически это соотношение килограмма серверов к кубическим метрам атмосферы.
Вот когда дойдут до сетки в 1 километр, тогда можно строить прогнозы по предупреждению катаклизмов на ближайшие часы, а может и дальше.
Можно кстати оценить примерно какую площади должны занимать микросхемы памяти только для хранения промежуточных состояний прогноза в масштабах планеты — количество параметров известно, количество элементарных ячеек для анализа и размеры ячейки памяти тоже.
Даже грубо рассчитать гидродинамику на основе масштабной модели может оказаться на порядки точнее чем нынешние матмодели, но это потребует наличия модели размером с луну, например. А у нас пока имеются модели в виде компьютеров, которые оперируют ячейками со стороной в 40км, и те едва способны дать прогноз на несколько часов.
Да, а принцип-то не сильно отличается от датчика чистоты воздуха, который подсчитывает количество пылинок в объёме.