не знал, но звучит логично. конечно же — имя файла не должно повторяться, хотя в случае «пары миллионов» картинок, надо еще постараться, чтобы каждую увидели хотя бы один раз.
а почему капчи нельзя нагенерить программкой на плюсах + хранить некоторый пул, скажем пару миллионов уже сгенеренных каптч (да, несколько гигов займет — но это много?), и использовать его, если генерация новой не укладывается в определенное время?
так что искажение на 0.25% аргументов (скажем второй аргумент — результат предыдущей арифметической операции) может принести серьезные последствия. конечно, если учитывать это в алгоритмах — проблем не должно быть, но «учитывать» в ряде случаев будет значить «переписывание».
спасибо за минусы, вы, похоже больше чем я написали алгоритмов декодирования видеопотока, фильтров обработки изображений, звуковых кодеков, и конечно, прекрасно понимаете, что все используемые алгоритмы сойдутся, даже при наличии недетерминированных погрешностей. например алгоритм поиска локальных экстремумов методом Ньютона — прекрасно сойдется при наличии ошибок. и, конечно, же, ошибки в процессе вычисления не накапливаются, и при относительной погрешности в 1% за 100 циклов результат не превратится в случайную величину.
а это я к чему, что при ситуации, как она описана в статье, под этот процессор алгоритмы придется переписывать полностью. а под обычный x86 достаточно будет уменьшить количество итераций некоторых методов, уменьшить размер ядра фильтров и т.п… при той же, причем детерминированной погрешности.
не совсем. GPU-то все равно из большинства устройств «не выкинешь». А так по сути еще одно дополнительное устройство приходится поставить, которое энергию, пусть немного, да жрет.
Да нет, наверняка зачем-то такие процессоры нужны, но зачем именно из статьи не понятно.
Что-то какая-то ерунда. Зачем аппаратно плодить ошибки точности, если почти всегда можно предложить программный алгоритм с потерей точности и большей скоростью. А тут жертвуем универсальностью процессора, но, допустим, даже при использовании как сопроцессора, чем он лучше GPGPU?
плюсы: не зависит от разрешения, качества сжатия, изменений цветовой палитры, небольших артефактов, можно применять к кропнутым вариантам картинки.
кроме того, картинки вида «хотеть — не хотеть» будут в различных кластерах.
при небольшой адаптации может правильно учитывать повернутые изображения.
минусы: дескрипторы нельзя сравнивать побитно, придется каждый раз считать свертку для всех пар картинок (O(n^2)).
кондёры тоже разные бывают — откопал как-то К50-17 (1500мкф, 350в), при КЗ через резистор в пару килоом резистор разлетался на куски. если почти соединить проволокой клеммы (расстояние между свободной клеммой и проволокой где-то пол сантиметра) — через воздух пробивало и проволока сгорала. Конечно, без экспериментов на людях, все-таки опасность от такой заряженной штуковины побольше чем от сабжевой пушки.
сначала думал что это перевод статьи эдак года 2000 (ну, что-то там про PS/2, на взгляд «устаревшие» клавиатуры за сравнительно большие деньги)… а есть ли у механических клавиатур вообще преимущества в печати относительно «плоских»?
недавно на работе подкинули какую-то майкрософтовскую «эргономичную» механическую клавиатуру, но скорость печати выше 200 знаков в минуту на ней не поднималась, а на ноутбучной печатаю все 400.
может потому что не было активной рекламной политики? если отмотать лет 5, то смартфоны не были элементом имиджа, и были востребованы только среди тех, кому они реально были нужны.
сейчас же (интересно сколько в процентах) большинство купивших смартфон ни разу не откроет, а уж тем более не будет редактировать на них word-документ, или не будет настраивать vpn.
или вот, представьте, что скайпа, вконтакта, фейсбука не существует, видео в электронных форматах открываться не будет (из-за аппаратной части) — зачем тогда вам смартфон?
1 / 0,000001 = 1000000
-
1 / 0,0000010025 = 997506,23..
=
2493,77
так что искажение на 0.25% аргументов (скажем второй аргумент — результат предыдущей арифметической операции) может принести серьезные последствия. конечно, если учитывать это в алгоритмах — проблем не должно быть, но «учитывать» в ряде случаев будет значить «переписывание».
а это я к чему, что при ситуации, как она описана в статье, под этот процессор алгоритмы придется переписывать полностью. а под обычный x86 достаточно будет уменьшить количество итераций некоторых методов, уменьшить размер ядра фильтров и т.п… при той же, причем детерминированной погрешности.
Да нет, наверняка зачем-то такие процессоры нужны, но зачем именно из статьи не понятно.
плюсы: не зависит от разрешения, качества сжатия, изменений цветовой палитры, небольших артефактов, можно применять к кропнутым вариантам картинки.
кроме того, картинки вида «хотеть — не хотеть» будут в различных кластерах.
при небольшой адаптации может правильно учитывать повернутые изображения.
минусы: дескрипторы нельзя сравнивать побитно, придется каждый раз считать свертку для всех пар картинок (O(n^2)).
недавно на работе подкинули какую-то майкрософтовскую «эргономичную» механическую клавиатуру, но скорость печати выше 200 знаков в минуту на ней не поднималась, а на ноутбучной печатаю все 400.
сейчас же (интересно сколько в процентах) большинство купивших смартфон ни разу не откроет, а уж тем более не будет редактировать на них word-документ, или не будет настраивать vpn.
или вот, представьте, что скайпа, вконтакта, фейсбука не существует, видео в электронных форматах открываться не будет (из-за аппаратной части) — зачем тогда вам смартфон?