Комментарии 97
*смотрю на бенчарки Kaby Lake 2017 года*
ну хз, за 12 лет не так и выросла производительность.
2005 год — это эра Prescott. Производительность выросла в разы — пропорционально количеству ядер. Не считая расширений наборов команд.
Оооо… Бэнчмарки от 2005 года на архитектуру 2011?да кого вообще волнует архитектура, это большинству вообще не интересно.
2005 год — это эра Prescott.
Производительность выросла в разы — пропорционально количеству ядерВсё еще повседневные приложения не используют все ядра.
Скорость исполнения инструкций повседневных приложений может и выросла в раза два, не более, если судить например по скорости билда MS VS, но не в десятки раз как нам втирает «закон» Мура.
Производительность под какие то специфические приложения может и выросла в десятки раз.
Во-вторых, мне гораздо интереснее, как товарищ видел бенчмарки 2005 года на архитектуру 2011.
Сейчас у меня i7 на 6 ядер(и 12 потоков) с частотой 3,6 и 16 гиг оперативки.
Тогда мне отрендерить картинку 1024х760 была мукой на час.
Сейчас я за 20 минут рендерю А3 формат.
И это если смотреть только через призму процессорной мощности.
А если взять видекарты то там рост в тысячи раз. Кроме умопомрачительных игр, теже видеокарты сейчас можно использовать для рендеринга, так вот то что я рендерю на своем процессоре А3 формат 20 минут, на одной GTX 1080 я отрендерю минуты за две.
Это я к тому, что априори кастрированный Duron на гигагерц — это начало нулевых, а не 2005. 256 мегабайт памяти — тоже ни разу не 2005 год.
Короче, равнять в лоб рендеринг на топовой видеокарте с рендерингом на офисном полукамне — отдаёт чем-то не совсем приятным.
И мы тут не про камень говорим а про прогресс, вычислительная мощность это не только процессор это разные ее части, суперкомпьютеров собраных на видеокартах довольно много и занимаются они колоссальными просчетами. Не учитывать и эту сторону развития нельзя.
Опять же, я лишь заметил, что ссылаться на собственный опыт „у меня было” — вообще некорректно, т.к. по вашему ответу мне можно сделать вывод, что за год объём памяти вырос в восемь раз, а тактовая частота — в пять. Хотя это чушь собачья.
Человек, конечно, несколько утрировал, но по сути он прав. В 1991 году я трогал руками Искру-1030 с ее 512 оперативки и думал, как хорошо было бы иметь такую гору памяти (в сравнении со спектрумом). В 95 году я, с 4Мб оперативки, читал журнал мурзилку (Компьютерру, что ли), которая говорил — для запуска новой версии автокада для тестирования надо минимум 16Мб, а для простых проектов — уже 32Мб, и не представлял, как же получить эти 16Мб. В 2000 я уже доставлял вторую планку на 128Мб. Так вот мощности компов что 91, что 95, что 2000 уже вполне умещаются в кармане в виде телефона и во всяких смарт-часах. Через несколько лет удивление от увиденных 40 потоков вычислений сменится пренебрежением.
Очень сомневаюсь, что через несколько лет… Везде есть предел, когда дальше просто нерентабельно. В 90-х и 2000-х тактовая частота росла экспоненциально, и вы также полагали, что через несколько лет мы не будем удивляться 10Ггц? Но мы от них так же далеко как и 10 лет назад. Тоже самое и с ядрами. До 2009-2011 росло довольно быстро, но последние 3-4 года ничего почти не меняется (имею в виду пк). В общем вряд ли в ближайшие 5-10 лет 40 ядер станет обычным делом...
Что касается «не меняется». Какой самый распространенный интерфейс для SSD был три года назад? Какой сейчас? Насколько GF 1080 мощнее и экономичнее 980? В последние пару лет активизировались технологии виртуальной реальности. С совершенствованием технологий будет возникать потребность в новых вычислительных мощностях для массового рынка как минимум для того, чтобы обеспечить такое же качество картинки, которое имеем сейчас, на оба глаза. 4 года назад я гордо сообщал, что у меня 100Мбит безлимитного интернета и первый вопрос был — а зачем тебе так много? А сейчас я думаю, не переключиться ли на более быстрый тариф. Все должно развиваться параллельно, постепенно.
В общем вряд ли в ближайшие 5-10 лет 40 ядер станет обычным делом...
10 лет — это огромный срок для наиболее востребованной отрасли человеческой жизни, коей на текущий момент (несомненно для меня) является вычислительная техника. Гадать можно сколько угодно — возьмут и реализуют обещанные оптические процессоры и будут смеяться на нашими 6-ю ядрами — ведь гораздо эффективнее одно ядро с частотой 40ГГц. Но то, что изменения будут и будут значительные — я могу гарантировать. Не верите? Давайте проверим…
Полностью оптический компьютер или квантовый у нас дома через 10 лет? Люди склонны завышать ожидания от технологического развития. Помню после просмотра фильма 5-ый элемент, я думал лет через 20-30 так и будет: машыны будут летать и т.д.
Кремниевым полупроводниковым процессорам еще есть куда развиваться. Например кеш памяти — думаю за этим следующая гонка производителей процессоров. 10-16 ядер по 4-5 Ггц с кешем 1Гб и оперотивкой 64-128 Гб ну и видюхой какой-нибудь HBM4 — таким я вижу обычненький пк через 10 лет. И этого будет достаточно. Зачем больше то? Для чего?
Гадать можно сколько угодно — возьмут и реализуют обещанные оптические процессоры
Где написано про «Полностью оптический компьютер или квантовый»? Более того, это одно из предположений. Не получится оптические — реализуют другие. «То, что изменения будут и будут значительные — я могу гарантировать». Для чего больше чем 64 Гб (это, кстати, то, над чем я думал 3 года назад — не смог установить больше 32 ввиду ограничений чипсета) — я тебя уверяю, придумают.
Тем не менее даже до электронно-оптического процессора в наших пк еще далеко. Да и не особо нужно. Так как это слишком дорого, даже для коммерческих целей. Дешевле будет перейти на производство 5нм процессоров. О начале новой эры и технологиях будущего слышу уже много лет. На хабре в заголовках каждую неделю начинается новая эра. Когда пк позволят играть с погружением в виртуальную реальность, с разрешением 4к, 100fps, с хорошей глубиной цветов и тд. — это будет предел для пк. Куда мощнее если человек не способен будет увидеть разницу? Так же как разрешение экранов подошло к пределу. Эдакая технологическая сингулярность наступит лет через 10-15.
Гадать можно сколько угодно
Сколько еще раз тебе повторить? Ты привязался половине предложения, забыв про его начало. Когда пк позволят игратьс разрешением 4к, тогда пойдут к 8к, к увеличению количества полигонов, к обсчету каждого листика на дереве итд. Ты думаешь что, достигли 4к ультра-супер-пупер и все, остановили разработки? Ха-х.
Никто не говорит о новой эре. Прогресс от 8080 до Katmai — это новая эра? Прогресс от Katmai до Core2duo — новая эра? От Core2duo до i7 — новая эра? Нет никакой новой эры, есть развитие. И на текущий момент я вижу, что микропроцессорная техника развивается наиболее интенсивно. 40ядер — новая эра? Тебе на видео показали, что 40 ядер — текущая реальность, о какой новой эре ты говоришь.
Посмотрим через 10 лет :)
От intel 4004 до нынешних процессоров — всё одна эра кремниевых полупроводниковых процессоров. Новая эра — это новый тип: оптический, квантовый, биологический или еще какой-нибудь.
4к потом 8к, а дальше 16к? Вы 4к шлем одевали? Возьмите телефон с разрешением 4к и попытайтесь разглядеть там пиксели. Без лупы никак. Поэтому вы не увидите разницы между 4к и 8к. Предел человеческого глаза 350-400 dpi ( точно не помню — гуглите сами). Ну и обсчитали вы каждый листочек на дереве, а дальше что? Всё! До такой графики и осталось лет 10. И с ней справятся всё теже электронные пк, и без 40 ядер.
Я говорю про рентабельность. 40 ядер, оптический или квантовый компьютер — никогда не понадобится обычному пользователю (для игр, сёрфинга, просмотра кино..) пк дома. Поэтому и производить их массого никто не будет. Кому надо тот и сейчас воткнёт себе и 80 ядер, и тонну оперативки — это и ежу понятно. Просто обычным делом — это не будет. Через 10 лет точно. Готов поспорить.
Сколько листочков обсчитывает современный движок? А тот гипотетический движок из будущего будет обсчитывать каждый листочек, учитывая не только динамическое освещение, но и силу ветра, массу листка, упругость веточки, и то, что один листочек закрывает другой.
А про «никогда» — это вы правильно заявили. Люблю такие заявления. Сразу вспоминаются «цитата» от БГ про 640к…
Новую эру предсказываете Вы. Я заявил прямо: " Через несколько лет удивление от увиденных 40 потоков вычислений сменится пренебрежением". Поищите. Все остальное с моей стороны: «Гадать можно сколько угодно». Прогресс будет и я это знаю. Не может не быть. Куда расти (хотя бы с точки зрения реалистичности компьютерных движков) точно есть.
VR-шлемы с системой отслеживания движений глаз. Пусть даже 8к. Все равно предел есть и он близок. Я не говорил, что рости уже совсем некуда, пока есть, но лет через 10-15 уже будет некуда. Именно в персональных компьютерах, самых обычных пользователей. Про другие ничего не говорю — там понятно всё будет развиваться. И квантовые и биологические. Для того же ИИ.
В общем до встречи через 10 лет. Покажете мне свой 6-метровый телек с разрешением 32к.
Кодирование (создание архива) в отличии от классических архивов наоборот быстрее чем распаковка — 2.5 минуты на том же ноутбуке.
А 40 поточная машина это сервер Amazon Cloud на котором они разные варианты кодирования тестировали, чтобы быстро сразу кучу вариантов перебрать и сравнить.
Можно такой же в аренду дистанционно всего от 0.5$/час работы взять: m4.10xlarge = 40 потоков, 160 ГБ памяти
Наоборот. Накодить троянчик в ДНК, засунуть в клетку и поместить в питательную среду. И посмотреть что вырастет.
Ну я еще могу понять, зачем связываться с «реальными» данными, а не нагененрить их рандомно (может так они проверяют надежность записи данных с определенной энтропией). Но запускать OS на виртуальной машине? Зачем? Это единственный способ убедиться, что прочитанные данные те же что были записаны? Какой-то дешевый пиар.
Когда у человека уже будут после рождения и по мере развития в голове появляться необходимые знания.
если выпадает целый монолитный кусок данных, например, то это уже проблема
почему же? Достаточно коды коррекции равномерно по всему геному размазать, типа как RAID5 работает.
Это не система коррекции ошибок, а кодирования, позволяющая считывать данные в произвольном порядке мелкими кусками. Но за счет избыточности (примерно 10% — 1.6 бит полезной информации на 1.8 бит «сырых» данных) количество ошибок снижается где-то на порядок.
«Аппаратный» уровень ошибок(непосредственно чтения) проскакивает на видео и есть в оригинальной статье — около 1-3% нуклеотидных последовательностей прочитано с ошибками и забракованы.
Но помимо этого у них и система коррекции ошибок была — по 2 байта (16 бит) избыточной информации на каждый пакет из 32 байт полезных данных (Код Рида-Соломона). За счет них все файлы были восстановлены со 100% точностью, несмотря на аппаратный уровень ошибок в несколько %.
Agilent Technologies in Santa Clara, California, synthesized the strings and shipped them back to the researchers, who were able to reconstruct all of the files with 100% accuracy.
In practice, decoding took ~9 min with a Python script on a single CPU of a standard laptop (movie S1). The decoder recovered the information with 100% accuracy after observing only 69,870 oligos out of the 72,000 in our library (fig. S10). To further test the robustness of our strategy, we down-sampled the raw Illumina data to 750,000 reads, equivalent to one tile of an Illumina MiSeq flow cell. This procedure resulted in 1.3% oligo dropout from the library. Despite these limitations, the decoder was able to perfectly recover the original 2.1 Mbytes in 20 of 20 random down-sampling experiments. These results indicate that beyond its high information density, DNA Fountain also reduces the amount of sequencing required for data retrieval, which is beneficial when storing large-scale information.
Откуда журналисты взяли 99.9% не понятно. Наверно как обычно бредят.
Nowadays it seemed like half the technical data on the planet were being stored genetically. Try sequencing a lung fluke and it was even money whether the base pairs you read would code for protein or the technical specs on the Denver sewer system.
По мнению исследователей, ДНК – идеальная среда для хранения, поскольку она ультра-компактная и может сохранять свои свойства сотни тысяч лет, если обеспечить соответствующие условия хранения. Об этом свидетельствует недавнее восстановление ДНК из костей 43-тысячелетнего предка человека, найденного в пещерах Испании.
Вообще, белки же разлагаются со временем?
А так изначально была только одна копия, которую синтезировали по сгенерированной цифровой последовательности и передали на обратную расшифровку. Точнее в образце было 72 тыс. коротких кусочков ДНК по 200 пар оснований в каждом, при минимально необходимом количестве для хранения такого объема информации около 50 тыс. подобных кусочков.
@Idot: А что мешает при общедоступности технологии напечатать «ретровирус»?
Я: Да и обычный РНК-вирус вроде ничто не мешает.
За исключением порога входа в профессию, конечно. Я не то, чтобы спорил с вашим утверждением: оно мне не очень нравится, как идея — но пока аргументов против у меня не набирается. Я скорее поправлял фактологию.
Idot: А зачем «вход в профессию»?
Что воспользоваться пишущим DVD не нужно быть ни программистом, ни сисадмином, ни электронщиком. Необходимо и достаточно где-нибудь скачать вирус и отправить на запись.
Я: Кажется, один аргумент у меня нашелся. Нынешняя ситуация вполне позволяет примерно каждому получить и применить довольно много весьма неприятных химических веществ. Лично я в школьные годы из интереса синтезировал иприт (и потом долго думал, как его надежно и безопасно разложить — придумал таки). Тем не менее, никакого массового применения ХО мы не наблюдаем. Чуть ли не единственный случай у меня на памяти — это теракт в токийском метро.
Биологическое оружие, как показала практика, в частности японская во Второй Мировой, менее эффективно, и плюс к тому гораздо сложнее в обращении. Выше шанс поражения самого террориста, и много тяжелее добиться эффективного распространения. Вирусы вообще нужно приводить в довольно определенное состояние, свое для каждой категории, чтобы они смогли кого-то заразить, а не сгинули бесследно и бесполезно.
Idot: Дело не в эффективности, дело в доступности. Если из-за распространения такой технологии синтезировать вирус станет проще, чем достать компоненты для пояса шахида…
К тому же, доступность технологии, скорее всего, будет взаимозависима со сложностью откатить изменения. Легко создать вирус, но и антивирусный препарат (вектор, выпиливающий вирусный код из клеток, или натренированные имунные клетки) тоже будет, скорее всего доступен.
Тут информация хранится в виде коротких огрызков ДНК по несколько сотен пар оснований, а не в виде целой ДНК. Такого количества даже один приличный белок закодировать не хватит, не говоря уже о целом организме.
Простейший вирусы используют хотя бы несколько десятков белков и имеют генетический код в десятки тысяч пар оснований.
И для хранения информации сильно наращивать длину одиночного куска не имеет смысла — это обходится дороже (синтез сложнее) и увеличивается вероятность ошибок.
И в этой работе они ее испытали — информация нормально считывается и после многократного копирования при помощи ПЦР.
Это страшный сон копирастов, у них нулей на калькуляторе не хватит считать «упущенную выгоду»:
Intotal the nine step amplication process has the potential to create 300 * 25^9 *2 = 2.28 quadrillion copies.
Нужно, наверное, привинтить какой-то интерфейс к рибосомам. :) Без средств быстрого чтения эта технология вряд ли выйдет за пределы лабораторий.
Но звучит многообещающе.
Рибосома занимается синтезом белков — трансляцией. И скорость такого синтеза весьма невысокая, максимум пару десятков аминокислот в секунду. То есть синтез даже небольшого белка занимает минимум несколько секунд. Это примерно 20*5 бит/с — очень медленно. И этот процесс тоже происходит с ошибками.
На практике получили почти 1.6 бита на пару из 2 бит теоретического предела.
Вспомнился старый рассказ, кажется Курта Воннегута.
Там двое ученых (М и Ж) живущие в разных, сильно конфликтующих между собой странах, каждый в своей сверхсекретной лаборатории без доступа к сети переписывались кодируя сообщения в мусорную часть днк гриппа и ожидая пока штамм с сообщением дойдет до другой страны.
Потом они решили завести ребенка и М закинул в вируса код своей днк в качестве сообщения.
В ДНК сохранили операционную систему и видеоролик, а затем прочитали без ошибок