Записывать на диск долго и ничего не гарантирует. Диск может умереть например.
Я ж про копии по миру не зря написал.
если нужно отчет по 10 млн. абонентов сделать с выборкой за 10 лет
Это уже OLAP и для этого можно использовать что угодно, главное эффективность. Вопрос про OLTP в критических местах. Хотя не могу сходу найти что стоит, скажем, на нью йоркской фондовой бирже.
И уборщиц там нет, и экскаваторы рядом с ними не ездят...
Первоначально Tarantool разрабатывался для социальной сети Мой Мир.
Если у нас хранятся какие-то чатики/котики и при потере данных за последний час можно просто извиниться - никаких проблем. На серьёзной фондовой бирже такое не прокатит, сохранность каждой транзакции должна быть гарантирована - т.е. надо убедиться, что данные физически записаны на диск (как локально, так и в нескольких копиях по миру).
чтобы писать "шаблоны" в той же парадигме, что и остальной код
C/C++ с препроцессингом на питоне - это скорее адская смесь, чем общая парадигма. Тут хороший пример - Лисп, где макросы пишутся на том же языке, что основной код, и синтаксис просто мапится на удобные для обработки структуры данных - но не всем такой синтаксис нравится )
Там всё должно по максимуму в памяти кешироваться. Другое дело, если персистентность важна и поток большой (какая-нибудь биржа где народ с HFT развлекается).
Посмотрел - действительно в основном единицы DWPD. Видимо, проще так с дублированием и горячей заменой (без которых всё равно никак), чем выжимать максимум от отдельного диска.
Гугл мне сходу выдаёт "An SSD that stores a single data bit per cell, known as a single-level cell NAND flash, can typically support up to 100,000 write cycles."
Интеловский Apache Pass (он же 3D Xpoint, он же Optane) изначально примерно так же рекламировался - в результате долгая доводка до серийного производства, несколько лет выпуска с не такими уж впечатляющими показателями и в результате закрытие проекта. Так что идея то интересная, но получится ли довести до успешного продукта - тот ещё вопрос...
Ещё один кандидат на замену архитектора — это техлид.
В моём понимании техлид работает внутри команды человек на десять, если над продуктом работает десяток таких команд - нужен всё таки отдельный человек, определяющий общую архитектуру.
Чисто субъективный критерий автора, на в принципе понятен (если оценивать с точки зрения современных графических возможностей и соответствующих ожиданий от картинки, а не вспоминать свою реакцию в 80х на то, что хоть как то было похоже на фото).
Оно под критерий "более 100 цветов" не подпадает. Так то можно и Strip Poker на 4хцветном CGA вспомнить, после текстовых терминалов на больших ЕСках вполне фотографично смотрелось )
Куда делась оригинальная Motorola 68k?
На мой взгляд как минимум настолько же важным заимствованием из NextStep был прикладной API вместе c Objective C .
Странная попытка смешать теорию множеств и теорию меры. Если хочется сравнить множества в "бытовом" смысле - считайте меру, равномощность это другое.
OS/2 1.x всё таки мало кто видел и использовал. А в 2.1 уже добавили возможность запуска программ Windows 3.x
И если набрать их подряд, ненулевое число просто проталкивалось по стеку, а ноль превращался в единицу.
Я ж про копии по миру не зря написал.
Это уже OLAP и для этого можно использовать что угодно, главное эффективность. Вопрос про OLTP в критических местах. Хотя не могу сходу найти что стоит, скажем, на нью йоркской фондовой бирже.
И уборщиц там нет, и экскаваторы рядом с ними не ездят...
Если у нас хранятся какие-то чатики/котики и при потере данных за последний час можно просто извиниться - никаких проблем. На серьёзной фондовой бирже такое не прокатит, сохранность каждой транзакции должна быть гарантирована - т.е. надо убедиться, что данные физически записаны на диск (как локально, так и в нескольких копиях по миру).
C/C++ с препроцессингом на питоне - это скорее адская смесь, чем общая парадигма. Тут хороший пример - Лисп, где макросы пишутся на том же языке, что основной код, и синтаксис просто мапится на удобные для обработки структуры данных - но не всем такой синтаксис нравится )
И как потом считать кто что купил/продал, если вдруг питание выключилось?
Там всё должно по максимуму в памяти кешироваться. Другое дело, если персистентность важна и поток большой (какая-нибудь биржа где народ с HFT развлекается).
Посмотрел - действительно в основном единицы DWPD. Видимо, проще так с дублированием и горячей заменой (без которых всё равно никак), чем выжимать максимум от отдельного диска.
Ну то есть на современные сервера ставят вот это нечто с 600 циклами?
Гугл мне сходу выдаёт "An SSD that stores a single data bit per cell, known as a single-level cell NAND flash, can typically support up to 100,000 write cycles."
Интеловский Apache Pass (он же 3D Xpoint, он же Optane) изначально примерно так же рекламировался - в результате долгая доводка до серийного производства, несколько лет выпуска с не такими уж впечатляющими показателями и в результате закрытие проекта. Так что идея то интересная, но получится ли довести до успешного продукта - тот ещё вопрос...
Ну вроде m4 помощнее будет (хотя руками я его не щупал).
В моём понимании техлид работает внутри команды человек на десять, если над продуктом работает десяток таких команд - нужен всё таки отдельный человек, определяющий общую архитектуру.
По идее должно после перезагрузки или выключения питания стартовать быстрее.
Видимо, имеется в виду возможность независимого выбора одного из 100 цветов для каждого пикселя на картинке.
Чисто субъективный критерий автора, на в принципе понятен (если оценивать с точки зрения современных графических возможностей и соответствующих ожиданий от картинки, а не вспоминать свою реакцию в 80х на то, что хоть как то было похоже на фото).
Понятно, что дизеринг позволяет получить оттенки за счёт эффективного уменьшения пространственного разрешения.
Было бы замечательно, но по факту на ранних персоналках пикселей тоже было маловато.
Оно под критерий "более 100 цветов" не подпадает. Так то можно и Strip Poker на 4хцветном CGA вспомнить, после текстовых терминалов на больших ЕСках вполне фотографично смотрелось )