Комментарии 15
В разработке прорывных технологий неважно насколько быстро работает первая версия прототипа (как впрочем и его стоимость/размер/объем).
Когда создавались первые диски объемом несколько мегабайт, они и мечтать не могли, что 50 лет спустя у нас будут диски объемом в несколько терабайт, размером 1 см2 (SD диски) — 10 см2 (NVMe диски), имеющие скорость записи/чтения 3500 МБ/с
Скорость синтеза, кстати, огромна и хорошо запараллеливается.
Эти машины как раз и могут решить классическую проблему множественного доступа "by design"
Эм.
"Репликационная вилка движется со скоростью порядка 100 000 пар нуклеотидов в минуту у прокариот и 500—5000 — у эукариот".
Обычно запускают чтение подряд или, если записано несколько раз подряд — одновременно несколько фрагментов.
Физику не изменить: читать и писать можно только в 1 поток что кремнием, что магнитом, что светом, что молекулой.
Вопрос только в том, на сколько компактно можно хранить данные.
ЗЫ. В суперспирализированнлм состоянии ДНК действительно очень компактно, но для чтения ее разворачивают в месте начала чтения и идут далее по молекуле (напоминает сломанную молнию, которая движется, но не открывает при этом шва).
1. Мы создаем что-то новое
2. Многим людям кажется что это будет невозможно существенно улучшить в ближайшие сотни лет
3. В течении нескольких лет исследователи находят несколько способов улучшить изобретение в десятки — миллионы раз, применяя открытия из других научных областей
К примеру:
— Устройства хранения информации за 50 лет были улучшены в миллионы раз (килобайты => терабайты)
— Алгоритмы распознавания изображений за несколько десятков лет улучшились с «не существуют» до «лучше, чем люди». Многие даже и не мечтали, что ИИ будет лучше ученых в распознавания рака и управлении машинами.
— Микро чипы за несколько десятков лет также были усовершенствованы в тысячи раз (1 ядро@20mhz@микрометры => 64 ядер@3,000mhz@7нм)
— Ракеты только за последние 16 лет были улучшены в десятки 1-й компанией (SpaceX), мы перешли от 1 запуска до десятков запусков (Falcon), хотя об этом даже и не мечтали, многие думали что это невыполнимая задача (даже Nasa не осмелились начать решать эту проблему, до сих пор летают на одноразовых ракетах)
Надо просто обесценивать всё. Художник начал рисовать — самое время подойти и сказать «ну и нафига снова это рисовать, уже же всё нарисовали, и получше чем это». Писатель начал писать — можно заметить, что есть куда более известные и талантливые произведения.
Искусство обесценивания, одним словом.
Интересно другое: мы ни как не можем добиться модели памяти и формирования нейронных связей, но, как топором, пытаемся программировать на ДНК.
Вопрос, конечно, что раньше случится… Но то, что это не эффективный метод, очевидно уже сей час (но самый доступный).
![image](https://habrastorage.org/getpro/habr/comment_images/bea/ab9/7f3/beaab97f34812586423a9edb2ac6231c.png)
Теперь представьте, что вы реализовали на них алгоритм, который работает с бинарными данными и некоторые биты в процессе вычислений произвольно инвертируются. Алгоритмов, которые устойчивы к таким ошибкам крайне мало.
Тем не менее, эти проблемы решаемы и я как раз недавно читал ряд интересных статей от этих авторов.
Еще интересно попробовать синтез белков с люминисценцией. Тогда можно лазером читать.
Если запрограммировать синтез белка, части которого имеют разную люминисценцию, результат читать будет на порядок проще.
А вот как программировать процесс вычислений тут вопрос.
Первый программируемый компьютер на ДНК