Коммерческая. Там новый тип памяти запилили, даже два: ReRam с потенциально бесконечным ресурсом и скоростью оперативки, в 2008, который обещали в 2012, но Rambus (патентный тролль) перехватила и заморозила, и вроде магниторезистивная память, которую вроде интел презентовала, и обещали в этом году — эта скорее всего выйдет после DDR4, только сливки снимут.
К тому же АМД выкатила HBM — технологию 3D компоновки, значительно увеличивающую обьем памяти при той же площади плат, и потенциально через несколько лет эта память переедет на процессор.
В общем прогресс тут идет, и большими шагами.
Тащемто любой планировщик — покруче этого NCQ. И ssd не адресуется на прямую, и не имеет головок чтения/записи.
Про совместимость — PCI/PCIex. Можно оба на одной плате, с двух сторон.
Про ОС — так soft-ssd. К тому же новое железо с efi вообще софтовое — до ОС может отработать что угодно, в том числе любой драйвер. А старое железо — можно подсунуть спец.загрузчик.
Семерка ставится куда угодно — vhd.
Хм. А почему до сих пор никто не запилил soft-ssd? Сама архитектура на это намекает.
Кэш в ОС, контроллер — драйвер, на плате в идеале остается только массив памяти.
Не вся память умеет работать с serial-шинами, потребуется дешевый хаб, на который вешается память.
Цена и сложность резко падает, надежность и универсальность растет: это просто кусок памяти, блочное устройство, его можно представить как полноценный диск, как часть другого диска, и вообще как угодно, хоть подключить к soft-raid.
Распределение записи — по случайному закону с равномерным распределением, гарантируется равномерный и одинаковый износ, и не нужна хранимая статистика. Пропадают статические данные — все ячейки перезаписываются, статичные данные мигрируют по массиву по мере записи. Исчезает проблема с недостатком места, с неравномерным износом части массива — работает весь массив. Двойная запись дешевле неравномерного износа.
Счетчик жизни не нужен — драйвер сканирует новые массивы, формируя лист бэдов для себя, который со временем и пополняет. Для целей перепродажи — отдельную eeprom, куда скидывать выработку ресурса, запрещая отматывать назад.
Служебные сектора превращаются в служебные файлы, записываемые стандартным образом, на любой диск.
Преобразование адресов — на фс. На фс же гарантия персистентности данных — журналы в фс. Корректность записи микробуфера контроллера гарантирует конденсатор на планке.
Драйвер общий, несколько планок воспринимает как один большой массив памяти — можно прозрачно обьединять массивы.
Восстановление при повреждении контроллера — простая перепайка, контроллер простейший, ничего не хранит.
В итоге приходим к архитектуре RAM — просто планки памяти фиксированного размера, не содержащие ничего лишнего. Пользователь сам набирает нужный обьем энергонезависимой памяти, сам его бьет на разделы, сам организует удобную дисковую архитектуру любой конфигурации, и все это — программно, без каких-либо железных ограничений.
Может однажды на материнках под такие модули появятся отдельные слоты, либо их можно будет пихать в слоты оперативки. Ну а пока ничего лучше PCIex под рукой нет.
Человеческий интеллект крайне ограничен возможностями носителя — человек в сознании оперирует всего десятком обьектов, наблюдает между ними взаимосвязи. Более сложные задачи человеку уже не по плечу — не хватает регистров все это удержать в памяти, охватить одним взглядом, человек начинает анализировать по кусочкам, теряя время, многое упуская, и совершая множество ошибок, в общем при превышении физических возможностей работает крайне неэффективно.
Простейший компьютер с простейшим аналитическим алгоритмом без капли ИИ может оперировать миллионами и миллиардами обьектов, наблюдая и выявляя взаимосвязи между ними — вопрос обьема памяти и скорости доступа, у железа эти параметры не в пример лучше.
Наблюдая тоже самое, что и человек, компьютер-аналитик без ИИ сделает гораздо более глубокие выводы на основе тех же данных, за минимальное время — по сравнению с человеком, его эффективность на много порядков выше, и большая часть выводов человечеством не может быть найдена даже за века непрерывного анализа, т.к. взаимосвязи, на основе которых сделаны эти выводы, лежат намного выше того уровня, который может наблюдать человек. В общем для человека такие тонкие взаимосвязи — ничего не значащий шум.
Теперь представь, что подобные возможности достались интеллекту, не важно естественному или искусственному — бросив всего один взгляд на ту же физику, такой интеллект способен сразу выявить всю структуру законов природы, и открыть много чего неочевидного нам.
Компьютеры уже это делают — недавно Ватсон так проконсультировал медиков, проанализировав массив историй болезни за 30 лет, а алгоритм студентов, проанализировав исходные данные, предложил крайне неочевидную схему какого-то физического опыта, еще компьютер так предложил какой-то прорывной сетевой алгоритм. Это тупая аналитика, которая за один проход выявила то, что сотни тысяч ученых упускали десятки лет, анализируя те же данные раз за разом, миллионы раз.
Вкусно, не так ли?
Так вот, возможно как создание ИИ, способного на задачи такого класса, которые нам, как биологическим существам, вообще не грозят, даже в отдаленном будущем, так и синергия железа с биологией, усилитель биоинтеллекта.
Теоретически возможно временно расширить ограниченный биологический интеллект за счет внешней машинной памяти и вычислительных возможностей. Например столкнувшись с неразрешимой задачей, можно на время увеличить свои возможности, найти решение, отключится от машины и сразу перестать понимать как и почему это решение работает, но помнить, что оно работает, и пользоваться им, не понимая сути. Также в машинную память можно быстро загружать любые знания, и во время коннекта человек может ими пользоваться как своими собственными. Возможности подобной технологии крайне широки, и выходят далеко за рамки этой темы, касаясь даже бессмертия.
Для этого фокуса машина соединяется с мозгом, встраиваясь в структуру мозга, становится органичной его частью, участвует в принятии решений, влияет на формирование волновой картины. Часть интеллекта исполняется на машине, пользуясь ее возможностями, не испытывая биоограничений.
Резать мозг не обязательно — достаточно микробусины с чипом и сетью сенсоров, это и есть полноценный машинный нейроинтерфейс. Ресурсов такой бусины более чем достаточно, чтобы поднять возможности носителя на пару порядков (особенно ценно для детей — обучение мгновенное, все гении как на подбор), но более ценны коммуникационные возможности — через бусины можно обьединять сознания с другими носителями бусин, формируя единое сознание и ментальную связь (все участники действуют эффективно и согласовано), а также можно подключится к мейнфрейму, и расширить свои возможности на много порядков. И это — полноценный человек, а не какая-нибудь железка, и все без капли ИИ.
Так что технологическая сингулярность определенно будет иметь место — если завести ИИ или усилить человека, скачок будет очень резкий, и дальнейшая скорость прогресса будет расти невероятными темпами, т.к. в мире сразу же появится множество гениев невероятного масштаба.
Во первых это не отменяет теоретической возможности.
Во вторых не все там так тонко — мозг более грубая структура, потому что выдерживает невероятные издевательства над собой: длительное время переносит легкую заморозку (квантовым системам требуется глубокая), не поддается тепловому шуму (для квантовых систем такой шум — это смерть). Чтобы иметь такие свойства, интеллект должен работать над клетками. И скорее всего сильно над — на уровне не отдельных нейронов, а целых групп. Слишком большая инертность и малая чувствительность к воздействиям.
Степень сложности мозга легко оценить по времени осознанной реакции на раздражитель — скорость нервного импульса конечна, задержки в нейронах известны, длина пути от сенсора до мозга и от мозга до мышцы известна, можно замерить время отклика на раздражитель и вычислить длину пути в мозге, и примерное количество узлов, участвовавших в выработке ответа. Дополнительно задачу упрощает электрохимическая сущность нейронов — электрохимия крайне медленная, и с кучей ограничений, например требует восстановления концентрации активного вещества, т.е. сильно ограничена по частоте.
И в итоге число это получается небольшим, счет идет на десятки, в крайнем случае сотни нейронов.
В ширину цепочка может достигать тысяч нейронов, сигналы могут разветвляться, могут захватываться множество отделов мозга, но в длину цепочка всего несколько десятков нейронов. Эволюция постаралась — тугодумы были сьедены.
Усложняя задачу можно наблюдать, как растет длина цепочки, как начинают включаться глубинные механизмы мозга — сигнал заворачивается вглубь, начинает петлять, зацикливаться, пока наконец не достигнет выхода и не сформирует реакцию.
А на счет телепортаций — сознание можно выцепить даже бесконтактно. Ведь для того, чтобы создать копию черного ящика, достаточно просто протестировать черный ящик, подавая сигналы на вход и замеряя сигналы на выходе. Точно также можно тестировать личность, задавая вопросы и на основе ответов формировать базу опыта и принципов личности. Некоторых людей так тестируют даже не предупреждая их — просто наблюдая за их реакцией на те или иные раздражители, составляя психокарты и делая довольно точные прогнозы. Хороший аналитик (компьютет) справится с этой задачей гораздо быстрее и лучше человека.
Воссозданная по заданным параметрам личность будет обладать теми же свойствами и реакциями, но не обязательно теми же знаниями. Особая точность тут не требуется — формировать один и тот же опыт можно множеством различных воздействий на психику. Например для формирования психотравмы не обязательно точно воссоздавать события, произошедшие с исходной личностью — можно рисовать широкими мазками, результат будет тот же.
В идеале ничего формировать не нужно — просто изменяя память, автоматически меняем опыт и личность человека, меняем его поведение и реакции.
Но проще снимать копию электромагнитными методами — из волновой картины мозга можно извлечь гораздо больше инфы, в т.ч. точные параметры всех нейронов, участвующих в формировании волновой картины, т.е. всех живых активных нейронов.
Поатомарное сканирование — это уже как крайний, дубовый метод. Если ни один другой вариант не выгорит.
Многие считают, что в нашем мозгу происходят квантовые вычисления. Я тоже так считаю. При этом, квантовые вычисления, как я их понимаю, хоть и представляют собой качественно другой способ решения задач, но принципиально не влияют на возможность или невозможность создать сильный ИИ.
В деле проектирования ИИ важно абстрагироваться от материального, и перейти к чисто информационному образу мышления. Грубо говоря за любым проявлением материального нужно уметь видеть взаимодействие информационных сущностей. Тогда становятся очевидными многие вещи, например:
Один алгоритм можно реализовать бесконечным количеством методов разной степени сложности.
Это значит, что любую информационную структуру можно описать бесконечным количеством материальных реализаций.
Таким образом очевидна принципиальная возможность полного переноса сознания одного носителя в любой другой носитель — будь то иная форма жизни или железо. Не скажу, что это хорошая идея, но она теоретически реализуема.
Таким образом мы гарантированно можем заиметь в компьютере ЕИ (естественный интеллект), независимо от сложности процессов в мозге, архитектуры и методов вычисления. И если мы можем сделать это — то ничто не мешает нам создать ИИ. Т.е. вопрос о возможности появления ИИ снимается — вероятность этого события единица.
К тому же АМД выкатила HBM — технологию 3D компоновки, значительно увеличивающую обьем памяти при той же площади плат, и потенциально через несколько лет эта память переедет на процессор.
В общем прогресс тут идет, и большими шагами.
Про совместимость — PCI/PCIex. Можно оба на одной плате, с двух сторон.
Про ОС — так soft-ssd. К тому же новое железо с efi вообще софтовое — до ОС может отработать что угодно, в том числе любой драйвер. А старое железо — можно подсунуть спец.загрузчик.
Семерка ставится куда угодно — vhd.
Кэш в ОС, контроллер — драйвер, на плате в идеале остается только массив памяти.
Не вся память умеет работать с serial-шинами, потребуется дешевый хаб, на который вешается память.
Цена и сложность резко падает, надежность и универсальность растет: это просто кусок памяти, блочное устройство, его можно представить как полноценный диск, как часть другого диска, и вообще как угодно, хоть подключить к soft-raid.
Распределение записи — по случайному закону с равномерным распределением, гарантируется равномерный и одинаковый износ, и не нужна хранимая статистика. Пропадают статические данные — все ячейки перезаписываются, статичные данные мигрируют по массиву по мере записи. Исчезает проблема с недостатком места, с неравномерным износом части массива — работает весь массив. Двойная запись дешевле неравномерного износа.
Счетчик жизни не нужен — драйвер сканирует новые массивы, формируя лист бэдов для себя, который со временем и пополняет. Для целей перепродажи — отдельную eeprom, куда скидывать выработку ресурса, запрещая отматывать назад.
Служебные сектора превращаются в служебные файлы, записываемые стандартным образом, на любой диск.
Преобразование адресов — на фс. На фс же гарантия персистентности данных — журналы в фс. Корректность записи микробуфера контроллера гарантирует конденсатор на планке.
Драйвер общий, несколько планок воспринимает как один большой массив памяти — можно прозрачно обьединять массивы.
Восстановление при повреждении контроллера — простая перепайка, контроллер простейший, ничего не хранит.
В итоге приходим к архитектуре RAM — просто планки памяти фиксированного размера, не содержащие ничего лишнего. Пользователь сам набирает нужный обьем энергонезависимой памяти, сам его бьет на разделы, сам организует удобную дисковую архитектуру любой конфигурации, и все это — программно, без каких-либо железных ограничений.
Может однажды на материнках под такие модули появятся отдельные слоты, либо их можно будет пихать в слоты оперативки. Ну а пока ничего лучше PCIex под рукой нет.
Простейший компьютер с простейшим аналитическим алгоритмом без капли ИИ может оперировать миллионами и миллиардами обьектов, наблюдая и выявляя взаимосвязи между ними — вопрос обьема памяти и скорости доступа, у железа эти параметры не в пример лучше.
Наблюдая тоже самое, что и человек, компьютер-аналитик без ИИ сделает гораздо более глубокие выводы на основе тех же данных, за минимальное время — по сравнению с человеком, его эффективность на много порядков выше, и большая часть выводов человечеством не может быть найдена даже за века непрерывного анализа, т.к. взаимосвязи, на основе которых сделаны эти выводы, лежат намного выше того уровня, который может наблюдать человек. В общем для человека такие тонкие взаимосвязи — ничего не значащий шум.
Теперь представь, что подобные возможности достались интеллекту, не важно естественному или искусственному — бросив всего один взгляд на ту же физику, такой интеллект способен сразу выявить всю структуру законов природы, и открыть много чего неочевидного нам.
Компьютеры уже это делают — недавно Ватсон так проконсультировал медиков, проанализировав массив историй болезни за 30 лет, а алгоритм студентов, проанализировав исходные данные, предложил крайне неочевидную схему какого-то физического опыта, еще компьютер так предложил какой-то прорывной сетевой алгоритм. Это тупая аналитика, которая за один проход выявила то, что сотни тысяч ученых упускали десятки лет, анализируя те же данные раз за разом, миллионы раз.
Вкусно, не так ли?
Так вот, возможно как создание ИИ, способного на задачи такого класса, которые нам, как биологическим существам, вообще не грозят, даже в отдаленном будущем, так и синергия железа с биологией, усилитель биоинтеллекта.
Теоретически возможно временно расширить ограниченный биологический интеллект за счет внешней машинной памяти и вычислительных возможностей. Например столкнувшись с неразрешимой задачей, можно на время увеличить свои возможности, найти решение, отключится от машины и сразу перестать понимать как и почему это решение работает, но помнить, что оно работает, и пользоваться им, не понимая сути. Также в машинную память можно быстро загружать любые знания, и во время коннекта человек может ими пользоваться как своими собственными. Возможности подобной технологии крайне широки, и выходят далеко за рамки этой темы, касаясь даже бессмертия.
Для этого фокуса машина соединяется с мозгом, встраиваясь в структуру мозга, становится органичной его частью, участвует в принятии решений, влияет на формирование волновой картины. Часть интеллекта исполняется на машине, пользуясь ее возможностями, не испытывая биоограничений.
Резать мозг не обязательно — достаточно микробусины с чипом и сетью сенсоров, это и есть полноценный машинный нейроинтерфейс. Ресурсов такой бусины более чем достаточно, чтобы поднять возможности носителя на пару порядков (особенно ценно для детей — обучение мгновенное, все гении как на подбор), но более ценны коммуникационные возможности — через бусины можно обьединять сознания с другими носителями бусин, формируя единое сознание и ментальную связь (все участники действуют эффективно и согласовано), а также можно подключится к мейнфрейму, и расширить свои возможности на много порядков. И это — полноценный человек, а не какая-нибудь железка, и все без капли ИИ.
Так что технологическая сингулярность определенно будет иметь место — если завести ИИ или усилить человека, скачок будет очень резкий, и дальнейшая скорость прогресса будет расти невероятными темпами, т.к. в мире сразу же появится множество гениев невероятного масштаба.
Во вторых не все там так тонко — мозг более грубая структура, потому что выдерживает невероятные издевательства над собой: длительное время переносит легкую заморозку (квантовым системам требуется глубокая), не поддается тепловому шуму (для квантовых систем такой шум — это смерть). Чтобы иметь такие свойства, интеллект должен работать над клетками. И скорее всего сильно над — на уровне не отдельных нейронов, а целых групп. Слишком большая инертность и малая чувствительность к воздействиям.
Степень сложности мозга легко оценить по времени осознанной реакции на раздражитель — скорость нервного импульса конечна, задержки в нейронах известны, длина пути от сенсора до мозга и от мозга до мышцы известна, можно замерить время отклика на раздражитель и вычислить длину пути в мозге, и примерное количество узлов, участвовавших в выработке ответа. Дополнительно задачу упрощает электрохимическая сущность нейронов — электрохимия крайне медленная, и с кучей ограничений, например требует восстановления концентрации активного вещества, т.е. сильно ограничена по частоте.
И в итоге число это получается небольшим, счет идет на десятки, в крайнем случае сотни нейронов.
В ширину цепочка может достигать тысяч нейронов, сигналы могут разветвляться, могут захватываться множество отделов мозга, но в длину цепочка всего несколько десятков нейронов. Эволюция постаралась — тугодумы были сьедены.
Усложняя задачу можно наблюдать, как растет длина цепочки, как начинают включаться глубинные механизмы мозга — сигнал заворачивается вглубь, начинает петлять, зацикливаться, пока наконец не достигнет выхода и не сформирует реакцию.
А на счет телепортаций — сознание можно выцепить даже бесконтактно. Ведь для того, чтобы создать копию черного ящика, достаточно просто протестировать черный ящик, подавая сигналы на вход и замеряя сигналы на выходе. Точно также можно тестировать личность, задавая вопросы и на основе ответов формировать базу опыта и принципов личности. Некоторых людей так тестируют даже не предупреждая их — просто наблюдая за их реакцией на те или иные раздражители, составляя психокарты и делая довольно точные прогнозы. Хороший аналитик (компьютет) справится с этой задачей гораздо быстрее и лучше человека.
Воссозданная по заданным параметрам личность будет обладать теми же свойствами и реакциями, но не обязательно теми же знаниями. Особая точность тут не требуется — формировать один и тот же опыт можно множеством различных воздействий на психику. Например для формирования психотравмы не обязательно точно воссоздавать события, произошедшие с исходной личностью — можно рисовать широкими мазками, результат будет тот же.
В идеале ничего формировать не нужно — просто изменяя память, автоматически меняем опыт и личность человека, меняем его поведение и реакции.
Но проще снимать копию электромагнитными методами — из волновой картины мозга можно извлечь гораздо больше инфы, в т.ч. точные параметры всех нейронов, участвующих в формировании волновой картины, т.е. всех живых активных нейронов.
Поатомарное сканирование — это уже как крайний, дубовый метод. Если ни один другой вариант не выгорит.
В деле проектирования ИИ важно абстрагироваться от материального, и перейти к чисто информационному образу мышления. Грубо говоря за любым проявлением материального нужно уметь видеть взаимодействие информационных сущностей. Тогда становятся очевидными многие вещи, например:
Один алгоритм можно реализовать бесконечным количеством методов разной степени сложности.
Это значит, что любую информационную структуру можно описать бесконечным количеством материальных реализаций.
Таким образом очевидна принципиальная возможность полного переноса сознания одного носителя в любой другой носитель — будь то иная форма жизни или железо. Не скажу, что это хорошая идея, но она теоретически реализуема.
Таким образом мы гарантированно можем заиметь в компьютере ЕИ (естественный интеллект), независимо от сложности процессов в мозге, архитектуры и методов вычисления. И если мы можем сделать это — то ничто не мешает нам создать ИИ. Т.е. вопрос о возможности появления ИИ снимается — вероятность этого события единица.