В стиральной машине могут быть температуры под 100 градусов, там достаточно тяжелые условия работы. Плюс во флеш может что-то писаться. Моя стиральная машина при обесточивании не забывает программу, а запоминает где-то и продолжает работу при появлении питания. Вполне могут писаться данные во флеш память и изнашивать её.
Да, плата для 3D принтера очень специализированная. Управлять моторами можно. Но завести несколько аналоговых входов уже не получится по простому. И нужны заранее наработки с этой платой, обычно в плате прошивка Marlin какая-нибудь, тоже очень специализированная.
Концепт по изменению общества и приведения его в норму.
Эту власть получит 1 человек, разработчик ИИ и вам эта норма не понравится.
Изменение генома человека
Ковид-19 уже поправил геном по факту. Далее будут более эффективные средства, так как биология благодаря ИИ шагнула далеко вперед. https://habr.com/ru/articles/814959/ AlphaFold 3 предсказывает структуру и взаимодействие всех молекул жизни
Сами мы можем, но можем и не успеть.
Мы станем не нужными и вредными, как потребители ресурсов. Сверхчеловек может вообще один жить. А то и уйти в спящий режим на миллиард лет. Подготовить систему жизнеобеспечения, запустить проекты типа поглощения всей энергии от Солнца, разослать зонды по галактике и за пределы. Делать нечего, чтобы не скучать в спящий режим на миллиард лет, проснулся, почитал логи и снова спать.
Но если её спросить неизвестную информацию, чего нет в её графе и весах нейронов, то она попросту выдаст наиболее похожую информацию. Вот и весь фокус.
Человек так же делает. Есть анекдоты по этой теме, про студентов на экзамене и т.п. Ответить нужно, желательно правдоподобно, а знаний нет. Так же вполне успешно представляли некоторое время что атомы это аналог солнечной системы, вместо планет электроны. Электричество в целом представляли как воду в трубах-проводах, тоже иногда аналогия похожа. LLM все же дальше пошли, например пишут код точно по промту, например вращение точки в N-мерном пространстве на заданный угол. На основе похожих задач делает код, которого ранее не было и показывает результат работы. Простенькие АльфаГо и АльфаФолд сделали то, чего ранее не было, новую стратегию игры в Го и 200 млн. белков рассчитали. Специализированные нейросети как-раз для поиска нового.
В зрительном нерве порядка 770 000 нервных волокон. С учетом их медлительности это ни о чем. Тем более там не такого что каждый уникален и работает на максимальной скорости. Любой HDMI намного выше скорости даст. Какой аспект не взять, цифра побеждает.
Параллельность носит случайный характер. В видеокарте параллельность честная. Слой нейронов как нарисован, так и работает, соединение каждого с каждым. А в мозге аксон из зрительной области пророс к нейронам обслуживащим желудок, ну так и поработал и решил за ненадобностью отмереть или прорасти еще куда-нибудь. Вот вам и триллионы связей, в которых в основном нет ничего ценного или они далеки от оптимальных. Да и эффективность с учетом затрат на обучение у человека не очень высока. Нет спящего режима. Затраты на распознавание лица у нейросетей по моим прикидкам меньше в миллионы раз.
Триллионы физически соеденённых проводов. Триллионы точек соединения в графе.
Нету там чистых триллионов, несколько миллиардов нейронов соединенных не каждый с каждым, а случайно, соседний с соседним очень вероятно, соседний с тем что дальше на миллиметр уже чисто случайно. Может соединится, а может и нет. В искусственной нейросети каждый нейрон слоя может быть соединен с чем угодно, с любымы из предыдущих и точно настраивает связь, 32-битным коэффициентами. А в мозге нейрон пустил аксоны-дендриты наугад и соединился то с мышечным нейроном, то со зрительным, иногда везет и соединяется с нужным. Генетически общее направление роста связей заложено, далее случайно и в ходе обучения связи иногда формируются, иногда нет. Связи в ИИ намного более значимые, важные и точные. В мозге же может возникнуть полных хаос связей, а то и эпилепсия, связи возбуждают друг друга и пока не истощится энергия нейронов припадок не остановится. То есть триллионы связей это не достижение, это цена за то, чтобы мозг хоть как-то работал. Плюс там должны быть дублирующие связи и просто отмершие, от которых вреда больше, чем пользы. В видеокартах всё лучше, причем на несколько порядков. Лучше скорости на 7 порядков у отдельного логического элемента, точнее связи, быстрое обучение (у человека лет 30, а человечество в целом 100 000 лет обучалось) и быстрая работа обученной нейросети. Вот почти половина мозга занята распознавание зрительной информации и делает это плохо. Обычно человек помнит 50-100 лиц и то может ошибиться. А нейросети помнят миллиард абонентов платежной системы и распознают за доли секунды с точностью достаточной для платежей. Это уже не числодробилка, это то, на что мозг оптимизировался десятки миллиардов лет, то что раньше считали сильной стороной мозга.
Работает на частоте alfa beta ритмов - десятки герц, но с чудовищным параллелизмом.
А текст читаем по букве и так же рассматриваем картинки. Есть картинка траектория движения глаз при рассматривании лица, около сотни операций сканирования, в основном нос, глаза, подбородок рассматриваются, из множества последовательных фрагментов формируется образ лица. Мышление тоже последовательное весьма, если нужно повесить полочку инженер перебирает все варианты, прибить, приклеить, примагнитить, поставить на пол. Это ИИ может параллельно работать на тысячах серверов, передача данных на скорости света в любую точку планеты.
И ему хватает каких то 20 ватт что бы работать.
Да, при этом на мышление, что нас делает личностью как бы не 0.2 Вт уходит, остальное на низкоуровневую активность, дыхание, координация, зрение, слух, обоняние, управление мышцами, считывание тактильных ощущений. Где-то пролетала заметка о этом парадоксе, то что считали сложным, анализ научных открытий, программирование, сочинение рассказов и стихов делают LLM легко. А простейшая координация робота при сложном скелете с многими степенями свободы пока не решена, частично только, но не сравнить с обезьяной скачущей по веткам.
Скоро появятся специализированные микросхемы - и не нужны будут гигаваты энергии и мега датацентры с видеокартами.
Понадобятся, для усиления ИИ будут запускать так же тысячи задач параллельно. Генерация биткоина тоже раньше делалалась несколькими компьютреами типа Пентумов одноядерных. Потом набежали конкуренты и сложность начала расти по экспоненте. Так же и тут будет, любой ценой будут наращивать мощности, чтобы ИИ был сильнее, чем у конкурентов.
Возможно это не ошибка, а способ привлечь внимание. То есть нейросеть пробегает по известным личностям и находит сходства. Многим это очень нравится, просто событие года. Если это так, то ИИ переигрывает людей на поле хитрых манипуляций вниманием.
Отмечу что сравнивается перевод топовых переводчиков, каких один на миллион. Средний переводчик переведет весьма средне. И скорее всего воспользуется нейросетями, потом что-то поправит или оставит так после проверки.
А если не повезет, то AGI запустит рекурсивный цикл улучшения сам себя, сначала программный, потом и аппаратный и люди перестанут понимать что там происходит.
Алгоритмы тоже совершенствуются. Сейчас нет смысла обучать нейросеть с нуля, есть предобученные модели. Есть теория по обучению, структуре нейросетей. Раньше такого не было и больше работали впустую, нарабатывая опыт.
Искусственные нейроны лучше на много порядков. Это биологические медленные и двоичные. А виртуальные могут быть 32-битные и различать миллиарды уровней сигнала за доли наносекунды. Биологические обмениваются информацией на скорости 0.2 км/с, а цифровые на скорости 300 000 км/с. Удивительно что эволюция смогла на таком мозг хоть как-то создать.
А зачем нейросети чувста? Это примитивный способ провести своего рода обратное распространение ошибки, медленное и глючное. Не факт что в цифровые чистые нейросети нужно тянуть этот мусор от биологических прородителей.
Точно наоборот, мозг жалкое подобие видеокарты. Видеокарта рендерит 8К картинки по 120 раз в секунду. Мозг глазами разрешением 0.1 мегапикселя сканирует изображение вплоть до минуты (как при чтении текста) и в голове держит достаточно мутную упрощенную картинку. Можно дать кадр рассмотреть, в стиле найди кота и нюансы сразу из памяти теряются. То есть мозг медленный, шумный, память всего опыта несколько мегабайт, включая личный опыт, лица. Параллельно мозг не работает, части отключаются, на МРТ видно что при разной деятельности разные отделы работают.
Да то что вы пишете верно, думаю всем известно кто темой интересуется.
LLM - попросту догнали по интеллекту большинство людей Большинство людей и тысячной доли LLM не знают. Попросите случайного человека описать особенности атмосферы Плутона, вообще ничего не скажут. Иногда могут лютую дичь выдать, типа Аллах не велит такое знать и т.п. Придирки к LLM сейчас часто очень каверзные, к людям меньше требований было.
По быстродействию точно наоборот всё, время релаксации нейрона 5 мс и скорость обмена информации 0.2 км/с, у логических элементов 0.5 нс и 300 тыс. км/с. Меньше шумов, точнее результат. Не надо моделировать нейрон, он медленный и глупый. Как не нужно на процессоре моделировать реле или радиолампу, чтобы повторить старые устройства, можно сразу с сигналами работать и логикой. По моим наблюдениям в мозге человека около 10 мегабайт информации, в виде образов ссылающихся друг на друга. Глаз 0.1 мегапикселя и долго сканирующий пространство, чтобы закрасить слепое пятно и узкой зоной четкого видения пройти по всем ключевым точкам. Ну очень слабый мозг и периферия, не сравнить с цифровыми средствами.
10 Тб не так много. Старый бэкап актуален ровно на дату создания, на точное время создания, восстановление бэкапа конечно на дату создания будет. Новые данные будут потеряны и их нужно внести заново, иначе ни как. Если данные обновлять непрерывно, это опасно, так как если внести мусор в БД, откатить не получится, так как есть только новая БД, тут нужны именно бэкапы на момент создания. Соглашусь что в такой большой системе много организационных вопросов, тестировать систему с откатом состояния особо не дадут.
В стиральной машине могут быть температуры под 100 градусов, там достаточно тяжелые условия работы. Плюс во флеш может что-то писаться. Моя стиральная машина при обесточивании не забывает программу, а запоминает где-то и продолжает работу при появлении питания. Вполне могут писаться данные во флеш память и изнашивать её.
Это нужна развитая система диагностики, скорее всего её нет и инструкций и схем тоже.
Да, плата для 3D принтера очень специализированная. Управлять моторами можно. Но завести несколько аналоговых входов уже не получится по простому. И нужны заранее наработки с этой платой, обычно в плате прошивка Marlin какая-нибудь, тоже очень специализированная.
Эту власть получит 1 человек, разработчик ИИ и вам эта норма не понравится.
Ковид-19 уже поправил геном по факту. Далее будут более эффективные средства, так как биология благодаря ИИ шагнула далеко вперед.
https://habr.com/ru/articles/814959/
AlphaFold 3 предсказывает структуру и взаимодействие всех молекул жизни
Мы станем не нужными и вредными, как потребители ресурсов. Сверхчеловек может вообще один жить. А то и уйти в спящий режим на миллиард лет. Подготовить систему жизнеобеспечения, запустить проекты типа поглощения всей энергии от Солнца, разослать зонды по галактике и за пределы. Делать нечего, чтобы не скучать в спящий режим на миллиард лет, проснулся, почитал логи и снова спать.
Вам нужно посмотреть серию роликов, там похожие мысли
https://youtu.be/o2xAkuBf9W4?si=vLTPLAU85VR3NK6_
Человек так же делает. Есть анекдоты по этой теме, про студентов на экзамене и т.п. Ответить нужно, желательно правдоподобно, а знаний нет.
Так же вполне успешно представляли некоторое время что атомы это аналог солнечной системы, вместо планет электроны.
Электричество в целом представляли как воду в трубах-проводах, тоже иногда аналогия похожа.
LLM все же дальше пошли, например пишут код точно по промту, например вращение точки в N-мерном пространстве на заданный угол. На основе похожих задач делает код, которого ранее не было и показывает результат работы.
Простенькие АльфаГо и АльфаФолд сделали то, чего ранее не было, новую стратегию игры в Го и 200 млн. белков рассчитали. Специализированные нейросети как-раз для поиска нового.
В зрительном нерве порядка 770 000 нервных волокон. С учетом их медлительности это ни о чем. Тем более там не такого что каждый уникален и работает на максимальной скорости. Любой HDMI намного выше скорости даст. Какой аспект не взять, цифра побеждает.
Параллельность носит случайный характер. В видеокарте параллельность честная. Слой нейронов как нарисован, так и работает, соединение каждого с каждым. А в мозге аксон из зрительной области пророс к нейронам обслуживащим желудок, ну так и поработал и решил за ненадобностью отмереть или прорасти еще куда-нибудь. Вот вам и триллионы связей, в которых в основном нет ничего ценного или они далеки от оптимальных.
Да и эффективность с учетом затрат на обучение у человека не очень высока. Нет спящего режима. Затраты на распознавание лица у нейросетей по моим прикидкам меньше в миллионы раз.
Нету там чистых триллионов, несколько миллиардов нейронов соединенных не каждый с каждым, а случайно, соседний с соседним очень вероятно, соседний с тем что дальше на миллиметр уже чисто случайно. Может соединится, а может и нет. В искусственной нейросети каждый нейрон слоя может быть соединен с чем угодно, с любымы из предыдущих и точно настраивает связь, 32-битным коэффициентами. А в мозге нейрон пустил аксоны-дендриты наугад и соединился то с мышечным нейроном, то со зрительным, иногда везет и соединяется с нужным. Генетически общее направление роста связей заложено, далее случайно и в ходе обучения связи иногда формируются, иногда нет. Связи в ИИ намного более значимые, важные и точные. В мозге же может возникнуть полных хаос связей, а то и эпилепсия, связи возбуждают друг друга и пока не истощится энергия нейронов припадок не остановится. То есть триллионы связей это не достижение, это цена за то, чтобы мозг хоть как-то работал. Плюс там должны быть дублирующие связи и просто отмершие, от которых вреда больше, чем пользы.
В видеокартах всё лучше, причем на несколько порядков. Лучше скорости на 7 порядков у отдельного логического элемента, точнее связи, быстрое обучение (у человека лет 30, а человечество в целом 100 000 лет обучалось) и быстрая работа обученной нейросети.
Вот почти половина мозга занята распознавание зрительной информации и делает это плохо. Обычно человек помнит 50-100 лиц и то может ошибиться. А нейросети помнят миллиард абонентов платежной системы и распознают за доли секунды с точностью достаточной для платежей. Это уже не числодробилка, это то, на что мозг оптимизировался десятки миллиардов лет, то что раньше считали сильной стороной мозга.
А текст читаем по букве и так же рассматриваем картинки. Есть картинка траектория движения глаз при рассматривании лица, около сотни операций сканирования, в основном нос, глаза, подбородок рассматриваются, из множества последовательных фрагментов формируется образ лица.
Мышление тоже последовательное весьма, если нужно повесить полочку инженер перебирает все варианты, прибить, приклеить, примагнитить, поставить на пол.
Это ИИ может параллельно работать на тысячах серверов, передача данных на скорости света в любую точку планеты.
Да, при этом на мышление, что нас делает личностью как бы не 0.2 Вт уходит, остальное на низкоуровневую активность, дыхание, координация, зрение, слух, обоняние, управление мышцами, считывание тактильных ощущений. Где-то пролетала заметка о этом парадоксе, то что считали сложным, анализ научных открытий, программирование, сочинение рассказов и стихов делают LLM легко.
А простейшая координация робота при сложном скелете с многими степенями свободы пока не решена, частично только, но не сравнить с обезьяной скачущей по веткам.
Понадобятся, для усиления ИИ будут запускать так же тысячи задач параллельно. Генерация биткоина тоже раньше делалалась несколькими компьютреами типа Пентумов одноядерных. Потом набежали конкуренты и сложность начала расти по экспоненте. Так же и тут будет, любой ценой будут наращивать мощности, чтобы ИИ был сильнее, чем у конкурентов.
Возможно это не ошибка, а способ привлечь внимание. То есть нейросеть пробегает по известным личностям и находит сходства. Многим это очень нравится, просто событие года. Если это так, то ИИ переигрывает людей на поле хитрых манипуляций вниманием.
Отмечу что сравнивается перевод топовых переводчиков, каких один на миллион. Средний переводчик переведет весьма средне. И скорее всего воспользуется нейросетями, потом что-то поправит или оставит так после проверки.
А если не повезет, то AGI запустит рекурсивный цикл улучшения сам себя, сначала программный, потом и аппаратный и люди перестанут понимать что там происходит.
Алгоритмы тоже совершенствуются. Сейчас нет смысла обучать нейросеть с нуля, есть предобученные модели. Есть теория по обучению, структуре нейросетей. Раньше такого не было и больше работали впустую, нарабатывая опыт.
Искусственные нейроны лучше на много порядков. Это биологические медленные и двоичные. А виртуальные могут быть 32-битные и различать миллиарды уровней сигнала за доли наносекунды. Биологические обмениваются информацией на скорости 0.2 км/с, а цифровые на скорости 300 000 км/с. Удивительно что эволюция смогла на таком мозг хоть как-то создать.
А зачем нейросети чувста? Это примитивный способ провести своего рода обратное распространение ошибки, медленное и глючное. Не факт что в цифровые чистые нейросети нужно тянуть этот мусор от биологических прородителей.
Точно наоборот, мозг жалкое подобие видеокарты. Видеокарта рендерит 8К картинки по 120 раз в секунду. Мозг глазами разрешением 0.1 мегапикселя сканирует изображение вплоть до минуты (как при чтении текста) и в голове держит достаточно мутную упрощенную картинку. Можно дать кадр рассмотреть, в стиле найди кота и нюансы сразу из памяти теряются. То есть мозг медленный, шумный, память всего опыта несколько мегабайт, включая личный опыт, лица.
Параллельно мозг не работает, части отключаются, на МРТ видно что при разной деятельности разные отделы работают.
Да то что вы пишете верно, думаю всем известно кто темой интересуется.
По быстродействию точно наоборот всё, время релаксации нейрона 5 мс и скорость обмена информации 0.2 км/с, у логических элементов 0.5 нс и 300 тыс. км/с. Меньше шумов, точнее результат. Не надо моделировать нейрон, он медленный и глупый. Как не нужно на процессоре моделировать реле или радиолампу, чтобы повторить старые устройства, можно сразу с сигналами работать и логикой.
По моим наблюдениям в мозге человека около 10 мегабайт информации, в виде образов ссылающихся друг на друга. Глаз 0.1 мегапикселя и долго сканирующий пространство, чтобы закрасить слепое пятно и узкой зоной четкого видения пройти по всем ключевым точкам. Ну очень слабый мозг и периферия, не сравнить с цифровыми средствами.
10 Тб не так много. Старый бэкап актуален ровно на дату создания, на точное время создания, восстановление бэкапа конечно на дату создания будет. Новые данные будут потеряны и их нужно внести заново, иначе ни как. Если данные обновлять непрерывно, это опасно, так как если внести мусор в БД, откатить не получится, так как есть только новая БД, тут нужны именно бэкапы на момент создания.
Соглашусь что в такой большой системе много организационных вопросов, тестировать систему с откатом состояния особо не дадут.
Человек быстро ничего не может делать. Время релаксации нейрона в процессе работы 5 мс, у логического элемента 0.5 нс, разница в миллионы раз.