Как стать автором
Обновить

Комментарии 19

тогда у нас получится машина с потреблением 65 кВт против мозга человека, потребляющего 25 Вт. Потребление надо уменьшать на несколько порядков

Они реально видят в этом проблему? Если полноценный ИИ влезет в 65 кВт, дайте два.

Конечно, видят.
Если полноценный ИИ влезет в 65 Вт вместо 65 кВт, представляете, что влезет в 65 кВт?

Пока не представляю.
Я имел ввиду, что сложно его сделать с любым потреблением. Пусть хоть 65 МВт. Хотя само по себе исследование, которое даст снижение энергопотребления на порядок или два, конечно, очень важно. И не только для ИИ.


P.S. мощность фермы для бота open ai для доты — 1-2 мегаватта. Так что 65 кВт — вообще ни о чем.

Если полноценный ИИ влезет в 65 кВт, то он сам изобретет ИИ-2, который влезет в 65Вт.

С другой стороны, нужно ли нам полноценный ИИ, или нужен похожий на полноценный, но полностью контролируемый?
пока в ватах меряют мозг, ни о каком ии речи быть не может :)

Если провести аналогию с программированием, то все о чем говорится в статье похоже на чрезмерную оптимизацию на начальной стадии разработки (этап прототипа).


ИМХО, сначала нужно создать более-менее полноценный ИИ, а уже потом думать об увеличении его эффективности и уменьшении энергопотребления.


P. S. Прочитав заголовок, думал будет о том, что текущая архитектура принципиально не подходит для создания ИИ

Стадия разработки уже не начальная, попыткам сделать ИИ десятки лет. И сейчас ясно, что для нейросетевого подхода классический CPU с double precision арифметикой не очень-то хорош, а GPU — получше. Почему бы не сделать ещё лучшее "железо" для нейросетей?


Конечно, нет уверенности, что сильный ИИ будет реализован именно на тех нейронных сетях, которые популярны сейчас, но сегодняшние нейронные сети тоже приносят пользу, и их работу есть куда оптимизировать.


Кроме того, эти разработки идейно приближаются к структуре "железа" единственного известного интеллекта (высокий параллелизм, распределённая память), и я не вижу причин, почему этот путь неправильный. Возможно, к разработке ИИ есть и другие пути, но они так же туманны.


P.S.: По моему опыту, без "преждевременной" оптимизации сложные системы просто неспособны работать. Неуспевающая система — это тоже фэйл.

На мой взгляд тут просто проблема в терминологии. Сейчас любую простейшую нейросеть гордо именуют Искусственным Интеллектом.


А так, если какая-то условная нейросеть хорошо справляется со своей задачей, но при этом работает медленно и жрет много энергии, то создать для нее некий специализированный чип, который сделает ее быстрой и энергоэффективной вполне оправданно.

А потом пусть уж он сам думает о своей оптимизации… Ну и о нашей то же.
Выйдет забавно, если лет через 5 разработают алгоритм сильного ИИ, способный в реальном времени работать на Arduino с парой подключённых гигабайтных DDR1 и SD-карточкой, не говоря уж о малинке и нетбуках.
Не разработают. Мозг — довольно мощный прибор хотя бы на обработке изображений. Вы не можете сделать никакого распознавания быстрее чем n^2 log n где n сторона картинки порядка 2000. И это минимальная оценка, и делать нужно не менее 10 раз в секунду. Реально все намного хуже. То есть ардуино тут никаким боком
Не факт, что способность распознавать изображения хоть как-то коррелирует с абстрактным мышлением и интеллектом. В том же тесте Тьюринга объём входных данных и выборки для обучения на порядки меньше, а он до сих пор не пройден
Забавно, что история вычислительной техники тоже развивается по спирали. Аналоговые вычислительные модули снова становятся перспективными. Для применения в качестве нейронов — самое то — цифровая точность в ячейке принятия решения не нужна, и даже вредна, а тепловой шум — естественный фактор, увеличивающий обобщающие способности аналогового ИИ
Звучит так, как будто у нас уже есть полный аналог человеческого мозга на архитектуре фон Неймана, и его единственное неудобство — потребление 65 кВт.
Про сильный ИИ ни слова же — им достигнутого достаточно.
Мне кажется проблема в том, что пока нет даже аналога человеческого мозга, а он уже потребляет 65 кВт.
Перебирание давно известных фактов. Понятно, что для нейрона использовать процессор — как из пушки по воробьям. Понятно, что на КМОП нейрон не сделать, а если и сделать (подпороговое питание) то слишком медленно и неточно (при низком питании шум того же порядка что и сигнал). Поэтому аналоговые КМОП нейроны почти не делают. Понятно, что мемристоры могли бы подойти, несмотря на недоизученность. Все это известно уже лет 20.

я вижу просто КО с выводом "хьюстон, у нас проблема"

Аффтары могли бы смело писать статью о том, сколько чертей поместится на кончике иглы производства Siemens. Было бы более предметно и содержательно, чем этот словоблудный опус.
Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации