Comments 19
тогда у нас получится машина с потреблением 65 кВт против мозга человека, потребляющего 25 Вт. Потребление надо уменьшать на несколько порядков
Они реально видят в этом проблему? Если полноценный ИИ влезет в 65 кВт, дайте два.
Если полноценный ИИ влезет в 65 Вт вместо 65 кВт, представляете, что влезет в 65 кВт?
Пока не представляю.
Я имел ввиду, что сложно его сделать с любым потреблением. Пусть хоть 65 МВт. Хотя само по себе исследование, которое даст снижение энергопотребления на порядок или два, конечно, очень важно. И не только для ИИ.
P.S. мощность фермы для бота open ai для доты — 1-2 мегаватта. Так что 65 кВт — вообще ни о чем.
С другой стороны, нужно ли нам полноценный ИИ, или нужен похожий на полноценный, но полностью контролируемый?
Если провести аналогию с программированием, то все о чем говорится в статье похоже на чрезмерную оптимизацию на начальной стадии разработки (этап прототипа).
ИМХО, сначала нужно создать более-менее полноценный ИИ, а уже потом думать об увеличении его эффективности и уменьшении энергопотребления.
P. S. Прочитав заголовок, думал будет о том, что текущая архитектура принципиально не подходит для создания ИИ
Стадия разработки уже не начальная, попыткам сделать ИИ десятки лет. И сейчас ясно, что для нейросетевого подхода классический CPU с double precision арифметикой не очень-то хорош, а GPU — получше. Почему бы не сделать ещё лучшее "железо" для нейросетей?
Конечно, нет уверенности, что сильный ИИ будет реализован именно на тех нейронных сетях, которые популярны сейчас, но сегодняшние нейронные сети тоже приносят пользу, и их работу есть куда оптимизировать.
Кроме того, эти разработки идейно приближаются к структуре "железа" единственного известного интеллекта (высокий параллелизм, распределённая память), и я не вижу причин, почему этот путь неправильный. Возможно, к разработке ИИ есть и другие пути, но они так же туманны.
P.S.: По моему опыту, без "преждевременной" оптимизации сложные системы просто неспособны работать. Неуспевающая система — это тоже фэйл.
На мой взгляд тут просто проблема в терминологии. Сейчас любую простейшую нейросеть гордо именуют Искусственным Интеллектом.
А так, если какая-то условная нейросеть хорошо справляется со своей задачей, но при этом работает медленно и жрет много энергии, то создать для нее некий специализированный чип, который сделает ее быстрой и энергоэффективной вполне оправданно.
я вижу просто КО с выводом "хьюстон, у нас проблема"
Архитектуру искусственного интеллекта нужно менять