Comments 12
Из перевода (низкого качества) понял только то что, опять изобрели аналоговый компьютер.
Как в советские годы научные стаььи не могли обойтись без упоминания классиков марксизма и решений последнего съезда КПСС, так и сейчас: если видишь в статье внезапные отсылки про экологию и потепление - значит переводная.
Рассказчика просто прет от восторга. Зачем он в рассказ крошки конкретики добавил - загадка.
Очень тяжело для понимания, никакой конкретики, это точно человек писал?
Если немного поиграть в популистику, то можно смело утверждать, что аналоговые компьютеры всегда были лучше цифровых практически по всем критериям. Недостатков у них всего два - низкая точность и накопление ошибок, но эти недостатки полностью невилировали все преимущества и стали причиной появления медленных, слабых, но точных (в заданных рамках) цифровых вычислительных устройств.
Остаётся верить, что для задач машинного обучения проблемы точности не являются критическими. Хотя верится в это с трудом.
Ничего принципиально нового в предложенной архитектуре нет. Все эти же идеи (in-memory computing, нейроморфные аналоговые чипы на меморисоорах) обсуждают и апробируют уже давно. В 10-х годах Самсунг обещал выдать коммерческий чип rram с imc но не пошло, ибо проблемы мемристоров (e.g. Довольно быстрая деградация, спонтанное изменение состояния мемристора, влияние статических полей и т.д.) так и не решены.
Наконец-то! Знакомый американец, докладывающий в 2015 г. на конференции о сдвиговых регистрах и т.п. на 50 ГГц и более на джозефсоновских ячейках, тогда еще сказал в разговоре, что основное время у процессоров на таких частотах уходит на прохождение информации к памяти и обратно и что нужно радикально менять архитектуру компьютеров.
Очень сильно плохой перевод. Такой, что в некоторых частях текста нужно реверс перевод делать (соображать из какого англ.текста это было получено и переводить по своему)
Это практически гугл транслейт с мин. правками. Достатчно сходить на оригинал и вкинуть пару абзацев в переводчик. Дешевая дичь.
Новый чип расширяет возможности ИИ