Comments 30
Сам репозиторий github.com/tensorflow/tensorflow
Один в один повторяет наш проект, который мы делали последние 3 года в Самсунге, перед тем как команда распалась — velesnet.ml Но в отличие от нас у Гугла есть на него ресурсы, так что желаю Джеффу Дину и компании успехов, в этой теме много чего интересного.
Если бы ещё какая-нибудь фактическая информация о продукте была, а то пока выглядит как буклет написанный маркетологом, а если людям массово так покажется, то может получиться, что вреда от этого поста больше, чем пользы. :(
Она есть здесь: googleresearch.blogspot.se/2015/11/tensorflow-googles-latest-machine_9.html. В переводе действительно буклет от маркетолога директора Google. Он встретился мне вчера ночью и я решил перевести его. По-хорошему надо перевести статью в ссылке, там несколько подробнее. День-два и появятся первые отчёты о пробах в блогах, тогда можно переводить уже их.
Тут мнение двоякое. Google хочет популяризовать эту тему, поэтому появление именно такого поста к библиотеке машинного обучения, в общем, не случайно. Интересно наблюдать, как именно они популяризуют технологию, какую используют риторику при этом.
Мне видится проблема, что они пытаются туда включить всё, что относится к ИИ и обучению. Это с одной стороны хорошо, с другой стороны монстр. В данный момент множество библиотек в фонде Аpache которые могут почти то же самое. Но они на Java и из них самому нужно собирать свой велосипед. В большинстве случаев нужно решать конкретные задачи под которые нужен конкретный велосипед и иногда велосипед из старых технологий надёжней.
В любом случае TensorFlow пригодится для препарирования и поиска интересных решений в нём.
Спасибо за новость.
В любом случае TensorFlow пригодится для препарирования и поиска интересных решений в нём.
Спасибо за новость.
честности ради строит отметить, что они врут про "мы создали принципиально новую систему машинного обучения", уже давно есть github.com/Theano/Theano, и из проект это его клон, вероятно с какими то улечьшениями, но все же клон
Более того, DeepMind, купленный Google, до сих пор использует Torch www.wired.com/2015/11/google-open-sources-its-artificial-intelligence-engine, но не гугловскую технологию.
(edit: это ответ на комментарий на один уровень выше)
TensorFlow — это скорее не Theano, а Theano + Lasagne, потому что в TensorFlow есть все слои и апдейт-функции.
Самая большая критика в адрес Theano всегда была очень медленная компиляция моделей в C/cuda. В TensorFlow компиляции нет, поэтому для прототипирования сложных моделей он подходит намного лучше.
TensorFlow — это скорее не Theano, а Theano + Lasagne, потому что в TensorFlow есть все слои и апдейт-функции.
Самая большая критика в адрес Theano всегда была очень медленная компиляция моделей в C/cuda. В TensorFlow компиляции нет, поэтому для прототипирования сложных моделей он подходит намного лучше.
Это, конечно, не принципиально, но я не мог пройти мимо, увидев этот логотип. Всё дело в том что проекция буквы Т симметричная в то время как сама фигура не может дать такую проекцию. Несуществующие фигуры всегда обращают на себя внимание.
Прикольно. Не заметил пока вы не сказали. Видимо если сделать как должно быть исходная трёхмерная фигура слишком легко читается к простая сумма двух. Вот её и погнули.
Почему не может дать?
Извините, что-то не понял.
Там неправильно только то, что правую верхнюю палочку (которая формирует верхнюю буквы F) надо было бы отодвинуть правее, то есть удлинить плечо буквы Т, от которого она отходит.
А здесь получается, что у тени Т правое плечо должно быть короче, чем левое.
При условии, что угол прямой между правым плечом Т и этой палочкой F.
Извините, что-то не понял.
Там неправильно только то, что правую верхнюю палочку (которая формирует верхнюю буквы F) надо было бы отодвинуть правее, то есть удлинить плечо буквы Т, от которого она отходит.
А здесь получается, что у тени Т правое плечо должно быть короче, чем левое.
При условии, что угол прямой между правым плечом Т и этой палочкой F.
Странно, что ни у кого не сработала ассоциация с книгой Дугласа Хофштадтера

10 ноября как ночь релизов в Deep Learning. Вот и nvidia: nvidianews.nvidia.com/news/tiny-nvidia-supercomputer-to-bring-artificial-intelligence-to-new-generation-of-autonomous-robots-and-drones.
Вообще другой сегмент. У этой штуки энергопотребление 10Вт. Она рассчитана на применение в мобильной технике, ограниченной по энергии.
А стада радеонов это для больших стационарных ферм.
А стада радеонов это для больших стационарных ферм.
Да, этот девайс размером с кредитку для конструирования самообучающихся автономных дронов. Другой сегмент, интересно было бы сравнить мощность этой новой штуки в эквивалентном «количестве видеокарт в ферме».
Заявлен один терафлопс. Дальше всё просто смотрите производительность систем на радионах в интернете и сообщаете тут в комментах. Заодно мы порадуемся, потому как мне тоже интересно. По меркам стационарных систем это не много, как я понимаю, но в пересчёте на Ватт энергии это весьма и весьма сурово.
Почему же нет. Вот например вышла в июле статья vk.com/feed?section=comments&w=wall3614110_4254 про нейронную сетку, которая лучше, чем средний человек предсказывает какое следующее слово будет в обычном на английском языке. Это ахренительный прорыв, на самом деле, причём всего за один год. Ещё в прошлом году было в два раза хуже чем у человека.
Причём для этого не потребовалось какого-нибудь запредельного железа. Прогресс не столько в железе, сколько в алгоритмах.
Причём для этого не потребовалось какого-нибудь запредельного железа. Прогресс не столько в железе, сколько в алгоритмах.
Вот сильно зависит от алгоритмов. Первые мои три статьи на этом сайте касательно нейронных сетей считались на самсунговском планшете с восьмой виндой в качестве опрационки. В билайновском конкурсе большую часть рассчётов делал на стационарнике, но последние модели из отпуска досчитывал опять на планшете. Я, конечно, из 75% так и не выпрыгнул (сейчас уже знаю почему), но вообще считаю, что если пользуешься не готовыми библиотеками, а пишешь что-то сам, ориентироваться надо на продумывание алгоритмов, а не на взятие задач грубым компьютерным штурмом.
Хотя это только моё имхо. Вот если я при таком подходе в топ5 выйду хотя бы по одной кагловской задаче — тогда это будет серьёзное авторитетное мнение. :)
Хотя это только моё имхо. Вот если я при таком подходе в топ5 выйду хотя бы по одной кагловской задаче — тогда это будет серьёзное авторитетное мнение. :)
Ну точно сговорились, вот только вчера: blogs.technet.com/b/inside_microsoft_research/archive/2015/11/12/microsoft-open-sources-distributed-machine-learning-toolkit-efficient-big-data-research.aspx
Sign up to leave a comment.
TensorFlow: машинное обучение от Google, теперь – умнее и для всех