1. Chisel — полная ерунда, никому не советую тратить время. Берите опенсорный RISC-V на верилоге или системверилоге, типа SCR1, и будет вам щастье.
2. Работающего LLVM под RISC-V тоже нету, ну что ж, будем ждать.
3. Самая интересная, по крайней мере для меня, часть ISA — векторное расширение, тоже не готова. Видимо, будет на основе берклевского же Hwacha, но когда — не понятно.
Сантьяго не понравился, сплошные автобусы везде. Моря нет. Но в целом Чили, по южноамериканским меркам — просто Сингапур какой-то. И с английским у населения гораздо лучше, чем в какой-нибудь Аргентине.
В этой статье написано, что курс — не для новичков. Тем не менее, никакого базового курса по машинному обучению по типу Ыновского в требованиях нет, есть только математика и питон. После чего не удивительно, почему авторы уверены, что больше половины студентов отвалится на третьей-четвертой неделях! Это именно то, что со мной случилось в Яндексо-МФТИшном курсе, на который я подписался одновременно с Ыновским.
Кроме того, сдается мне, что отсутствие математики в курсе Ына сильно преувеличено. Математика там есть, просто он говорит, что если вы не поняли, как именно выведена там или иная формула или посчитана производная, то не стоит чувствовать себя недочеловеком (но эти фразы рассчитаны на индусов, это не значит, что вы не должны разобраться, как они выведены).
Так что мой совет будущим студентам этого курса — пока он не начался, сходите на Курсеру и запишитесь на бесплатный стэнфордский Machine Learning от Andrew Ng (если, конечно, вы сможете с его акцентом примириться). Может быть, это поможет вам и здесь не отвалиться после третьей недели :)
По моему личному мнению подход товарища Andrew Ng — правильный. Плотность формул на квадратный миллиметр слайдов — это еще не показатель продвинутости курса. И на пальцах объяснить сложные вещи гораздо сложнее, чем накопипастить формул из советских учебников. Разлекламированный курс Яндекса и МФТИ на Курсере — отличный пример. Я посмотрел две-три лекции, ничего не понял, и забил. Наукообразность — это известная фишка отечественного образования.
Касаемо понимания backprop-a — согласен с Карпатым. Другое дело, может ли преподаватель объяснить его так, чтобы студенты действительно поняли. В стенфордском курсе Machine Learning на Курсере доказательства в видеоуроках нет, но оно есть в приложении. Тоже не очень понятно. Лучшее, что я видел — вот эта MIT'овская лекция на Ютубе: www.youtube.com/watch?v=q0pm3BrIUFo. У меня именно после нее все встало на свои места. Хотелось бы пожелать отечественным волонтерам брать пример с MIT.
Можно-то можно, но есть один нюанс. Дешифрация команды не происходит мгновенно, и сколько тактов пройдет, прежде чем процессор поймет, что он испольняет команду ветвления — одному Аллаху ведомо. А знать это процессору необходимо сразу, ибо следующую команду надо выбирать уже на следующем такте.
обычно есть способ заинвалидировать таблицу переходов, чтобы избежать ложных срабатываний. Ядро операционки должно это делать при переключении контекста
Интерпретатор Верилога писать не нужно. Верилог преобразуется в нетлист, их соответствие проверяется при помощи формальной верификации (используя Formality или LEC — они берут Верилог и нетлист и говорят, совпадает ли их функциональность или нет. Это нужно, потому что в синтезаторе могут быть баги и он может сделать неправильный нетлист из правильного Верилога). Потом нетлист преобразуется в геометрию, и их эквивалентность, в свою очередь, проверяется при помощи LVS (layout versus schematics). После этого геометрия едет в степпер, грубо говоря. Для тестирования микросхемы используются эмпирические методы, основанные на «купил-включил-не работает»: внешний тестер, тестовые последовательности для которого готовит ATPG (automatic test pattern generator), и BIST (built-in self-test, он обычно бывает отдельно на память и отдельно на логику). Оба способа как раз и проверяют отсутсвие дефектов производства, например, обрывов дорожек или коротких замыканий. Ибо засунуть микросхему под микроскоп довольно накладно, особенно если в ней сто миллиардов транзисторов. Есть еще всякие извращения, например самопочиняющаяся память (memory with self-repair), но это я уже отклонился от темы.
IC Compiler II вполне симпатичный. К тому же, он еще и работу делать умеет, для которой народ по 250 гигабайт оперативки ставит, а не только рюшечки рисует, как Xcode.
Сколько строк на Chisel написали лично вы?
2. Работающего LLVM под RISC-V тоже нету, ну что ж, будем ждать.
3. Самая интересная, по крайней мере для меня, часть ISA — векторное расширение, тоже не готова. Видимо, будет на основе берклевского же Hwacha, но когда — не понятно.
Вывод: побаловаться студентам сгодится.
Кроме того, сдается мне, что отсутствие математики в курсе Ына сильно преувеличено. Математика там есть, просто он говорит, что если вы не поняли, как именно выведена там или иная формула или посчитана производная, то не стоит чувствовать себя недочеловеком (но эти фразы рассчитаны на индусов, это не значит, что вы не должны разобраться, как они выведены).
Так что мой совет будущим студентам этого курса — пока он не начался, сходите на Курсеру и запишитесь на бесплатный стэнфордский Machine Learning от Andrew Ng (если, конечно, вы сможете с его акцентом примириться). Может быть, это поможет вам и здесь не отвалиться после третьей недели :)
Касаемо понимания backprop-a — согласен с Карпатым. Другое дело, может ли преподаватель объяснить его так, чтобы студенты действительно поняли. В стенфордском курсе Machine Learning на Курсере доказательства в видеоуроках нет, но оно есть в приложении. Тоже не очень понятно. Лучшее, что я видел — вот эта MIT'овская лекция на Ютубе: www.youtube.com/watch?v=q0pm3BrIUFo. У меня именно после нее все встало на свои места. Хотелось бы пожелать отечественным волонтерам брать пример с MIT.