Это типа вы меня так тролите, да? Ваш дурацкий LLM который вы сюда запостили, снова гонит. Вот эта фраза - неверна: "А это фундаментально разный семантический смысл — continuous assignment vs. procedural assignment". Потому что там второе - не procedural assignment, а инициализация, которая срабатывает еще до initial.
Если бы я пошел бы на интервью и у меня бы спрашиввли только задачи типа приведенной, я бы в компанию однозначно не пошел, потому что задачка очень примитивная. Серьезные компании дают более интересные задачки - либо алгоритмические (какую-нибудь траесформацию дерева), либо относящуюся к предметной области данной компании.
Я пока не видел никого кто бы решил с помощью LLM вот такую задачку (особенно меня интересует конвейерный вариант то бишь Exercise 3), а в ней нет тайминга внутри такта вообще, а по части латентности это эквивалент самого простого что мы даем практикантам в Самсунге в качестве задания на практике - ститический конвейер кастомного FPU:
Там просто место проведения предыдущей выставки - "Коровий дворец" - "Cow Palace" - места возле Сан-Францисского аэропорта, откуда по-видимому видны пасущиеся на холмах коровы (или были видны раньше).
Apple Newton был дурацким устройством. Это был карманный компьютер, который не влазил в карман. И распознавание рукописных букв в нем делалось вроде (хотя я не уверен) с имиджа, а не по движениям пера, из-за чего была низкая точность распознавания. А вот по движениям у вышедшего потом PalmPilot было хорошее качество распознавания.
Есть области (например моя) в которой LLM просто тупо не работает. То есть он решает что-то на уровне индусских методичек 1990-х годов, но при минимально реалистической производственной задаче то что он выдает - не проходит тест. А те, кто пробуют это "чистить", просто входят в цикл и потом бросают. Я об этом писал на Хабре - https://habr.com/en/articles/902400/
Ну почему, в МИЭТ есть курс по проектированию процессора, причем с практикой на FPGA платах и в симуляторе. И в других есть, в разном количестве (МФТИ, МИЭМ, ИТМО...)
От этого поста тоже воняет чат-гопотятиной.
Пост писался с помощью чатгопоты
Интересно, можно ли закрыть фонтан LLM если нанести удар ракетой "Кинжал" по датацентру, на серверах которого оно работает?
А зачем вы пишете "if (reset == 1)" а не просто "if(reset)"? Ну то есть я знаю такую школу мысли, но мне интересна ваша аргументация.
Это типа вы меня так тролите, да? Ваш дурацкий LLM который вы сюда запостили, снова гонит. Вот эта фраза - неверна: "А это фундаментально разный семантический смысл — continuous assignment vs. procedural assignment". Потому что там второе - не procedural assignment, а инициализация, которая срабатывает еще до initial.
Very interesting, thank you
Если бы я пошел бы на интервью и у меня бы спрашиввли только задачи типа приведенной, я бы в компанию однозначно не пошел, потому что задачка очень примитивная. Серьезные компании дают более интересные задачки - либо алгоритмические (какую-нибудь траесформацию дерева), либо относящуюся к предметной области данной компании.
Я пока не видел никого кто бы решил с помощью LLM вот такую задачку (особенно меня интересует конвейерный вариант то бишь Exercise 3), а в ней нет тайминга внутри такта вообще, а по части латентности это эквивалент самого простого что мы даем практикантам в Самсунге в качестве задания на практике - ститический конвейер кастомного FPU:
https://verilog-meetup.com/2025/04/29/how-to-fail-those-students-who-rely-on-chatgpt/
Там просто место проведения предыдущей выставки - "Коровий дворец" - "Cow Palace" - места возле Сан-Францисского аэропорта, откуда по-видимому видны пасущиеся на холмах коровы (или были видны раньше).
Apple Newton был дурацким устройством. Это был карманный компьютер, который не влазил в карман. И распознавание рукописных букв в нем делалось вроде (хотя я не уверен) с имиджа, а не по движениям пера, из-за чего была низкая точность распознавания. А вот по движениям у вышедшего потом PalmPilot было хорошее качество распознавания.
Сейчас кэш есть на всех процессорах кроме микроконтроллеров, да и то не всех. Нет кэша например в STM32 F4, но уже в F7 есть.
Если инлайнить все функции и разворачивать все циклы, то будет больше промахов кэша и из-за этого низкая производительность. Это не бином ньютона.
Что вы хотите от текста написанного с помощью ChatGPT?
Есть области (например моя) в которой LLM просто тупо не работает. То есть он решает что-то на уровне индусских методичек 1990-х годов, но при минимально реалистической производственной задаче то что он выдает - не проходит тест. А те, кто пробуют это "чистить", просто входят в цикл и потом бросают. Я об этом писал на Хабре - https://habr.com/en/articles/902400/
Ну одноногий кайфует от костыля. Но зачем костыль тому кто может бегать?
Просто и одно и другое пока недавние явления - еще не срослись
Уж что-то а I2S мы разбираем на Школе Синтеза Цифровых Схем, в которой участвует 25+ российских и белорусских университетов - https://engineer.yadro.com/chip-design-school/
Ну почему, в МИЭТ есть курс по проектированию процессора, причем с практикой на FPGA платах и в симуляторе. И в других есть, в разном количестве (МФТИ, МИЭМ, ИТМО...)
Да, сможет, но если 1) не будет бесконечно откладывать и 2) не будет продолжать долбить ChatGPT.
Нейросети мои задачки не умеют решать
https://verilog-meetup.com/2025/04/29/how-to-fail-those-students-who-rely-on-chatgpt/
https://habr.com/en/articles/902400/