Pull to refresh
375
17.6
Юрий Панчул / Yuri Panchul @YuriPanchul

Проектировщик CPU, GPU, сетевых микросхем

Send message

От этого поста тоже воняет чат-гопотятиной.

Интересно, можно ли закрыть фонтан LLM если нанести удар ракетой "Кинжал" по датацентру, на серверах которого оно работает?

А зачем вы пишете "if (reset == 1)" а не просто "if(reset)"? Ну то есть я знаю такую школу мысли, но мне интересна ваша аргументация.

Это типа вы меня так тролите, да? Ваш дурацкий LLM который вы сюда запостили, снова гонит. Вот эта фраза - неверна: "А это фундаментально разный семантический смысл — continuous assignment vs. procedural assignment". Потому что там второе - не procedural assignment, а инициализация, которая срабатывает еще до initial.

Если бы я пошел бы на интервью и у меня бы спрашиввли только задачи типа приведенной, я бы в компанию однозначно не пошел, потому что задачка очень примитивная. Серьезные компании дают более интересные задачки - либо алгоритмические (какую-нибудь траесформацию дерева), либо относящуюся к предметной области данной компании.

Я пока не видел никого кто бы решил с помощью LLM вот такую задачку (особенно меня интересует конвейерный вариант то бишь Exercise 3), а в ней нет тайминга внутри такта вообще, а по части латентности это эквивалент самого простого что мы даем практикантам в Самсунге в качестве задания на практике - ститический конвейер кастомного FPU:

https://verilog-meetup.com/2025/04/29/how-to-fail-those-students-who-rely-on-chatgpt/

Там просто место проведения предыдущей выставки - "Коровий дворец" - "Cow Palace" - места возле Сан-Францисского аэропорта, откуда по-видимому видны пасущиеся на холмах коровы (или были видны раньше).

Apple Newton был дурацким устройством. Это был карманный компьютер, который не влазил в карман. И распознавание рукописных букв в нем делалось вроде (хотя я не уверен) с имиджа, а не по движениям пера, из-за чего была низкая точность распознавания. А вот по движениям у вышедшего потом PalmPilot было хорошее качество распознавания.

Сейчас кэш есть на всех процессорах кроме микроконтроллеров, да и то не всех. Нет кэша например в STM32 F4, но уже в F7 есть.

Если инлайнить все функции и разворачивать все циклы, то будет больше промахов кэша и из-за этого низкая производительность. Это не бином ньютона.

Что вы хотите от текста написанного с помощью ChatGPT?

Есть области (например моя) в которой LLM просто тупо не работает. То есть он решает что-то на уровне индусских методичек 1990-х годов, но при минимально реалистической производственной задаче то что он выдает - не проходит тест. А те, кто пробуют это "чистить", просто входят в цикл и потом бросают. Я об этом писал на Хабре - https://habr.com/en/articles/902400/

Ну одноногий кайфует от костыля. Но зачем костыль тому кто может бегать?

Просто и одно и другое пока недавние явления - еще не срослись

Уж что-то а I2S мы разбираем на Школе Синтеза Цифровых Схем, в которой участвует 25+ российских и белорусских университетов - https://engineer.yadro.com/chip-design-school/

Ну почему, в МИЭТ есть курс по проектированию процессора, причем с практикой на FPGA платах и в симуляторе. И в других есть, в разном количестве (МФТИ, МИЭМ, ИТМО...)

Да, сможет, но если 1) не будет бесконечно откладывать и 2) не будет продолжать долбить ChatGPT.

1
23 ...

Information

Rating
773-rd
Location
Sunnyvale, California, США
Date of birth
Registered
Activity