Согласен (что нужно учить базу, писать код самому). Агентные системы помогают, когда ты сам разбираешься. То есть учить надо и базу и пробовать применять агентные системы.
Юрий, мне кажется, вы очень суровы к AI-инструментам. Я вам показывал пример exp-вычислителя с проверкой синтзезируемости и тестами, который я сделал в агентной системе (я присал одну RTL-модель, а сдела сразу 6 - с разными мат. моделями, точностями). Вот ещё пример из недавнего: linux-capable RV-CPU https://t.me/AGI_and_RL/1331 https://arxiv.org/abs/2603.08716
Очень хорошая статья, спасибо. Кое c чем не согласен и пара замечаний: 1) у systolic array по мере увеличения размера не уменьшается частота (и он по площади занимает сильно меньше, чем эквивалентный набор SM'ов с Tensor Cores, хотя последние и гибче в итоге) 2) маленькие тензорные ядра порождают большую внутреннюю полосу (чем меньше ядра, тем меньше data reuse и толще шины/полосы) 3) GPGPU легко программировать в общем случае, это да. Но в Nvidia программисты написали десятки тысяч вручную оптимизированных кернелей: для них это преимущество, а для стартапов - недостаток, нет столько программистов
Согласен (что нужно учить базу, писать код самому). Агентные системы помогают, когда ты сам разбираешься. То есть учить надо и базу и пробовать применять агентные системы.
Юрий, мне кажется, вы очень суровы к AI-инструментам. Я вам показывал пример exp-вычислителя с проверкой синтзезируемости и тестами, который я сделал в агентной системе (я присал одну RTL-модель, а сдела сразу 6 - с разными мат. моделями, точностями).
Вот ещё пример из недавнего: linux-capable RV-CPU
https://t.me/AGI_and_RL/1331
https://arxiv.org/abs/2603.08716
Очень хорошая статья, спасибо. Кое c чем не согласен и пара замечаний:
1) у systolic array по мере увеличения размера не уменьшается частота (и он по площади занимает сильно меньше, чем эквивалентный набор SM'ов с Tensor Cores, хотя последние и гибче в итоге)
2) маленькие тензорные ядра порождают большую внутреннюю полосу (чем меньше ядра, тем меньше data reuse и толще шины/полосы)
3) GPGPU легко программировать в общем случае, это да. Но в Nvidia программисты написали десятки тысяч вручную оптимизированных кернелей: для них это преимущество, а для стартапов - недостаток, нет столько программистов
XOR содержит один NOT. XOR = "^"
D = A ^ B
!A = D & B
!B = D & A
!C = !C