Вы наверно не прочитали статью и отвечаете на заголовок. Никто никому ничего не запрещает. Просто когда студент решает данную задачу и сбрасывает ее на чатгпт - то его ждет облом, решение не проходит тест. А если не сбрасывает и думает сам - то в конце-концов ее решает.
Круто! Кстати, я вчера обсуждал похожую задачу с преподавателем тут в Silicon Valley, который учит детей мехатронике, он наконец решил интегрировать FPGA в это дело.
По-моему вы не прочитали заметку и отвечаете на заголовок. Суть статьи в том что чатгпт как раз НЕ решает на уровне джуна - когда студенты пытаются сбросить задачу на чатгпт, то результат не проходит тест. А вот те студенты, которые терпеливо разбираются, в конце-концов получают работающий результат.
Где вы увидели в моей заметке запрет на инструмент? Я написал внизу: я когда давал задачку студентам, вообще не думал о чатгопоте. Зато потом обнаружил, что у этой задачки есть прикольное свойство: те, кто для ее решения пробуют разобраться сами - это решение находят, а те, которые пытаются найти решение мучая чатгпт - те решения не находят.
Тем самым задачу можно использовать для разделения людей на тех кто может решать производственные задачи - и тех, кто не может. Потому что в компаниях проектируемые блоки тоже должны использовать подблоки от других людей и должны проходить тесты, написанные другими людьми. чатгпт так не может, как показал мой эксперимент.
Ниже человек попробовал, но чатгпт не понял что в подмодулях - он соединил, будто они комбинационные, но у них внутри есть латентность (операция происходит за несколько тактов). То есть сгенерен некий текст, но он работать не будет - не пройдет даже первый тест в симуляторе
Я не вижу негатива, мне просто непонятно что вы предлагаете работодателям и родителям. Работодателям - нанимать на пансион людей которые ничего не умеют? Родителям - покрывать расходы на образование детей, которые не учатся?
Я ничего специально не запрещаю. Я просто обнаружил, что у задачки, которой я дал студентам, есть прикольное свойство, что те, кто для ее решения пробуют разобраться сами - это решение находят, а те, которые пытаются запинать найти решение чатгпт - те решения не находят. Это очень полезное свойство, так как оно моделирует реальные производственные условия, в которых блок должен использовать подблоки от других людей и должен пройти в тесте от других людей.
Я ничего специально не запрещаю. Я просто обнаружил, что у задачки, которой я дал студентам, есть прикольное свойство, что те, кто для ее решения пробуют разобраться сами - это решение находят, а те, которые пытаются запинать найти решение чатгпт - те решения не находят. Это очень полезное свойство, так как оно моделирует реальные производственные условия, в которых блок должен использовать подблоки от других людей и должен пройти в тесте от других людей.
Я когда давал задачку, то вообще не думал о чатгпт. Просто так получилось что из ~30 студентов квази-производственную задачку решили двое, которые стали разбираться сами, а все попытки остальных протащить решение от чатгопоты - провалились. То есть задачки такого рода хороши, чтобы сортировать студентов на две группы - кто что-то пробовал выучить и пробует разобраться, и кто проводил время в вузе просто так.
Разумеется тут больше виноваты не студенты, а профессора, которые не обновляли методички с 1990-х годов и не давали решать ничего хоть чуть контринтуитивного (начиная с простых задачек на последовательностную логику, которой нужно научить курсе на втором).
В результате я вижу у половины студентов американских вузов просто сюрреализм - у них в резуме стоит что они в вузе якобы проектировали суперскалярный процессор и моделировали многоядерные системы с кэш-когерентностью, а они начинают мучатся в задаче написать на верилоге код для побитового сумматора с переносом. Пытаются какие-то временные многобитовые переменные создавать вместо вот этого кода ниже.
Я раньше думал что такое спрашивать - слишком просто и что нужно сразу давать вопросы по конвейерам и FIFO, но практика показывает, что если студент не напишет вот такое за 10-15 минут, то спрашивает его о более высоких материях бессмысленно.
Кстати чатгпт такое наверное напишет, поэтому я даю заочно более сложные задачи как в этой заметке.
module serial_adder_with_vld
(
input clk,
input rst,
input vld,
input a,
input b,
input last,
output sum
);
logic carry;
assign sum = a ^ b ^ carry;
wire carry_d = (a & b) | (a & carry) | (b & carry);
always_ff @ (posedge clk)
if (rst)
begin
carry <= '0;
end
else if (vld)
begin
if (last)
carry <= '0;
else
carry <= carry_d;
end
endmodule
А работать в компаниях кто будет? Зачем нанимать такого человека и платить ему зарплату? Я привел довольно реалистичную производственную задачу с реальным окружением (чужие блоки, чужой тестбенч). Чатгпт такую задачу не решает (см. коммент выше с попыткой "решения"). Что будет такой человек делать в компании? Ему нужно специально придумывать и давать задачи, которые умеет решать чатгпт?
Но перед тем как пойти курьером, они пойдут в компанию на собеседование, где их обломает человек типа меня. Лучше для всех если его обломает профессор в вузе на несколько лет раньше. У него будет больше времени для коррекции планов и поведения.
Проблема у любого человека, который живет в мире иллюзий заключается в том, что ему труднее с нуля построить что-то реальное, с реальными достижениями. Потому что ему будет некомфортно упражняться с нуля в чем-то новом и большой сооблазн прекратить упражняться и убежать обратно в норку с иллюзиями.
Вы не поняли. У меня есть знакомый, который считался гением в детстве, но потом в юности пьянки с гитарой не дали ему возможность стать профессиональным ученым. И вот я однажды увидел, что он пишет в соцсетях рассуждения о физике, а комментаторы ему говорят "ах, гений". Но проблема в том, что это рассуждения являются гениальными на уровне школьника, но супротив профи это ниочем. Но он это не осознает, вот что удивительно. Скажем я прекрасно понимаю что я не физик, а вот он - нет.
Если студента не ставить перед реальностью, он может зайти в область, когда будет в 40 лет считать себя гением как его все считали в 5 классе, не осознавая что сейчас не 5 класс - примеры такого среди моих знакомых есть
Я не увидел в коде артефактов которые вижу в коде от чатгпт. Но я согласен, может они вначале и пробовали. А вот у других я видел четкие признаки - бессмысленно вставленные такты перед комбинационной логикой на диаграммах чтобы подгадать под мою картинку например. Или размер сигналов не соотвествовал млим потому что этого не было в тексте, который они скормили чатугпт и оно выдало наобум.
Революции ИИ еще нет. ИИ пишет глупые письма с поздравлением работников компании с Новым Годом, но для проектирования практически не применятся. Почему - наглядно видно из этого упражнения, на котором чатгпт генерит лажу которую можно видеть в попытке решения в комменте
В том то и дело, что эта задача прямо так сказать от сохи. В GPU смартфона куча вот таких конвейерных вычислителей в блоках фиксированных функций. Один практикант такой блок построил и он сейчас в десятках миллионов телефонов в продакшн. И обстановка реалистичная - чужая тестбенч, чужие подблоки. Просто чатгпт не умеет решать реалистичные современные задачи, только всякую фигню из методичек 1990-х годов как написать FSM светофора.
Да тут применяй не применяй - чатгпт все равно эту задачу не решает (см. коммент выше с попыткой). Вместо того, чтобы сесть и разобраться самому, большинство студентов продолжают пинать чатгпт, а если не пинается, считают задачу неправильной.
Вы наверно не прочитали статью и отвечаете на заголовок. Никто никому ничего не запрещает. Просто когда студент решает данную задачу и сбрасывает ее на чатгпт - то его ждет облом, решение не проходит тест. А если не сбрасывает и думает сам - то в конце-концов ее решает.
Круто! Кстати, я вчера обсуждал похожую задачу с преподавателем тут в Silicon Valley, который учит детей мехатронике, он наконец решил интегрировать FPGA в это дело.
По-моему вы не прочитали заметку и отвечаете на заголовок. Суть статьи в том что чатгпт как раз НЕ решает на уровне джуна - когда студенты пытаются сбросить задачу на чатгпт, то результат не проходит тест. А вот те студенты, которые терпеливо разбираются, в конце-концов получают работающий результат.
Где вы увидели в моей заметке запрет на инструмент? Я написал внизу: я когда давал задачку студентам, вообще не думал о чатгопоте. Зато потом обнаружил, что у этой задачки есть прикольное свойство: те, кто для ее решения пробуют разобраться сами - это решение находят, а те, которые пытаются найти решение мучая чатгпт - те решения не находят.
Тем самым задачу можно использовать для разделения людей на тех кто может решать производственные задачи - и тех, кто не может. Потому что в компаниях проектируемые блоки тоже должны использовать подблоки от других людей и должны проходить тесты, написанные другими людьми. чатгпт так не может, как показал мой эксперимент.
Ниже человек попробовал, но чатгпт не понял что в подмодулях - он соединил, будто они комбинационные, но у них внутри есть латентность (операция происходит за несколько тактов). То есть сгенерен некий текст, но он работать не будет - не пройдет даже первый тест в симуляторе
https://habr.com/en/articles/902400/#comment_28201512
Я не вижу негатива, мне просто непонятно что вы предлагаете работодателям и родителям. Работодателям - нанимать на пансион людей которые ничего не умеют? Родителям - покрывать расходы на образование детей, которые не учатся?
Кстати девочка-припевочка тоже была. Одна девочка на вопрос вставить в тривиальный процессор блок умножения с латентностью два такта написала:
cpu i_cpu (.clk (clk * 0.5)
То есть она умножила 1-битовый цифровой сигнал clk на вещественное число 0.5.
Я ничего специально не запрещаю. Я просто обнаружил, что у задачки, которой я дал студентам, есть прикольное свойство, что те, кто для ее решения пробуют разобраться сами - это решение находят, а те, которые пытаются запинать найти решение чатгпт - те решения не находят. Это очень полезное свойство, так как оно моделирует реальные производственные условия, в которых блок должен использовать подблоки от других людей и должен пройти в тесте от других людей.
Я ничего специально не запрещаю. Я просто обнаружил, что у задачки, которой я дал студентам, есть прикольное свойство, что те, кто для ее решения пробуют разобраться сами - это решение находят, а те, которые пытаются запинать найти решение чатгпт - те решения не находят. Это очень полезное свойство, так как оно моделирует реальные производственные условия, в которых блок должен использовать подблоки от других людей и должен пройти в тесте от других людей.
Я когда давал задачку, то вообще не думал о чатгпт. Просто так получилось что из ~30 студентов квази-производственную задачку решили двое, которые стали разбираться сами, а все попытки остальных протащить решение от чатгопоты - провалились. То есть задачки такого рода хороши, чтобы сортировать студентов на две группы - кто что-то пробовал выучить и пробует разобраться, и кто проводил время в вузе просто так.
Разумеется тут больше виноваты не студенты, а профессора, которые не обновляли методички с 1990-х годов и не давали решать ничего хоть чуть контринтуитивного (начиная с простых задачек на последовательностную логику, которой нужно научить курсе на втором).
В результате я вижу у половины студентов американских вузов просто сюрреализм - у них в резуме стоит что они в вузе якобы проектировали суперскалярный процессор и моделировали многоядерные системы с кэш-когерентностью, а они начинают мучатся в задаче написать на верилоге код для побитового сумматора с переносом. Пытаются какие-то временные многобитовые переменные создавать вместо вот этого кода ниже.
Я раньше думал что такое спрашивать - слишком просто и что нужно сразу давать вопросы по конвейерам и FIFO, но практика показывает, что если студент не напишет вот такое за 10-15 минут, то спрашивает его о более высоких материях бессмысленно.
Кстати чатгпт такое наверное напишет, поэтому я даю заочно более сложные задачи как в этой заметке.
А работать в компаниях кто будет? Зачем нанимать такого человека и платить ему зарплату? Я привел довольно реалистичную производственную задачу с реальным окружением (чужие блоки, чужой тестбенч). Чатгпт такую задачу не решает (см. коммент выше с попыткой "решения"). Что будет такой человек делать в компании? Ему нужно специально придумывать и давать задачи, которые умеет решать чатгпт?
Но перед тем как пойти курьером, они пойдут в компанию на собеседование, где их обломает человек типа меня. Лучше для всех если его обломает профессор в вузе на несколько лет раньше. У него будет больше времени для коррекции планов и поведения.
Проблема у любого человека, который живет в мире иллюзий заключается в том, что ему труднее с нуля построить что-то реальное, с реальными достижениями. Потому что ему будет некомфортно упражняться с нуля в чем-то новом и большой сооблазн прекратить упражняться и убежать обратно в норку с иллюзиями.
Вы не поняли. У меня есть знакомый, который считался гением в детстве, но потом в юности пьянки с гитарой не дали ему возможность стать профессиональным ученым. И вот я однажды увидел, что он пишет в соцсетях рассуждения о физике, а комментаторы ему говорят "ах, гений". Но проблема в том, что это рассуждения являются гениальными на уровне школьника, но супротив профи это ниочем. Но он это не осознает, вот что удивительно. Скажем я прекрасно понимаю что я не физик, а вот он - нет.
Если студента не ставить перед реальностью, он может зайти в область, когда будет в 40 лет считать себя гением как его все считали в 5 классе, не осознавая что сейчас не 5 класс - примеры такого среди моих знакомых есть
Я не увидел в коде артефактов которые вижу в коде от чатгпт. Но я согласен, может они вначале и пробовали. А вот у других я видел четкие признаки - бессмысленно вставленные такты перед комбинационной логикой на диаграммах чтобы подгадать под мою картинку например. Или размер сигналов не соотвествовал млим потому что этого не было в тексте, который они скормили чатугпт и оно выдало наобум.
Ну почему - пусть попробуют
Революции ИИ еще нет. ИИ пишет глупые письма с поздравлением работников компании с Новым Годом, но для проектирования практически не применятся. Почему - наглядно видно из этого упражнения, на котором чатгпт генерит лажу которую можно видеть в попытке решения в комменте
https://habr.com/en/articles/902400/comments/#comment_28201512
Это "решение" не работает, причем вообще, несмотря на уверенность комментатора.
Поэтому с индустриальной революцией "революцию ИИ" сравнивать нельзя - в индустриальной революции были реальные работающие станки и фабрики.
В том то и дело, что эта задача прямо так сказать от сохи. В GPU смартфона куча вот таких конвейерных вычислителей в блоках фиксированных функций. Один практикант такой блок построил и он сейчас в десятках миллионов телефонов в продакшн. И обстановка реалистичная - чужая тестбенч, чужие подблоки. Просто чатгпт не умеет решать реалистичные современные задачи, только всякую фигню из методичек 1990-х годов как написать FSM светофора.
Да тут применяй не применяй - чатгпт все равно эту задачу не решает (см. коммент выше с попыткой). Вместо того, чтобы сесть и разобраться самому, большинство студентов продолжают пинать чатгпт, а если не пинается, считают задачу неправильной.