Обновить

Комментарии 4

Проблема однако возникает на более ранних курсах. Задачи по вводным дисциплинам по определению не могут быть настолько полны нюансов, чтобы на них было легко отличить студента от LLM по качеству ответа. Насколько сильно это повлияет в будущем на студентов, которые придут к Вам после того как за них два года все писала LLM я предсказывать не возьмусь. Может быть они наладят кооперацию с новым инструментом и смогут даже лучше отвечать и Вам придется углубить курс еще. А может быть и нет.

Я с Вами концептуально согласен, но есть пара моментов:

  1. На более ранних курсах у них идет математика в разных ипостасях, с которой пока LLM-ки не особо дружат.

  2. Моя же задача не наказать и запретить пользоваться LLM, моя задача - идентифицировать (и наказать) случаи, когда LLM используется не вместе с мозгом, а вместо него; если кто-то из студентом отшлифует свой навык пользования LLM настолько, что сможет выполнять все задания с помощью AI, при этом полностью понимая и осознавая что происходит - да пожалуйста

Сам студент. Ллм отлично помогает отсеивать всякую муть в программе (в одной из первых версий чатгпт написаны 34 реферата по физкультуре, преподаватель даже не заметила ничего) и ускорять обучение, подсказывая материалы и обычная концепции. Ценю, что можно попросить пример кода, когда в интернете есть только отдаленно похожееи неподходящее

Российскими ллм не пользуюсь - гигачат туповат и зацензурен, а Яндекс полгода назад показал себя нулем в программировании, после чего я его не открывал, - так что сравнить не могу, но ни один иностранный бот не научился писать так, чтобы текст казался человеческим после двух фраз. Даже если отдельно просить. Видео всегда и везде, многие садятся, если преподаватель этого хочет.

В целом соглашусь с вашими выводами. Единственные задания, которые можно сделать через ллм так, чтобы преподаватель ничего не заметил - программы. Но лично мне для того,, чтобы в пару запросов получить отдебаженный, рабочий результат в нужном мне формате, приходится заранее объяснять, как должна работать программа, какие данные и откуда брать, как выводить и вот это вот всё. Просто скидывать задание слишком тупо. Но можно, и даже те преподаватели, которые прекрасно видят текст от нейросети, лабы, состоящие из простой программы, ломают только на вопросах самому студенту. Как вы, в принципе, и сказали - объяснить ллм может отлично, а вложить знания пока что не получается.

А самый приятный опыт использования нейронки - когда в прошлом семестре клепал лабы однокурснику и в гпт 3.5 скидывал описание работы программы почти по шагам, а в ответ получал идеальный код. 8 лаб по вебу и готовый пхп сайт за 2 часа. Самые лёгкие три косаря в жизни))). Но перед этим я сделал свои восемь лаб и они были посложнее, ведь я ещё не знал, что именно мне нужно)

Однозначно поддерживаю мысль что LLMки отупляют мозг, поддерживают лень. Лично я считаю что для большинства людей это будет наркотик, с которого они не слезут и тенденция на отупение будет увеличиваться.

По существу:

Не согласен с отсутствием GPT4 & Claude - сильные модели незаслуженно отсутствует в выборке, ненаучный подход.

Не совсем уверен в корректности подхода, так как под каждую модель по-хорошему нужно искать подходы и подбирать промпт. А так как студент ленивый он этого не делал, кмк. Предлагаю такую же задачу поставить отличнику.

Могли бы приложить пример промпта? Это был one-shot или few-shot промтинг?

Применяю активно GPT4 в программировании. Подкрепляю примерами, делаю задачу в несколько шагов, смотрю на отладочные данные : код может не оптимизирован, но справляется с задачей. Решал задачи на Python, JS, C. Но у меня опыт системного аналитика 10 лет)

Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации