Comments 7
Еще один 100% LLM. Мозг не включался, вовлеченность автора отсутствует.
А собственно разрушение-то где?
Есть доказательства того, что мозговитая группа которая показала.хороший результат, а потом поработала с gpt и больше не способна показать такой же хороший.результат если вернуть условия обратно как было?
А то так можно и про сон сказать, ведь тоже наблюдается снижение активности
А чего минусы у статьи? Перевод вроде корректный.
Да заголовок конешн кликбейтный, и его бы переименовать к виду "ChatGPT заставляет нас меньше думать — и вот доказательства"
Но то что при использовании чатГПТ ты меньше думаешь это вроде и так очевидно было.
Тут как и с калькулятором, умножение в столбик мозг конешно загрузит по сравнению с использованием калькулятора. Но если это рутинная задача, то почему бы и не использовать калькулятор
Что интересно, в конце оригинала написано
Please do not use the words like “stupid”, “dumb”, “brain rot”, "harm", "damage", "brain damage", "passivity", "trimming" , "collapse" and so on. It does a huge disservice to this work, as we did not use this vocabulary in the paper, especially if you are a journalist reporting on it.
И заголовок статьи
ChatGPT буквально разрушает ваш мозг
Пардон, а ученые-то где? Какое исследование? По ссылке статья на сайте MIT, а в ней ссылка, которая ведет на другой сайт, совсем не похожий на рецензируемое издание. Там другая статья, не похожая на исследование, прошедшее пир-ревью. И вообще на исследование. И список авторов, не похожий на список ученых, с достойным внимания индексом хирша. Даже просто на список ученых. Да даже просто на список не очень.
Статья, правда, тоже никак не демонстрирует то, что в заголовке, а именно: разрушение мозга. Как из отсутствия активности на ээг вы делаете скачок к разрушению мозга? Эксперимент (дизайн, релевантность и прочие качества которго просто оставим за кадром) буквально показывает, что когда вы часть работы свалили на ии, ваш мозг проявляет меньше активности. Что, на мой взгляд, изначально доминирующая гипотеза. Впрочем, содержимое статьи вторично.
Где исследование от ученых? Что за отвратительный карго-культ: давать референсы на что попало, в надежде что английский язык внушит трепет и благоговение перед ученостью господ, оставивших ссылку, и никто не будет анализировать сии референсы... А самое циничное - это список практических рекомендаций на основании скомпилированной ахинеи.
Благодарю за статью, присовокуплю ее к списку доказательств того, что хомо генерируют контент ничуть не лучше по качеству, чем ллм. А часто намного хуже.
Еще один кретинский пост из серии "обожимой ИИ = деградация моцка". ИИ - это инструмент. А чтобы деградировать, надо сначала развиться, но 90% вскукареков про разрушение когнитивных способностей из-за использования ИИ производят индивиды, которые гыкая снимают как фитнес-браслет определяет пульс на палке колбасы, даже не пытаясь понять как он вообще работает и почему может регистрировать "пульс". В общем ура, официально хабр скатился до уровня пикабу.
То, что при работе с LLM, делегировании ему задач по написанию эссе понятно, что мозг отключается и активность мозга через ЭЭГ будет меньше, как и нейронная связанность.
И то, что слепое доверие LLM будет приводить к тому, что LLM будут давать менее оригинальные результаты, так как по определению LLM генерирует что-то статистически усредненное, исходя из своего алгоритма работы.
Все эти факты мне кажутся очевидными.
Это как: одному человеку мы дали мопед и сказали проехать 10 километров, а второй человек проехал 10 километров на велосипеде.
Ученые пришли к сенсационному выводу: тот, кто ехал на велосипеде, сильнее накачал мышцы своих ног, чем тот, кто ехал на мопеде.
Но это же абсурд проводить такой эксперимент.
И вывод можно сделать такой: человеку, который использует LLM, нужно было давать не одно эссе, а, например, задачу написать 10 эссе, или столько много создать эссе, сколько успеет, пока другой человек будет генерировать свое эссе чисто мозгом.
Т.е. в исследовании нужно, чтобы мозг в обоих случаях использовался полностью на 100%, а человек с LLM не тратил 5 минут на генерацию эссе, а потом оставшееся время смотрел в потолок.
Из этого можно сделать вывод, как в мире, где присутствует LLM, нужно строить обучение и закрепление знаний на практике. А LLM — это уже данность, которая есть, нет смысла при обучении запрещать её использовать, нужно адаптировать учебный подход к новым реалиям. Теперь:
нужно написать не 1 эссе -> а сгенерировать с помощью LLM структурированную книгу на 500 страниц с четкой последовательностью изложения;
написать не приложение-тутушку -> а сгенерировать с помощью LLM ERP-систему корпоративного уровня;
написать не диплом на 100 страниц -> а создать монографию из 10 томов, досконально разбирающую какую-то проблему и пути её решения.
Т.е. хотите использовать LLM — используйте, но вот только не получится считерить и не думать головой, смотря в потолок, усилий вам придется потратить столько же, если не больше, чтобы даже с помощью LLM проделать в 10 раз большую работу.
При обучении теперь, для сохранения той же его эффективности формирования нейронных связей, сложность заданий и их объем должны кратно расти, потому что то что раньше писалось несколько дней самостоятельно, теперь за 5 минут генерируется LLM и это не повод все остальное время не думать головой
В этой парадигме обучение на первое место выступает системный анализ, логическая стройность построения, новизна рассматриваемых идей и их аргументация и ключевое - критический подход, а не зазубривание информации, на чем было сосредоточена большая часть учебного процесса ранее. Зазубривание теперь бессмысленно
Можно сказать, что если заставить человека ехать на мопеде не 10км, а 1000км, то ноги он всё-равно не накачает. Да, согласен, но тогда тогда хотя бы у него будет железная задница (системное, логическое, критическое мышление и навык анализа информации)
Ответить
ChatGPT буквально разрушает ваш мозг — и вот доказательства