Comments 34
Местами LLM модели делают нашу жизнь намного сложнее, приходится искать правду в куче сгенерированного контента...
Было бы более корректно, если бы вы назвали свою заметку "Исследование MIT не даёт убедительных доказательств, что LLM делает людей глупее". Но однозначно заявлять - "ChatGPT не делает нас глупее" - пока преждевременно.
Интеллект, как и мышцы, атрофируется без тренировки.
Собственно, появление гуглежа задолго до появления этого вашего LLM уже доказало, что основная масса "подключенных" людей в среднем немного но заметно деградировала и в полном оффлайне без гугла из себя особо ничего не представляет.
На самом деле, я думаю, что это естественный процесс. Мозг - штука беспрецедентно ленивая и он борется за возможность получать информацию с минимальными энергитическими затратами. Это мозг придумал интернет, затем базы данных и хранилища и затем гугл. Так что появление чистого "Homo Interneticus" явно не за горами. А всякие LLM всего-лишь следующая ступень гуглежа, чтобы запрашивать информацию привычным общением без необходимости печатать. Ну и где-то рядом с этим мы имеем отупляющие бесконечные генераторы контента, вроде Тик-Тока.
Собственно, появление гуглежа задолго до появления этого вашего LLM уже доказало, что основная масса "подключенных" людей в среднем немного но заметно деградировала и в полном оффлайне без гугла из себя особо ничего не представляет.
Пральна, и с появлением книг люди тоже заметно деградировали :)
Не согласен. Чтение книг имеет некоторые когнитивные требования. Помимо обязательного распознавания глифов букв в осмысленный текст а так же визуализация этого текста в некоторую сцену внутри головы, требовалось ещё и помнить некоторый контекст, который в зависимости от книги мог быть достаточно большим. А так как скорость чтения относительно медленная, то время хранения контекста могло исчисляться месяцами.
Так и взаимодействие с нейросетью имеет некоторые когнитивные требования. Например, нужно понимать, как составить промпт. А то я насмотрелся, как некоторые люди пытаются добиться от чатботов вразумительного ответа, отсылая им шизофазию :)
Более того, на этапе составления промпта мысли приходят в порядок и бывает что надобность в промпте уже отпадает. Этакая новая форма метода утёнка: https://ru.wikipedia.org/wiki/Метод_утёнка
Скажите, голосовые помощники (Алиса, Алекса, Сири, Ок-Гуголь и т.д.) считаются за этот ваш ИИ? Если так, то о какой "подготовке" промпта идёт речь, когда ты с ними общаешься обычным языком как с простым собеседником? При этом, если говорить конкретно за Алису, например, она явно больше, чем просто поисковик, хотя умеет и тупо гуглить/яндексить если ты её прямо об этом просишь. А ещё, она типа узнаёт людишек - можно настроить на себя (твоя аудиобиометрия как ключ) и она будет в толпе вопросов к тебе обращаться точечно, как и слушать чисто тебя. А ещё, когда ко мне мелкие племяши приехали в гости и атаковали несчастную, мне тут же пришёл пуш на мобилу в аккаунт с текстом "обнаружены новые дети, включить родительский контроль?".
Что касается генеративных нейронок, которые создают контент, они да, требуют промпт. Например, тот же Stable Diffusion. Но это уже не помощник, это инструмент. А любым инструментом следует уметь пользоваться.
Голосовые помощники - да, не требуют вдумчивых промптов и по сути аналогичны людям-собеседникам. Однако дело вот в чём: если текстовое взаимодействие с чатботом можно назвать заменой гуглингу, то взаимодействие с голосовым помощником это новое явление, которому просто не было аналога в прежние годы и времена (за исключением разве что телефонных справочных, которые были далеко не везде и не всегда). И это явление сделало более доступным людям огромные массивы знаний. Я не понимаю, как это может сделать людей глупее. По мне так совсем наоборот.
Я не понимаю, как это может сделать людей глупее. По мне так совсем наоборот.
Как и интернет с гуглежом в целом: зачем мне учить, запоминать, развивать если можно просто спросить нужное? Как итог: полный ноль без онлайна. Повторюсь: не следует недооценивать лень мозга. Если он нашёл более лёгкий способ добычи информации то он никогда не вернётся на более сложный.
Так а книги-то чем отличаются в этом плане от гугла?
Как итог: полный ноль без онлайна.
Это просто сферическая в вакууме чепуха. Большинство (если не все) глупых анскильных людей, которых я встречал, ни черта не умели гуглить, да и не имели такого желания в принципе. А если человек умеет искать информацию - это уже стоит больше, чем любой зубрёж. И когда человек раз за разом ищет одну и ту же инфу - она всё равно откладывается в его мозге, как в кэше. А если она забылась, то похоже что не очень-то нужна была.
С чатботами и голосовыми помощниками точно такая же картина: тупицам всё это нахой не надо, они и так самые умные на свете и всё знают.
Ну вот у меня лично другая статистика и я её уже озвучил. И тут получается просто ваше слово против моего. Согласно квантовой физике, варианты истинного положения дел не ограничиваются только этими двумя (вашим и моим).
Так а книги-то чем отличаются в этом плане от гугла?
Тем что книга не умеет сама себя открыть на нужной странице где содержится ответ на вопрос. А библиотека не может сама принести с полки нужную книгу.
Личный опыт. Моя мать рассказывала что учителя говорили при появлении логарифмических линеек ученики станут тупее. Потом мой опыт, калькуляторы. Потом компьютеры. Потом гугль. Теперь чаты ЖПТ. Вопрос. Если повсеместно ( а внедрение предыдущих сущностей повсеместно) происходило это. Кто создавал все более мощные сложные системы. По логике все должно было остановиться на логарифмических линейках. Или не дай бог еще раньше на счетах.
Или на солнечных часах, ведь там тоже пришлось отказаться от невероятно полезного навыка как-то координировать действия без знания точного времени.
а вы можете аргументировать, что ученики не стали тупее после появления лог.линеек? может быть это действительно произошло?
Вот в каменном веке все были гениями, а потом всё покатилось.
В среднем вес мозга уменьшается...
Учебники и справочники сделали людей глупее. Вот раньше, помню, было хорошо: чтобы получить какое-то знание - приходилось самому отыскивать специалистов в разных странах, опрашивать их, находя к ним подходы. Тут тебе и языки знать нужно, и тонкости человеческой психологии, и приёмы поиска людей в незнакомой местности. А потом что стало? Взял учебник или справочник и получил всё в готовом виде на своём родном языке. Даже мозг напрягать не надо. Тьфу! Деградация...
Перейдём к методологическим проблемам:
На мой взгляд, одна из важнейших методологических проблем это как они провели 4-й этап на котором группы менялись: те, кто использовал ЛЛМ теперь писали сами, а те, кто раньше писал сам - использовали ЛЛМ. И поведение участников, как и результаты, сильно отличались от того, как было на предыдущих этапах, из-за чего было много хайпа на тему отупения.
Вот только 4-й этап во-первых был необязательным и пришло сильно меньше народу (которого и так было слишком мало для нормального исследования), а во-вторых задание отличалось - вместо того, чтоб писать новое сочинение как на предыдущих этапах, участники переписывали старое.
Так что к участникам оригинального исследования есть огромная претензия, или скорее, вопрос: эти изменения в 4-й этап были сделаны специально, чтоб на разнице в ЭЭГ с предыдущими этапами можно было начать говорить об отуплении, или нечаянно накосячили?
Тут всё просто: LLM делает глупых глупее, а умных умнее. Если вы не глупеете от использования LLM, то у меня для вас хорошие новости. Но в среднем для человечества новости так себе.
Наверное это как с любым изобретение. Допустим машина. Она и плюс и минус. Ты становишься жирнее но при этом успеваешь больше. Но можно просто быть жирным без успевания так как разницу во времени будеш тратить на ничего не далание. Но и если не будет у тебя машины ты также не будеш ничего делать и также будеш лежать на печи.
ЧатГПТ делает действительно делает людей глупее. Как минимум потому, что у них отсутствует критическое мышление. Они становятся готовы оправдать любую фигню ради удобства. Но теперь, в отличие от прошлых времён, хватаются за эту возможность как настоящие звери. Буквально каждый первый готов разорвать несогласного, вызывающего к разуму, по кусочкам. Таким людям, как автору статьи, плевать, что человечество, и он в том числе, будет загибаться вскорости от жажды и холода - и невозможности восполнить потребности, потому как и воду, и энергию отобрала нейросеть. Это не шутка: ИИ требуется все больше энергии и воды.
Ирония в том, что цивилизацию погубит не машина, а ее создатели, жадные до бабла. Корпорации готовы пожертвовать жизнями миллионов и миллиардов ради баснословных прибылей. И вешают лапшу обывателям про продуктивность и прочие ништяки.
Поэтому и идут придирки к мелочам. А взглянуть на проблему глобально, выше собственного носа, подобного рода критики не решаются.
Я несколько месяцев писал код с ассистентами и когда у меня пропал интернет я испытал трудности, после того пишу сам а ChatGPT использую как штуку которая даст мне быстро какую то вводную информацию и если её не достаточно или она оказывается не совсем правдивой то иду в доки смотреть.
Но ради справедливости замечу что программирование это хобби, мне нравится этим заниматься и если за меня всё будут делать агенты/ассистенты то в этом не будет никакого смысла
Моё мнение, нейронками надо не только уметь пользоваться а ещё и иметь само дисциплину чтобы не разлениться
конечно же делает, и данный пост - прямое тому подтверждение)
Использование генеративных нейро сетей - это большая нагрузка на мозг. Фильтровать критически тонну информации/опровергать/тестировать... То ещё удовольствие.
Я использую в учебных/рабочих целях.
Плюс ещё могу из минусов написать что при изучении, очень часто белые пятна в изучении технологии. Ты о них знаешь, но никак времени не находишь. Постоянно в процессе.
За год использования, ну... Больше 1000 (импортировал в obsydian, а далее агентами редактируются, связываются и формируются "дев-стори") чатов о Django, Odoo, Pyton, NixOS, Docker, Docker-swarm, Docker-compose, сеть,ансибл, и хрен пойми что ещё...
Высшее в 12 году закончил - "инженер системотехник" - ИТ, но после то електриком был з доступом до 10 кВт, строителем, фирма своя была из 3 человек - телефоны ремонтировали. Ещё 6 специальностей которые с ИТ не связаны. Это я к чему - во первых после вуза. В те года не особо и брали всех. За 10 лет сколько всего - что угнаться просто нереально.
Нескажу что даже мидл SRE, front-end, back-end. Пойти могу как Пайтон Разграб на фронт-енд или бек-енд. Девопс тоже вариант вполне реальный. Вопрос - возьмут ли ))) это не знаю, в ИТ неспокойное время).
Я не думаю что нейро сети делают нас глупее. Это инструмент, а не один мозг на двух. Инструмент не больше ни меньше. Молотком тоже можно отбить себе пальцы и остаться калекой.)
AI делает то же, что когда-то сделали порно или интернет: облегчает доступ к решению проблемы. Но такой путь ничему не учит. Проблема исчезает за 5 минут… но мозг не учится! И не создаёт новых связей! А мозг любит простые решения так как это приносит удовольствие. И он будет снова и снова идти по тому же пути.
Когда автор в последний раз учил стихи, чтобы прочитать их любимому человеку? А заглядывал в печатную энциклопедию? А искал информацию в библиотеке? Скорее всего давно, потому что легкий путь победил.
Возможно, автор статьи ставит себя выше основной массы. Возможно, он не стал ленивее от упрощения задач: не смотрит тв и ютуб, читает книги, всё старается делать вручную, автоматизирует только своими руками.
Если это так и он не проецирует поведение большинства на себя, тогда неудивительно что ему исследование кажется слабообоснованным. Но для большинства оно довольно точно описывает реальность.
Здесь есть ревью по ряду подобных исследований, вопросы по теме кажутся более обоснованными: https://slejournal.springeropen.com/articles/10.1186/s40561-024-00316-7
По ЭЭГ нельзя определить характер когнитивной нагрузки (какими задачами "загружен мозг"), а можно понять только её наличие и уровень ("загружен" он или нет и насколько).
Возвращаясь к ревью по ссылке выше: авторы ставят вопрос, приведет ли систематическое использование диалоговых AI к снижению способностей принятия решений, критического мышления, способностей к анализу и поиску информации. И тут, на мой взгляд, ситуация следующая: на короткой дистанции увидим рост мотивации к обучению (знания более доступны, можно узнать то, что всегда хотелось), в долгосрочной перспективе - да, уровень этих способностей будет снижаться у людей, потому что не будет подкрепляться привычка к самостоятельному поиску и анализу информации. Учитывая, что ChatGpt может сильно упрощать информацию, путать даты и исторические факты, выдумывать известных личностей, подгоняя под запрос пользователя, то тут ещё, конечно, будет проблема заполнения информационного пространства "фейковыми" знаниями, которые будет сложнее отследить, потому что у них нет цели (как у пропагандистского текста, например, по целям которого можно понять, какие факты могут быть подвергнуты искажению).
Так что в целом для меня всё выглядит скорее как отупление.
ChatGPT не делает нас глупее