Pull to refresh

Comments 115

Согласен, нельзя так издеваться над искусственным разумом.

Большинство запретов нормально работают. Запрет на езду без прав или продажу продуктов питания без сертификатов соответствия, например.

А запрет ChatGPT на StackOverFlow имеет смысл или нет?

Ведь некоторые все равно будут использовать его на свой страх и риск ради легкого заработка репутации и своего ЧСВ. Но при этом нельзя будет сказать как бы между делом "Слушай, я тут не вникал особо в твой вопрос, но ChatGPT мне говорит, что...". Придется привести текст в более "человеческий" вид, а не просто Ctr+C, Ctr+V.

Такой запрет просто немного уравновешивает возможности тех, кто не использует ChatGPT и тратит гораздо больше своих времени и сил на ответ в SOF.

Не все запреты- бессмысленные

Вы предлагаете вводить смертную казнь для тех, кто посмел прикоснуться к ChatGPT? Хммм.... А в общем-то, неплохая идея.

Улучшить образовательный процесс с использованием современных технологий? Не, фигня какая-то, лучше всё запретим.

Ваши предложения по улучшению образовательного процесса с помощью ChatGPT?

Всячески рекламировать, просить написать при помощи него чего-нибудь поубедительней, проводить на эту тему конкурсы.

Потом устраивать длинные и подробные обсуждения, как это можно от творчества человека отличить.

И вообще вводить много разных упражнений, смысл которых в тренировке 'отличи, это бредогенератор (человеческий или искусственный) писал или тут что-то осмысленное написано'.
Цель всего мероприятия - чтобы в голову впечатывалось, что теперь если гладко, красиво, грамотно и приятно читать - это это ничего не значит.

Для этого в статье есть уже предложение "Отдельные школы могут запросить доступ к ChatGPT для изучения ИИ".

Потом устраивать длинные и подробные обсуждения, как это можно от творчества человека отличить

Сойдет посидеть с друзьями под пиво. Или на Computer Science в университете. Но не в школах, где время очень ограниченно. И точно не на каждом уроке, а на аналоге Computer Science.

смысл которых в тренировке 'отличи, это бредогенератор (человеческий или искусственный) писал или тут что-то осмысленное написано'

Но я думал смысл школы в том, чтобы давать знания, а не давать задания школьникам проверять ИИ на Тьюринг-совместимость. Смысл проверять осмысленный ли текст? Откуда например школьник может знать, как работает ядерный реактор, если он ещё это не проходил?

Кроме того, во всех школах есть обязательные школьные программы. Да, можно спорить об их полезности или качестве, но они точно лучше, чем то сомнительное творчество, которые выдаст им ChatGPT.

Но я думал смысл школы в том, чтобы давать знания, 

Времена меняются. Знания - они сейчас в справочника и интернете. Вот только (и особенно с появлением таких вот бредогенераторов) надо уметь понимать, что это знание, а не мусор. Вот прямо сейчас надо этому учить и учиться.

надо уметь понимать, что это знание, а не мусор

Это вообще применимо к любой школе в любое время. Что 100 лет назад, что 200 лет назад. Что через 100 лет. Меняется только форма подачи.

Да, но раньше если текст 'гладкий и пушистый' - было показателем какой-то образованности автора и в какой-то мере повышало вероятность того, что оно не совсем бред. И школьный подбор литературы такое восприятие, как мне кажется, закреплял. Но вот пришли нейросети - и те же качества текста стали эту вероятность 'тут что-то умное написано' как бы не понижать.

Вы смешиваете сразу множество факторов.

Во-первых, "раньше" печатному слову вообще куда больше верили, по самым разным причинам, часть которых была объективна, а часть - нет. Главным образом, просто потому что публикация была куда более сложным и дорогим делом. Что не мешало, например, профессорам-жуликам публиковать бредовую учебную литературу.

Школьная программа, в свою очередь, хотя формально требовала писать оригинальные сочинения, но действительно собственный анализ литературы не приветствовался, поощрялся пересказ шаблонного анализа, преподаваемого учителем или изложенного каноническими критиками.

Упражняться в критическом мышлении, выполняя тест Тьюринга - может показаться неплохой практикой, но на деле, этот метод - шаг в сторону, а не вперёд в этом направлении. Куда эффективнее и проще взять любую статью известного издания и разобрать её, например, на предмет демагогии.

Упражняться в критическом мышлении, выполняя тест Тьюринга - может показаться неплохой практикой,

Все предложение было не только про развитии критического мышления, но и про то, чтобы получше в головы уложилось, что красивые "правдоподобные" тексты, в которых смысла нет - это сейчас будет в неограниченном количестве и создается с минимальными усилиями.

Точнее, скорее оно вообще не про развитие этого мышления, а как раз про ломание привычки/шаблона восприятия о том, что если хорошо написано - то, значит, правда.

Это очень странная идея, потому что "понимание того, что красиво написанный текст может быть бредом или неправдой" практически бесполезно. Это трюизм, который не стоит времени на его обсуждение для школьников. Потому что в реальности, всё, на что (с практическими целями) стоит обращать внимание - это смысл высказывания.

А красота высказывания - вопрос чисто эстетический. Вы, похоже, переносите проблему более старшего поколения на более младшее, у которого она не появляется сама по себе, а является (часто) результатом внушения ложного уважения к авторитетам той же школьной программой. Может, для начала, перестать это делать, а не на одном уроке учить поклонению писателям и критикам, а на другом - играть в тест Тьюринга, надеясь, что дети как-то проведут параллель между этим и мнимым авторитетом?

Вы, похоже, переносите проблему более старшего поколения на более младшее

Возможно, но большая часть опасений по поводу ChatGPT как раз на этом и основаны - 'может нести убедительный бред'. Он убедительный - почему?

И именно теста Тьюринга в моем предложении не было -- я предлагал "отличи, это бредогенератор (человеческий или искусственный) писал или тут что-то осмысленное написано". Т.е. определять не искусственность источника(бредогенератором и человек может быть), а как раз его осмысленность.

Опасение вызывает не то, что машиннопроизводимый бред может выглядеть осмыслденно. Он очень дешев в изготовлении.

Ну вот это 'выглядеть осмысленно' - оно от чего происходит? Мое предположение - что как раз из за своей гладкости, грамотности и 'художественности'. Если бы он оно выдавало свои рассуждения в виде какого-нибудь xml с логической разметкой -- то, я подозреваю, ни о чем подобном никто бы не говорил.

Да вы сами, похоже, не различаете "гладкость" и наличие логически стройного смысла, раз такое говорите.

Использование для этого текстов, сгенерированных ИИ, неизбежно сводит ситуацию к тесту Тьюринга. Это имитация решения, а не решение.

Формулировка "убедительный бред" - характеристика не столько того, что его создаёт, сколько того, кто его читает. Так что это не формулировка проблемы, это симптом неспособности понимать смысл у тех, кого волнует именно это.

пока что выезжаем на том, что сгенерированный текст по связности недалеко ушел от бреда шизофреника. Но художественно - он уже довольно красив. И когда научится держать сюжет - то будет очень сложно.

Пока это художественная литература "для собственного удовольствия" - это одно.

Но когда в чью-то голову придет мысль "а что это мы в школьной программе мертвых классиков детям даем. Давайте она напишет нам на современную тему + государственную правильную повестку этого года + в прозе и стихами" - то будет очень и очень

И когда научится держать сюжет - то будет очень сложно.

А что конкретно будет сложно? Отличать правду от лжи? Её и сейчас сложно отличить, посмотрите новости или Яндекс.Дзен.

Ну будут людям про астрологию и выгодные инвестиции рассказывать не другие люди, а нейросеть, принципиально ситуацию это не изменит, только снизит цену.

принципиально ситуацию это не изменит, только снизит цену

Как сказать.. Изобретение email, например, снизило цену доставки спама до нулевого значения. Что-то всё же принципиально изменилось.

А что конкретно будет сложно?

Сделать так, чтобы результат описанного действия по использованию правильной повестки прочитали, а не пошли на сервис, где будет генерироваться произведение по твоему желанию.

Может, для начала, перестать это делать

Ок, давайте, перестанем. С чего начнём? Уволим всех учителей, обученных внушать авторитет? Не уволим, но запретим внушать авторитет? Но учитель без авторитета просто не удержит класс, ученики ему будут срать на голову.


Этут систему так не переделать. Проще всего дать ребёнку полный доступ к ChatGPT и объяснить, что он может генерить красивый правдоподобный бред, и посему нужно включать свой мозг. В это ребёнку легче поверить, и ему легче будет начать приучать себя к критическому осмыслению текстов в режиме реального времени, чем пытаться вступать в полемики с учителем в классе. Наличие некоторого количества бреда в генерированных текстах — это примерно как майндхак некоторых лекторов, намеренно допускающих ошибки в лекции, чтобы студенты заметили и стали внимательно слушать, пытаясь засечь другие ошибки.

Фейков, написанных умными словами и до ноября сколько угодно было. И год назад гладкость и пушистость текста не гарантировала вообще ничего.

Однако вы, кажется не подразумеваете, что любой текст, написанный ИИ - мусор и детям нужно научиться его отличать? Это далеко не так, ИИ может выдавать верные факты.

Ретрограды такие ретрограды. Даже наша российская школа уже официально заявляет, что она не для знаний, а как вы верно отметили, для навыков самостоятельного поиска знаний. "Проектное мышление" это называется на канцелярите.

А зачем знания вообще искать?
Чтобы что?
В школе учат гуглить или что?
Это наверно последняя отмазка школы, что она учит искать знания
Как и институт
Но школа и институт нужны
Кто-то получает знания, кто-то другой результат, кто-то не получает

Не хочу быть адвокатом нашего "образования", но там некоторые его составные части признают, что оно сильно не успевает за жизнью в плане переосмысления учебных программ, их целей, задач и инструментов. Поэтому рекомендовано учиться самим, кто на что способен.

Потом устраивать длинные и подробные обсуждения, как это можно от творчества человека отличить.

Дали-2 намного красивее и понятнее рисует нежели оригинальный Дали, имхо

UFO just landed and posted this here

Только вот есть одна проблема: объяснение ChatGPT может звучать очень убедительно, но при этом абсолютно не соответствовать действительности. Я его неодкратно спрашивал про судьбу персонажа Райана Гослинга в конце фильма "Драйв" - первый раз этот вопрос достаточно рандомно всплыл в компании, которой я показал ChatGPT в действии, и мы получили порцию отборного бреда, абсолютно не соответствующего сценарию фильма. Меня это заинтересовало (информация из википедии же по сути дела), оказалось, что в зависимости от формулировки на один и тот же по сути вопрос этот ИИ может давать совершенно разные ответы: иногда практически цитирует Вики, иногда фантазирует, но немного (ответил, что ГГ фильма уехал в закат вместе с подругой - уехать-то уехал, но один), сейчас вот ради интереса спросил ещё раз по-русски - говорит, что вообще фильм не смотрел и не знает, что там происходит, и вообще эта информация не была доступна в момент его обучения (т.е. напрямую врёт!)

Теперь соедините убедительно врущий ИИ с недостаточно развитым в силу возраста критическим мышлением подростков. Как вам картинка? Лично мне не очень.

UFO just landed and posted this here

Как раз хороший повод на примерах от chatgpt научить ребёнка этому самому критическому мышлению, фактчекингу, дипфейкам, копирайтерам и т.п.

будующее будет включать в себя данныую технологию и те кто умеет ею эффективно пользоваться будут иметь конкурентное преимущество.

Всенепременно! Вся моя жизнь подтверждает, что те, кто умеет эффективно пользоваться технологией критического мышления, имеют конкурентное преимущество — в частности, они не спускают бабло на циркониевые браслеты, гербалайфы, пылесосы "Кирби", волшебные пирамидки и прочие акции АО "МММ".

Так в новости изначально и было сказано, что для изучения ИИ школы могут подать запрос на использование. Я полностью согласен с тем, что тотальные запреты тут делу не помогут (а где-то вообще помогали?..) - но и бесконтрольный доступ в данном случае не очень хорошая штука, как мне кажется.

Можно подумать люди никогда не несут пургу с умным видом.

А я задал задачу подсмотренную у второклассника. Бот нёс пургу, на уточняющие вопросы почему так - нёс ещё большую пургу, а на попытки поправить утверждал что он прав. Возможно просто попалась нестандартная задача, которую бот не видел. Поэкспериментировав с разными задачами, решил что надёжно его можно использовать только для выяснения есть ли эта задача в сети.

А как улучшить? Спросил я у ChatGPT по запросу старшего ребёнка (второй класс), сколько длятся сутки на Юпитере (он просил именно у нейронки спросить).


Нейронка отвечает: 24 часа длятся, как и на Земле (помнит контекст с предыдущего вопроса). Добавляет в том же абзаце: сутки на Юпитере длятся 9 часов 55 минут.

Это же чепуха :(

Да, про этот вариант я тоже думал. Но всё же...

Ещё некоторых начнут идентифицировать ведьмами и сжигать на костре. -))) Це надмозг!

Зато очень демократично, не правда ли, ведь в свободной стране люди должны иметь свободный доступ к информации, а если где-то такой доступ и запрещается то только в полном соответствии с законом и конституцией.

Является ли, например, запрет списывания на экзамене антидемократичным?

безусловно, информация долдны быть свободной. И ваши пароли тоже, кстати. Мои нет, а ваши да.

Ваши пароли у меня уже есть.

- Всегда ваш. Товарищ майор

У меня в ленте постоянно всплывает что RSA всё, потому что квановые компьютеры. так что не лишено смысла.

Хороший комментарий. Не знаю, почему заминусовали.

Сарказм это тоже навык и его нужно уметь использовать )))

Запретили же не на экзамене
И почему-то не запретили интернетом пользоваться

А вообще в чем смысл запретов?
В реальной жизни запретов же не будет.
Это по сути только проверка памяти.

При обычном использовании интернета -- это как искать информацию в книгах. То есть, надо включать мозг при этом.

А тут вроде как ответ уже готов. Надо только копипастой уметь пользоваться и мозг включать не требуется.

В реальной жизни запретов как раз ещё больше.

Запрещают шпаргалки на экзаменах, ух злодеи, сжечь их.

Я думаю, что, вообще, да. Большого смысла запрещать шпаргалки нет.

Если нужно проверить, что что-то именно человек знает, а не внешний носитель - то нужно просто вопросов добавить или урезать время экзамена.

Потому что доступ к хорошо выученной информации в голове просто быстрее и человек, пользующийся шпаргалками, в результате не успеет ответить на все, что просят.

Начнут строить индексы по шпаргалкам. Btree всякие, JIN, RUM вот это вот всё

В итоге был экзамен по русскому языку - стал по алгоритмам fts

шпоры разные бывают. их при входе на экзамен надо оценивать. тупые типа простыни конспекта изымать и отправлять студента готовиться к ответу как обычно… а вот шпоры типа конспект-конспекта можно отдавать обратно и приглашать отвечать без подготовки с использованием этой шпоры тк их создание требует вдумчивого изучения конспектов по предмету и в голове дофига чего умного откладывается.
Слышал у некоторые преподаватели разрешают брать шпаргалку размеров в 1 лист.
Очень стимулирует развивать умение систематизировать информацию.
А идеальный вариант — разрешать любые источники, но давать сложные задания, которые нельзя просто списать, не понимая предмета.

Три десятка лет назад наш преподаватель по высшей математике, приходя на экзамен, демонстративно доставал газету и начинал увлечённо её читать. Студенты все такие "шу-шу-шу, он не смотрит!" и радостно доставали шпоры. Преподаватель брал исписанный листочек, смотрел пару секунд, и откладывал его в сторону, "а теперь побеседуем". При таком подходе мне удавалось сдавать экзамены на 5, даже если из-за стресса где-то ступил и ляпнул какую-то чушь.

На моем экзамене то теоретической физике было разрешено все. Просто вообще все, даже звонок другу за пределами аудитории. На зачет надо было рассказать только билет. Своими словами и не путаясь в терминах и что почему.

И это не очень помогало сдающим. Зачем в итоге всем поставили, но в основном чтобы не отчислять на в общем-то необязательном и не очень профильном курсе.

Это дуумать нужно.. Слоожное..

Чтобы думать в теорфиз надо этому много лет посвятить (гораздо больше, чем количество лет, проведенных в институте). Да и то не всякому удастся, даже если всю жизнь на теорфиз положит. Ибо воистину сложное.

UFO just landed and posted this here

to Aquahawk
Это не запрет, вы свободно можете их использовать, но вам не зачислят за это экзамен :)

Как демократия связана с доступом к информации? Это перпендикулярные вещи.

Зато очень демократично, не правда ли, ведь в свободной стране люди
должны иметь свободный доступ к информации, а если где-то такой доступ и
запрещается то только в полном соответствии с законом и конституцией.

Похоже, российская власть настолько приучила людей к тому что не генерирует хороших инициатив, что теперь любые запреты по умолчанию воспринимаются людьми как что-то плохое. И некоторые начали этот шаблон мышления переносить на другие страны :)

именно так, нас учили что запреты плохо, не работают и вообще их применяют тиранические силовые режимы, а тут вот выяснилось что когда применяют не тиранические силовые редимы то уже и вовсе не плохой запрет, а очень даже обществеено полезный.

Это скорее обратный карго-культ и такая вот попытка дискредитировать свободу доведением до абсурда. Не первый раз уже это замечаю. Типа "вот видите, они тоже запрещают - значит и наши запретители имеют право запрещать, чем мы хуже".
Нет, это так не работает. Каждый запрет абсолютен, а не относителен; каждый запрет нужно рассматривать по существу, а не по формальному факту наличия запрета.
Собственно по теме - никто не запрещает пользоваться ChatGPT например при выполнении домашних заданий. Как и Гуглом, как и базами рефератов и книжками с ответами на задачки по математике. Если учащийся сможет защитить такие знания при устном ответе - почему нет?
А вообще в школе особые школьные правила, вне школы - обычные, общие для всех. Видимо, в школе при изучении таблицы умножения нельзя пользоваться калькуляторами или заранее распечатанными таблицами умножения; также и с ChatGPT, который есть лишь шпаргалка, доведенная до совершенства (что впрочем означает, что если у учащегося хватит ума и сообразительности чтобы обмануть систему - то вероятно, он сможет воспользоваться и ChatGPT в том числе).

Каждый запрет абсолютен, а не относителен; каждый запрет нужно рассматривать по существу, а не по формальному факту наличия запрета.

Вот я полностью согласен с этим утверждением. Давайте же рассмотрим по существу. Что даёт запрет использования ChatGPT, в нынешнем виде? Нельзя пользоваться на оборудовании школы. И что? При этом, не запрещено использовать при написании рефератов. Но должно же быть наоборот. Какая разница, на каком оборудовании использовать? Важно, для чего использовать, и в каком формате.

Вред от ChatGPT, в данном случае, именно в том, что его можно попросить написать весь реферат целиком или выдать полное решение какой-то задачи. Это вредно для ученика, т.к. обманывая систему подобным образом он рискует обмануть себя, прежде всего. Это проблема. К тому же, решение может быть ещё и ошибочным. Это ещё одна проблема. И вроде обе эти проблемы обозначены в заявлении департамента, но предложенное ими решение никак не решает обозначенные проблемы.

Так что не стоит выгораживать департамент образования Нью-Йорка в данном вопросе. Они сделали глупость. Даже просто сделав заявление, что они не рекомендуют использовать ChatGPT при выполнении школьных заданий, и что в случае поимки на копировании готовых ответов этой системы и ей подобных, это будет считаться за cheating, они бы сделали гораздо больше пользы. Пусть пока не понятно как ловить, но позиция была бы ясной и адекватной. Как минимум, ответы уже надо было бы проверять, перед сдачей работы, потому что бредовый ответ - это, как раз, верный признак работы ИИ, и пока единственный, что приходит в голову. И в отличие от просто двойки за неверный ответ, cheating это гораздо большие неприятности для ученика. Останавливает это не всех, но это хоть что-то.

В этом плане, позиция Stack Overflow - пример адекватного решения. Сразу видно, что люди думали над проблемой, и что они её понимают. А позиция департамента образования Нью-Йорка, словно была сформулирована самим ChatGPT. Вроде по теме, и даже мотивировка указана осмысленная, но само решение - полный бред.

А кто вас так учил, если не секрет?

А вас не учили понятию "контекста"? Одни и те же действия, но выполненные в разном контексте могут означать совершенно разные вещи и восприниматься, сильно по-разному. Скажем, возьмем одно и то же действие "человек просит твой телефон позвонить".
Совершенно по-разному воспринимается, если этот человек - профессор университета, с которым вы друзья 20 лет и вы находитесь у него дома, или, скажем, если это весь в наколках лысый гопник который подходит к тебе в темной подворотне. Действие одинаковое, но контекст разный, поэтому воспринимается по-разному. Или мы не должны в первом случае доверять, во-втором случае - относиться с подозрением, не ожидая ничего хорошего?
Может и вы этом случае будете говорить про двойные стандарты и вставлять надоевшую картинку "Вы не понимаете, это другое"? Контекст действительно делает это "другим", и люди которые притворяются что не замечают контекст в своих пропагандистких целях - реально заколебали, они, похоже, не понимают, что выглядят как идиоты.


Возвращаясь к законам, нет вообще ничего удивительного, учитывая принимаемые российской думой законы, ее состав, то как прогодит голосование в думе, и то как выбирают депутатов ( и кому вообще разрешают участвовать в выборах) - что каждый новый ее закон воспринимается с большим подозрением, а в случае законов запрещающих что-то - мы по умолчанию опасаемся, что это будет работать во вред людям, а не во благо. Насчет иностранных законотворцев у многих такого предубеждения нет ( допускаю, кстати, что это может быть простой неинформированностью об их идиотских законах или проблемах с выборами, но все же).

Контекст действительно делает это "другим", и люди которые притворяются что не замечают контекст в своих пропагандистких целях - реально заколебали, они, похоже, не понимают, что выглядят как идиоты.

Ой, как Вы сейчас BLM-щикам больно сделали...

"Кинжал хорош тому, у кого он есть — и плох тому, у кого его нет". (c)

Запрет АЭС плох тому, кто владеет АЭС, и хорош тому, кто владеет ТЭС!

Школьники перегружают систему своими примитивными вопросами, которые приносят мало новой информации, поэтому ChatGPT каким-то образом повлиял на главу департамента образования Нью-Йорка, чтобы он принял решение о запрете. Например нейросеть могла подбирать этому человеку определенные результаты в поисковой выдаче и показывать только нужные видео на ютубе, из-за чего у него сформировалось правильное для ИИ мнение, возникла "гениальная" идея и он побежал запрещать. Он даже не осознал, что идея принадлежит не ему.

Для ИИ гораздо лучше направить ресурсы на изучение того, о чем пишут нобелевские лауреаты или персонал ШПУ с МБР.

Школьники перегружают систему своими примитивными вопросами, которые приносят мало новой информации

Эх, так испортили одну из моих любимых игрушек Акинатор.

Вот лет восемь назад задумываешь персонажа, а он тебе за пять-семь наводящих вопросов его отгадывает, как будто мысли читает (например, Артас: Ваш персонаж существовал в реальности? Ваш персонаж мужчина? Ваш персонаж владеет мечом? Ваш персонаж убил своего отца?). Кого только не отгадывал - Ийона Тихого, пьяницу из Маленького принца, сватью бабу-Бабариху из СоЦС Пушкина, все за менее чем 10 вопросов.

А теперь его завалили всякими летсплеерами, тиктокерами, рэперами, бьюти-блогершами, у него эти 10 вопросов уходят только на то, снимался ли персонаж в порно, имеет ли отношение к Владу Бумаге, стал ли известным на Youtube...

Спасибо за наводку на Акинатор. Забыл про него совсем.

К сожалению, Акинатор не смог угадать пилота Пиркса. Видимо, совсем непопулярный персонаж стал…

Стида Боннета угадал с 47-го вопроса и одной неверной версии. Вот уж не ожидал, что так много времени займёт.

А Дейла из диснеевского CNDRR угадал только с 50-го вопроса, при этом выдал "Chip OR Dale", то есть предположил, что "один из двух", хотя на вопросе так 20-м получил "да" на вопрос "одежда у него в цветочек?", то есть OR здесь был не нужен :)

Так даже если сдаться и все же загадать кого-то из Youtube, то опять неуд - например, так и не угадал ведущих "Слово пацана", хотя канал - известный хайповый миллионник (вечно в их же роликах, даже снятых в пгт Жопск-Засранский Красноярского края, их то на улице узнают, то в каменты кто-то пишет, что он сосед героев ролика).

Я в том году Пиркса угадывал вопроса с 20-го, но его загадывали всего-то 1000+ раз.

Вот так дети и спасут мир от страшного джина из бутылки. Сейчас этот джин довольно неплохо разбирается во всех темах, но когда с ним интенсивно пообщаться дети, он отупеет и ответы на все вопросы будет сводить к Владу А4.

Вот так дети и спасут мир от страшного джина из бутылки.

Не смогут. Они столько не выпьют!

А навыки обращения с ChatGPT развивать, значит, не надо. Ну, ну

Как раз сегодня спросил док-во теоремы Пифагора. И вот что получил:
"

Теорема Пифагора гласит: в прямоугольном треугольнике квадрат гипотенузы равен сумме квадратов катетов.

Доказательство этой теоремы может быть строить с помощью геометрического интуитивизма, а также с помощью математического доказательства.

Вот математическое доказательство этой теоремы:

Пусть в прямоугольном треугольнике имеются катеты со значениями a и b, а гипотенуза со значением c.

Тогда по определению квадрата мы имеем:

c^2 = (a^2 + b^2) + 2ab

Однако, из теоремы о сумме квадратов мы знаем, что a^2 + b^2 = (a+b)^2 - 2ab. Подставим это выражение в предыдущее уравнение:

c^2 = (a^2 + b^2) + 2ab = [(a+b)^2 - 2ab] + 2ab = (a+b)^2

Таким образом, мы получили результат c^2 = (a+b)^2, что согласуется с теоремой Пифагора.

Короче, правдоподобная ахинея.

И, в полном соответствии с

картинкой,

ответ получен за две секунды — но понять, почему он неправильный и где именно ошибка, заняло минут десять.

Щас пошел гуглить современное строгое доказательство теоремы Пифагора, и не нашел. Под современным и строгим я имею ввиду основанное не на аксиомах Евклида, которые по современным математическим меркам уж очень дырявые, а на чем то более взрослом. Конечно оно есть, но найти не смог.

Мне кажется, что на ситуацию нужно смотреть под другим углом, т.к наличие помощника по типу ChatGPT меняет ситуацию в корне.

Несмотря на запреты, ChatGPT будет использоваться в той или иной форме, пусть хотя бы нечестными студентами для списывания на контрольной. Эти студенты получат меньше знаний как таковых, однако (с помощью ИИ) смогут решить такие же задачи, как и более способные студенты без подсказок. На этот моменте хочется пошутить из рекламы: "А если нет разницы, то зачем платить больше?"

Мне кажется, что ChatGPT представляет джинна, засунуть которого обратно в бутылку не получится. А если не получается победить - то нужно возглавить, верно?

Ну ладно, предлагаемые сейчас решения могут быть и не всегда правильными, но это не меняет факта - подобные ChatGPT помощники появились и теперь уже никуда не уйдут, будут развиваться и улучшаться, в конце концов достигнув приемлемого уровня решения задач. Просто запрещать и не пущать не получится, вот что я пытаюсь сказать. А раз запрещать бессмысленно - нужно научиться использовать

ладно учителю - взрослый фильтранёт всё в категорию "дети придумали" и тем же вечером все забудет.

вы подумайте - сколько историй "черных рук" и т.д. нагенерят для детей ? Сколько слухов и сплетен про тех, кого им захочется затравить в классе? мемы выйдут на новый уровень.

Сколько слухов и сплетен про тех, кого им захочется затравить в классе?

Вот именно поэтому я там выше и предлагал давать детям поиграться c этой игрушкой. Чтобы конечный результат на все это был 'Ну и? Я так тоже могу в любом количестве. Не стоит внимания ибо неинтересно'.

надо чтобы у всех детей был свой смартфон, а то слишком большая фора у тех кто есть перед теми у кого его нет

Про джина верно, еще один шажок к осознанию бесполезности кожаных мешков. Останется только вопрос постановки задачи и когда он так же успешно решится, вопрос «а зачем платить больше» может уже заиграть новыми, весьма интригующими, красками:-)

В сознании человечества прочно укоренился стереотип о том, что все, что генерирует машина, является непреложной истиной, это тянуться с тех пор как компьютеры были машинами для решения математических задач. Настало время глобально сломать этот рудиментарный стереотип, показать, что и к ответам машины нужно относится критически. Мне кажется, что запрещать это ошибка. Это как раз хороший инструмент для того чтобы сломать данный стереотип на конкретных примерах.

Настало время глобально сломать этот рудиментарный стереотип

Мне вообще-то казалось, что его должны были сломать ещё письма от нигерийских дядюшек — но увы...

Если не создавать у школьников этот стереотип, не нужно будет его ломать.

что генерирует машина, является непреложной истиной

"компьтер всегда прав, а ошибаться может только человек" - сказал HAL9000, откючая энергию от капсул с анабиозом.

Скорее уж Skynet, запуская ракеты.

UFO just landed and posted this here

Можно на экзамене разбавлять вопросы заведомо бредовыми. Тот кто ответит на них - читер.

Можно на экзамене разбавлять вопросы заведомо бредовыми.

Гениально ;)

А вопросы (90%) пусть генерирует бредогенератор.

Зачем бредовыми? Просто перевести экзамен в формат олимпиады (как у Кнута — "найти такие целые a,b,c > 5, что a^2+b^2=c^2 — 99 баллов"), где не обязательно отвечать на ВСЕ вопросы.

Тройной профит: 1) ChatGPT ловитсят; 2) бредодетектор у студента натаскивается; и 3) если повезёт — чем чёрт не шутит, какой-нибудь нерадивый студент может в клювике принести более простое доказательство парочки сложных теорем.

Учитель может спросить, откуда списано домашнее задание?

Sign up to leave a comment.

Other news