Комментарии 146
Ну так-то это разного уровня вещи.
Если мне надо пример скрипта, который я не помню и искать лень - я спрошу у ЧатГПТ, это быстрее.
Если мне надо найти решение, которое может быть неоднозначным - лучше посмотрю на SO, потому что там можно найти ответ даже в чужом вопросе, не говоря уже о предлагаемых вариантах решения.
С точки зрения SO посещаемость падает, количество мусорных вопросов типа "напомни пример SetTimeout" резко уменьшается.
Не понимаю - ведь на StackOverflow ответы, проверенные не одним и не двумя разрабами, о чем можно понять по комментариями и голосам за ответы, а ГПТ хрен пойми что тебе выдаст. Неужели не страшно это использовать?
А почему должно быть страшно ? Берёшь и проверяешь. Тут есть хитрый лайфхак - не надо изменения делать сразу в продуктивной системе )))
Зависит от. Можно проверить, и оно мб даже заработает, но свалится на каком-то граничном кейсе, или не так на нем отработает. На SO можно почитать что пишут по этому поводу, какие-то советы и схожие кейсы, а ГПТ ультимативно отдаст какой-то вариант и всё - пользуйся если хочешь
Дарю ещё один лайфхак - смотреть на получившийся код самому и понимать что он делает ))).
Если что, я уже пишу с помощью чатгпт простенькие скрипты для разных надобностей. Выходит сильно быстрее чем руками, но в итоге я всё равно смотрю что там написано и как работает прежде чем запускать, а также тестирую ( в общем, тут применим тот же самый подход, что и в обычной разработке руками).
Всегда скептически относился к решениям,которые нейросети дают.неделю пытался формулу массива специфическую сделать для google sheets.получил ответ от copilot,он был неверен,но сама логика в нем была правильной и помогла с ответом, и он заработал.но для этого,нужно не бездумно повторять все действия,а разбираться в вопросе.сам ответ натолкнул на то,что ему было около пяти лет.как раз тогда гугл изменил правила написания формул.будто ответ взят со старого форума.но при этом он явно не присутствовал на нем в том виде,котором был задан
А к решениям которые вы находите где-то в сети, даже если и на stackoverflow, вы не относитесь скептически?
Всегда пишите какую именно версию использовать, иначе он будет использовать ту которую чаще всего слышал, а именно старую версию google sheets :/
осторожнее с бесплатным copilot, там используется очень тупая и дешевая версия ИИ... но как то хитро подмешивают ответы от умных сетей, т.е. типовые тесты и каверзные вопросы проходят, а когда дело до новых задач, слабые сетки все обламываются, это типично, переобученная нейронка на типовых вопросах, когда провайдер/разработчик ии хочет обмануть своих клиентов и подсунуть слабую модель.
Просто посмотрите какой кринж оно Think Deeper (заметьте верный ответ оно понимает но путается в своих же размышлениях)
помоги решить логическую задачу: у девочки Алины три сестры - Катя, Саша, Даша и один брат Петя. Сколько сестер у Паши?
Здорово, люблю такие головоломки! Давай вместе разберёмся. У Алины три сестры: Катя, Саша и Даша, а также один брат Петя. Это значит, что в семье четыре сестры (Алина + три названные) и один брат.
Теперь вопрос: сколько сестёр у Паши? Здесь важно обратить внимание на то, что имя Паша в задаче появляется только в вопросе и ранее не упоминалось. Однако стоит помнить, что Паша — это уменьшительно-ласкательное от имени Павел, а Петя — от Пётр. Это разные имена, поэтому Паша и Петя — разные люди.
Поскольку Паша не упоминается среди членов семьи Алины, можно предположить, что он не её брат. Но если представить, что Паша — это брат Петя (хотя по условию у Алины только один брат), то это противоречит данным.
Однако есть другой подход. Возможно, в задаче имеется в виду, что Паша — это девочка, хотя в русском языке это редкое женское имя. Если так, и Паша — сестра Алины, то тогда получается больше сестёр, чем указано.
Но наиболее логичное решение — считать, что Паша не связан с семьёй Алины. Поскольку у нас нет никакой информации о семье Паши, мы не можем точно сказать, сколько у него сестёр.
Однако, если это логическая ловушка и подразумевается, что Паша — это мальчик, и, следовательно, у него нет сестёр, то ответ будет ноль.
Но есть ещё один вариант. Если внимательно посмотреть на имена сестёр Алины: Катя, Саша, Даша. Имя Саша может быть как женским, так и мужским (Александр или Александра). Если предположить, что Саша — брат, а не сестра, то это меняет количество сестёр.
В итоге, учитывая различные интерпретации, наиболее вероятный ответ: У Паши три сестры — те же, что и у Алины: Катя, Саша и Даша. Если Паша — брат Алины (хотя в условии сказано, что брат один — Петя), то это противоречие.
Таким образом, ответ может быть: у Паши нет сестёр, или ответ неизвестен из-за недостатка информации.
Интересно, как одно и то же условие может привести к разным выводам в зависимости от того, как мы интерпретируем детали. Логические задачи прекрасны тем, что заставляют нас смотреть глубже и учитывать все возможные варианты. А какие ещё головоломки тебе нравятся? Может, обсудим другую загадку?
Такие задачи топовые (claude sonnet 3.5) решают без проблем, а локальный DeepSeek-R1-Distill-Qwen-14B с шансами 13/16 (при этом в ошибочных ответах в рассуждениях проскакивает что тот типа - ну обычно люди вот тут ошибаются и забывают про Алину значит и мы тоже)
но свалится на каком-то граничном кейсе
ну так и не надо бездумно использовать ответ, есть регрессионное тестирование и др. приёмы позволяющие минимизировать возможные ошибки при изменениях
Доверять чужим кускам кода, не понимая, что они делают, всегда странно. Откуда бы ты их не взял.
От ChatGPT можно получить более прицельный ответ под стиль проекта, даже переменные переименовывать не требуется, это проще и приятнее.
Неужели не страшно
Статистика в данном случае как бы намекает
ведь на StackOverflow ответы, проверенные не одним и не двумя разрабами
Дело не в том, что такое SO и в чём его ценностт. А в том, что в таком виде он выглядит для возможного инвестора/покупателя неперспективным дигитал проектом. И скорее всего для владельцев тоже
Проблема Stackoverflow что нужный тебе ответ там ещё надо найти. И это далеко не всегда удаётся сделать быстро. И допускаю даже что часто я нужный ответ просто не находил.
Плюс часто ответ раскидан по разным статьям на Stackoverflow. Или ещё где-то.
А ИИ это всё для тебя сами ищут, да ещё и обрабатывают. Не всегда хорошо,но в целом это часто быстрее чем искать самому.
А даже если найдешь какое то решение не факт что поймешь как его применить. И вот тут гпт вообще бесценен, показываешь ему и он всегда делает вид что понимает.
Эх, вот если бы ИИ действительно искали, читали ответы на stackoveflow, и потом выдавали что то типа: "ну вот тут в статье в принципе есть что тебе надо". Но ведь нет, порой они сами всё придумывают.
А кто мешает вам попросить ссылки на источники?
Ну, например, то, что оно точно так же выдумывает источники?
Ну так в чём проблема проверить существование источника и его содержание? Особенно если речь идёт о ссылке?
Ну так в чём проблема проверить существование источника и его содержание?
Наверное, в том же, в чём проблема самому почитать источники и самому придумать решение?
Ну так работа с GPT - итеративный процесс, пока ты убедишь ее/его в том что тебе РЕАЛЬНО требуется. Я тут на днях пытался заставить GPT сделать фильтр верних частот на питоне, вроде простая вещь - он заюзал scipy - и надо же ...вместо АЧХ ФВЧ выдал АЧХ ФНЧ (я ему скармливал аналоговую передаточную функцию, что бы он сам ее как то там дискретизировал). Я ему пишу - дядя, ты дурак? Как у тебя АЧХ может заваливаться на высоких частотах, если я прошу ФВЧ. Он извиняется и продолжает строить дурку. В итоге я ему говорю - так, не используй библиотеку scipy, а давай сам разностную формулу для фильтра накидай согласно такому-то правилу - и только в таком варианте этот прощелыга сделал корректный фильтр.
Гхмёпрст.
Вы точно уверены, что используете разумный подход? Даже ясно понимая, как применять filtfilt, можно настрелять себе в ноги до полной неработоспособности приложения. А уж БИХ-фильтр, сконструированный в лоб по неудачно заданной передаточной функции -- это просто гарантия артефактов, особенно на шумных данных.
Понятно, что иногда надо просто "давить верхи", но может просто старый добрый экспоненциальный фильтр.
ChatGPT идеально подходит, когда нужно получить направление, стартовую точку, или пример. Особенно когда вопрос такой специфичный, что его либо сложно сформулировать, либо понимаешь что ответа может не быть, или не найтись из-за слишком общих слов.
Например, недавно я изучал Java по учебнику Шилдта. В главе про лябмды было сказано, что обычно указывать тип параметров лямдбы не обязательно. Соответственно, мне стало интересно, а в каких случаях становится "необычно", и сходу сам пример придумать не смог. На SO самый заплюсованный и принятый ответ на этот вопрос говорит что никакой разницы вообще нет (хотя ниже его и поправляют). При том что это единственная релевантная страница в выдаче гугла и яндекса которую я нашел.
А вот ChatGPT мне сходу выдал пример где перегружены два метода которые могут принимать лямдбы с разными типами параметров. Соответственно без указания типов код даже не скомпилируется из-за неоднозначности.
И подобных случаев было множество.
Самая главная проблема которую я заметил - он плохо дружит с числами. Наверное в половине случаев он неверно указывал версию Java, в которой была добавлена какая-то фича. И ошибся когда назвал результат компиляции кода с арифметикой. В остальном он разносил поисковики с SO в пух и прах. Но главное, что с ним как с репетитором можно в реалтайме уточнить любую деталь, поспорить, попросить переформулировать, привести аналогию, спросить плюсы и минусы, альтернативные способы решения, и т.д. и т.п.
Ну а если не проверяя просить его писать жирные куски кода - тут ССЗБ.
Мутная логика, что впрочем не удивительно, она всегда мутная в продвижении нейросетей. Считать надо не количество новых вопросов, а количество просмотров. За 17 лет SO накопил огромную базу решений, в большинстве случаев достаточно поискать, чтобы найти необходимое. Естественно, со временем количество новых вопросов будет уменьшаться.
ну так во второй части как раз про трафик, упавший в 2 раза ещё в 2023 году и явно обратно не отскочивший.
но вообще получается довольно дурная рекурсия: сети обучатся по SO -> юзеры обращаются к ним вместо SO -> информация на SO стремительно устаревает и дообучать сети нечем. все в проигрыше.
дообучать сети нечем
Почему же нечем: ugc есть? — Есть. Значит есть пища для дообучения. А то, что цепочка становится сложнее — это эволюционный процесс, нормальное явление. Но вот как это они на самом деле будут решать, мне интересно узнать. Думаю, что тупо будут во все ide внедрять своих копилотов. Всё это будет жрать память, 128 Гб ОЗУ уже не будет хватать для нормальной работы девелопера. И всё пойдёт по той же спирали на следующий виток
Сети дообучать по документации. Это текущее поколение обучали на миллионах однотипных примеров (если таковые нашлись в интернете), ситуация стремительно меняется.
Какова доля "исчезнувшего" трафика к SO была продуктивной для качества ресурса? Реально новые вопросы и новые ответы - а не типовое "как в языке X массив отсортировать"?
Но капитализм, как выясняется, существует не для клиента, а для капиталиста
У хабра есть аналогичный ресурс - tos и там уже давно почти все вопросы можно было бы поделить на ноль с помощью гпт. Причем гпт не требуется оформлять пост по сложным правилам этого ресурса, можно даже скриншотами и голосовухами спрашивать, и в ответ получать нормальные ответы а не типичное людское фи.
У хабра есть аналогичный ресурс - tos и там уже давно почти все вопросы можно было бы поделить на ноль с помощью гпт.
Вот только что постом выше я как раз намекал, что нет ;-)
Например, на мой недавний хабровопрос там отвечал целый консилиум высококлассных профи. После целой серии вопросов-ответов (история в два года длиной!) я наконец-то получил ключевой совет, который и
привел к решению
И Вы еще учтите, что половина нашей тогдашней переписки в архивированном вопросе (как он виден на данный момент) удалена. А другая часть раскидана по комментам к разным статьям. А без нее может и ключевого совета бы не было. А еще учтите, что нужный для обсуждения контекст (который я подготовил после первых наводящих вопросов и потом много раз дополнял, разбираясь с разными версиями причин глюка) в итоге вылился в 30 страниц текста-описания бага со вставками моего кода и дизассемблера (сейчас я этот файл с Я-диска убрал, но у меня в архивах он есть, - если кому-то интересен ретро-BDSM, могу опять выложить ;-)
Так что Ваша идея про деление на ноль с помощью гпт если и применима, то прежде всего к несложным запросам. А вот насчет менее тривиальных есть большие сомнения.
P.S. Но вообще было бы интересно задать тот мой вопрос гпт и глянуть, что ответит AI. Запретив ему при этом пользоваться материалами с Хабра ;-)
Пока не поздно, нужно выкачать весь SO, обязательно с комментариями. Уже было немало случаев, когда крупные порталы просто закрывались, информация была утеряна.
Kiwix делает периодические оффлайн дампы Stack Overflow (а также Википедии и т.п.). Там и комментарии, и поиск работает.
https://kiwix.org/en/
https://library.kiwix.org/#lang=eng&category=stack_exchange&q=stack+overflow
В web archive все сохранено. Но почему-то вопросы там не открываются... Смысл тогда в этих снимках, если можно только на страницу со списком вопросов глянуть. Или может я чего-то не понимаю.
В web archive все сохранено. Но почему-то вопросы там не открываются...
Потому что web archive шикарная идея с плохо работающей реализацией.
Несколько раз пытался найти в нем информацию потерянную на сайтах и каждый раз сталкивался с тем, что индексные страницы сайтов есть на несколько уровней, а вот сами статьи с них не открываются.
В итоге, вроде как бэкап сайта есть, а на деле только шелуха от него...
Просто новички всякие глупые вопросы стали у ЧатГПТ задавать, а не в so бегать. "Падение" SO - чушь. На нём задавали и будут задавать вопросы, но не из разряда "погуглите за меня", а настоящие вопросы, которые будут нужны сотням людям спустя десятилетия. Даже если SO перейдёт в архивный режим им будут пользоваться тысячи и будут пользоваться очень долго.
Не перейдет. Нет доходов - нет денег на сервера.
У SO одна проблема - не можешь задать вопросы смежные к программированию, например, почему через VPN интернет ускоряется
ну так поисковики тоже подвинутся. не только SO
Продвинуться то они продвинулись, только вот чаще назад, а не вперёд.
Я перестал пользоваться гуглом по it вопросам. Или встроенный поиск SO, или чатгпт.
Гугл и так выдает по it вопросам SO. Так еще и cyberforum, на котором бывает полезная инфа. Ну и бывают изредка другие полезные ответы. А остальное просто сайты-копии SO. Гуглом все-таки еще стоит пользоваться.
Немного переживаю за будущие поколения разрабов. С одной стороны, процесс обучения и проблем с помощью нейросетей становится проще. С другой стороны, эта простота убивает гибкость мышления. Как минимум умение самостоятельно найти причину, следствие и решение. А это основополагающий навык в нашей профессии, я считаю
Зря переживаете, лучше по абсолютно тем же причинам радуйтесь за себя на их фоне, потому что рыночек порешает.
Если они при этом будут дешевле вас и справляться с работой, то рыночек порешает совсем не их.
П.С. То есть скорее всего действительно останутся ниши для высокооплачиваемых специалистов, которые реально понимают что они делают. Но эти ниши могут оказаться не особо большими...
останутся ниши для высокооплачиваемых специалистов, которые реально понимают что они делают
Так а откуда эти специалисты возьмутся, если на всех предыдущих уровнях будет рулить AI? Напрочь отбивая потребность думать (писать что-то) самостоятельно? Ибо любая такая попытка при работе с простыми задачами будет снижать эффективность, что повлечет проигрыш в конкуренции?
UPD: сомнительная аналогия
Еще вот что подумал. Промышленное производство дешевой и функциональной мебели не убило профессию краснодеревщиков - есть ниша эксклюзивной мебели, где их услуги востребованы. Или "деревенские" экопродукты vs сельхозфабрики. Вы можете представить себе аналогичную нишу для, например, сайтов? И соответствующую рекламу:
"Наш магазин написан вручную, без помощи гпт! Пользуйтесь продукцией кожаных!"
Люди вполне себе любознательны. Может не все, но какая-то часть точно.
То есть даже если вы сейчас возьмёте специалистов, которые работа с высокоуровневыми ЯП, то какая-то небольшая часть из них всё равно разбирается и в том, что творится на более низких уровнях абстракций. Вплоть до электротехники-физики. Хотя необходимости в этом у них в общем-то нет.
Люди вполне себе любознательны. Может не все, но какая-то часть точно.
Верно. Но меня пугают тенденции. Я знаю приличное количество таких "любознательных" (даже надеюсь, что сам немного такой). Но практически все они либо зрелого возраста, либо вообще из СССР с его творческими кружками и преподавателями "по призванию". Я сам в такой секции вырос. А когда повзрослел, десять лет на общественных началах вел такой же кружок для "своих и соседских" детей, пока они не выросли и не разъехались. Сейчас такие учителя и секции тоже, конечно остались... но вот технические, по моим впечатлениям, исчезают. А тех гениальных само-активных детей, которые собрались в нашем клубе в конце 90-х, уже днем с огнем не найдешь. У меня сейчас подрастает еще одна дочка, и я хотел бы с ней повторить прошлый опыт. Увы, вместо толпы желающих заниматься (как тогда) теперь вообще никого.
Но практически все они либо зрелого возраста, либо вообще из СССР с его творческими кружками и преподавателями "по призванию"
Среди тех кого я знаю это не так.
Сейчас есть хакспейсы, каналы на ютубе и прочий инфопоток для таких вот детей. И я знаю немало молодёжи, лет по 20-25, которые искренне интересуются и изучают. Правда, им сложнее в плане доверия к информации. Когда ты ходишь в кружок для тебя препод - 100% авторитет. Тут нет 100%.
Разрабатываю проект. Вообще перестал использовать Stackoverflow подобные сервисы. Нужно что-то — пишешь четвертой ChatGPT, получаешь ответ. Нужно протестировать? Ctrl-C + Ctrl-V — чекаешь. Нужно исправить ошибку? Пишешь ChatGPT, в чем ошибка, а он исправляет.
Единственная проблема — актуальность данных, на которых ChatGPT обучают. Например, недавно бился c API Yandex Map. Задаю ответ нейросети, а она выдает решение для API v2, когда как карты недавно обновились до v3. Впрочем, на форумах ответы на мои вопросы тоже не было, пришлось решать вопросы методом тыка:)
Вот вы уже раньше большинства доказали, как будут деградировать разработчики. Использующие только сетки, которые тоже будут деградировать на деградированных источниках...
"Разрабатываю проект. Вообще перестал писать код на ассемблере. Нужно что-то написать - пишу понятными командами на С, компилятор сам переводит в ассемблер"
"Вот вы уже раньше большинства доказали как будут деградировать разработчики..."
Аналогия неверная, а проблема реальная. Если регулярно не напрягать мозг над решением задач, то и соответствующие навыки никогда не вырастуют. Только вырастет энциклопедический запас информации увиденный в ответах, что особой ценностью не обладает, как раз потому что это может быть получено из ChatGPT в любой момент. В англоязычном интернете уже дико негодуют, что дети всю домашку по математике через чатботы делают.
Ну и не нужно особо надеяться на самостоятельную любознательность. Капитализм любит решение проблем, а не любознательность. Если есть два равных специалиста, из которых один любознательный и получив готовый ответ подробно разбирается, а второй за это время просто решает больше задач, то удачи первому специалисту здесь и сейчас объяснить что он будет очень классным когда-то потом.
"Если регулярно не напрягать мозг вручную разрабатывая в ассемблере и машинных кодах, то соответствующие навыки никогда и не вырастут."
Я не вижу вообще никакой проблемы. Программирование совершает очередную ступень эволюции, начиналось всё с разработки в машинных кодах, затем придумали ассемблер (ужас ужас, разучились руками команды транслироват), затем языки низкого уровня (ужас ужас, разучились руками писать на ассемблере), затем языки высокого (ужас ужас, разучились руками выделять / удалять память).
Теперь вот следующий этап, часть задач по кодированию можно выполнять с помощью промптов.
Навыки возникают от решения реальных задач. Как именно вы их будете решать - не важно. Если в какой-то момент большая часть условной веб разработки передет с условного js на условные gpt промты - все только выиграют.
Навыки возникают от решения реальных задач.
Вот именно, а в предельном случае сам процесс решение задачи человеком полностью отсутствует. Он лишь вводит ее постановку, спущенную ему сверху в готовом виде, возможно даже целиком копирует. Особенно это касается детей, которым нужно выстроить все необходимые абстракции и нейронные связи.
все только выиграют
А вот это еще нужно будет доказать. Дешевизна и скорость разработки это не единственные факторы, и уж тем более не все от них выигрывают.
Так ведь реально деграднули. Теперь программы занимают не килобайты, а гигабайты памяти, даже условно калькулятор. А раньше так нельзя было...
Проблема не в самих гигабайтах и неэффективных реализациях (типа что бы взять второй минимальный элемент, сначала сортируют весь массив, а потом берут второй) а в оверинженеринге. Задачи решают максимально сложным способом (который уже кто то реализовал и оформил как библиотеку), навернув поверх на пару порядков лишних зависимостей, которые по отдельности вроде бы нужны, но по факту - хлам.
Я не вижу вообще никакой проблемы.
А я вижу, что программисты, писавшие когда-то на ассемблере, намного лучше работают и с самыми высокоуровневыми современными языками. Приложения жрут всё больше ресурсов и всё хуже работают в том числе потому, что пишут их всё более глупые программисты.
Приложения жрут всё больше ресурсов и всё хуже работают потому, что инженеры наплодили целый зоопарк несовместимых устройств.
Легко было сделать калькулятор в 15 Кб, когда весь мир состоит исключительно из x86 под виндой. А теперь попробуйте написать маложрущую программу, которая успешно запустится на десктопных ARM, x86, на iPhone, на андроидофонах, на планшетах и чтоб работала на всём зоопарке ОС.
Всё в итоге сведётся к тому, что на асме вы будете под каждый девайс писать полностью с нуля.
Ресурсоёмкость программ - это плата за свободу, за отсутствие единого жёсткого стандарта оборудования и окружения.
Дело не только в этом. Я очень часто сталкиваюсь с программистами, которые даже не задумываются о производительности. Кто-то не хочет, а кто-то даже не понимает, что можно лучше при тех же трудозатратах. Люди "подключают left-pad", мажут рефлексии в три слоя, бомбят СУБД N+1 запросами и тому подобное. Цитата одного знакомого тимлида: "Ой, да кому нужна эта многопоточность?! Просто закажем серваков побольше." Тимлид важного проекта серьёзной организации, между прочим!
А теперь попробуйте написать маложрущую программу, которая успешно запустится на десктопных ARM, x86, на iPhone, на андроидофонах, на планшетах и чтоб работала на всём зоопарке ОС.
я конечно не разработчик, но у меня впечатление, что современная разработка взяла худшее из двух вариантов. жирные приложения, не работающие даже на разных версиях одной платформы. не то, чтобы на разных платформах.
Приложения жрут всё больше ресурсов и всё хуже работают в том числе потому, что пишут их всё более глупые программисты.
Сейчас их ещё ИИ начнёт писать — и Вы будете с грустью вспоминать те времена...
Сетки не будут деградировать. Никто не перейдет на сетку хуже текущей, зачем?
Если ChatGPT уничтожит источник своей заёмной мудрости, где она будет брать новую?
Вы сейчас предлагаете корпорациям принести прибыль и капитализацию в жертву общественному благу в долгосрочной перспективе?
Будут платить специалистам за "мудрость" и обучение их ИИ. Вопрос только в том сколько таких специалистов будет нужно.
И не повымрем ли мы к тому времени.
Учитель! — почтительно произнес маленький Ник.— Я выполнил всё, что вы велели, и пришел заниматься. Какой у нас будет сегодня урок?
— Последний, малыш,— Старый Тэн повернул к нему своё кресло — Сегодня у нас будет последний урок по истории цивилизации планеты Кальрун. А потому садись поближе и будь внимателен: я расскажу тебе... о шпаргалке. Помнишь ли ты, что это такое?
— «Шпаргалка,— охотно процитировал Ник,— это бумажка, на которой нерадивый ученик записывает то, что должен был запомнить, а потом подглядывает, отвечая учителю».
— Верно, малыш. Вначале это действительно был безобидный клочок бумаги — гармошкой, спиралькой, трубочкой... Многие поколения школьников и студентов Кальруна изощряли свою изобретательность, совершенствуя шпаргалку. Тогда это была больше игра, чем проступок. Игра в риск, в находчивость... Ведь чтобы разместить на крохотной площади максимум информации и незаметно для бдительных экзаменаторов прочесть её в нужный момент, требовались и талант миниатюриста, и навыки фокусника.
Игра кончилась, когда к созданию шпаргалок была привлечена фотография. Она не только решила задачу миниатюризации «тайных конспектов», но и позволила легко их размножать. В результате родилось новое ремесло — производство шпаргалок.
Некоторое время развитие шпаргалки шло по пути совершенствования маскировочных средств: её монтировали в авторучки, пуговицы, часы... Такие «шпоры» были очень популярны у школьников и не сразу исчезли даже с появлением электронной шпаргалки.
— Электронной? — удивился Ник.
— Да, малыш. Успехи микроэлектроники рано или поздно должны были натолкнуть «шпаргальщиков» на эту мысль. Правда, сначала это был всего лишь крохотный приёмник-передатчик в виде специальной ушной пробочки. Второй передатчик находился у подсказывающего. Схема, как видишь, была ещё довольно громоздкой и предполагала, что на десять лоботрясов найдется хотя бы один прилежный ученик, который станет за них думать. Но уже на следующем этапе «шпаргализации» образования передатчик подключили к стационарной ЭВМ, а со временем создали и отдельные микрокомпьютеры, которые каждый мог носить с собой замаскированными под привычные предметы.
Новые шпаргалки нашёптывали ответы с учетом новейших открытий в данной области знаний. Стоила такая шпаргалка денег немалых, но с её помощью можно было выдержать самый строгий экзамен. Целое поколение слушателей средних и высших учебных заведений Кальруна окончило их, не зная специальности.
Эти люди и после учёбы не расстались со своими шпаргалками. На заводах, в институтах, в лабораториях бывших студентов ждали новые испытания, и, чтоб хоть как-то их выдержать, нужны были «кибернетические шептуны». Так из учебных аудиторий «электронная шпаргалка» шагнула в жизнь. Подпольный промысел «шпаргальщиков» разрастался. Кальрунцам требовались универсальные шпаргалки, способные решать широкий круг задач. Электронщики и кибернетики, посвятившие себя этому бизнесу, создали и такие аппараты.
Легко получая дипломы и продвигаясь по службе, человек почти ничего не знал, поэтому многие и со шпаргалкой стали попадать в неловкое положение. Тогда «шпаргальщики» придумали звуковую приставку, которая в виде коронки крепилась на зуб и отвечала на вопросы голосом владельца,— тому достаточно было шевелить губами в такт словам.
Новинка разошлась мгновенно.
Поскольку кальрунцы желали выглядеть умными и компетентными не только на работе, то этими приставками стали пользоваться везде. С их помощью вели интеллектуальные беседы в гостях, в театрах, на улице. Со стороны казалось, что люди спорят, высказывают мнения, сомневаются, тогда как они просто открывали рот, а беседовали за них электронные шпаргалки.
Тщеславные родители поспешили приобрести «говорящие шпаргалки» своим неразумным чадам, и повсюду один за другим стали появляться шестилетние, пятилетние и даже трёхлетние вундеркинды. Несчастные дети с малых лет отучались мыслить — за них думал электронно-кибернетический мозг, упрятанный в висящую на шее безделушку. Мода на вундеркиндов распространилась по всему Кальруну, и вот уже вослед за поколением неучей росло поколение дебилов.
Все эти события начинали самым плачевным образом сказываться на самих электронике и кибернетике. Роботизированная промышленность остро нуждалась в специалистах, а их становилось всё меньше, да и те, последние, переключались на производство шпаргалок, потому что это было прибыльно.
Развитие электроники, как и других отраслей, остановилось. Действовало только подпольное шпаргалочное производство, но и оно скоро стало угасать...
— Почему? — спросил Ник.
— Потому что «шпаргальщики» старели и умирали, а новым было неоткуда браться. Да, «шпаргальщиков» становилось всё меньше, но они не бросали своё ужасное дело. Кальрунцы продолжали высокоинтеллектуальные разговоры, часто уже не понимая того, что раздавалось из их собственного рта. Иногда они забывали шевелить губами в такт словам, но, так как к этому времени все уже имели шпаргалки и знали их секрет, никого это не удивляло.
— А потом, учитель?.. Что было потом?
— Потом? — Старый Тэн нахмурил щётки бровей.— Потом умер последний из «шпаргальщиков». Делать шпаргалки стало некому. Но Кальрун был уже так наводнён ими, что никого это не огорчило. Люди продолжали, не разжимая зубов, беседовать, руководить и давать советы.
Но вот шпаргалки начали ломаться. Они ломались и раньше, но тогда их чинили. Теперь чинить их было некому, потому что никто уже толком не помнил, что такое электроника.
Поломка шпаргалки оборачивалась для её владельца настоящей катастрофой — он не мог больше принимать участие в умных беседах и вынужден был сторониться общества. Такие люди собирались в отдельные группы и общались мычанием. Остальные ещё разговаривали, но шпаргалки портились одна за другой, и постепенно мычащих стало больше, чем говорящих.
Давно были забыты ремёсла, утрачена письменность. Роботизированная промышленность ещё кое-как работала, обеспечивая кальрунцев пищей и одеждой,— ею управляли сложные электронно-кибернетические комплексы, запрограммированные на десятилетия. Но и они нуждались в уходе и ремонте.
Наконец застыло всё. Дольше всех функционировал наш Координационный Центр, но он не мог оживить умирающие заводы и только констатировал их остановку. Как умирал он сам, ты видел, малыш. Это и был конец цивилизации планеты Кальрун.
До сих пор нас было двое в этом мёртвом храме кибернетики, и я учил тебя всему, что знал. Но мне уже не подняться из операторского кресла — мой энергозапас на исходе. Так что скоро ты останешься один. Твоя урановая батарея протянет ещё лет десять, поэтому постарайся не пропасть раньше срока. Ещё раз проверь, хорошо ли заперты двери лифта. Бойся сырости, и пока лето, отыщи и заделай все щели на этаже. Почаще меняй смазку в суставах — в шестой лаборатории её целый бак. Там же батарейки для фонаря, на большом стеллаже вни...— старый робот умолк на полуслове, и голова его медленно опустилась на стальную грудь.
— Учитель!.. Учитель!!! — Маленький Ник всеми шестью манипуляторами тряс старика Тэна, пока не понял, что тот уже не ответит. Постояв возле неподвижного гиганта, маленький робот отправился выполнять его последние наставления.
В коридоре было выбито стекло. Прежде чем закрыть отверстие снятым с пола пластиком, робот выглянул наружу.
Внизу, в зелёном колодце двора, на разорванном буйной порослью асфальте возились три грязных, волосатых человека. Двое вертели палочку в углублении деревянной колоды, а третий что-то туда подкладывал. Скоро над колодой закурился сизый дымок. Люди издали торжествующий вопль.
Рождалось новое знание.
— Александр Лесь. "Шпаргалка". "Пионер" №8 за 1990 год.
Так вся польза от gpt в том, что начиная с каких-то объёмов оно само генерирует мудрость. По крайней мере есть достаточно количество исследований, которое это утверждают.
Проблема-то глобальнее.
Во-первых, сломался поиск. Гуглом сейчас искать что-то кратно тяжелее, чем, скажем, 10 лет назад. Попадается либо вода, либо SEO-говно, либо ИИ-контент. Тот же медиум в поисковой выдачи в основном перечисленное выше и выдает. За крайне редким исключением, если чего-то нет на SO, то и дальше искать смысла нет. В этом плане Хабр еще неплохо держится, даже с учетом обилия корпоративных блогов и их статей уровня "мы перешли с Jira на МойБизнесТрекер".
Во-вторых, качество ответов ChatGPT стало действительно довольно высоким. Если нужно решить бизнес-задачу, то с ней намного быстрее приходишь к работающему решению, чем если искать это все в поисковике.
В-третьих, SO - это скорее коллекция типичных ответов к типичным проблемам. По действительно сложным вопросам мало кто может ответить (и мало кто их задает). Именно поэтому существует либо коммерческая поддержка какие-то продуктов, либо общение с разработчиками (но это в основном про open source и не про SO, а про местные форумы/борды). И вот типичных ответов как будто уже достаточно. И их просто научились воспроизводить нейросетки.
В-четвертых, люди токсичны. Их тоже можно понять, когда в один день по 10 раз задается один и тот же вопрос. И тут как раз бизнес-проблема: клиент хочет получить ответ на вопрос, а не разбираться в правилах форума, оформления поста, поиска дубликатов и т.д.; а эксперт хочет какого-то разнообразия, а не строчить одно и тоже как дятел. И вот SO не предлагает для этого никаких решений, а ChatGPT предлагает. И это большой промах SO, потому что они могли бы сделать своего AI по SO, который бы и сам ответы давал, и посты искал и, если нужно было бы, помогал оформлять пост. А так они все это просрали, и теперь не очень понятно, что может исправить ситуацию (ну как будто бы ничего).
Но, народ, это же просто очередная трансформация/революция. Вот автомобили заменили лошадей. А компьютеры заменили счетные машины. Телефоны для 99% кейсов заменили фотоаппараты и т.д. Так что норм, посмотрим на новый интернет, будем ностальгировать по старому, всё как во все времена.
В-третьих, SO - это скорее коллекция типичных ответов к типичным проблемам
Рекомендую к ознакомлению тэг language-lawyer на SO. Там и вопросы нетипичные и ChatGPT на них по моему опыту никогда ответить не в состоянии
Я вбил этот тег, и последние вопросы на момент написания была там были такие:
`sizeof ((struct X *)0)->field` -- conformance in C1999 specifically?
Copying virtual base class results in losing shared_ptr owned object
Using the address of a dangling variable without dereferencing it
и т.д. Вопросы не выглядят как сложные.
Мой опыт подсказывает, что по действительно сложным вопросам, мало кто может помочь. Зачастую даже на форумах/чатах разработчиков. Безусловно, шанс получить качественный ответ на сложный вопрос на SO сильно выше, чем у ChatGPT. Но мой поинт был в том, что не так-то много сложных вопросов реально задают. И текущая тенденция только подтверждает этот тезис.
У SO одна проблема - не можешь задать вопросы смежные к программированию, например, почему через VPN интернет ускоряется
Потому что dpi у провайдеров по разному работает, если локальный медленный, слабое железо, плохие алгоритмы, он будет тормозить, а удаленный, выходной для vps быстрый,..
Этот вопрос очень специфичный, ИИ может тупо не обладать необходимыми знаниями но... o1-preview сразу предложил именно этот вариант
o1-preview
ISP Throttling or Traffic Shaping:
Explanation: Internet Service Providers (ISPs) sometimes monitor user traffic and apply throttling or traffic shaping policies to manage network congestion or prioritize certain types of traffic over others. For example, ISPs might throttle streaming services, file-sharing platforms, or general web browsing during peak hours.
With VPN: A VPN encrypts your internet traffic, making it difficult for your ISP to see which websites or services you're accessing. As a result, the ISP cannot selectively throttle your traffic, potentially leading to faster speeds.
😅😅😅 и что же чат гпт будет делать без стэк оверфлоу? На нем же, поди, и обучался
Stackoverflow - это не форум.
Впечатление, будто про Хабр прочитал
Токсичная атмосфера... И далее по тексту
Они друг друга дополняют. Например, ни ChatGPT ни DeepSeek упорно не хотели дать мне верную функцию нахождения координат углов прямоугольника после его вращения на js-канве. Нашел решение на SO, чуть скорректировал для себя. Но потом мне нужна была функция обратного преобразования, чего на SO не имеется. Углубляться в математические дебри синусов и матриц совсем не хотелось. Но скормил первую функцию боту, и он мне выдал изящное решение обратного преобразования
Капец, поворот на угол - уже "дебри"...
Если что, решить вашу проблему можно было очень просто. Обратное преобразование к повороту есть поворот в обратную сторону. Так что вам было достаточно изменить в формуле знак угла.
Да вы что, какой же вы умный. А ну-ка предоставьте сюда обе функции на js. Думаю вас это не затруднит, у вас же тут все просто. И не забудьте проверить их работоспособность
И будьте внимательнее. Нужна функция не тупо поворота, а нахождение координат углов прямоугольника после поворота. Левый верхний угол имеет координаты 10,10. Какие же координаты у него будут после поворота на угол 30°? Точка поворота находится в центре прямоугольника
Только быстро, это же просто
Правила преобразования такие:
В js переводите как-нибудь сами. И да, я всё это время вспоминал не формулу, а синтаксис TeX.
Нужна функция не тупо поворота, а нахождение координат углов прямоугольника после поворота.
Хм, подставить координаты в формулу уже так сложно?
В формуле что такое x и что такое x0? В косинус и синус что подставлять? Повторяю для особо одаренных: дано угол 30° , координаты угла x=10, y=10. Надо найти координаты угла после поворота. Затем функция обратного преобразования. Даю сразу рабочее решение этой задачи, чтобы не умничали умники, а то вы можете только хвастаться, какие вы там блин все умные, а толком на вопрос ответить не могут.
transformedPoint(x, y) {
let center = { x: this.x + this.w2, y: this.y + this.h2 }
let _x = x - center.x;
let _y = y - center.y;
let point = {
x: (this.matrix.a * _x + this.matrix.c * _y + this.matrix.e - originX) / scale - offsetX,
y: (this.matrix.b * _x + this.matrix.d * _y + this.matrix.f - originY) / scale - offsetY,
};
return point;
}
inverseTransformedPoint(x, y) {
let center = { x: this.x + this.w2, y: this.y + this.h2 };
// Вычисляем обратную матрицу
let det = this.matrix.a * this.matrix.d - this.matrix.b * this.matrix.c;
if (det === 0) {
throw new Error("Матрица необратима, детерминант равен нулю.");
}
let invA = this.matrix.d / det;
let invB = -this.matrix.b / det;
let invC = -this.matrix.c / det;
let invD = this.matrix.a / det;
let invE = (this.matrix.c * this.matrix.f - this.matrix.d * this.matrix.e) / det;
let invF = (this.matrix.b * this.matrix.e - this.matrix.a * this.matrix.f) / det;
// Применяем обратную матрицу к координатам
let _x = (x + offsetX) * scale + originX;
let _y = (y + offsetY) * scale + originY;
let transformedX = invA * _x + invC * _y + invE;
let transformedY = invB * _x + invD * _y + invF;
// Возвращаем координаты относительно центра
return {
x: transformedX + center.x,
y: transformedY + center.y,
};
}
Лол, а поворот-то в вашем "рабочем" решении где? Спрятан внутри this.matrix. Так фигли вы самое главное-то вообще не показали?
Ну и сразу видно воистину индусское "качество" кода. Задача-то решена, только обращать матрицу для её решения вообще не требовалось.
И да, что у вас вообще в коде за originX и offsetX? Он вообще работает?
В формуле что такое x и что такое x0? В косинус и синус что подставлять?
Очевидно же. x, y - координаты точки. x0, y0 - координаты центра поворота. - тот самый угол, на который требуется повернуть.
Я пробовал делать с синусами и косинусами и зашел в тупик на каком-то этапе, потому что конструктор многофункциональный, там перемещение, масштабирование, стыковки прямоугольников, их вращение и многое т.д. Получилось сделать все правильно и не сломать остальной функционал только с помощью матрицы преобразования ctx.getTransform()
Разумеется, если преобразований много, то использовать матрицы - самый правильный вариант (кстати, масштабирование тоже можно включить в матрицу). Но выше-то писалось про один лишь поворот.
Только я бы всё-таки вычислял обратную матрицу 1 раз, а не каждый.
Если площадки типа SO закроются то ChatGPT закроется вслед за ними т.к. ему неоткуда будет брать "знания". это же очевидно
Это совсем не очевидно. Особенно на фоне новостей а ля "Гиганты AI скупают неопубликованные видео для обучения моделей"
Вы считаете, что ChatGPT куда-то тратит знания в процессе работы?
Проблема скорее в том что мир не стоит на месте. А поскольку мир будет меняться, то chatgpt постоянно нужно будет где-то как-то получать новые знания об этих изменениях.
Ну то есть если совсем грубо, то если кто-то придумает новый ЯП или фреймворк, то chatgpt нужно будет как-то обучить с ними работать.
Брать знания о свежем фреймворке из ответов на вопросы по этому фреймворку крайне неэффективно - вопросы разрозненные, информация с большой задержкой. Текущая тенденция обучения - синтезированные данные (только давайте без шуток, что синтетика будет деградировать), это позволит обучать всей полноте нового фреймворка не дожидаясь тысяч вопросов-ответов.
На синтетике пока только довольно небольшие модели, топам нужно ещё несколько месяцев, что бы выдать достойный результат.
Плюс нужно дождаться следующего шага - дообучить до конкретного фреймворка кому-то должно захотеться. Но так как их слишком много, нужна автоматизация.
inference time compute тоже мог бы решить проблему, но это дорого (дешевле обучения, но если умножить на количество запросов, то дороже)
Ну так в том то и дело что сейчас ИИ обучают на куче разных источников. Причём приличная часть этих источников живёт за счёт своей информации и скорее всего будет вытеснена ИИ.
То есть в будущем ИИ надо будет обучать на каких-то других источниках. А возможно даже и с каким-то другим подходом к обучению.
Это не значит что это будет невозможно. Но скорее всего это будет сложнее.
Давно перешел на чатгпт. Больше не использую гугл и стекоаерфло, за редким исключением когда нейронка глючит и надо проверять. Контакт с лбдьми на форумах сопряжен с непрерывным потоком мудаков, которым срочно надо выпендриться, это вообще имба у нейронок, спокойно и вежливо ответить именно на то, что спрошено. Лбди в общении проигрывают по всем фронтам.
Кто следующий? Reddit?
Главное преимущество QA-ресурсов перед нейронками заключается в том, что они обновляются ежеминутно, тогда как нейронки - раз в полгода с выходом новой версии.
В итоге если возникла какая-то свежая проблема, которая затронула заметное количество пользователей, на QA её решение будет лежать уже через несколько часов, а нейронка ещё не один месяц будет тормозить, прежде чем начнёт выдавать релевантный ответ.
Окирпичивание при апгрейде на новую версию ОС, специфические баги свежих версий библиотек или софта (Python, nginx) - решения всех этих проблем лучше искать на SO и подобных ресурсах.
Вот только что было.
Полдня мучался и с GPT, и с Gemini. Ранее я сделал функции для работы с SQLite. Использовал библиотеку System.Data.SQLite . С ее помощью прекрасно создал БД, сделал таблицы. Все пучком.
А сегодня попытался прочитать таблицу -- ан нет. И ни один запрос не работает. С базой соединяюсь, посылаю запрос -- в результате или ошибка, или ничего. Несколько часов мучался. А потом случайно наткнулся на SO на кусок кода, где используется Microsoft.Data.Sqlite. И все прекрасно заработало!
А столь любимыый нами ИИ постоянно крутился по одному и тому же циклу -- то ли у тебя имена неправильные, то ли пути, то ли еще что -то там. И додуматься до того, что надо перейти на другую библиотеку -- мозгов не хватило. И не хватит, пока кто-нибудь ему не скажет явно (или он не прочитает тут), что проблема может быть связана с используемой библиотекой (какой именно -- пусть догадается), и надо перейти на другую (какую именно?)
Поэтому все вопли по поводу общего интеллекта -- лишь сотрясание водуха. Робот будет крутиться в цикле между уже изветсными решениями, и не додумается поставить вопрос по-другому, если у него в эвристиках это не прописано. В общем, человек способен выходить за границы предыдущего опыта, а робот -- увы. Только комбинировать уже известное. И даже при гигантском запасе ивестного рано или поздно найдется то, чего он не знает (как было со мной сегодня), и он не сможет понять, что он этого не знает. И тем более -- узнать то новое, что даст ответ на проблему. Тут нужен человек.
Это в каких ситуациях у вас System.Data.SQLite не работает при соединении с базой? хоть какая ошибка была? Но при этом смена провайдера на Microsoft.Data.Sqlite решила проблему? Это выглядит как бред, но почти наверняка не связанный с языком, но от особенностей окружения.
p.s. мир не достиг еще AGI но все от простеньких (этой технологии от силы 7 лет, а по факту считанные 3) галлюцинирующих проектов уже хотят быть максимально умными и все знающими.
gpt дистилирует знания, он не может все знать ТОЧНО а в попытках запомнить может сильно тупить, спотыкаясь об эти заученные данные. Но неплохим способом является добавление необходимых знаний в контекстное окно и проблема тут только в поиске этих знаний, иногда можно спросить у ИИ об этом,.. в общем это уже процесс а не вопрос-результат.
p.p.s. в программировании среди топов лучший это anthropic claude sonnet 3.5 (последний который), я допускаю что openai o1 будет лучше, но за такую цену пользоваться им можно только изредка
System.Data.SQLite с базой прекрасно соединялась, но в ответ на попытку прочитать таблицу выдавала ошибку. На другой запрос (прочитать все) -- выдавала пустой ответ (типа нет ничего). А DB Browser все нормально показывал. Когда перешел на другую библиотеку -- тот же запрос прекрасно показал содержимое таблицы. Что там можно было напутать -- хз. Пути и имена проверил по нескольку раз, все нормально.
Правда, другую библиотеку я проверял в тестовом проекте. Надо будет еще в нем же сравнить библиотеки, но уже не сегодня.
Конечно, хочется понять, в чем дело, но и так кучу времени потратил.
Не совсем понятно почему их противопоставляют. Чатгпт вероятно учился на ответах в т.ч. в SO. Тем более вместо поиска по огромной базе можно пригрутить чатгпт, который будет не просто выдавать ссылку на обсуждение, но и генерить подробный ответ, опираясь на обсуждение. Если SO умрет, то откуда чатгпт будет вообще брать ответы? Он же их не из воздуха генерит - ему нужна база для изучения. Чатгпт это скорее продвинутый поисковик и агрегатор существующей информации и через него действительно проще искать и агрегировать нужную инфу, чем через сайт или гугл, но где-то эта инфа уже должна быть и кто-то должен ее обновлять и писать новую.
Сейчас все, кому не лень прикручивают себе ИИ агенты. Может быть и SO стоит подумать над такой идеей. Не простейший RAG конечно, а что-то поинтереснее. Вполне вероятно, что-то бы и вышло. Например, ИИ-функционал отсеивал бы вопросы (или давал рекомендации), не соответствующие правилам/не ясные или сразу давал ответы, если вопрос очень простой и зависит только от Гугла. Проверка текста,написанного не носителями - тоже вариант. Преимуществом SO перед чистым GPT будут, например - новейшие базы знаний по версиям документации и технологий (то для чего делают дообучение или RAG). И это можно позиционировать, как синергию человека и ИИ. Наверное, подумали и раз SO - партнеры с OpenAI, вероятно есть какие-то более оптимистичные варианты развития событий и ничего не нужно ничем посыпать )
Читаю тут все комментарии и понимаю одно. Даже через лет 5-10 будут те, кто скажут, что он там может и приведут давно заготовленный пример. Но рядом будет дюжина тех, кто задался вопросом, а как выжать максимум, а как использовать и как улучшить то, что уже работает. Дело предвзятости это плохо, как в одну так и в другую сторону.
Я уже с 3.5 gpt пишу свои проекты, и я просто в шоке, ужасе и восторге, когда вижу, как оно все умнеет и умнеет с каждой новой версией.
Можно не верить, не уметь и не делать. Но уже кто-то рядом просто использует эти возможности и привлекает миллионы и даже миллиарды новых инвестиций просто используя API тупых AI
Когда я, в 2011 году со стройки шел учиться в ШАГ, компьютерная академия, надо мной смеялись коллеги строители. Сегодня я смеюсь над ними...
Да, атмосфера там в последнее время стала реально токсичная. Набрали каких-то первокурсников и те косят все подряд без разбору. Именно это больше всего и отталкивает от посещения этого ресурса в последнее время.
Во-первых, там никто никого не "набирает". Это не военкомат. Тем более первокурсников, которым там и так мёдом намазано - показать всем, что они умеют умножать два на два.
Во-вторых, проблема не в токсичности, а в попытке усидеть на двух стульях: сделать одновременно q&a и библиотеку готовых ответов. Поскольку эти две задачи противоречат друг другу если решать их в лоб, то и возникает проблема "косят всё подряд". Потому что с точки зрения библиотеки вопрос либо уже задавался, либо не имеет смысла. А диалоговый режим в принципе не предусмотрен, поскольку явно декларируется, что SO - не место для дискуссий.
При этом что особенно бесит когда первыми в поиске получаешь ссылки на ответы вроде "ответ уже дан, вопрос закрыт" и при этом без ссылки на тот самый ответ.
Хотя бы просто стирали такие вещи целиком или как-то прятали чтобы их в поиске не выдавало.
На SO нельзя закрыть вопрос по причине "дубликат" без указания ссылки на дубликат
Вот как раз именно на SO эта проблема фундаментальная форумов была решена.
Осталась другая беда - "спасибо, разобрался".
Во-первых, там никто никого не "набирает". Это не военкомат. Тем более первокурсников, которым там и так мёдом намазано - показать всем, что они умеют умножать два на два.
Своей безаппеляционностью в этом комментарии вы как раз и демонстрируете ту самую токсичность SO. И по характеру реплик модераторов на SO нетрудно догадаться для какой возрастной группы характерен такой стиль поведения, именно для первокурсников колледжей.
Но вот в чем с вами согласен, так это в том, что у них сейчас совершенно безумный лозунг, что "SO не место для дискуссий". Вопрос - ответ, конечно, хорошо, но при такой концепции они однозначно проигрывают нейронкам, о чем наглядно как раз и говорят приведённые здесь цифры падения запросов. И самое смешное, что они сами же и отдали свою базу для обучения ChatGPT! ))
ОМГ, какой-то детский сад. Теперь понятно, что вы пришли не платформу обсудить, а поплакаться, что вас на ней жестоко обидели. И привести свои объяснения этому, сообразно своему уровню развития и образования.
Просто для информации:
Во-первых, вам пора научиться не обижаться на реальность. Она от этого всё равно не изменится. Если вы высказали на редкость дурацкую идею о том, что на SO кто-то кого-то набирает, а вам сообщили, что это не так, то апеллировать тут не к чему. Это факт. Который надо или принять, или проверить, а потом принять. А не обижаться, что вам об этом сообщили без реверансов.
Во-вторых, студенты там лезут только отвечать. Сообразно своим микроскопическим знаниям. Вопросы закрывают не они. И уж тем более в модераторы никто студента не выберет.
В-третьих, в подавляющем большинстве случаев вопросы закрывают не модераторы, а пользователи с достаточным для этого рейтингом. Нужно всего три голоса. Обычно там всегда зависает достаточное количество таких завсегдатаев, чтобы оперативно закрыть вопрос, который не соответствует формальным критериям (а под них попадает 90% всех вопросов).
И в-четвёртых, средний возраст, как этих пользователей, так и модераторов - хорошо за 40, студенчеством там и не пахнет. А стиль поведения диктуется не возрастной группой, а представлениями о предназначении сервиса, а так же специфическим когнитивным искажением, которое проявляется у завсегдатаев любых форумов, когда они видят миллионы одинаковых вопросов.
Недею пытаюсь пользоваться чат гпт. Спрашиваю про виртуальные машины и линукс по немножку. Сегодня столкнулся с тем, что нейросеть придумала несуществующие параметры для busybox.
Ну или может быть эти параметры существуют, но для какого-то особенного китайского, неванильного форка бизибокса.
Я поплевался с этих ответов и полез гуглить стэковерфлоу.
количество новых вопросов на сайте упало на 76,5% за два года. Если в ноябре 2022 года пользователи задали около 108,57 тысяч вопросов, то в декабре 2024 года их число снизилось на 83 тысячи
Какая-то нейросетевая математика
"The last straw that breaks the camel's back" - идиома, и переводится как "последняя капля", а не "соломинка, сломавшая спину верблюду"
Вовсе не обязательно переводить как "последняя капля", т.к. идиома про соломинку есть в русском языке, и уже довольно давно.
Например, в переводе "Приключений Тома Сойера" Чуковского (1929) - она есть.
Просто "the last straw" я бы и правда перевёл как "последняя капля", но вот полный текст надо всё-таки переводить дословно.
У ЛЛМ действительно спросить проще, чем у SO, если это старый вопрос, и ЛЛМ знает на него ответ. Знает в том числе скорее всего с того же SO, если он входил в обучающую выборку, или ЛЛМ ходит в т.ч. на SO с помощью RAG.
А вот если закрыть SO, смогут ли ЛЛМ так же хорошо отвечать на новые вопросы по новым фреймворкам?
Да вообще трафик на сайты типа вопрос-ответ сильно снизился. Помимо гпт этому поспособствовали и быстрые ответы Гугла.
Нейросети vs Stack Overflow: что происходит?