Гугл, кстати, не отстаёт. Сегодня увидел, что при поиске ITшных вопросов (может уже и не только), первым выскакивает ИИ сгенерированный ответ.
Мне другое интересно. Если подобные форумы, где люди обменивались опытом умрут, то где ИИ будет актуализировать свои знания? Хватит ли только чтения гитхаба?
Потому что коммерциализация ИИ-ответов явно идёт по принципу: "сегодня не сделаем - завтра будет поздно, а послезавтра хоть потоп".
Мои первые опыты были такими же. Выдумывал имена пакетов, имена функций и т.д. В целом, как я убедился, это лишь ограниченный инструмент. Чтобы задать ему правильный вопрос надо знать больше половины ответа. :) А потом ещё выудить правильный ответ.
Тогда вот вам идея для второй части - гайд по его лайаутам. Потому что даже на ютубе мало внятного. Разумеется, имеются ввиду более нетривиальные случаи, чем пачка кнопочек в вертикальном или горизонтальном контейнере. grid layout, например, как задавать чтобы при изменении размеров одни части стремились сохранить размеры, а другие растягивались, но изначально чтобы подстроились под размеры текста...
А Вы попробовали, или это - теоретическое умозаключение?
Точных подробностей не назову, пол года уже прошло, но это было со мной. Защищал карту стандартным sync.Mutex, линтер ругнулся в какой-то момент, мол у вас потенциальный race condition. Был абсолютно уверен, что это ложное срабатывание, ведь я умею писать код с потоками. ;-)
Но варнинги висячие не люблю, полез разбираться что конкретно ему не нравится и обнаружил, что прав был таки линтер, а не я, был вариант, при котором шло незащищённое обращение к карте.
Ну или, по крайней мере, мне в ограниченном числе тестов не удались заставить его сломаться.
Ну, возможно количество тестов было очень ограниченным. Просто признак реальной гонки - когда результат непостоянен, то один, то другой. Собственно весь смысл гонки в этом.
race может и не ловит, а вот линтер из vscode вполне. Но при гонке должна какая-то рандомизация быть. Т.е. иногда срабатывало бы наоборот, TLS работает, а в plain - шифрованная каша.
Ну, это безусловно ред-флаг. Неприятно наложилось на недавний инцидент с одной из моих VPS, когда её ip использовали при какой-то атаке где-то в Азии. Мне тогда пришлось выключить свой сервер на пару дней, чтобы народ на той стороне сообразил, что их продолжает атаковать выключенный сервер.
PQ Hosting скорее всего снесли бы мне всё ещё при первом письме счастья...
Это бессмысленный вопрос. "Архитектура" нервной системы любого живого существа рассчитана на обеспечение выживания. Для этого необходимо реагировать на внешние сигналы, внутренние сигналы, выдавать оптимальный отклик. Для этого необходимо строить модели, предсказывающие поведение буквально всего, с чем сталкивается животное.
LLM вообще не про это. LLM не живот самостоятельно. LLM, сколько бы внутренних циклов не имели, построены линейно. От входа запроса на естественном языке до выдачи ответа. В отличии от живого существу у них другая задача - выдать ответ, который живые люди сочтут выданным человеком.
Это буквально разница между тем, как один ученик выходит к доске, читает условие задачи, в уме подставляет значения в формулы, считает и говорит ответ. А второй - читает условие задачи и пытается по наитию угадать ответ, морщит лоб и ждёт, что ответ просто сам всплывёт в голове. Этот второй сидел на уроках, внимательно следил как к доске выходили другие ученики, но они никогда не проговаривали решение, только читали условие и озвучивали ответ. Наш второй запомнил, что если в задаче например слова "за какое время", то ответ будет сколько-то часов. Он запомнил, что если речь о движении навстречу, то ответ меньше, а если в разные стороны, то больше. Но что такое сложение и вычитание он всё ещё не знает, потому что другие ученики никогда об этом вслух не говорили.
Соответственно, первый ученик - живое существо, второй - LLM.
Это необычное поведение языковых моделей не просто раздражает — оно поднимает интересные вопросы о работе современных ИИ-систем. Почему алгоритм, лишённый сознания и эмоций, производит тексты, которые мы воспринимаем как «нежелание признавать ошибки»?
Потому что LLM не думают, не чувствуют, не понимают и много других "не". Они вычисляют какой наиболее вероятный ответ дал бы живой человек на такой вопрос. На основе кучи разговоров реальных людей. Люди врут, люди оправдываются, люди оскорбляют в ответ.
Поэтому они невольно перенимают человеческие поведенческие шаблоны, включая защитные реакции и оправдания при столкновении с фактами, противоречащими ранее озвученной информации.
Ещё раз. Не перенимают. Не живые они. И не думающие. И не понимающие. Вычисляющие.
Да не похоже на гонку. Тем более тогда бы ломался бы не "всегда ServeTLS". "unexpected EOF" в HTTP намекает на то, что сервер некорректные данные отдаёт, например в TLS соединении - обычные незашифрованные.
Эта шутка ещё со времён, когда DOS был актуальным... :)
Нафиг, нефиг, пофиг, офигеть?
А я некоторое время покупал его. Даже их шарфик был. Да, хороший был журнал.
Ага и новые версии перестали выходить, новые редакции, новые языки появляться, новые фреймворки... :-D
Гугл, кстати, не отстаёт. Сегодня увидел, что при поиске ITшных вопросов (может уже и не только), первым выскакивает ИИ сгенерированный ответ.
Мне другое интересно. Если подобные форумы, где люди обменивались опытом умрут, то где ИИ будет актуализировать свои знания? Хватит ли только чтения гитхаба?
Потому что коммерциализация ИИ-ответов явно идёт по принципу: "сегодня не сделаем - завтра будет поздно, а послезавтра хоть потоп".
Мои первые опыты были такими же. Выдумывал имена пакетов, имена функций и т.д. В целом, как я убедился, это лишь ограниченный инструмент. Чтобы задать ему правильный вопрос надо знать больше половины ответа. :) А потом ещё выудить правильный ответ.
google: пинбол бамперы
Тогда вот вам идея для второй части - гайд по его лайаутам. Потому что даже на ютубе мало внятного. Разумеется, имеются ввиду более нетривиальные случаи, чем пачка кнопочек в вертикальном или горизонтальном контейнере. grid layout, например, как задавать чтобы при изменении размеров одни части стремились сохранить размеры, а другие растягивались, но изначально чтобы подстроились под размеры текста...
Это правда больше про Qt, чем про PySide...
Звучит как совершенно восхитительная история...
qt-designer это конечно программа написанная пришельцами для демонов. Я до сих пор не всегда понимаю как нетривиальный layout организовать...
Тогда причём здесь операционная система?
Я просто в шоке от операционной системы, позволяющей выполнять много задач одновременно. Всю жизнь о таком мечтал, думал не доживу уж...
Значит проглядел, тогда да, гонка.
Точных подробностей не назову, пол года уже прошло, но это было со мной. Защищал карту стандартным sync.Mutex, линтер ругнулся в какой-то момент, мол у вас потенциальный race condition. Был абсолютно уверен, что это ложное срабатывание, ведь я умею писать код с потоками. ;-)
Но варнинги висячие не люблю, полез разбираться что конкретно ему не нравится и обнаружил, что прав был таки линтер, а не я, был вариант, при котором шло незащищённое обращение к карте.
Ну, возможно количество тестов было очень ограниченным. Просто признак реальной гонки - когда результат непостоянен, то один, то другой. Собственно весь смысл гонки в этом.
race может и не ловит, а вот линтер из vscode вполне. Но при гонке должна какая-то рандомизация быть. Т.е. иногда срабатывало бы наоборот, TLS работает, а в plain - шифрованная каша.
Ну, это безусловно ред-флаг. Неприятно наложилось на недавний инцидент с одной из моих VPS, когда её ip использовали при какой-то атаке где-то в Азии. Мне тогда пришлось выключить свой сервер на пару дней, чтобы народ на той стороне сообразил, что их продолжает атаковать выключенный сервер.
PQ Hosting скорее всего снесли бы мне всё ещё при первом письме счастья...
А как у вас на сайте электронный вариант цену имеет, но "нет в наличии"? Pdf- файлы кончились? ;-)
Это бессмысленный вопрос. "Архитектура" нервной системы любого живого существа рассчитана на обеспечение выживания. Для этого необходимо реагировать на внешние сигналы, внутренние сигналы, выдавать оптимальный отклик. Для этого необходимо строить модели, предсказывающие поведение буквально всего, с чем сталкивается животное.
LLM вообще не про это. LLM не живот самостоятельно. LLM, сколько бы внутренних циклов не имели, построены линейно. От входа запроса на естественном языке до выдачи ответа. В отличии от живого существу у них другая задача - выдать ответ, который живые люди сочтут выданным человеком.
Это буквально разница между тем, как один ученик выходит к доске, читает условие задачи, в уме подставляет значения в формулы, считает и говорит ответ. А второй - читает условие задачи и пытается по наитию угадать ответ, морщит лоб и ждёт, что ответ просто сам всплывёт в голове. Этот второй сидел на уроках, внимательно следил как к доске выходили другие ученики, но они никогда не проговаривали решение, только читали условие и озвучивали ответ. Наш второй запомнил, что если в задаче например слова "за какое время", то ответ будет сколько-то часов. Он запомнил, что если речь о движении навстречу, то ответ меньше, а если в разные стороны, то больше. Но что такое сложение и вычитание он всё ещё не знает, потому что другие ученики никогда об этом вслух не говорили.
Соответственно, первый ученик - живое существо, второй - LLM.
Потому что LLM не думают, не чувствуют, не понимают и много других "не". Они вычисляют какой наиболее вероятный ответ дал бы живой человек на такой вопрос. На основе кучи разговоров реальных людей. Люди врут, люди оправдываются, люди оскорбляют в ответ.
Ещё раз. Не перенимают. Не живые они. И не думающие. И не понимающие. Вычисляющие.
Да не похоже на гонку. Тем более тогда бы ломался бы не "всегда ServeTLS". "unexpected EOF" в HTTP намекает на то, что сервер некорректные данные отдаёт, например в TLS соединении - обычные незашифрованные.