Alex Gusev@flancer
Я кодирую, потому что я кодирую…
Information
- Rating
- 708-th
- Location
- Рига, Латвия, Латвия
- Date of birth
- Registered
- Activity
Specialization
Фулстек разработчик
Ведущий
From 3,000 €
JavaScript
HTML
CSS
Node.js
Vue.js
Веб-разработка
Progressive Web Apps
PostgreSQL
MySQL
GitHub
Это Ваша статья по ссылке - https://zenodo.org/records/17926666 ?
Это Ваше утверждение, не моё. Это Вы утверждаете, что "оно может стать частью системы". А я утверждаю, что "из общения" человека с моделью ничего нового в модель не попадает.
Да, это чистая философия. Ну, вот так я глаголю. У Вас другая философия и глаголите Вы по-другому. Вот и славно. Мы оба публично высказались. Кому интересно - почитает. Своё мнение составит. И про Вашу филососфию, и про мою.
А если хотите мои теории разобрать - пожалуйста. Я для того их тут и публикую, чтобы фидбэк получать. Иногда даже что-то полезное возвращается. Пробуйте.
Бесконечности бывают разные. Это тоже несложная мысль. И матанализ её наглядно демонстрирует. Я просто переписал ваше же "2⋅∞=∞" в несколько другой форме.
Нас читаем не только мы :) Мои возражения были не столько для Вас, сколько для других читателей. Чтобы они критически относились к тому, что читают.
Это публичная площадка. Я выражаю своё мнение, Вы - своё. Кто-то пишет, кто-то читает. Только и всего. Если Вы считаете, что я не прав - опровергните мои слова. Если не считаете нужным - не опровергайте. В конце-концов, Хабр - это возможности, а не обязанности ;)
Вот и зря. Если Вы правы, а я - нет, я пересмотрю свою точку зрения. Мне не сложно.
Нет, это обычный матанализ.
Чтобы Ваши читатели тоже подумали, что тут написано. У Вас же просто логические нестыковки в тексте. Память у Моделей возникает из ниоткуда:
Ну это же бред!!
В статье по ссылке (https://zenodo.org/records/17926666) говорится о том, что невозможно полностью вычистить фильтрами то, что получено от предыдущего поколения моделей в качестве стартовой базы для обучения. Всё. Tracking Continuity - оно про преемственность, а не про "со временем вплетается". Вы сами-то читали, что там в статье? Если - да, то перечитайте ещё раз Ваш пост, найдите вот это:
и попробуйте найти в статье хоть какое-то подтверждение вышесказанному. Процитируйте здесь лучшее, что найдёте.
Если речь идёт про одну невычислимую функцию, то - да, там порядок бесконечности одинаков. Я что-то по невнимательности решил, что разговор идёт про множество всех вычислимых функций и про множество всех невычислимых.
Почему неизвестный? Как говорят математики в таких случаях: "Допустим, порядок бесконечности Ленты Тьюринга равен 1. Тогда ..."
Весь вопрос в том, для чего нужна Лента Тьюринга? Если для реализации бесконечного множества всех вычислимых функций, то её длина бесконечна, но меньше, чем у аналогичной ленты для реализации множество всех вычислимых функций + ещё одной. Порядок совпадает, но длина меньше, как ни крути ¯\_(ツ)_/¯ А если добавлять не просто +1 функцию, а ещё одно бесконечное множество функций уже невычислимых, то тут и порядки длины лент могут быть разные (см. матанализ, пределы).
Нельзя. Порядки бесконечности разные. Если одна бесконечность больше другой в два раза, то первую никак не уложить во вторую даже чисто математически.
Как как... вот так:
Из того, что я знаю, модель "сама" ничего не начинает делать. Либо ей "что-то" подмешивается в контекст в процессе диалога, либо она изначально получает "что-то" в процессе своего обучения.
Так каким образом "что-то новое и заметное" из ситуации "когда человек работает с языковой моделью" таки "может стать частью системы"?
Вы хотите сказать, что современные модели дообучаются на лету? Каким же образом модель продолжает "накапливать устойчивые ходы", которых у неё раньше не было?
Я верю, что обучение модели зависит от входных данных. Вот на что мы её обучили, то в ней и есть. И переобучением откорректировать её "статистическую картину мира" будет очень сильно дороже, чем взять входные данные, почистить их от нежелательных элементов и обучить с нуля.
Вот о чём говорит описанный эксперимент - обучать с нуля дорого, но переобучением не исправить "родовые травмы".
Так что я один их тех, кто утверждает, что модель ничего не накапливает из того, что у неё не было раньше или не попало вместе с данными при дообучении. И как я уже сказал ранее - (1) так и должно быть, (2) фильтровать лучше надо.
Т.е., вы хотите сказать, что, если в классификационную голову попали знания о, допустим, химическом оружии, то дальнейшим дообучением это знание нельзя вывести?
Или что при тщательной фильтрации входных данных для дообучения в них попадают нежелательные данные?
Моё мнение, что первое - так и должно быть. Второе - лучше фильтровать надо.
А вот это:
откровенное введение в заблуждение. Не могут новые паттерны попасть в модель без дообучения. Как вариант - персональная память для конкретного пользователя, которая подмешивается в его сессии. Но это уже не сама модель, а контекст.
Спасибо. Но ведь это же не говорит о том, что
Взяли "классификационную голову" и перенесли её от модели к модели. Ну и ОК. Нет в ней "необычных формулировок", "новых оборотов", "нестандартных вопросов". А если и навплетали туда что-то дообучением, так это целенаправленный процесс, а не "оно само вплелось"
Так-то - да, мы говорим в диалогах с моделями и поставляем им материал для их обучения, но при этом сами воспринимаем их "любимые обороты". Мы влияем на них, они влияют на нас. Происходит "нормализация семантического поля". Это как два человека, говорящих на похожих, но разных языках, в конце-концов начинают говорить на смеси обоих. Так и тут. Только люди в диалогах "нормализуются" непрерывно, а модели - дискретно (от дообучения к дообучению).
Про какое конкретно семейство моделей сейчас идёт разговор - GPT, Gemini, Grok, ...? Существует ли "межмодельное" запоминание - общее "протаптывание тропинок" пользователями различных моделей? Или это "внутрисемейная память" - отдельно для GPT, Gemini, Grok, ...?
Совершенно верно. Мигрировал с windows на linux в течение нескольких лет. Сидел на обеих ОС одновременно. Сначала linux был в виртуалке (VirtualBox), потом dual boot на ноуте, сейчас сношу винду с нового ноута под ноль при покупке.
Я не сильно-то работаю с медиа (видео, аудио, изображения). Для моих задач хватает linux'а. Последний раз пришлось столкнуться с windows пару месяцев назад - настраивал детям RDP на их десктоп. Что могу сказать... может я и фанатик с ограниченным профессиональным ростом, но... я не хочу мигрировать обратно с linux на windows.
P.S.
Профессионально администрировал машины (сервера и рабочие станции) и устанавливал и настраивал ОС, начиная с Windows 3.11 и по Windows 7.
И что Вам подытожил ChatGPT, если не секрет?
Я же попытался показать в итоге, что (1) нужно создавать механизмы персонализации потоков знаний, основанные на (2) структурировании формы подачи знаний, на (3) автоматической оценке семантики этих знаний через обработку LLM-моделями и на (4) оценке поведенческих реакций потребителей знания.
"Строим Нью-Васюки" - оно как раз про это.
Лет 25 назад я в магазине компьютеров слышал на чисто латышском "Tas ir arī струйный" (это тоже струйный) в адрес принтера (АЦПУ, как его называли в СССР).
Наше основное с Вами различие в этой теме в том, что Вы "знанием" считаете то, что передаётся от человека к человеку, а я - то, что у человека внутри. Я понимаю, о чём Вы говорите, мне не сложно перепривязать то, что у меня внутри, к новой системе знаков, принятой у Вас. Если Вы скажете, как в Вашей системе знаков обозначается индивидуальное и в принципе во всей полноте непередаваемое ощущение, например, любви, ненависти, страха, умиления и т.п., я вообще буду считать, что у нас консенсус :)
У деятельности есть цель (добраться из точки А в точку Б), у поведения её нет или она неосознанная (дыхание, икота, потеря сознания от испуга).
Я не уверен, что "зеркальные нейроны" работают у слепых от рождения людей. Эмпатия - это социальный конструкт. Возможно даже развиваемая и тренируемая способность. Вне общества "зеркальные нейроны" работать не будут.
Никакое новое знание зеркальными нейронами не формируется, это часть сенсорной системы человека, позволяющей обращаться к уже знакомым знаниям.
Лично я отношусь к "дому знаний" (картине мира, персональной ОС) именно как к надзнаковому, неописываемому в принципе концепту. В оригинале было:
Каждый человек получает сигналы в мозг через свою персональную систему сенсоров (нервная система). Нет в мире двух человек с идентичной нервной системой. Нет в мире двух человек с идентичными нейронными сетями, хотя бы в силу разницы опыта (развития, изменения начальной конфигурации под воздействием сигналов с сенсоров).
Знаки (слова, буквы, жесты) - это то, что человек изучает для коммуникации с другими. А "дом знаний" - он строится автоматом. Жарко-холодно, сыто-голодно - человек и слов-то таких может не знать (дети-маугли), но различение состояний присутствует. Переживание "незнания химии" - это не связано с незнанием химии, это связано с незнанием знаковой системы, в которой требуется переживание. Я на суахили ещё и не то могу "не знать".
Кстати, у нас тут в Латвии много билингвов. Я как-то не замечал, что можно обеспечить невозможность "протечки" знания из одной знаковой системы в другую. Просто некоторые вещи удобнее обсуждать в устоявшихся терминах (в разных профессиональных сообществах это хорошо заметно, в IT, например).