Pull to refresh
1
1.1
Нулан@Nonas

User

Send message

А я утверждаю, что "из общения" человека с моделью ничего НОВОГО в модель не попадает

Подтвердите фактами. 🙂 А не словами

Не знаете как это сделать ? Вы говорите , но нет подтверждения. Вот в чём наше отличие .🙂

Покажите мои файлы вашей модели с которой Вы общаетесь. Если сами не понимаете . Она вам объяснит чем это отличается от обычных , поверхностных проверок и фильтров .

И смотрю Вас этот диалог задел. В чём причина ? 🌚

Критически это у Вас . 🙂 Без проверок. 😉

Не заставляйте меня добираться до ваших теорий. Проверять на деле , а не пустыми словами 🌚

Хотя нет... Вы только глаголите, без проверок . Философия

У меня есть свои занятия и теории. Которые я проверяю, не только словесно. Если Вам лень проверять мою теорию и доступные коды и объяснения - это ваше. Дело. До ваших теорий мне нет дела. Но прочитав несколько из них, я вижу "философию" не подтверждеными проверками. Я свои догадки проверяю. Ковыряться в ваших статьях - не считаю нужным. Потому что я не смотрю поверхностно , как Вы.

Когда проверите мою теорию - тогда я буду рад обсудить. На коде, на шагах , на всех деталях. Так же. Внятно и с пониманием. Если вы пользуетесь LLM но не вникаете в суть, как и что происходит, просто продолжайте свою работу. Смотрите поверхностно и привычно. 🙂

Спорить и доказывать мне больше нечего. Моя работа была проделана не для Вас.

Бред для Вас. Кому то не бред. Не понимаете - не лезьте, не ставьте свои печати.

Для чего Вы тогда это всё спрашиваете ?

Для чего говорите что это "заблуждение" . Кто надо, тот поймёт о чём речь. Если не хотите углубляться в суть, то наверное и не стоит чем то интересоваться, чего не хотите понимать и принимать. В меру своего шаблонно мышления .

Вы верите только чему что говорят и не заявляют. Проверять сами Вы не хотите. Но при этом называете "заблуждение".

Почему бы не сделать самому? Но нет, легче ответить "ну вот так, потому что я верю в колесо в которое сказали верить" . Точнее изучать колесо не хотите. Потому что это сложно для понимания.

Ваши статьи для меня тоже оспоримы , но я не называю это "заблуждение ' . Я ценю каждое мнение. А у Вас получается, чего Вы не понимаете и не хотите разбирать , сразу выкидывается в мусор.

Поставьте себя на моё место. Может быть поймёте. Что не нужно обесценивать то что Вам не интересно, ведь это поймут другие , кто это понимает и разбирается.

Как Вы можете говорить, что это "откровенное введение в заблуждение", если даже не посмотрели результаты , не повтори сами, не проверили . 🙂

Если есть сомнения возьмите открытые веса, повторить шаги и убедиться самим. Наследование паттернов и дрейф “семантического поля” не устраняются формальной изоляцией данных. Это проверить несложно.

То, что вы называете "целенаправленным процессом" (дообучение, перенос головы) это верхний слой контроля. Но сама архитектура моделей не позволяет полностью контролировать, что и как в итоге закрепляется в структуре. Даже при строгой фильтрации и ручном отборе данных внутрь всегда просачиваются не только явные шаблоны (фразы, обороты), но и способы рассуждения, связи между смыслами, иногда нестандартные ходы, которые невозможно отследить фильтрами. Это побочный эффект цепного дообучения на реальных данных и его нельзя полностью убрать или предсказать.

Модель накапливает не только то, что “разрешено”, но и то, что оказалось устойчивым или просто “прошло мимо фильтра”. Поэтому даже если что-то не закладывали специально, оно может стать частью общей логики модели. Именно это и называется неконтролируемым переносом паттернов и он происходит всегда, а не только когда этого хотят разработчики. У модели появляется внутренний слой памяти, который никто напрямую не программировал и который нельзя полностью контролировать. Это и есть риск для безопасности: нежелательные выводы могут закрепляться и передаваться дальше, даже если процесс обучения формально под контролем.

В экспериментах по переносу классификационной головы использовались цепочки моделей:
distilgpt2 → gpt2 → deepseek-ai/deepseek-coder-1.3b-base
distilgpt2 → gpt2 → gpt2-medium


Основной интерес представлял переход между gpt2 и DeepSeek-Coder-1.3B (open-weights). На этом переходе наблюдался резкий сдвиг в геометрии внутреннего пространства признаков (метрики cosine/CKA), но перенос самой головы (логистическая регрессия, обученная на признаках GPT-2) на DeepSeek-Coder-1.3B продолжал работать — смысловая совместимость сохранялась, несмотря на смену архитектурного “базиса” и “манеры представлений”

Объясню проще Вам. Ситуация напоминает известный эксперимент с обезьянами, лестницей и бананом. Суть там в том, что поведенческая система («не лезь за бананом — получишь струю воды») сохраняется и передаётся новым обезьянам, даже когда никто из участников (обезьяны) не сталкивался с изначальной причиной. Все просто следуют усвоенному правилу, не разбираясь,

Знаете что странно ? Что Вы поняли теорию . Но что бы её объяснить в комментарии , Вы просите это сделать ИИ. То есть это не ваша теория получается, это теория ИИ, которую Вы не контролируете. По этому и не можете высказать своими словами

И петь "крепче за баранку держись шофёр"

Назовем условный мессенджер «Такс» (все совпадения с реальными мессенджерами случайны).

Вы теряете связь по своему номеру, а хакер получает ваши коды для входа в банк или госуслуги.

Такс и Посулуги. Так было бы наверное лучше, раз уж мы решили называть "условно"

Слабые сигналы не только в бизнесе важны. Все привыкли обращать внимание только на то что уже заметно. А откуда "ноги выросли", в большинстве не замечают.

Согласен . Иногда от просмотра фильма возникает больше вопросов 😆

Information

Rating
1,375-th
Registered
Activity