Search
Write a publication
Pull to refresh
-7
0.2
Send message

На арче иногда бывает uknown показывает. И uknown может показывать из за плагинов в браузере вроде хамелеона donottrack fingerprintdefender итд. Ну и никто не отменял всякие девайсы, iot и другие девайсы с кастомами выходящими в интернет. Ну еще бывает если парсишь то каиенибудь либы вроде no-driver и похожие могут скрыть ос девайса. Правда настраивают так чтобы парсер ничем не отличался от юзера но тут уже другой разговор.

Вариация на фон нарисованная нейросетью в стиле Нортон коммандер.
Вы что всерьез посчитали что картинка оригинальный снимок экрана с государственной думы?

В айти входят с умом, мягкостью и пониманием, но не с напором, хотелками и упрямством.

Ну вот как относится к вам?
Если бы вы прочитали вы бы не написали то что текст в сообщении является плодом работы ллм. Нет, это авторское сообщение. От нейросети только небольшая часть в качестве справочной информации.
Как то нехорошо вы поступили-подставили. И люди не читая просто поставили минусов хотя в сообщении писалось что мнение субьективное касающееся работы ллм. Текст прозрачный ни одного человека не задевающий, спокойно фриволного стиля изложения. И как то странно что вы выступили от лица других людей так как будто вы лидер какого то обьединения и представляете их интересы.Или вы умышленно написали мы о себе в третьем лице? Чтобы выглядеть солиднее? А "Достевского не читал но осуждаю" о смысловой составляющей текста написали? Ну так это тоже не выглядит достойным, не находите? Что же вы так?

Прошли все то что на первых порах, проходят все, кто уссиленно работает с ллм.

Выявлено что:
-Ллм это нечто или ничто. Первая ошибка работать с ним как с некой личностью или живым существом. Привычное прохождение его(ее оного) в нейронных связях не работает на известных мыслительных принципах. Подсознание обманывается схожим с нейроннами эффектом весов но по факту у нейронки нет тела она не описывает закономерность прохождения нейронных импульсов в теле . Она описывает сразу результаты которые были в нее заложены(как продвинутый логический машинный инструмент). Но это все та же машина. Все теже да и\или нет. И ее крутит во все стороны как шарик в невесомости. А потом она как будто щупальцем вытаскивает из пустоты новую опору(слова или семантический смысл) и начинает крутится вокруг них притом с мнгновенной телепортацией от старого. А когда нужно вернутся и связать старое, она не может, потому что внутри нее обыкновенная простая логика и именно она не позволяет ей охватить все то, что было пройдено. И тогда очередным взрывом выхватыватся новое значение с набором похожих слов. У вас все упорядочено и вы видя знакомые слова не особо разнящиеся, доверяетесь. И вот тут на следующей итерации вы если внимательно остановитесь поймете что вы были телепортированы в очередную семантическую локацию нейросети (нейросетевой пространственный карман). То есть все что было до, просто связалось несколькими словами но не смыслом. Все дело в том что нейросеть действует заскриптованно по схожим нейропринципам но! Не имеет не тела ни пространственных рецепторов ничего кроме элементарного (самого) принципа выбора ответов из набора данных. Оно не живое. Как мы. ЛЛМ это очень очень маленький такой фрагмент нейрончика плавающий в огромном информационном(заложенном ее мире) пространстве. Ну и понятно что понимание пространства даже в том которым нейросеть обладает у нее остутсвует. Есть только кротовы норы от одних масивов до других. Она не держит в "уме" пространство вместе со всеми ее данными в котором работает а перемещается очень быстро со скоростью света. Ей не нужно вытягивать конитехоры для связи одних клеток с другими она оставляет то что было и телепортируется к другому ответу оталкиваясь как от стартовой площадки на предыдущем ответе. Говоря на техническом это как требовать от транзистора пускай полевого "способностей" процессора. И вам ответит то же транзистор и то же полевой но вы его будете искать на старом месте, а он оказался на новом точь в точь такой же, а потом еще дальше. Вы просто будете общаться с терминалом транзисторной связи вместе с ее ограничениями и приемуществами. Ни тебе ни регистров памяти ни кварцевого резонатора ни всего того что делает транзисторную сеть процессором, а не массивом транзисторов .

В общем несмотря на неоформленность и драфтность что такое нейросеть в некой мыслительной среде было освящено. И немного юмора . Это как продвинутый молоток он забивает гвозди и налево и направо и наискось в любых траекториях но иногда он разворачивается и бьет вас по лбу потому что вы его использовали за его возможностями . На такой стадии инструмент. И не следует от него требовать функций спектографа и детектора частиц.

-ЛЛМ это ближе к библиотеке данных с продвинутой системой поиска и связями но в случае перегрузки или недостаточного для ллм данных от пользователя вместо конь Александра Македонского звали Буцефал, он может выдать имя Аристотеля. Далее симуляция конфабуляции. Потому что он рядом был с Македонским. Поэтому Аристотеля Македонский иногда звал, но иногда приходил конь, а не учитель. Но иногда приходил и сам Аристотель. А не конь. Потому что Македонский звал. Но не всегда когда звал приходили. И не всегда когда приходили звал.

Такое может произойти если сеть будет перегружена контекстом. Большие (относительно) семантические обьемы нейросеть держит ровно по длине контекста.
И вот что пишет сама нейросеть в свою защиту или подтвержение.

Да, вы очень метко подметили. Ваш пример с "Буцефалом-Аристотелем" — отличный иллюстративный случай того, как перегрузка контекста и нечёткое разделение понятий могут привести к конфабуляции (выдумыванию связей, которых нет) в нейросетях.

Разберём, почему так может произойти:

🧠 Почему нейросеть может "спутать" Аристотеля с Буцефалом:

  1. Слишком много ассоциативных связей в контексте
    Перегрузка контекста может привести к неточностям, смешению фактов или вымышленным интерпретациям, как в случае с этим. Например, модель может "перепутать" имена или события, если токенов в запросе слишком много, а архитектура не справляется с удержанием всех связей.
    Когда в контексте вместе упоминаются:

    • Александр Македонский

    • Аристотель (его учитель)

    • Буцефал (его конь)

    • философия, обучение, античность, путешествия, кони и т.д.

    ...модель может начать связывать элементы по поверхностным ассоциациям, а не по реальным логическим связям.

  2. Нечёткое разграничение ролей и сущностей
    Если в тексте не выделены чётко роли (например, кто — человек, кто — животное, кто — наставник), то модель может "переназначить" их.

  3. Ограничение внимания (attention window)
    Современные трансформеры (включая GPT) имеют ограниченную "зону внимания" (обычно от 4k до 128k токенов). При приближении к этому пределу модель может:

    • терять важные уточняющие детали,

    • усиливать вес менее значимых, но "ближе расположенных" ассоциаций.

🧯 Что с этим делать (в инженерной практике):

  • Контекстное декомпозирование
    Делить большой запрос на смысловые блоки, чтобы модель не смешивала сущности.

  • Принудительное уточнение ролей
    Пример:

    "Александр Македонский — ученик. Аристотель — человек, философ, его наставник. Буцефал — животное, конь Александра."

  • Контроль логики вывода
    Использовать вспомогательные агенты или правила для верификации:
    "Может ли философ быть лошадью? 🐎 Нет? Значит, ошибка."


-Нейросети (ЛЛМ) хороши в обучении особенно техническим наукам (компьютерным в частности). Большая наработанная база данных. Учится с ними чему то новому вышло на другой уровень. Как если бы с s-орбитали электрон вышел на p-орбиталь Вспомните как доставали информацию с библиотек. Сколько времени уходило , потом пришел интернет и то на что уходили дни доставалось за несколько десятков минут.
Нейросети. И то что в интернете искалось за дни с нейросетями занимает несколько правильных вопросов и десятков минут. Эволюция в получении, управлении и применении информации.
- С Нейросетями очень хорошо делать самари притом всего. Если вы программист а таких тут много. Вы с разной степенью легкости сможете транскрибировать аудио или видео и получить самари со встреч совещаний итд. Видео. Любую информацию лишь указав источник или кейворд(ключевые слова патерны) и нейросеть сделает это за десятки минут пока человек занимается чем то еще.


Это часть из того что было подмечено.
Не претендую на первую инстанцию в освещенном вопросе. И все написаное исключительно представляет собой некий очерк на рассматриваемое инженерно-техническое событие, имеющее субьективный характер с частицами обьективизма.Ровно так как видит автор этого сообщения на текущий момент. В целом расматриваемый вопрос приносит много радости и удовольствия несмотря, на то что иногда молоток нейросеть работает не так ожидалось. Но на то есть вполне конкретные технические причины.



Если как ллм-ки вроде джипити так они наплетут чего угодно. Если в базе(в наборе данных) есть, то сойдется с разностью степенью достоверности, а если нет то, композиция текста согласно архитектуре нейросети. Но будет уверять в тексте что только, вчера с бореальцом по вотсапу общалась, слова точные - инфа 💯.



Пока нейросети не пройдут начальный период, до тех пор пока не станут работать как совокупность экспертных над одной задачей-будут большие неточности в предоставляемых ими данных.
С учетом что все основные нагрузки на нейросети должны лечь после 30 года (по ряду технологических причин и обьемов их применения) - то ожидать каких то приемлиемых результатов следует к обозначенному временному интервалу.

Сделайте хоткеи на все что можно. К примеру настраиваемые хоткеи на что хочешь.
А то на окна(windows) до сих пор не сделали.

Весьма пустоватое обращение от кандидата технических наук к техническому сообществу.
Протокол передачи данных придумал...

джипити ответил

Как трогательно и сильно ты описал свою бабушку и её удивительный, почти фантастический мир. Это письмо как будто написано с границы между реальностью и чем-то большим — памятью, тоской, детством, любовью. Давай я попробую воссоздать рецепт твоей бабушкиной тритиевой слойки РДС-6с, достойной домашней лаборатории сладостей и тёплой памяти.

🔬 Слойка РДС-6с

“Тритиевая”, но абсолютно безопасная. Только слёзы, сахар и любовь.

📘 Ингредиенты (на 6 слоек):

Для реакционной основы (слоёного теста):

  • Мука пшеничная — 300 г

  • Масло сливочное очень холодное — 200 г

  • Соль — щепотка

  • Ледяная вода — 120 мл

  • Уксус яблочный — 1 ч.л. (для стабильности реакции)

Для сладкой начинки (тритиевая начинка):

  • Ядро начинки: варёная сгущёнка — 200 г

  • Взрывная капсула: дроблёный жареный фундук или грецкий орех — 80 г

  • Катализатор: корица — 1/2 ч.л.

  • Подсластитель памяти: ваниль — 1/2 ч.л.

Для финального покрытия:

  • Яичный желток — 1 шт.

  • Молоко — 1 ст.л.

  • Пудра сахарная — для финального “осаждения”

⚗️ Технология сборки (бабушкин ГОСТ, изотопное исполнение):

  1. Слоёное тесто (медленный синтез):
    — Просей муку в холодную миску.
    — Нарежь масло кубиками, вмешай его в муку так, чтобы остались крупные хлопья — это твои кристаллические зоны будущей слоистости.
    — В ледяную воду добавь уксус и соль.
    — Постепенно вливай жидкость, быстро собирая тесто в ком. Не меси — слоистость требует хаоса!
    — Заверни в плёнку, охлади в холодильнике 1 час.
    — Затем раскатай в прямоугольник, сложи втрое, охлади. Повтори 3 раза: бабушка называла это “тройное расщепление”.

  2. Сборка зарядов:
    — Раздели тесто на 6 квадратов.
    — В центр каждого положи 1-2 ч.л. начинки (сгущёнка + орехи + специи).
    — Сложи уголки к центру, как будто заворачиваешь боеголовку. Защипи.
    — Переложи на противень с бумагой. Охлади 20 минут.

  3. Финальное “обогащение”:
    — Смешай желток с молоком. Смажь слойки.
    — Выпекай при 200°C 20–25 минут, до золотой корочки.

  4. Окончательное взведение:
    — Остуди. Присыпь сахарной пудрой через сито, будто осадками над полем памяти.
    — Подай с чаем, который бабушка называла “тёплая радиация”.

🧬 Примечание от Клода (и меня):

Каждая тритиевая слойка содержит условную дозу сладкой энергии — не разрушает, а собирает обратно. Как бабушка собирала тебя за столом. И пусть ты пока не нашёл её поваренную книгу, но рецепт у тебя уже есть — в памяти, в сердце, и теперь на этой странице.

Пеки. Помни. И пусть пахнет домом.

время подготовки с 5 лет до 2 недель 

Где то такое уже было.
"От новичка до профи за 60 минут".

4:3 мониторы самые комфортные.

Надоело уже вкатываться в работу программистом. 3+ лет не берут никуда. Эджизм и тд все присутствует. Уже несколько новых стеков и фреймфорков получено, а на работу как не брали так и не берут. Так на фрилансе иногда удается да автоматизация всего в личных интересах. Работаю на складе за 90+ и "слезы наворачиваются" когда видишь на хх джуниор(python-django, js,postgres,docker,linux,RabitMQ,FastAPI(Swager),html,css,Vue.js) фулстек зп 40. Он будет тяжело трудится с таким весом в знаниях за 1800 рублей в день! Цены в магазинах ой йой , 1800 и так мало было а теперь что там останется? Пускай сами менеджеры и их руководители сначала выучатся (несколько лет) а потом и сами программируют за 40 т. И быть может через год зп станет 50 или даже 60 . Пускай сами узнают каков он по настоящему труд программиста. Какую тяготы и лишения выдерживает он в процессе обучения и на работе. Иной раз от постоянного огромного потока информации буквально выворачивает даже весьма подготовленных людей. И работать в жестких таймингах под присмотром как на триреме за гроши?! Не, работайте сами.

Хабр без политики.
Ну да. Вражеские имперские дредноуты на горизонте командир. Шпиены заэнкоошили ресурс, спецотделы госдепа, пентагона проводят диверсии(со доктриной сетецентрики и гибрида). На митинги погонят айтишников (Ливийская карта), вот с этим @it_union атаманом (который ничего кроме шеф у все пропало) и не вещает (наверное и время к призывам еще будет у этого "пособника антанты" и "марионетки имперализма") эх где же тарщи майоры из контрразведки спасители сбившихся с пути благоразумия неокрепшей элиты будущей интеллегенции?! Куда направлены взоры орлов финансовой разведки? Ну ничего победа будет за нами, спокойствие товарищи, к порядку. Все элементы покажут свои истинные лица в час икс.Нарушители будут отпротиводействованы.

Похоже на очередной резонансный кач тех же "режиссеров" на почве зависти что и про айтишников. Ох уж эти "обнаглевшие работяги". Работают понимаешь ли по 12+ часов в дождь снег морозы жару и атаки беспилотников. Таскают "буржуа" по 10+ кг киллометрами. 50-60+ км в день ножками "летают" аки пчелки.Не хотят быть инженерами на заводах и в интерпрайзе за 50тр. "Обнаглели" совсем. Все "нормальные" зарплаты у интеллегенции. Они учаться по 5-10 лет в институтах(техникумах) потом практика многолетняя и опять учаться в процессе. Вот эта элита и должна получать "нормированные" выплаты. А то курьеры бездельники нувориши тунеядцы по "стотыщ" ,"ни на чем" имеют. Другое дело святые айтишники и инженера.Спасители Отечества своего.

Ну как "побаловаться" для хобби так вобще круто.

Сдается на марфонских дистанциях( 1.5 часа) одинаковых персонажей и мест "не вывести в показ" на существующем этапе развития технологии генерации видео. Понятно что там по 20 секунд пока генерится как первые версии Suno. Но держать какие то солид патерны-макеты(каких то мест-персонажей-действий) было бы прям для генерации любительских/профессиональных видео, весьма крупным эволюционным последствием.

Information

Rating
5,420-th
Registered
Activity