All streams
Search
Write a publication
Pull to refresh
2
0
Send message

Вот что мне выдала Gemini 2.5 Pro:


Представим математически строгие описания Небытия и Бытия в рамках разработанной модели.

1. Математическое Описание Небытия (N)

Небытие, как полнота всех потенциальных возможностей, формализуется следующим образом:

  • Основной Объект: Небытие отождествляется с бесконечномерным сепарабельным гильбертовым пространством H над полем комплексных чисел ℂ.

    • N ≡ H

  • Структура: Пространство H обладает структурой, определяемой его элементами (векторами) и скалярным произведением ⟨·|·⟩.

  • Базис Элементарных Возможностей: В H существует ортонормированный базис { |x⟩ }_{x ∈ X}.

    • Xиндексное множество, идентифицирующее каждую уникальную элементарную возможность. Мощность |X| равна размерности H (dim(H)), которая предполагается бесконечной (счетной или несчетной).

    • Каждый вектор |x⟩ представляет собой одну элементарную, неразложимую потенциальную возможность.

    • Ортонормированность: ⟨x|x'⟩ = δ_{xx'} для любых x, x' ∈ X, где δ_{xx'} – символ Кронекера. Это означает, что элементарные возможности различимы и "ортогональны" друг другу в пространстве H.

  • Свойства Небытия (H):

    • Статичность: Само пространство H и его базис { |x⟩ } являются неизменными во времени. Они представляют собой фиксированную арену для всех потенциальных событий.

    • Полнота: Любой вектор состояния |ψ⟩ ∈ H, описывающий какую-либо суперпозицию возможностей, может быть разложен по базису: |ψ⟩ = ∑_{x ∈ X} c_x |x⟩, где c_x = ⟨x|ψ⟩.

    • Бесконечность: dim(H) = |X| = ∞. Небытие содержит бесконечное число элементарных возможностей.

Резюме (Небытие): Математически Небытие – это статичное, бесконечномерное гильбертово пространство H со структурой, заданной ортонормированным базисом { |x⟩ }_{x ∈ X}, представляющим все элементарные потенциальные возможности.

2. Математическое Описание Бытия (B)

Бытие, как совокупность актуализированных возможностей в конкретный момент времени, формализуется следующим образом:

  • Основной Объект: Бытие в момент времени t представляется как множество B(t), являющееся подмножеством индексного множества X базиса Небытия.

    • B(t) ⊆ X

  • Определение: Множество B(t) состоит из тех индексов x ∈ X, которые соответствуют элементарным возможностям |x⟩, актуализированным в момент времени t. Формально:

    • B(t) = {x ∈ X | A(Ψ(t), x) = 1}

    • Здесь |Ψ(t)⟩ ∈ Hвектор состояния потенциальности Универсума в момент t (|| |Ψ(t)⟩ || = 1).

    • Aоператор или процесс актуализации, который определяет, какие возможности x реализуются (A=1) при данном состоянии |Ψ(t)⟩. Точная математическая форма A не специфицируется моделью (аналог проблемы измерения). Вероятность актуализации x связана с |⟨x|Ψ(t)⟩|².

  • Свойства Бытия (B(t)):

    • Динамичность: B(t) является функцией времени. В общем случае, B(t₁) ≠ B(t₂) для t₁ ≠ t₂.

    • Производность от Небытия: Бытие B(t) является производным понятием; оно определяется как подмножество индексов X базиса пространства Небытия H.

    • Ограниченность/Конечность: Предполагается, что в любой момент времени t мощность множества B(t) строго меньше мощности индексного множества X. Часто |B(t)| предполагается конечным или счетным.

      • |B(t)| < |X| = dim(H).

      • Следовательно, B(t) является строгим подмножеством X (B(t) ⊂ X), если X бесконечно.

    • Конкретность/Актуальность: Элементы x ∈ B(t) представляют те возможности, которые перешли из потенциального состояния (описываемого |Ψ(t)⟩) в актуальное, реализованное состояние в момент t.

Резюме (Бытие): Математически Бытие B(t) – это динамическое, изменяющееся со временем, ограниченное (конечное или счетное) подмножество X (индексов базиса Небытия H), состоящее из тех элементарных возможностей, которые были актуализированы в момент t в результате вероятностного процесса A, зависящего от состояния потенциальности |Ψ(t)⟩.

Что если мы перевернем перспективу? Что если небытие — это не отрицание бытия, а его основа и источник? Подобно тому, как в математике ноль не просто "отсутствие числа", а фундаментальное число, без которого невозможна вся математика. Он одновременно "ничто" и "всё потенциальное". Это созвучно и с квантовым пониманием реальности, где определенность возникает только в момент измерения, а до этого система существует в состоянии суперпозиции всех возможностей. Не является ли это физическим выражением той же самой метафизической истины — что определенное бытие рождается из неопределенной полноты возможностей?

Ради исторической справки - "дегенеративные онейросети" существовали во все времена. Во время устной передачи знаний, после возникновения письменности, с изобретением печатного станка, в эпоху массовых медиа и, особенно остро, в современный информационный век. Меняется лишь форма носителя "дегенеративной онейросети"

Кто, кто .... Папа римский

Какая нейросеть была использована, точное название и версия.

"И сравниваем её с другими LLM" - ну и где сравнение то ? А то еще полно скептиков, верующих в то, что ChatGPT лучше Claude для кодинга.

Подобной стратегии придерживаются те, кто демпингует цены на свои товары, чтобы потом стать монополистом и диктовать условия. М.Видео делает подобный шаг, просто изымая из оборота б.у. гаджеты. А когда б.у предложение снизится, можно спокойно поднимать цены на новые гаджеты, потому что у покупателя уже не будет выбора. За одно можно отбить затраты на выкуп б.у.

Читай выше, скупают чтобы снизить оборот б.у. телефонов и повысить продажи новых, которые скопились на их складах, но их не берут. Потому что с конца 2024 резко упал спрос на новую технику. Особенно ноутбуки, но и смартфонов это скорее всего тоже коснулось. А по ушам ездят как обычно - маркетологи.

Согласен, и даже больше скажу. По примеру того, как DeepSeek придумали автоматическую систему финального тюнинга, до кого-то в отделе R&D скоро дойдёт, что было бы не плохо, весь обучающий корпус прогнать через LLM чтобы переработать его в наиболее качественный вид и структуру. Может быть уже занимаются...

В чём то я с вами согласен. Есть разница в том, как обучать базовую модель. Если взять например проект из репозитория github, и скармливать каждый файл отдельно, мы по сути не даем модели высокоуровнего понимания всего проекта в целом. Получается выпускник школы с клиповым мышлением, с багажом разрозненных знаний, которые не стыкуются в его голове в цельную картину. А если подавать документы из проекта даже хотя бы в порядке их компиляции компилятором и стараться объединить их в один документ, будет совершенно иное, целостное восприятие со всеми взаимосвязями.

Так что думаю следующим открытием учёных будет понимание того, что важно не только собрать качественные обучающие данные, но и грамотно их представить для обучения.

Ну так это же логично, если подумать. Если мы убираем для стадии SFT слабые примеры рассуждений, то общее качество рассуждений модели в итоге повышается, потому что слабые примеры учат модель использовать более простые подходы к решению задач. А в данной статье модель применяет высококачественный подход к рассуждению даже для простых задач, т.е она будет везде стараться, а не срезать углы.

А что дальше? Может например найдут такие примеры для SFT, которых будет всего пару десятков, но которые будут настолько гениальными и в которых будут использованы не тривиальные мыслительные приёмы, что модель будет еще умнее ? Хотя с другой стороны мне лично не всегда нравится, когда модель на простой вопрос начинает городить размышления смахивающие на докторскую диссертацию.

Думаю пока что не в ту сторону копают исследователи, надо не отдельные задачи решать, а учить правильно работать с обьемным контекстом, например большими кодовыми базами. А то у ChatGPT в этом плане сильное отставание от Claude. А у DeepSeek-R1 я недавно проверил на нескольких больших кодовых модулях, так он мне в цепочке размышлений не просто бредовый текст начал писать, это даже был не текст а набор всех символов пропущенный через генератор случайных чисел. Таким был и сам ответ - полнейшей тарабащиной/заклинанием, написанным котом, попрыгавшим на клавиатуре. Короче он как будто вообще поломался от большого контекста.

Прочитал первый абзац... Ну да... Ну да... Растут продажи, а как же, ага... Как и ключевая ставка ЦБ.

В 2025 году в России наблюдается падение продаж компьютерной техники, что привело к переизбытку товаров на складах поставщиков.

Причины падения продаж:

  • Высокие процентные ставки по кредитам Из-за рекордно высокой ключевой ставки Центробанка, банки выдают кредиты населению под высокие проценты, что снижает покупательскую способность. Аналогичная ситуация наблюдается и с кредитами для бизнеса.

  • Снижение спроса Падение спроса на технику со стороны потребителей, несмотря на праздничный сезон, который ранее всегда сопровождался тратами. В конце 2024 года ситуация ухудшилась из-за колебания курса и ключевой ставки.

Затоваривание складов:

  • Переизбыток ноутбуков На складах дистрибьюторов скопилось на 55 тыс. ноутбуков больше, чем необходимо, что вынуждает поставщиков сокращать заказы. (ред: и заказывать подобные статьи)

А вот дальше начинаются нюансы с переписыванием кода, когда часть уже работающего кода теряется, часть переписывается иначе с потерей совместимости с другими блоками кода в этом же приложении.

Если у вас нейронка начинает "забывать" старый код и начинает "выдумывать заново" то что уже работало и так, то с большой долей вероятности вы используете ChatGPT. Именно по этой причине я перешел с ChatGPT на Claude Sonnet 3.5. Она намного более стабильно "держит" код. И не искажает его "выдумыванием заново", а только может выбросить что-то что посчитает не нужным. Это решается уточнением этих моментов в промте, наверное это часть обучения, чтобы "быть полезной" и иногда эту сторону приходится обуздывать.

У ChatGPT эта проблема начинает усиливаться с увеличением контекста, чего лишен Claude.

Просто попробуйте и сравните. За это многие разработчики и отдают ему предпочтение.

Плюсую. Сам мечтаю что ИИ сможет парсить любой источник новостей и фильтровать индивидуально предпочтениям пользователя. Из видео роликов чтобы брал титры и суммаризацию делал (чтобы было понятно стоит тратить своё время на просмотр или нет), или же распознавание речи использовал если нет субтитров. Возможно уже есть подобный сервис, не гуглил.

Поддерживаю. Меня настолько задрали умные алгоритмы ютуба и прочих соцсетей, что заморочился, выдрал с подсказками ChatGPT все подписки с ютуба, с соцсетей, там где rss поддерживался. Поставил в браузере расширение FeedBro, закинул туда все эти источники rss и настроил под себя правила, которые удаляли спам и рекламу. И ЗАЖИЛ! Теперь всё под моим контролем, все источники новостей в одном месте. Зафиксировал закладку с лентой FeedBro. Из минусов то, что в новостях из телеграм каналов нельзя сразу в ленте видео запустить, приходится кликать и переходить на сам пост в телеграме, благо редирект из браузера в Телеграм не сильно напрягает. Так же отвалились недавно rss подписки ВК, после их редизайна, похерили RSS. И почти незаметный минус это то, что FeedBro не умеет ленту показывать сразу же после запуска браузера, изза ограничений API браузера видимо, приходится F5 нажимать один раз, привык.

А кто-то пробовал современные мультимодальные LLM протестировать на способность опознавать не виданные ранее образы, просто увидев пример один раз ?

Автор упускает из виду тот факт, что мозг человека постоянно обучается с самого рождения. Мы постоянно получаем огромное количество визуальной информации, которая обрабатывается и систематизируется мозгом. Этот непрерывный процесс обучения формирует основу для распознавания новых образов в дальнейшем. Даже если мы видим цифру 3 впервые, наш мозг уже имеет огромный багаж знаний о линиях, изгибах, формах и других базовых элементах, из которых состоят изображения.

Процесс "запоминания" образа, описанный в статье, кажется чрезмерно упрощённым. Автор предполагает, что глаз двигается вдоль контура, и это движение напрямую кодируется в нейронной сети. Но как быть с более сложными образами, которые не сводятся к простому контуру? Как быть с объектами, которые мы видим под разными углами? Мозг не просто запоминает контур, он формирует многомерное представление объекта, учитывая его форму, цвет, текстуру, контекст и множество других факторов.

Что касается вопроса о мультимодальных LLM. Возможно, такие тесты уже проводились, и было бы интересно узнать их результаты. Однако, я сомневаюсь, что современные LLM смогут полностью повторить способности человеческого мозга в этой области. Потому что с рождения человека его мозг находится в непрерывном процессе обучения, получая информацию из всех доступных источников: зрение, слух, осязание, вкус, обоняние. Этот колоссальный по своим объёмам поток данных формирует основу для невероятно сложной и гибкой системы распознавания образов. LLM, даже самые продвинутые, пока что оперируют с наборами данных, которые являются лишь бледной тенью того, что переживает человек на протяжении своей жизни.

Поэтому для будущих мультимодальных систем надо будет собирать намного больше данных, и, что более важно, эти данные должны быть непрерывными, многоаспектными и контекстуально богатыми. Носимые устройства, такие как очки дополненной реальности, могут стать ключом к решению этой проблемы.

Пока что вроде полностью программистов не заменяют, а развитие идёт в инструментах помощи AI в разработке.

Цукерберг утверждает, что ИИ не заменит людей, а дополнит их работу, позволяя сосредоточиться на более креативных задачах. Однако критики предупреждают о рисках снижения качества работы из-за увеличения технического долга и сложности управления программным обеспечением

Когда уровень ошибок в ответах AI снизят до приемлемого уровня, ниже или на уровне человеческого, тогда и начнут полностью заменять программистов на AI. К тому моменту AI вероятно уже сможет выдавать решения на уровне синьоров, просто держа кодовую базу всего проекта у себя в контексте. Тогда забудем про эти условные градации, будет везде один AI.

Вот LLM, которая пока что на стадии первичного обучения на оборудовании Google и которая имеет длину контекста 100 миллионов токенов. Можете сами прикинуть какие проекты она потянет чисто по объёму. Она спроектирована чисто под одну функцию - программирование. Когда они её дообучат, можно будет оценить приближение конца профессии. По предварительным результатам возможности маленькой модели превышают те что есть у LLM с большим количеством параметров.

https://magic.dev/blog/100m-token-context-windows

Давайте разберем по существу. Вы утверждаете, что LLM это "просто автодополнение", но при этом игнорируете многочисленные примеры, где модели решают задачи, принципиально невозможные для простого автодополнения. DreamingKitten привел конкретный пример с разработкой power switch - система не просто "дополнила текст", а спроектировала работающее техническое решение с подбором компонентов. Когда модель решает математические задачи с пошаговыми рассуждениями или анализирует программный код на ошибки - это явно выходит за рамки статистического предсказания следующего токена. В тестах на логические рассуждения современные модели показывают результаты, сравнимые с человеческими.

Сравнение с T9 некорректно - это действительно было автодополнение на основе словаря. Современные LLM используют сложные механизмы attention и transformer-архитектуру, позволяющие учитывать длинные контексты и строить сложные логические связи.

Если у вас есть конкретные технические аргументы, почему все эти возможности сводятся к "автодополнению" - давайте обсудим их. Пока же я вижу только голословное отрицание очевидных фактов.

Ваш аргумент о том, что LLM это "просто автодополнение" неверен в корне. Вы путаете базовый механизм работы (предсказание следующего токена) с возможностями всей системы. Это всё равно что сказать, что человеческий мозг это "просто электрические сигналы" - технически верно, но полностью упускает суть возникающих свойств системы.

Ну теперь я точно знаю что ты или совсем не кодер, или кодер-старовер. А я кодер, и я лично знаю насколько Sonnet 3.5 лучше чем ChatGPT-4o. У ChatGPT память рассыпается с каждым ответом и она начинает выдумывать новый код вместо старого, при попытке его воспроизвести (у Geminni с этим или еще хуже или так же, аутсайдеров я между собой не сравнивал). Это раздражает больше всего. Sonnet 3.5 последняя очень хорошо держит понимание кода, поэтому её хвалят. Короче я понял, подобные негативные комментарии просто от непрофильных специалистов, не тестировавшие модели на реальных обьемных контекстах кода.

Information

Rating
Does not participate
Registered
Activity