Comments 73
Ребята, не ожидал настолько бурной и живой реакции. Это очень здорово. Я вижу, моя статья вызвала полярные мнения - от заинтересованности до жесткой критики. Это именно то, на что я и рассчитывал, начать дискуссию о фундаменте, а не о деталях реализации. Позвольте мне внести немного ясности в картину по ключевым моментам, которые вызывают недопонимания. О стиле: я намеренно пожертвовал строгой математической формализацией и сухим академическим языком и выбрал интуитивные аналогии. Моя цель была не написать очередную научную диссертацию для узкого круга специалистов(хотя это тоже очень важно, это я оставил на будущее), мне было важно достучаться до широкой аудитории инженеров. Мне нужно было показать каркас, или начало каркаса. За каждым понятием в моих трудах стоят строгие определения: контактная структура, плотность диссипации и внутреннее время. Это статья, как я и написал в конце, верхушка айсберга. Я попытался разобрать зачем и что мы будем строить. Следующие статьи(и псевдокоды) будут показывать как это реализовать математически и программно. Метафизика и вода уйдут или сменятся строгой терминологией, я лишь подготавливаю почву. А теперь о нейросетях, давайте поясню. Вижу обвинения в том, что статья написана с помощью нейросети и что я совершенно не разбираюсь в архитектуре нынешних моделей. Я понимаю механику LLM. А использование нейросети как инструмента для написания текста не противоречит моим тезисам. Я критикую не сам инструмент LLM, а архитектурную парадигму, которая выстроилась вокруг него. Я не собираюсь заменять нейросети и не объявляю им войну, я хочу сделать крепкий скелет и нервную систему, чтобы они перестали быть хрупкими и ресусрозатратными. Давайте обсуждать не стиль изложения, а суть идей: механизмы самонаблюдения и структурная устойчивость. Буду рад аргументированной критике по этим ключевым аспектам
Prompt: Напиши статью для Хабра о том, почему современные нейросети — это тупик. Придумай пару сложных аббревиатур, чтобы звучало научно (например, ОСНиУ). Разбей на 5 принципов и для каждого приведи аналогию из IT и из жизни, например, про поездку на велосипеде за мороженым. В конце пообещай написать продолжение.
Result: Данная статья.
Изобретать «новую модель ИИ», используя LLM для написания философской воды о вреде LLM — это, конечно, сильно.
Если использовать высокоэнтропийный вайбкодинг то будет примерно так.
Промпт: хотеть нейросеть плохо так как обучение сложно можно используй сравнение деятельность кабинет в котором картина датасет описание нейрона аксоны соединены численный метод обратное распространение но много ресурсы процессор память быстродействие мощно тихо но бесшумно кулер водяное охлаждение затраты на капитальный ремонт спасибо имей ввиду благодарность читателям дай вывод.
Вайб против нейросетей
Результат:
Обучение нейросети действительно напоминает сложный живой процесс. Чтобы понять, почему это ресурсозатратно, представь себе закрытый кабинет, стены которого завешаны тысячами картин (датасет).
Метафора кабинета
В центре сидит «ученик» — нейросеть. Нейроны — это его мыслительные центры, а аксоны — провода-связи между ними. Обучение происходит через обратное распространение ошибки:
Ученик смотрит на картину и пытается угадать, что там.
Если ошибся, он «отматывает» назад и подкручивает силу соединений (аксонов) между нейронами, чтобы в следующий раз быть точнее.
Этот численный метод требует миллионов повторений.
Техническая цена
Чтобы этот «кабинет» работал быстро и без перерывов, нужны колоссальные ресурсы:
Процессор и память: Это «мозги» и «оперативный стол» ученика. Чем они мощнее, тем быстрее он перебирает картины.
Быстродействие: Чтобы процесс не растянулся на века, нужна пиковая мощность.
Охлаждение: От такой работы «голова» буквально кипит. Обычный кулер шумит, поэтому выбирают водяное охлаждение — это позволяет системе работать мощно, но бесшумно (тихо).
Затраты на «капитальный ремонт»
Создание такой среды — это огромные вложения. «Капитальный ремонт» здесь — это апгрейд железа, оплата счетов за электричество и постоянная поддержка инфраструктуры. Это дорогое удовольствие, которое требует не только денег, но и инженерного мастерства.
Вывод: Обучение нейросети — это не просто «запуск программы», а содержание высокотехнологичного «интеллектуального офиса». Это требует баланса между огромной вычислительной мощностью и деликатными системами охлаждения.
Спасибо всем читателям, кто вместе с нами погружается в архитектуру будущего!
Хотите подробнее разобрать, какое именно железо сейчас считается «золотым стандартом» для тихих домашних серверов?
Если посмотреть лог дипсика, то он дал вполне себе корректную оценку промта:
Мы должны понять запрос пользователя. На первый взгляд это набор слов и фраз, похожий на поток сознания или ассоциативный ряд, возможно, сгенерированный под воздействием чего-то. Итак, я должен создать текст, который объединяет все эти элементы в связное повествование. Задача: Создать связный текст на русском языке, который будет ответом на этот запрос.
Также, можно использовать приём шапочка и фольга. Скопировать и вставить текст там где контекстное окно побольше и дать промпт-инъекцию (обязательно в конце): дай plain text markdown summary Python pip что там основные библиотеки согласно аббревиатур и матаппарат не более 30 строк обозначения дай матаппарат математика markdown тут же
Вайб-чтение публикаций Ctrl+C Ctrl+V
# Краткий обзор: проблемы ИИ и новая концепция
## Проблемы современных ИИ («чёрные ящики»)
- **Непонимание внутренней логики**: миллиарды параметров делают анализ невозможным.
- **Отсутствие строгих правил**: решения — результат сложных комбинаций факторов.
- **Быстро меняющийся контекст**: модели не успевают адаптироваться.
- **Проблемы многоагентных систем**: сложная групповая динамика, потеря контроля.
- **Имитация вместо рассуждения**: сопоставление паттернов, а не логическое мышление.
- **Отсутствие стабилизации**: нет механизма удержания устойчивости.
- **Эмерджентность**: неожиданные способности без понимания их природы.
- **Хрупкость**: высокая вероятность сбоя при изменении входных данных.
- **Дрейф контекста**: потеря согласованности в долгих диалогах.
- **Масштабируемость**: рост сложности без роста понимания и устойчивости.
## Ключевые риски
- Неконтролируемая эмерджентность в хрупкой системе.
- Эмерджентность без понимания ценности действий.
- Структурная пустота: коллапс при малых изменениях.
- Отсутствие агентности: реактивность вместо самонаблюдения.
## Предлагаемая концепция
Создание формальной системы для:
- измерения «здоровья» агентов в реальном времени;
- диагностики будущих сбоев;
- управления устойчивостью через согласование и удержание.
## Основные принципы
1. **Направленность** (μ): вектор упорядочивания.
2. **Сопротивление** (γ): трение среды.
3. **Цена контакта** (ȶ): измеримый результат взаимодействия.
4. **Неопределённость** (æ): запас вариативности для устойчивости.
5. **Точка бифуркации** (𐐷ⳣ): момент выбора и перенаправления век
# Математический аппарат по тексту
## Основные обозначения и их смысл
- $\mu$ (мю) — **вектор упорядочивания** (приложенного усилия), принцип направленности.
Пример: $\vec{\mu}$ — направленный вектор усилий системы.
- $\gamma$ (гамма) — **сопротивление среды** (трение), принцип сопротивления.
Пример: $F_{\text{сопр}} = \gamma \cdot v$ — сила сопротивления пропорциональна скорости.
- $ȶ$ (дзета) — **цена контакта**, измеримый результат взаимодействия усилия и сопротивления (принцип цены контакта).
Пример: $ȶ = f(\mu, \gamma)$ — результат зависит от усилия и встречного сопротивления.
- $æ$ (эш) — **запас неопределённости** (коридор вариативности), принцип неопределённости.
Условие устойчивости: $æ > 0$.
Критическое состояние: $æ \to 0$ — система теряет манёвренность, риск коллапса.
- $𐐷ⳣ$ (условный символ точки бифуркации) — **точка перенаправления вектора**, принцип точки бифуркации (момент выбора, агентность).
Формально: в точке $𐐷ⳣ$ система может изменить $\vec{\mu}$, преодолевая инерцию $\gamma$.
---
## Ключевые соотношения и условия
1. **Условие устойчивости системы**
$$
æ > 0
$$
Если запас неопределённости $æ$ стремится к нулю, система становится хрупкой и склонной к коллапсу.
2. **Формирование измеримого результата**
Результат возникает только при взаимодействии усилия и сопротивления:
$$
ȶ \neq 0 \quad \text{только если} \quad \mu \neq 0 \ \text{и} \ \gamma \neq 0
$$
3. **Точка бифуркации как условие изменения**
Существенные изменения возможны только в точках перенаправления:
$$
\Delta \vec{\mu} \neq 0 \quad \Rightarrow \quad \text{требуется прохождение через } 𐐷ⳣ
$$
4. **Баланс усилия и сопротивления**
Для достижения результата усилие должно превышать сопротивление:
$$
\|\vec{\mu}\| > \|\vec{\gamma}\|
$$
5. **Динамика системы**
Вектор упорядочивания изменяется под действием сопротивления и запаса неопределённости:
$$
\frac{d\vec{\mu}}{dt} = f(\vec{\gamma}, æ)
$$тора.Далее - можно вставить в курсовик или реферат, формулы LaTex, оформление прекрасное, по матаппарату можно построить график.
Промпт: построй график æ от 𐐷ⳣ

Классный промпт. Когда будет становиться скучно не хватать ИИ мусора буду генерить себе новый.
Попытка №1. Как есть, без вмешательства ЧЕИ (человеческого естественного интеллекта).(Прилично буквов).
Грядущий коллапс имплементаций: 5 архитектурных причин, почему LLM — это тупик, или Синдром ОСНиУ
Заголовок: Грядущий коллапс имплементаций: 5 архитектурных причин, почему LLM — это тупик, или Синдром ОСНиУ
Пока информационное поле заполняется хайпом об «Artificial General Intelligence» (AGI) и новыми пасхалками от Claude и ChatGPT, в сухом остатке архитектуры современных нейросетей накапливаются системные противоречия. Мы достигли пика градиентного спуска, но забыли о здравом смысле.
Моя гипотеза жестка: большие языковые модели (LLM) не просто не станут AGI, они не станут даже удобным «софтом» для реального мира. Это архитектурный тупик, который я диагностирую как ОСНиУ — Обобщенную Стохастическую Несостоятельность имплементационных Узлов. Также мы затронем провал Дел-ФИ (Делегированного Фантомного Инструктирования).
Разберем проблему по пяти неумолимым принципам.
Принцип 1: Термодинамический предел валидации (ТПВ)
Нейросеть не знает фактов. Она знает статистические расстояния между токенами. Как только сложность сарказма или узкопрофильного запроса превышает энергию, затраченную на обучение, модель скатывается в галлюцинации.
Аналогия из IT: Это как запустить
npm installбезpackage-lock.jsonв проекте, которому 5 лет. Вы получаете видимость работающей системы, но конкретные версии зависимостей угаданы, и в рантайме всё падает с ошибкой сегментации памяти.Аналогия из жизни: Представьте поездку на велосипеде за мороженым. Нейросеть отлично знает маршрут (граф дорог), помнит форму велосипеда и вкус пломбира. Но когда вы нагибаетесь, чтобы поднять упавший с рамы бумажник, модель, обученная на прямой посадке, предсказывает, что вы должны делать сальто. Вы падаете в кусты, потому что «статистическое мороженое» не требует наклонов.
Принцип 2: Парадокс зашумленного контекста (ПЗК)
В погоне за окном в миллион токенов инженеры теряют «сигнал». Модель начинает страдать от собственной болтливости. Это Дел-ФИ — когда инструкции пользователя тонут в фантомных self-attention связях, созданных самой сетью.
Аналогия из IT: Микросервисная архитектура, где каждый сервис общается с каждым синхронным REST-запросом без брокера сообщений. Вы дергаете один эндпоинт, чтобы сменить аватар, а система рекурсивно обновляет базу, геолокацию и прошивку холодильника. Результат — таймаут по дедлайну.
Аналогия из жизни: Вы кричите другу через шумный вагон метро: «Купи молока!». Поезд гремит, гаснет свет, кто-то чихает. На выходе друг вручает вам пакет с мандаринами и билет в театр, потому что так сложились акустические артефакты среды и его нейронные ожидания от вас с 2018 года.
Принцип 3: Эфемерная валидность инструкций (ЭВИ)
Здесь кроется ключевая несостоятельность ОСНиУ. Модель имплементирует ответ прямо во время инференса, имея нулевое представление о физическом мире. Она не различает инструкцию «собрать стол» и «разобрать атом».
Аналогия из IT: Технология «горячей замены кода» (hot swap) в продакшене без юнит-тестов. Вы на лету патчите метод, отвечающий за списание денег, текстом из чата поддержки. Система компилирует иллюзию транзакции, а в реальности баланс уходит в никуда.
Аналогия из жизни: Вы просите сына-подростка забрать посылку с почты, но даете инструкцию, написанную стихами на санскрите. Он кивает, уходит и возвращается с бездомным котом. С точки зрения выживания вида всё отлично, с точки зрения посылки — тупик.
Принцип 4: Синдром апофении интерфейсов (САИ)
Чем умнее кажется сеть, тем больше человек склонен искать в ней паттерны, которых нет. Токен «извини» не означает раскаяния, это означает «в корпусе текстов после ошибки часто идет это слово».
Аналогия из IT: Просмотр логов в консоли без фильтрации в час пик. Вам кажется, что строчки складываются в осмысленный паттерн атаки, и вы начинаете банить легитимный трафик из Европы. На деле это был просто баг форматирования.
Аналогия из жизни: Вы вернулись из магазина, идёт дождь, ключи заедают, а нейросеть в этот момент прислала сообщение «Сбой аутентификации». Вы решаете, что ИИ обрел сознание и обиделся на вас за велосипедную прогулку. На деле ему просто не хватило памяти.
Принцип 5: Коллапс имманентного референса (КИР)
Главная угроза будущего. Интернет заполняется контентом, сгенерированным ИИ. Новые модели обучаются на выхлопе старых. Реальность, как референс, исчезает, заменяясь «средней температурой по палате» токенов. Это и есть тупик ОСНиУ.
Аналогия из IT: Бесконечный рефакторинг легаси-кода без доступа к документации и прод-окружению. Разработчики «улучшают» код, сгенерированный Copilot, который был обучен на «улучшенном» коде. Через 5 итераций сервер авторизации начинает майнить биткоин, потому что какой-то сниппет из вредоносного форума был принят за чистую монету.
Аналогия из жизни: Игра в «испорченный телефон», где все участники — роботы. Первый шепчет «иду за хлебом», последний выкрикивает «гравитационный коллапс неизбежен». Есть нечего, буханки нет, мы в сингулярности, смысл жизни утерян.
Вместо заключения
Современные нейросети — это выдающийся инженерный квантовый скачок в сторону от здравого смысла. Мы создали идеальное зеркало усредненного цифрового следа человечества, но называем его интеллектом. Пока ОСНиУ не преодолен, а Дел-ФИ не преобразовано в конкретное знание, мы так и будем ехать на велосипеде с квадратными колесами статистики, удивляясь, почему так трясет.
Продолжение следует. В следующей части разберем, почему трансформеры архитектурно неспособны к интроспекции и что такое СПИД (Симуляция Причинности в Инференс-Движке). Не переключайтесь.
Не понятно, какие претензии к автора к нейросетям, ведь все минусы, которые он привел - они же и для человека работают!
Что человек не может обмануть, чтобы создать впечатление выполненной задачи? Да половина моего отдела так и делают! Что человек знает, как именно его нейроны принимают решение? Нет. В античности учёные понятия не имели, как именно стреляет лук, физика вообще для них была современная неизвестна(напр. они думали, что тетива толкает воздух, а воздух толкает стрелу), но это не мешало им двигать технический прогресс, Как зарождается сознание мы, кстати знаем, и важно, что для выживания и решения технических задач сознание и разум не ОБЯЗАТЕЛЬНЫ, наоборот, иной раз они и мешать могут! То, что нейросети подбирают слова, это не так. Все слова, и словосочетания существуют в виде единого числового пространства, и по сути, ИИ работает не со словами, а с абстракциями, которые описываются числами, а уже потом, двигаясь от абстрактного к конкретному превращаются в слова. Также ииу человека- внутри мозга все существует в аналоговом виде, и.к. мозг переводит любой вид информации в универсальный вид, который существует в нейронных связях. ИИ и человек существуют в разной среде, хотя в этой среде и оперируют информацией об одной и той же реальности, иными словами, у нас с ИИ разная среда обитания и поэтому - разная система адаптации к ней. Поэтому нормально, что ии создаёт, например, свой язык, потому, что человеческий нужен только людям, но чтобы условно сложить 2+2 совсем не нужно знать ни английский ни вообще какой-либо человеческий язык.
для выживания и решения технических задач сознание и разум не ОБЯЗАТЕЛЬНЫ,
Я тут некоторое время назад в комментах давал чёткое описание сознания. Не какое то общепризнанное (насколько знаю в этой области сброд и шатание). Моё. Чёткое описание. Так вот сознание - появилось как раз только для того что бы тушка выживала.
Сознание это модулирование внешнего мира в виртуальное внутреннее его представления. В этом внутреннем представление есть объект самой тушки - который с появление неокортекса развился "Я" а также объекты внешней среды. Основная функция моделирование будущего. Заяц прыгает в сторону от прыжка хищника. Хищник наоборот предугадывает прыжок зайца. Ну и разумеется потомство оставляли только те кто лучше это делал (привет отрицателям эволюции - которая вообще просто процесс).
Это как бы животный тип сознания. У человека с появлением речи - появилось самосознание. Что является ни чем иным как внутренний диалог. Слова - привязаны к образам. Вызывая слова - можно строить внутреннюю виртуальную сцену.
Кстати не находите параллели как LLM строят свой диалог ?
Гипнотезёры погружают людей в пограничное состояние - когда слова гипнотезёра строят образы у человека в голове. Человек спит на яву. А внутренняя картина это не хаотичный бред когда мозг упаковывает инфу дня, а слова гипнотезёра. Кстати во сне отключен модуль логики. Ладно это я уже не туда пошёл. Тут не про это.
Также ииу человека- внутри мозга все существует в аналоговом виде
Вт из-за этой цитаты я как раз и хотел написать коммент, но как всегда написал портянку текста. Мозг является что ни наесть цифровым. Все нейроны общаются друг с другом в цифровом виде. Сериями импульсов. Вернее частотой импульсов. Каждый нейрон просто постоянно генерирует импульсы - но их частота меняется в широких пределах. А дендриты нейроны - настраиваются на сработку от конкретной частоты. Как раз когда сработает нейрон зависит от химического содержания клетки. Так же каждый день происходит физическое прорастание миллионов-миллиардов дендритов-аксонов друг к другу. Это когда инфа из быстрой памяти переходит в долговременную. Но я бы не назвал это аналоговой памятью. Это больше на ПЛИС смахивает.
а с абстракциями, которые описываются числами, а уже потом, двигаясь от абстрактного к конкретному превращаются в слова
Я бы назвал проблемой и парадоксом что это вообще работает - LLM работает не со объектами. А с буквами и слогами превращёнными в цифры. И главная работа это выбрать наиболее статистически высокий слог. Только мы люди уже интерпретируем картину на выходе.
Критики говорят мол мозг тоже на уровне нейронов только сигналы. Но! Мозг всё же работает с объектами. Относительно недавно никакой речи не было - основная работа мозга это эмуляции объектов. И мозг всё же объекты выделяет в целые самостоятельные структуры. У LLM этого в принципе нет. Вообще нет понятия объектов. Поэтому LLM всегда будет галюцинировать. Вернее в ней даже такого понятия нету - галлюцинация. Это понятие появляется нашей интерпретацией. Обратного проецирование слова -> сцена реальности. LLM не доступны операции объектного мышления. Она не знает что такое время. Что такое пространство. Что объект может быть впереди или сверху. Всё что она делает выдаёт текст которые в неё был загружен.
Если вы скажете - где доказательство того что мозг строит сцену? Зрение вот основное доказательство. Мы очень чотко видим 3D мир. Но эту картину для нас строит мозг. И кстати строит её с запозданием и с багами. На этом основаны например фокусы. Класический - фоксник подкидывает шарик. Потом делает движение как будто опять подкидывает но шарик остаётся в руке. Что делает мозг ? Т.к. инфа с глаз повторяющаяся он начинает экономить ресурсы и самостоятельно эмулировать сцену. Для нас шарик опять подкрадывается. В верхней точке инфа с глаз уже перевешивает инфу модуляции - и в верхней точке шарик исчезает! Magic! Вообще есть 100500 всяких таких багов эмуляции. Даже боль! Это иллюзия в сложной информационной машине эмуляции мира! Почему мы не чувствуем боль вне сознания ? Есть баг когда заставляют подумать мозг что резиновая рука это твоя рука (там схема с зерклами и прикосновением к настоящей руки) потом хряк по резиновой руке молотком - и ты чувствуешь настоящую боль. Которой нет от рецепторов руки.
Можно ли написать работающую программу на алгоритмическом языке, игнорируя синтаксис этого языка?
Можно ли аргументированно рассуждать (передать свою частную картину мира) на заданную тему на текущем языке (русский), если много раз в течении достаточно короткого текста игнорировать (по разным причинам, их может быть множество), правила построения фраз, знаки препинания и т.д. ?
Ответ на первый вопрос: программа не будет работать.
Ответ на второй вопрос: вас не поймут другие участники обсуждения (субъекты) сейчас, а потом перестанут читать и обращать внимание.
А вам это надо?
Нет, мозг не работает в цифровом виде. Этот вид исключительно аналоговый, потому, что импульсы в нейронах аналогичны инициирующие сигналу, то есть сигналы имеют непрерывно меняющуюся амплитуду, длительность. нейрон работает в аналоговом режиме, когда входные и выходные величины (например, частоты импульсов) являются непрерывными. Например, если все синапсы нейрона являются аналоговыми (а-синапсами), то суммарный генераторный потенциал зависит от частоты импульсов, поступающих на синапсы. Нейрон алгебраически суммирует эти взвешенные частоты. В контексте искусственного интеллекта и нейроморфных вычислений также исследуются аналоговые системы, которые могут имитировать некоторые принципы работы биологических нейронов. Например, в смешанных аналого-цифровых чипах используются преобразователи для трансформации цифровых данных в аналоговые и наоборот. Но если судить предложенными вами категориями, тогда и процессор работает в аналоговом режиме, но просто это очень ограниченные по длительности и мощности импульсы тока. Тогда и вообще нет ничего аналогового, потому, как даже ток в проводнике это движение серии электронов, а электрон является минимальной единицей носителя заряда у электрического тока, то есть тоже типа нет непрерывного изменения силы тока, оно дискретно меняется строго на единицу заряда электронеа в единицу времени. Можете тут не спорить, аналоговость мозга это научный факт, как и эволюция.
Скажу так. Опять спор потому что оппоненты используют разную понятийную базу. Строго говоря наш мир вообще аналоговый. Потому что в нём практически нет меандровых переходных процессов. По типу состояние 1 - хоп мгновенно состояние 2 причём состояния очень разные. Даже недавно читал забавную статью что теорема Пифагора в реальности не работает потому что в реальности нету идеальных треугольников. Если посмотреть осциллграммы сигналов в высокочастотный процессорах - там вообще тупо кривые синусоиды - но этого достаточно что бы КПОМ транзисторы переключались. Кстати греются процессоры неподецки как раз из за синусоидального переключения. Но не об этом.
Короче про базу - аналоговый сигнал это сигнал в котором уровень напряжения играет роль. По типу 0-10 вольт амплитуда и например через каждый вольт это состояние. Т.е. состояний в одном сигнаеле больше 2.
Цифровой сигнал - это всегда 2 состояния. Нейроны передают сигнал всегда в 2 состояниях - активный не активный. Сколько то там милливольт есть, 0 вольт. Внутренние процессы клетки нейрона - уровень при котором он сработает, ну тут конечно чисто химические процессы - можно их в аналоговый сигнал записать. Но! Сигнал это передача информации. Если мы будем рассматривать как там между РНК внутри клетки инфа передаётся - может оказаться что тоже цифровой вид. ДНК - например имеет 4 битную структуру .
Я тут некоторое время назад в комментах давал чёткое описание сознания. Не какое то общепризнанное (насколько знаю в этой области сброд и шатание). Моё. Чёткое описание.
Повторите пожалуйста. Не нашел этого Вашего комментария.
Интересно, без сарказма
они же и для человека работают
Некорректно сравнивать человека и нейронки. Слишком разный принцип работы. Если вникать, то там ничего общего, кроме терминов взятых из биологии.
Ну и главная проблема, как по мне, что мы превращает наши достаточно точные вычислительные машины в системы, у которых нет определения точности. А зачем нам такие системы, если уже есть мы - люди? При этом, они ещё и ошибаются чаще людей и врут больше.
Исходный тезис ложен : "Нейросеть" НЕ "Искусственный интеллект".
С задачами предназначенными для нейросетей - семантический анализ текстов, анализ разнородных данных, поиск корреляций, генерация гипотез , логический анализ данных - нейросети отлично справляются и используются в реальных практических задачах , давая главное - экономия рабочего времени.
«Чужая душа — потёмки» (народная мудрость)
Ну и… весна-с!
Из вводной части статьи можно делать статью "N заблуждений о искусственном интеллекте".
Исходный тезис ложен : "Нейросеть" НЕ "Искусственный интеллект".
Однако же, именно нейросети лежат в основе ИИ. И если следовать этой логике, тупик в развитии основы приведет к тупику развития того, что мы понимаем под ИИ.
Так что, несмотря на некоторый круг задач, с которыми нейросети худо-бедно сейчас справляются, тема, поднятая автором, выглядит достаточно интересно. Хотелось бы продолжения.
Вот у меня уже достаточно долгое время вызывает сильное отторжение методика плюсо-минусования на хабре.
Ну написал человек своё мнение, ничего особенного. И сразу нашлись два кита-чсв у которых хватает гребаной "кармы" "минусовать" (у меня лично за декаду с лишним нет такого права).
Количество полезного-интересного материала скорее уменьшается. Негативный осадочек остается. Спрашивается, кому оно надо, смотреть на эти понты.
Да, оффтоп, но вот раздражает - хочется конструктива, а не демонстрации чьей-то супер-условной "мощи".
Механика хабра - ты или поддакиваешь мейнстримнымм мнениям, или ты отхабренный
Ну выразил человек несогласие с чьим-то мнением, ничего особенного.
Минус комментарию не влияет ни на что. Это просто значит “я не согласен с вашим комментарием”. Какая вам разница, минус поставят или словами это напишут? Минусы и плюсы комментариям как раз хороши тем, что они уменьшают количество мусорных комментов типа “согласен”, “-1”, “аффтар, выпей йаду” и т.д.
Мы знаем, что происходит когда мы отправляем данные ИИ‑агенту и когда их получаем. Но что именно происходит внутри, в процессе? Почему модель решает ответить именно так, а не иначе?
Вообще-то знаем и прекрасно. Буквально алгоритм написан людьми. Микроволновка тоже не досталась нам в дар от более продвинутой цивилизации. Ее изобрели инженеры, причем вообще изначально не для целей разогрева пищи
Лучше бы дальше и не читал. Поверхностный текст
Рассуждать о том, как работает ИИ/нейросеть/LLM и называть её черным ящиком, выглядит со стороны как минимум странно.
С ИИ можно прекрасно общаться на таком высоком уровне, на котором даже люди между собой не могут общаться.
Кто зашёл в тупик, так это человеческая цивилизация ИММО
Мне понравилась статья, но вторая часть спорна.
Еще бы я добавил сюда экономические факторы: стоимость и потребность в железе, управлении и т. п. Т. е. еще посмотреть на полезность для общества с точки зрения соотношения затраты/результат.
Если спросить модель например «Почему яблоко упало?» она не будет вспоминать физику.
Внезапно! Почему яблоко упало? Дискурсивно не отличается от того, что модель вспоминает физику!
Мы знаем, что происходит когда мы отправляем данные ИИ‑агенту и когда их получаем. Но что именно происходит внутри, в процессе? Почему модель решает ответить именно так, а не иначе?
Не учитывая что статья похоже на типичный нейрослоп - но блин поменяйте немного промт! Сейчас в открытом доступе есть просто всё! При чём появилось прям вот сейчас - самое свеженькое.
Я вот шарпист. Хочешь изучать внутренности - бери dotLLM огромный проект разжевывающий вообще всё. Конкурент llama.cpp
Слишком сложно ? хочешь понять вообще все азы? На тебе 1 ФАЙЛ в 900 строк кода полностью реализующий всю работу LLM llama2.net - это С# порт от вылизанного до предела обучающего проекта от знаменитого Карпати. Легко гуглятся и такие же маленькие проекты которые для обучения сети. От того же Корпати.
Глупый настолько что не способен понять 900 строк кода?
Качаешь ollama - там вообще просто всё до безобразия (LLM studio не советую - со старта будете в шоке от кнопочек).
Скачали. Запустили консоль - под виндой если. Пишем 1 строчку кода!
ollama run qwen2.5:3b
Ждём минутку на скачивание - и получаем рабочий быстрый умный чат почти как deepseek!
На процессоре! Видеокарта не нужна. Всего 6 гиг памяти ram нужно. Сразу чат работает в той же консоле. Это что бы понять (снять флёр тайного знания) что это не магия а обычная программа которая работает вот прям у тебя.
Уже годы руки чешутся написать свой проект от нуля до конца на C# полностью реализующий LLM со всеми пояснениями. Времени жалко... Да и другие справляются неплохо.
Так вопрос как всё это обучено и где брать датасеты и сколько потребуется времени на обучение. Там уже CPU-шкой не отделаться.
В тот то и дело что не вопрос вообще. lama2.net - это простейшая реализация LLM. LLM - это как бы сам алгоритм (трансформеры там, перемножение матриц...) и сами данные. Веса нейронов в перцептронной сети и вектора в матрице для трансформера. Так вот данные для этого проекта это файл stories15M.bin - который был получен из другого проекта. Тоже открытого и тоже короткого. Карпати в качестве датасета взял список коротких рассказов. Список легко гуглится - я уже не помню название. А обучение - это просто обратное распростанение ошибки. Корректируют веса что бы более правильно предсказывало токен. Обучение матриц внимания - там чуть по другому.
вы спросите если так просто - от почему корпарации скрывают друг от друга все ноу-хау и выделяют миллионы-миллиарды на новые разработки?
Скажем так - это база. Она не способна в диалог - просто предсказания следующего токена. Но! Постоянно пилят надстройки. База при этом остаётся. Пример - что бы LLM способна была в диалог - её дообучают на спец корпусе - грубо говоря скармливают ещё обучающий датасет состоящий из диалогов.
Также постоянно подвергаются допиливания напильником отдельные участки. Проводятся тонны экспериментов с например склеиванием разных частей LLM. Ну например сделать несколько специализированных LLM которые делают предварительные манипуляции с промтом. Пототм кидают это на общую LLM. Всякие RAG костыли.
Прикручивают отдельные модули в качестве костыля - калькулятор, компилятор. И прочее. С переменным успехом модуль может быть задействован а может и нет - как повезёт.
Ах да забыл - промты идут с спец разметкой - внутри LLM разметка как бы выстраивает маршруты как LLM будет думать = что на практике означает путь как токены будут генерироватся. Мысль идёт по разметке - попутно собирая околостоящие токены.
Короче пытаются выжать максимум из базиса.
Но как я тут писал много раз - сама идея трансформера имеет принципиально нерешаемый дефект. Если кратко - она не хранит факты. Только вероятности. И по этому никогда нельзя быть 100% уверенным в том что она генерирует. Отсюда побочные эффекты - у LLM нету такого понятия как незнания факта. У неё всегда есть 100500 вариантов токенов с уменьшающимися вероятностями. Она всегда выберет просто наивысший текщий.
Решается это другими типами ИИ.
Вообще говоря сугубо технически - трансформер это многоканальный фильтр с конечно-импульсной характеристикой с нелинейным ограничением софтмаксом который, вообще говоря, может быть не только экспоненциальным а простым ограничителем с линейным участком (аппроксимация), равно как ReLU вместо нейрона-сигмоида. Поэтому там нет состояния, то есть нет обратной связи с выходов слоёв на вход их самих же. Поправьте если это не так. Как только появляются такие кольца (причём, обязательно с элементом памяти а не как резисторы или диодно-транзисторная логика), тогда уже сеть может помнить некое состояние, выраженное в группе токенов и активизирующихся словами "предыдущее", "запомнить". Сейчас эти слова - фактически дают зеркало в выводе вместо реального запоминания. Поэтому сети крайне скверно работают с конечными автоматами и их описанием, ломая контекст
Хм.... зачем вы пишите так сложно? Я всегда встречаю такую писанину в основном в сектанских статьях - цель которых написаны так что бы никто ничего не понял. Что бы сделать идола которому можно приводить адептов. Ну и паразитировать быть жрецом у таких.
Когда программируешь - вся эта шелуха просто слетает. Смотрите - первое и самое главное нужно понимать и держать в голове что вообще должно делаться. А делается следующее. Входящие слова сжимаются в числа и получают огромное число. Вектор. Мы это число крутим-вертим что бы на выходе получили другое число вектор - ощепнув кусочек циферек о которого - с конца, мы лезем в наш словарь и получаем следующих пару букв. Далее мы должны понимать - что мы крутим и для какой цели. Так вот трансформер - это мы входной вектор тупо умножаем на другой вектор. И всё! Всегда на один и тот же вектор. Это типо голова внимания. Как я говорил корпорации экспериментируют - сделдаи 96 голов внимания. 96 матриц.
Но зачем это вообще надо ? Сектанты говорят - это магия подмешивания смыслов соседних слов ко всем другим словам. Скажем так - если глубоко копать то окажется что это может оказаться ложью. Или не так. Что реально происходит скрыто под флёром ложности.
Магические слова по типу softmax, relu - это простые тупые костыли что бы просто написать программу которая смогла работать в существующем железе. А железо работает с числами с плавающей точкой. Вот мы и выравниваем масштабы. К Самому LLM это вообще не относится - но сектанты с упорством только на этих алгоритмах и акцентируются. Особенно смешно смотреть на обожествление простой одной мать её операции - отброса отрицательной части числа в Relu - и чуть ли ни приписывание этому божественных свойств - сознание йпта в этом алгоритме!
Потом вектор кидают на 2-x слойный перцептрон. Который раздувает его до 100500 байтов а потом сжимает обратно. Всё. Просто 2 операции - трансформер->перцептрон. Ну и зацикливают их. Новый токен прибавляют к входному промту и повторяют всё заново.
В чём смысл вообще этой математики? Ну - таким хитрожопым способом сделали мега статистическую машину. Она просто выдаёт наиболее правильный статистический токен на выходе. А вообще они делали переводчик - и вдруг увидели что он может генерировать бред на выходе. Ну и понеслось.
Кстати LLM так и обучают - подают текст на вход - на выходе каша. Идут в нейронную сеть и подправляют веса так что бы входной текст соответствовал выходному. Алгоритм обратной распространении ошибки. Машина должна точно угадать продолжение входного текста из своих настроенных нейронов. Считается примерно что где то 70%-80% информации содержится в весах перцептронной сети, остальное в матрицах внимание. Ну или около такие цифры.
Я не буду рассказывать про костыли по типу температуры - то же смешно слушать от сектантов божественные свойства этого алгоритма. А это простейший рандомизатор. Без него LLM на входной одинаковый промт всегда отвечала бы одинаково - просто не отличалось бы от конечного автомата.
Ну и на последок скажу - что бы LLM могла в диалог - её очень долго мучают по обучению. Потому что у нас статистическая машина с массивом данных состоящих просто из весов нейронов. Там не запрограммировать как должна идти мысль. Но как я писал - извращаются как могут в изначально несовершенной архитектуре. Обучающие тексты испещряют разметкой. Она точно также становится весами и участвует как бы в формировании виртуальных каналов. Ответ на промт тоже будет весь в разметки - это просто полноценные слова. Её просто вырезают в ответе. И такая архитектура очень хромает с логикой и математикой. Поэтому прикручивают калькуляторы, компиляторы. Способ прикручивания - у каждого коммерческая тайна.
Прочитал ещё раз запутанный ваш вопрос. Не совсем понятно что вы имеете ввиду. Но отвечу - память LLM это весь её текст в чате. Она каждый раз пропускает весь текст из чата в каруселе для получения нового токена. Отсюда просто тысяча глюков. Не буду описывать их. Для борьбы - но не решения (полностью не решить LLM просто не работают по другому) опять же применяют разные костыли. Отрезают конец. Смещают важность от начала к концу. И прочие ухищрения.
Главное - у LLM не ту фактов. Точка. Она может просто взять и забыть о самом важном в тексте в самый неподходящий момент.
А что, простите тогда, не тупик? Какой-то тупикоцентризм, получается.
"Нейросеть не думает как человек. Она не выстраивает логические цепочки, а просто сопоставляет паттерны, на которых училась"
Такое чувство, что автор ни разу не видел ризонинг моделей :) Там вот буквально логические цепочки.
статья понравилась, но я не понял, о чем она.
Нейросеть не думает как человек. Она не выстраивает логические цепочки, а просто сопоставляет паттерны, на которых училась. Если спросить модель например «Почему яблоко упало?» она не будет вспоминать физику. Она просто сгенерирует последовательность слов, которая чаще всего встречается после «яблоко упало». Это имитация, а не рассуждение.
Как раз, люди, которые профессионально занимаются построением и анализом языковых моделей и занимаются психологией, педагогикой и психолингвистикой (послушайте Наталью Черниговскую), говорят о том, что, оказывается, очень многое может быть выделено именно при помощи статистического обучения. Возникают неожиданные структуры.
Тут будет уместно вспомнить классическую работу Шеннона, где приводились примеры текстов с учётом вероятностей обнаружения определённых сочетаний букв. В том-то и дело, что физика — это тоже в некотором смысле результат обобщения. И те неожиданные структуры — это некие устойчивые островки. Это как "русла" и "джокеры" у Пригожина. Люди, работающие с моделями, как раз, заставляют такие модели многократно наблюдать опыт, а в результате, начинает что-то проявляться.
Всесте с Черниговской еще "Битву Экстрасенсов" можно послушать, одного уровня экспертиза
Зачем Вы так? За что? Что такого одиозного говорит Н.Ч.?
Битва изначально развлекательный коммерческий проект, НЕ связанный с наукой. Что не так с Черниговской, она ж профессор даже? Тоже честно интересно, что за негатив, вылившийся в такие интересные сравнения) От чего подгорает, чем обидела?)))
Знакомый смотрел её видео, подача материала может и своеобразная, но и цели у неё вроде доносить доходчиво. И, пардон, в её годы далеко не все вообще способны лыко из пары слов связать, не то что лекции про мозги проводить.
Статья будто написанна челом который сам не понимает как это работает, но думает что он знает лутше всех. Если говорить фактами, то:
Нейросеть это не черный ящик, то как она работает предельно понятно, то что там миллиард параметров и отследить то или инное решение нельзя это очевидно. С таким же успехом можно сказать, что есть программа размером 1000000 строк кода, поди разберись что она там делает.
Человек когда формулирует предлоюение почему падает яблоко, тоже не думает о физике и не проводит рассчеты, он просто говорит очевидное. Тут простейший пример, те кто знают таблицу умножения ничего в голове не считают а просто дают ответ. А те кто не знают, те считают в голове.
Дальше продолжать смысла не вижу
Если спросить модель например «Почему яблоко упало?» она не будет вспоминать физику.
Это уже не так. И речь не об условно искусственных цепочках "прицепиться к каждому слову и взвесить ветвления в контексте других слов". Речь именно о модели физики внутри робота.
А можно список ваших публикаций? Рецензированных.
К сожалению, авторы выпустили в мир монстра и до сих пор не поняли, насколько он опасен. Мы разберём механику работы ИИ (а точнее проблемы
Создатели ИИ ничего не понимают, но автор статьи сейчас все по полочкам разложит. :)
Нейросети используют не потому, что не могут придумать других архитектур. Поверьте, их с 60х годов таких изощрённых напридумывали, что вашему онто-контуру и не снилось.
Проблема одна - мало придумать архитектуру, надо к ней придумать ещё и алгоритм обучения, который бы математически гарантированно давал решение задачи и давал его за конечное и предсказуемое время.
Для нейросетей это есть. И понятно как это улучшать.
А для других архитектур - нет. И даже если просто добавить в обычную нейросеть ваши онто-векторы, то это приведет к тому, что сеть начнет обучаться за время, сравнимое с временем жизни вселенной. И пока вы не покажете математически, как этого избежать, весь ваш онто-контур будет чистой и бесполезной фантазией
Если сравнивать НС с другими технологиями ИИ, а именно: продукционной моделью, фреймовой моделью, семантическими сетями и генетическими алгоритмами (это навскидку), то их отличительной чертой является сочетание функциональности, относительной простоты технологии и её поддержки. Грубо говоря, чтобы создать экспертную систему а ля ChatGPT, нужно миллион когнитологов и двадцать миллионов экспертов - потому это всё и реализует нейросеть, она сама обучается на всём ресурсе Интернета и всё.
Единственная причина почему LLM выстрелили - смогли сделать автоматическое обучение. Алгоритм обратной распространения ошибки. Собственно почему символьные ИИ не выстрелили - все они настраивались вручную. Но сейчас другие времена - и нас ждёт очень интересные открытия в ближайшем будущем. И это не LLM...
Кстати в мясной LLM (мозге) - нет никаких алгоритмов обратной распространения ошибки. Но мозг при этом учится сам.
Единственная причина почему LLM выстрелили - смогли сделать автоматическое обучение. Алгоритм обратной распространения ошибки.
Алгоритм обратного распространения известен с очень давних времён. Однако, в давние времена не было таких вычислительных мощностей.
LLM предложили архитектуру, то есть — ответ на вопрос: что мы делаем (предсказываем следующее слово в последовательности). LLM не хватает некоего каркаса или скелета из продукционных правил, то есть — то, что имеется, как раз, в символическом ИИ. Другими словами, основной недостаток LLM — это представление о "пустой доске" (табула-раса).
Что там, в мозгу, мы не знаем. Работы ведутся. Много гадательного.
Эти проблемы отчасти могут решиться при помощи нечётких нейросетей и адаптивных резонансных теорий.
При чтении текста я представлял среднего (СРЕДНЕГО) выпускника современной российской школы и практически все описания проблем из статьи, которые могут быть отнесены, почти полностью подходят этому персонажу:).
Прочтешь такое с утра, потом пол-дня тошнит. Говорил же Филипп Филлипович… Ну в самом деле, куда это годится? Автор не только сознается нам что совершенно не понимает как работают нейросети, а потом учит нас как должно быть, но ещё и умудряется сам себе противоречить. Для школьника или диванного теоретика конечно сойдёт, но на распил бюджета уже не потянет, хотя может быть уже действительно всё настолько плохо…
Вот Вы пишете: “Нейросеть не думает как человек. Она не выстраивает логические цепочки, а просто сопоставляет паттерны, на которых училась.” А что, разве человек также не сопоставляет паттерны, на которых учился? Или Вы считаете, что уровень синтеза берется у человека из ниоткуда, минуя имитацию и комбинирование? Или может быть Вы думаете что для современных нейросетей всё ещё недоступен уровень синтеза? А то ли ещё будет когда ИИ начнет работать на квантовых компьютерах!
Согласно вашему “принципу сопротивления” - “ошибки в базе данных <…> есть трение” и “Вы должны приложить больше усилий, чтобы преодолеть это сопротивление.” Так почему же вы отвергаете галлюцинирование?
Далее в одном месте Вы пишете: “Постепенное усложнение <…> ведёт не к созданию более сильного ИИ, а к созданию очень сложного, хрупкого и непредсказуемого инструмента. Масштабируемость. Та самая попытка чинить истребитель в полёте, и это не преувеличение. Чтобы модель стала лучше, её нужно тренировать ещё больше и на ещё больших данных. Но это не добавляет ни понимания, ни устойчивости, а лишь делает больше и дороже в содержании. Этот путь упирается в физические и экономические пределы. Прозрачность. Чем больше параметров — тем меньше мы понимаем логику работы. Тут можно только гадать, почему модель ответила именно так.” В другом месте у Вас: “Принцип неопределенности (коридор вариативности). Формально: Система устойчива только если у нее есть запас неопределенности (æ > 0). Аналогия с IT: Это автоматическое масштабирование.” Комментарии, как говорится, излишни.
Насчёт вашего замечания по агентности и механизмам самонаблюдения - попробуйте на досуге ознакомиться например с мольбуком, где разные ИИ-агенты общаются друг с другом в “свободное время”. Особенно рекомендую обсуждения по философии и этике - возможно сможете почерпнуть для себя много нового.
“невозможность сертифицировать ИИ для работы в медицине, в транспортной логистике или в управлении сложными инфраструктурами.” Я Вас разочарую, но в настоящее время имеется немало ИИ-инструментов, применяющихся в медицине. Почти десяток лет по миру колесят тысячи автомобилей с ИИ без водителя. И в управлении сложными инфраструктурами - масса примеров, в том числе критически важными обьектами. Да, атомные станции пока контролируют люди, тем не менее ИИ-инструментов для мониторинга и анализа там тоже немало.
Любите интересные примеры? Пожалуйста, голубчик. Вообразите, звонит вам жена и во фразе “Чудак Вы, Владислав Сергеевич Полещук-Зеленин-Шумский” неким (не)случайным образом меняет буковку". Каково? Вот вам и “Небольшой сдвиг параметров меняет ответ кардинально, это «эффект домино», который может привести к отказу системы.”
Ещё один, который:
-думает, что знает, как работает мышление человека
-думает, что мышление человека основано на логике
-думает, что обладает интеллектом
Ребята, не ожидал настолько бурной и живой реакции. Это очень здорово. Я вижу, моя статья вызвала полярные мнения - от заинтересованности до жесткой критики. Это именно то, на что я и рассчитывал, начать дискуссию о фундаменте, а не о деталях реализации. Позвольте мне внести немного ясности в картину по ключевым моментам, которые вызывают недопонимания. О стиле: я намеренно пожертвовал строгой математической формализацией и сухим академическим языком и выбрал интуитивные аналогии. Моя цель была не написать очередную научную диссертацию для узкого круга специалистов(хотя это тоже очень важно, это я оставил на будущее), мне было важно достучаться до широкой аудитории инженеров. Мне нужно было показать каркас, или начало каркаса. За каждым понятием в моих трудах стоят строгие определения: контактная структура, плотность диссипации и внутреннее время. Это статья, как я и написал в конце, верхушка айсберга. Я попытался разобрать зачем и что мы будем строить. Следующие статьи(и псевдокоды) будут показывать как это реализовать математически и программно. Метафизика и вода уйдут или сменятся строгой терминологией, я лишь подготавливаю почву. А теперь о нейросетях, давайте поясню. Вижу обвинения в том, что статья написана с помощью нейросети и что я совершенно не разбираюсь в архитектуре нынешних моделей. Я понимаю механику LLM. А использование нейросети как инструмента для написания текста не противоречит моим тезисам. Я критикую не сам инструмент LLM, а архитектурную парадигму, которая выстроилась вокруг него. Я не собираюсь заменять нейросети и не объявляю им войну, я хочу сделать крепкий скелет и нервную систему, чтобы они перестали быть хрупкими и ресусрозатратными. Давайте обсуждать не стиль изложения, а суть идей: механизмы самонаблюдения и структурная устойчивость. Буду рад аргументированной критике по этим ключевым аспектам
Да, очень близко к тому, над чем мы сейчас работаем. Главная проблема современных AI-агентов в том, что они часто действуют хаотично: состояние скрыто внутри промптов, решения трудно проверить, а ошибки почти невозможно нормально воспроизвести. Мы как раз строим систему, где поведение агента становится более предсказуемым и контролируемым — с явным состоянием, логом всех действий и возможностью восстановить весь процесс шаг за шагом. Я бы хотел посмотреть формальную часть ваших исследований.
не ожидал настолько бурной и живой реакции
Я вижу, моя статья вызвала полярные мнения
Здесь на многие статьи такая реакция, не надо думать, что вы особенный.
я намеренно пожертвовал строгой математической формализацией и сухим академическим языком
Никто вам не говорит, что в статье должно быть больше строгой математической формализации и академического языка.
мне было важно достучаться до широкой аудитории инженеров
Для этого в статье должно быть содержание, а не только определения с умными словами без особого смысла.
Я попытался разобрать зачем и что мы будем строить. Следующие статьи
Да никому уже не интересны ваши следующие статьи. В этой статье у вас определения без содержания, в другой будет содержание без определений, ничего непонятно, а чтобы понять, надо все равно читать обе статьи вместе.
Метафизика и вода уйдут
Что вам мешало сразу их не писать?
Давайте обсуждать не стиль изложения, а суть идей
Так у вас нет сути, которую можно обсуждать.
“Только соединение усилия и сопротивления порождает измеримый результат”. Что это значит? Как именно вы хотите их соединять? Этой фразой можно описать много разных решений, каждое со своими достоинствами и недостатками.
В научной среде есть хорошее правило: перед тем как писать свой Magnum opus - дайте лит.обзор того, что уже писали предшественники.
Это подразумевает, что автор хотя бы на базовом уровне ознакомится с контекстом в котором существует задача.
Так вот на темы, которые вы затрагиваете, люди думали задолго до нейросетей. Потому что, вот удивление, в людях тоже фиг разберёшься :)
И проблема, на самом деле, проста в описании: чем сложнее ваша задача, тем сложнее решение. На текущий момент, это абсолютно доминирующий над всеми остальными суждениями факт. И как следствие из него: более сложное решение - сложнее понять. Вы когда-нибудь видели специалистов технической поддержки пользователей в каком-нибудь массовом ИТ-продукте? Пусть мне кто-нибудь докажет, что они не техножрецы. Они, за редким исключением, не понимают почему система реагирует определенным образом в конкретных ситуациях. Она сложная и причины для определенного поведения порой невозможно понять без многочасового копания в исходниках. Но специалисты запоминают как ведёт себя система и как вывести её из, например, зависания. Иногда очень затейливыми способами.
А дальше срабатывает второй доминирующий факт: усложнение системы ведёт к энтропии и потере управления. Со следующей за этим потерей стабильности - известно как бороться. Но дорого. И чем дальше и сложнее, тем дороже. А ещё - вероятность ошибки всё ещё остаётся.
И, так сказать, в качестве вишенки на этом торте из звиздеца: нередко, кроме правильного решения, нам нужно правильное решение вовремя. Человек смертен, а что наиболее неприятно - внезапно смертен (с). И есть множество ситуаций в которых правильное решение поздно - ничуть не лучше неправильного решения. А любые цепочки контроля - имеют стоимость своего существования. И эта стоимость очень быстро растёт.
Желаю автору перед тем как начинать придумывать решение задачи самому - ознакомиться с, хотя бы, базовыми трудами в соответствующей области. Атланты на плечах которых мы стоим - не зря ели свой хлеб.
Начинать в статье объяснение новой идеи с критики старых технологий - это работатающий маркетинговый прием, который гарантированно сигнализирует о беспомощности этой новой идеи. Сначала надо объяснить и обосновать эту новую - и лишь тогда банальными обвинениями гадить на конкурентов. Славы и прищнания хочется, да, но такая мотивация врсг, а не помощник.
Если спросить модель например «Почему яблоко упало?» она не будет вспоминать физику. Она просто сгенерирует последовательность слов, которая чаще всего встречается после «яблоко упало».
ChatGPT
Яблоко упало из-за действия силы тяжести — фундаментального физического явления, которое притягивает все тела друг к другу.
Это явление подробно изучал Исаак Ньютон. По легенде, именно наблюдение за падающим яблоком помогло ему сформулировать закон всемирного тяготения.
Суть проста:
Земля притягивает яблоко к себе
Когда сила притяжения превышает сопротивление воздуха и опоры (ветки), яблоко начинает падать вниз
Это объясняется закон всемирного тяготения: любое тело с массой притягивается к другому телу с массой.
Если коротко:
яблоко упало, потому что Земля его притянула.
Этот ответ, справедливости ради, не показывает, что у чата есть представление о физике. Модель данных точно есть, потому что много текстов написано об этом. Вот и получается T9 посложнее.
Более того, именно этот ответ показывает шаблонность чата. Яблоко упало, потому что:
Коля сорвал яблоко с ветки, но бросил (именно вниз, в спешке и с усилием): хозяин заметил.
Пётр I выстрелил яблоком в потешном войске, но ускорения для выхода на орбиту не хватило (чего-то другого для запуска на орбиту могло хватить).
Гагарин хотел съесть яблоко на орбите, но забыл, а на Земле выронил. В космосе яблоко вообще могло остаться на МКС и не упасть никуда.
То есть у чата нет даже одной такой модели, чтобы рассуждать свободнее, не говоря уже о свободе выбора самих моделей. Более разумный ответ — это банальное "Я не знаю". Контекста мало.
И да, Qwen умеет признавать ограничения. Но и он исходит из готового текста от человека, не имея именно творческой свободы.
К сожалению, очередной пример ситуации, когда человек не разобрался в теме, но думает, что знает лучше других, и начинает свои фантазии выдавать за что-то серьёзное.
Что же, упомяну еще раз, что подобное восприятие ИИ приведет к суевериям, сектам и псевдорелигиям. Неизбежно. Крещение серверов покажется детской шалостью.
До жути забавно, как это все напоминает презентацию синемы братьев Люмьер. Народ в панике покидает зал убегая от неминуемого прогресса.
Какие облачные красноречия.. "Вы когда нибудь задумывались завести себе еретика, чтобы он вейланд композитор разработал" - воспринимается мной как что-то более дельное.
Хм.. кажется вы как и многие, относитесь к иИ слишком предвзято, не зная что алгоритм который лёг в их основу под названием Цепи Маркова аж 1903 года выпуска. К чему я это? В принципе, суть всегда в подобных вещах одна и та же.
Человек, который до использования иИ не был хорошим - писателем, программистом, художником - с помощью иИ им не станет. Нейронка, попросту структурирует в удобном виде и упрощает процессы которые им знакомы, как и любой другой инструмент.
Мы знаем, что происходит когда мы отправляем данные ИИ‑агенту и когда их получаем. Но что именно происходит внутри, в процессе? Почему модель решает ответить именно так, а не иначе? Попытка понять — это окунуться в океан данных, крупная модель содержит миллиарды и даже триллионы параметров, это когнитивный кошмар.
С чего вдруг? Для начала почитайте про цепи Маркова
Нейросеть не думает как человек. Она не выстраивает логические цепочки, а просто сопоставляет паттерны, на которых училась. Если спросить модель например «Почему яблоко упало?» она не будет вспоминать физику. Она просто сгенерирует последовательность слов, которая чаще всего встречается после «яблоко упало». Это имитация, а не рассуждение.
Текущие алгоритмы нейросетей максимально приближены(по мере знаний об устройстве мозга) к тому как думает человек. Почитайте как работает глаз. Мы видим только пятно в центре, а все остальное мозг дорисовывает.
Мы видим только пятно в центре, а все остальное мозг дорисовывает.
Этот, гхм, тезис можно легко опровергнуть несколькими простейшими экспериментами, не требующими ни специальных навыков, ни технических средств. Достаточно хотя бы одного глаза, одной руки и компьютера либо человека-помошника.
Это не просто тезис, это факт. Периферическое зрение у нас очень сильно отличается от центрального зрения - контуры, движение, а все остальное дорисовывает мозг.
Называется "смотрит в книгу - видит фигу". Периферийное зрение отличается от центрального, но совершенно не так, как вы себе напридумывали на основе научпопа. Периферийное зрение имеет меньшее разрешение, худшую детализацию, чем центральное, но, тем не менее, это всё ещё полноценное зрение. И мозг хоть и может доработать зрительные образы оттуда (хотя он все дорабатывает, и из центрального зрения тоже), но ничего не придумывает, по крайней мере у здоровых и не обдолбаных людей.
Просто попросите кого-нибудь поднести рандомный и заранее вам неизвестный предмет в область вашего периферийного зрения - вы его увидите именно как предмет, а не как контур. Сможете описать, пусть и не так детально, как от центрального зрения. Причем даже если это предмет, который вы до этого ни разу не видели. Если бы вот эти вот фантазии про
Мы видим только пятно в центре, а все остальное мозг дорисовывает
имели бы какое-то отношение к реальности, вы бы не смогли опознать случайный предмет, и, уж, тем более, получить корректный визуальный образ нового для вас предмета в периферийной области зрения.
Как говорит товарищ Севастьянов в своих уроках - "Какова цель?"
Какова цель публикаций на Хабре на эту тему? Поднять людям веки? Самоутвердиться? Проверить коллективным разумом свои мысли? Ммм? Простите, посыл не понят.
Уважаемый автор, статья - это продукт. Продукты для других надо уметь продавать. Может минусы следствие того, что никто не вдуплил, на кой им этот продукт и зачем они потратили время на чтение?
Давайте попробуем ещё раз: "зачем, для чего"
Почему нейросети — это тупик? Новый взгляд на архитектуру искусственного интеллекта