Например про клетки которые определяют края, угол, направление и кучу других. На обработку в мозг они отдают сигналы, и именно они в первую очередь формируют картинку
В статье как то слишком упростили. В реальности порядка 30 параметров, а не только колбочки. Про клетки почти ничего, а именно они играют большую роль в зрении.
Тут скорее свой ход делает теория хаоса со странными аттракторами. Где в основе лежит фрактал, но при этом присутствует хаотичность в рамках фазового пространства. И получается, что с одной стороны стремление к центру "аттрактора", который ближе к фрактальному (красивому идеальному), но флуктуации всегда будут создавать хаотичные отклонения (от идеала) в рамках ограниченного пространства (иначе система развалится).
Так что обобщенно закон может быть и F=ma, а вот уже при его детализации вылезает хаотичность где приходиться как то учитывать ее через сложные динамические системы, которые с какой-то точностью описывают ее.
Как вы все упростили в нашем мозге) Сразу решили что у нас все работает на уровне слов почему то. Но это не совсем так. Слова конечно есть как основа, но так не только слова но простые сочетания слов. И там же плавный переход терминов снова в новые слова. А до этого у нас базовые паттерны сигналов, а не как у сеток сейчас через спектрограмму. А дальше не фонемы, а наборы паттернов звуков которые гораздо шире фонем.
А как вы лихо выкинули гиппокамп который сохраняет цепочку событий, префронтальную кору которая держит внимание и другие части (например понятие времени, с которым у ChatGPT и других сеток большие проблемы когда идет сравнение ни конкретных дат а временной шкалы завтра, послезавтра, вчера, недавно и т.д.).
Почему вы выкинули такую важную вещь как лобные доли? Которые являются модулятором сигнала и могу как стрелочник перенаправлять сигнал по разным маршрутам, где речь будет разной... от более простой "Вась, подай ту хрень" до "Вась. мне нужен ключ для карбюратора, который лежит у окна".
Как прекрасно вы выкинули теменную зону, которая завязана на получение сигналов от всего тела, и играет важную роль в интерпретации "Я" отделяя таким образом ощущение тела от остального мира и объектов.
Чудесно, что и правое полушарие не нужно оказалось, которая помогает абстрагировать информацию, связывая его не на уровне последовательности слов. а на уровне последовательности событий.
И список можно продолжать. Почему вы считаете, что это формально не описано? ChatGPT реализует небольшую часть только, где главным оказался паттерн внимания, который и позволил сделать шаг.
Да, может порой. Я всегда в таких случаях пишу в конце "с чем ты не согласна?". В этом случае модель описывает минусы и временами спрашивает " Как вы планируете решить...? "
Какой код вы пишите? У меня все llm люта начинают глючить при конвертации больших sql процедур, причем порой зацикленно.
Да даже элементарно, недавно для доп анализа решил вместо praat дополнительно проанализировать данные просто lpc из librosa. Скормил ей функцию выполняющую эти действия в praat и попросил аналогичную на lpc. Так она выкинула часть данных, вместо массива вернула единичные значения. Ладно я понимаю в чем ошибки и могу исправить или указать (в итоге сам исправил ее код), но что если это рабочая программа?
А что за дичь она мне выдавала, когда я писал функции сдвига частоты или усиления ее.
Да, код для игры на unity простой для обработки действия, или сохранения данных в pandas делает. Но что то сложное и все, тупая как пробка.
Отлично, я сейчас занимаюсь анализом речи животных. Современные LLM могут лишь анализировать мои решения чтобы указать на слабые места в их анализе. Но сами по себе, они не смогли родить ни одной новой идеи в сложной области. Только личный анализ, который опирается множество вещей.
Таким образом, накидать код построения графика он может быстрее хотя и допустить ошибки в логике.
А вот несмотря на огромный массив обученных данных, абстрагировать на уровень выше чтоб найти взаимосвязи не может. Только когда указываешь ему на них.
Если вы спросите его как к примеру распознать слова и речь дельфинов и всю цепочку почему именно так. То он просто выдаст тоже, что модно найти в поисковике, но более лаконично. Предложит общий подход, но подход без понимания почему так делаем, откуда такая гипотеза, ни абстрагирования.
Современные llm лишь инструмент и наличие агентов будет улучшать его и усложнять. Но это не перевод мышления на новый уровень абстрагирования накопленных знаний из одной области в другую.
Кстати, почему ни кто не рассматривает возможный бум с другой стороны. Обучение живых клеток. Сейчас это делают.
Да это накладывает ограничения, нельзя скопировать данные. Но затраты на содержание меньше, на обучение тоже.
Натренировал большую языковую модель на них и используешь в проде)) не совсем ясно как распаралеливать несколько запросов. Но обучать таким методом можно уж сегодня. Общался с зарубежными лабами, которые обучают живые клетки на решение задач. Но там пока интерес академический. Рано или поздно бизнес и сюда заглянет и будет новый хайп.
Артикуляция у них развита (но не через язык а трение) и речи. Именно вокализация на уровне простой речи есть, но не сильно развита.
Они явно компенсируют вокализацию с помощью кучи других способов общения. Так что я бы не стал недооценивать их социальный интеллект. Другое дело, что тут вопрос в том, что им движет. То ли роевый интеллект, то ли индивидуальный. В любом случае, с их огромными колониями они прекрасно общаются и коммуницируют на уровне речи.
Наличие у них множества профессий от врача до охранника, тоже говорит о многом.
Так же, вполне возможно что главным интеллектом у них является королева. Так как её речь в экспериментах ученых приводила муравьёв в экстаз. А проигрывание ее речи, повторяло этот эффект. Так что вероятно у них иерархический интеллект. Вождь сказал - партия сделала.
На самом деле, когда говорят про эмоции, то должны подразумевать сетку лимбической системы, которая сильно завязана как на физиологии так и на окружающей среде. Так как те же тональные и нетональные языки подразумевают разные модели поведения.
Второй момент, это лобные доли, которые могут в зависимости от того кто доминирует и на сколько (лимб или высшая нервная) моделировать и перенаправлять нейронные связи по другим маршрутам.
Третье, это модель аналогичная правому полушарию которая отвечает за абстрактные связи и умение абстрагироваться.
В четвёртых это теменная доля, которая позволяет нам связать себя с нашим телом и таким образом разделять себя и внешние объекты. За счёт этого запуская механизм самокопания, если его так можно назвать.
Так что сейчас нейронки в самом начале своего пути. Текущие llm это просто обобщение результата их совместной работы без причинно-следственных саязей
Тоже так думал, пока не увидел как речь одинаково развивается у разных живых видов не зависимо от среду обитания, артикулятора и способа передачи сигнала. Начальные условия разные выглядят по разному, но фазовое пространство артикулятора (язык, мелон, жжужальца и тд) одинаковое.
Ниже фазовое пространство речи артикулятора, совпало для всех живых видов. Отличие лишь в степени развития, но не в форме.
Так что вполне вероятно, что с возникновением жизни тоже самое. Будет какая нибудь плазменная форма на базе чего то там, которая пока не придумала как выбраться наружу, где сразу помрет.
Либо адаптировались и живут на глубине планеты, куда не проходит радиация и поэтому развиваются медленно.
В LLM моделях и так присутствует эмоциональное поведение. Данные которые ей скармливают не распределены между поведением когда преобладает лимбическая система (эмоции) и префронтальная зона лобная кора (условно информация). Лобная доля под действием кортизола ослабляет связи длинных путей и включаются более простые.
Как итог, при сильных эмоциях (стрессе) один набор текста, когда лобная доминирует сильно, то другой набор. В одном будет, "Афоня урод, рубль должен", а в другом "у Афанасия долг, в размере 3 рублей, который 5 апреля 2025 года он взял под беспроцентный займ на 1 месяц". В первом случае цель сигнальная информация, во втором структурная.
В обучающей выборке такую информацию ни кто не разделяет.
Я тут частично описывал как на текущих LLM разделить ити данные при ответе и вытянуть их
Я сейчас проводу исследование, и сравнивал "вокализацию" разных живых особей по развитости артикуляции (необходимо для создания многообразия слов) и оптимизации затрат энергии на артикуляцию (указывает на степень развития "речи).
Так вот у тех же пчел, "речь" развита очень сильно, явно лучше чем у шимпанзе. Я не знаю как они это делают.
Все что делает в данном случае сетка, это усредняет модель поведения из обученных данных. Хотите убрать эти модели поведения, уберите их из обучающей выборки.
LLM просто усредняет объединенные сигналы лобной доли как модулятора сигнала для поведения и стратегий, лимбической системы и полушарий. Если мы возьмём данные психопата и обучим модель на них, то будет llm модель со стратегиями поведения психопата.
Когда мы скармливаем все подряд, то получаем усредненную модель со средним по больнице у стратегий поведения.
У человека эти стратегии могут изменятся, так как лобная зона является модулятором сигнала а не статикой как у LLM. Поэтому в текущем виде, единственным решением является подготовка правильного набора данных, исключающего плохие стратегии (по мнению его создателей). Например, это отсев эмоциональной речи, которая неминуемо будет отражать стратегию инстинкта самосохранения на уровне лимбической системы.
А можно без философских мыслей, а доказывать гипотезы?
Вы выдвигаете гипотезу. Собираете доказательную базу на своих или чужих исследованиях. Она должна быть повторяемая. Иначе, это все на уровне "личное мнение".
Сам аттрактор уже многое дает для нейросети. Странный аттрактор - это фрактальный аттрактор, где как раз механизм внимания и является по сути фракталом. Построение фазового пространства в данном случае, как раз позволяет понять эффективные механизмы обучения и улучшить сходимость. Об этом как раз была недавно статья, тут выкладывал ее перевод https://t.me/c/1714947028/13149 Проблема не придумать с хаосом или без. Проблема понять, как правильно. И пока просто придумывают - это так и остается проблемой. Потому что именно понимание - является ключом к эффективности. Не нужно каждый нейрон связан с каждым. У нас это не так - есть пирамидальные клетки, звездчатые и т.д. И они прекрасно справляются. Там роль играет совсем другое. И все это отлично переноситься, как раз при правильном описании фазового пространства и реализации странного аттрактора. Все верно - это свойства качества сети, которыми трансформеры обладают лишь частично. Нет здесь развития - тупик тут. Надо менять подход. Я сейчас разбираю как раз аудио речи, разбив ее на паттерны как у людей так и у животных - там явно прослеживаются фракталы на уровне градиентов частот, и явно есть фазовое пространство (с точки зрения биологии человека ограниченное движением языка). И более высокий уровень иерархии - тоже должен быть странным аттрактором, что мы и наблюдаем у текстов. И архитектуры реализующие их. тоже должны соответствовать требованиям странных аттракторов. https://t.me/c/1714947028/13176 Тут пример того, о чем я говорю в речи. Постепенно пытаюсь построить странный аттрактор русского языка и затем сначала сравнить его с другими языками людей и затем с животными (пробовал сместить у тех же ворон и дельфинов форманты и тон, чтобы он соответствовал человеку - совсем иначе звучит сразу на слух) https://t.me/greenruff/1927 Поэтому я готов утверждать. что трансформеры сработали, потому что реализуют большинство важных свойств странных аттракторов при обучении. Суцкевер не является автором трансформеров. он использовал их явно без понимания почему именно эти свойства важны. Вы можете хоть в миллион раз масштабировать систему - это не даст толку. Потому что на верхнем уровне иерархии не будет паттерна самоподобия (внимания), которая в нашем случае реализуется через лобные доли (как модулятор нейронных путей - переключатель активностей связей на другие внимание и участки в неокортексе).
А вообще, в этом плане можно порекомендовать эту книгу.
Да и в контексте лиц, тоже можно было немного больше добавить. Иначе это как то упрощено
Например одни из клеток, после их работы. На примере симуляции их работы.
Например про клетки которые определяют края, угол, направление и кучу других. На обработку в мозг они отдают сигналы, и именно они в первую очередь формируют картинку
В статье как то слишком упростили. В реальности порядка 30 параметров, а не только колбочки. Про клетки почти ничего, а именно они играют большую роль в зрении.
Тут скорее свой ход делает теория хаоса со странными аттракторами. Где в основе лежит фрактал, но при этом присутствует хаотичность в рамках фазового пространства. И получается, что с одной стороны стремление к центру "аттрактора", который ближе к фрактальному (красивому идеальному), но флуктуации всегда будут создавать хаотичные отклонения (от идеала) в рамках ограниченного пространства (иначе система развалится).
Так что обобщенно закон может быть и F=ma, а вот уже при его детализации вылезает хаотичность где приходиться как то учитывать ее через сложные динамические системы, которые с какой-то точностью описывают ее.
Как вы все упростили в нашем мозге) Сразу решили что у нас все работает на уровне слов почему то. Но это не совсем так. Слова конечно есть как основа, но так не только слова но простые сочетания слов. И там же плавный переход терминов снова в новые слова.
А до этого у нас базовые паттерны сигналов, а не как у сеток сейчас через спектрограмму. А дальше не фонемы, а наборы паттернов звуков которые гораздо шире фонем.
А как вы лихо выкинули гиппокамп который сохраняет цепочку событий, префронтальную кору которая держит внимание и другие части (например понятие времени, с которым у ChatGPT и других сеток большие проблемы когда идет сравнение ни конкретных дат а временной шкалы завтра, послезавтра, вчера, недавно и т.д.).
Почему вы выкинули такую важную вещь как лобные доли? Которые являются модулятором сигнала и могу как стрелочник перенаправлять сигнал по разным маршрутам, где речь будет разной... от более простой "Вась, подай ту хрень" до "Вась. мне нужен ключ для карбюратора, который лежит у окна".
Как прекрасно вы выкинули теменную зону, которая завязана на получение сигналов от всего тела, и играет важную роль в интерпретации "Я" отделяя таким образом ощущение тела от остального мира и объектов.
Чудесно, что и правое полушарие не нужно оказалось, которая помогает абстрагировать информацию, связывая его не на уровне последовательности слов. а на уровне последовательности событий.
И список можно продолжать. Почему вы считаете, что это формально не описано?
ChatGPT реализует небольшую часть только, где главным оказался паттерн внимания, который и позволил сделать шаг.
Да, может порой. Я всегда в таких случаях пишу в конце "с чем ты не согласна?". В этом случае модель описывает минусы и временами спрашивает " Как вы планируете решить...? "
У меня другая параноя развивается. А точно ли все люди обладают интеллектом, что даже в таких глюченных llm они увидели равный интеллект. /sarcasm
Какой код вы пишите? У меня все llm люта начинают глючить при конвертации больших sql процедур, причем порой зацикленно.
Да даже элементарно, недавно для доп анализа решил вместо praat дополнительно проанализировать данные просто lpc из librosa. Скормил ей функцию выполняющую эти действия в praat и попросил аналогичную на lpc. Так она выкинула часть данных, вместо массива вернула единичные значения. Ладно я понимаю в чем ошибки и могу исправить или указать (в итоге сам исправил ее код), но что если это рабочая программа?
А что за дичь она мне выдавала, когда я писал функции сдвига частоты или усиления ее.
Да, код для игры на unity простой для обработки действия, или сохранения данных в pandas делает. Но что то сложное и все, тупая как пробка.
Отлично, я сейчас занимаюсь анализом речи животных. Современные LLM могут лишь анализировать мои решения чтобы указать на слабые места в их анализе. Но сами по себе, они не смогли родить ни одной новой идеи в сложной области. Только личный анализ, который опирается множество вещей.
Таким образом, накидать код построения графика он может быстрее хотя и допустить ошибки в логике.
А вот несмотря на огромный массив обученных данных, абстрагировать на уровень выше чтоб найти взаимосвязи не может. Только когда указываешь ему на них.
Если вы спросите его как к примеру распознать слова и речь дельфинов и всю цепочку почему именно так. То он просто выдаст тоже, что модно найти в поисковике, но более лаконично. Предложит общий подход, но подход без понимания почему так делаем, откуда такая гипотеза, ни абстрагирования.
Современные llm лишь инструмент и наличие агентов будет улучшать его и усложнять. Но это не перевод мышления на новый уровень абстрагирования накопленных знаний из одной области в другую.
Кстати, почему ни кто не рассматривает возможный бум с другой стороны. Обучение живых клеток. Сейчас это делают.
Да это накладывает ограничения, нельзя скопировать данные. Но затраты на содержание меньше, на обучение тоже.
Натренировал большую языковую модель на них и используешь в проде)) не совсем ясно как распаралеливать несколько запросов. Но обучать таким методом можно уж сегодня. Общался с зарубежными лабами, которые обучают живые клетки на решение задач. Но там пока интерес академический. Рано или поздно бизнес и сюда заглянет и будет новый хайп.
Я недавно проводил анализ речи муравьёв.
https://t.me/greenruff/2021?comment=6573
Артикуляция у них развита (но не через язык а трение) и речи. Именно вокализация на уровне простой речи есть, но не сильно развита.
Они явно компенсируют вокализацию с помощью кучи других способов общения. Так что я бы не стал недооценивать их социальный интеллект. Другое дело, что тут вопрос в том, что им движет. То ли роевый интеллект, то ли индивидуальный. В любом случае, с их огромными колониями они прекрасно общаются и коммуницируют на уровне речи.
Наличие у них множества профессий от врача до охранника, тоже говорит о многом.
Так же, вполне возможно что главным интеллектом у них является королева. Так как её речь в экспериментах ученых приводила муравьёв в экстаз. А проигрывание ее речи, повторяло этот эффект. Так что вероятно у них иерархический интеллект. Вождь сказал - партия сделала.
На самом деле, когда говорят про эмоции, то должны подразумевать сетку лимбической системы, которая сильно завязана как на физиологии так и на окружающей среде. Так как те же тональные и нетональные языки подразумевают разные модели поведения.
https://t.me/greenruff/2034?single
Второй момент, это лобные доли, которые могут в зависимости от того кто доминирует и на сколько (лимб или высшая нервная) моделировать и перенаправлять нейронные связи по другим маршрутам.
Третье, это модель аналогичная правому полушарию которая отвечает за абстрактные связи и умение абстрагироваться.
В четвёртых это теменная доля, которая позволяет нам связать себя с нашим телом и таким образом разделять себя и внешние объекты. За счёт этого запуская механизм самокопания, если его так можно назвать.
Так что сейчас нейронки в самом начале своего пути. Текущие llm это просто обобщение результата их совместной работы без причинно-следственных саязей
Тоже так думал, пока не увидел как речь одинаково развивается у разных живых видов не зависимо от среду обитания, артикулятора и способа передачи сигнала. Начальные условия разные выглядят по разному, но фазовое пространство артикулятора (язык, мелон, жжужальца и тд) одинаковое.
Ниже фазовое пространство речи артикулятора, совпало для всех живых видов. Отличие лишь в степени развития, но не в форме.
Так что вполне вероятно, что с возникновением жизни тоже самое. Будет какая нибудь плазменная форма на базе чего то там, которая пока не придумала как выбраться наружу, где сразу помрет.
Либо адаптировались и живут на глубине планеты, куда не проходит радиация и поэтому развиваются медленно.
В LLM моделях и так присутствует эмоциональное поведение. Данные которые ей скармливают не распределены между поведением когда преобладает лимбическая система (эмоции) и префронтальная зона лобная кора (условно информация). Лобная доля под действием кортизола ослабляет связи длинных путей и включаются более простые.
Как итог, при сильных эмоциях (стрессе) один набор текста, когда лобная доминирует сильно, то другой набор. В одном будет, "Афоня урод, рубль должен", а в другом "у Афанасия долг, в размере 3 рублей, который 5 апреля 2025 года он взял под беспроцентный займ на 1 месяц". В первом случае цель сигнальная информация, во втором структурная.
В обучающей выборке такую информацию ни кто не разделяет.
Я тут частично описывал как на текущих LLM разделить ити данные при ответе и вытянуть их
https://t.me/greenruff/1963?single
Но в целом надо менять сам подход и вводить модулятор в архитектуру LLM по аналогии с лобными долями.
Я сейчас проводу исследование, и сравнивал "вокализацию" разных живых особей по развитости артикуляции (необходимо для создания многообразия слов) и оптимизации затрат энергии на артикуляцию (указывает на степень развития "речи).
Так вот у тех же пчел, "речь" развита очень сильно, явно лучше чем у шимпанзе. Я не знаю как они это делают.
https://t.me/greenruff/2009?single
Интересно сравнить со шмелями и муравьями
Все что делает в данном случае сетка, это усредняет модель поведения из обученных данных. Хотите убрать эти модели поведения, уберите их из обучающей выборки.
LLM просто усредняет объединенные сигналы лобной доли как модулятора сигнала для поведения и стратегий, лимбической системы и полушарий. Если мы возьмём данные психопата и обучим модель на них, то будет llm модель со стратегиями поведения психопата.
Когда мы скармливаем все подряд, то получаем усредненную модель со средним по больнице у стратегий поведения.
У человека эти стратегии могут изменятся, так как лобная зона является модулятором сигнала а не статикой как у LLM. Поэтому в текущем виде, единственным решением является подготовка правильного набора данных, исключающего плохие стратегии (по мнению его создателей). Например, это отсев эмоциональной речи, которая неминуемо будет отражать стратегию инстинкта самосохранения на уровне лимбической системы.
А можно без философских мыслей, а доказывать гипотезы?
Вы выдвигаете гипотезу. Собираете доказательную базу на своих или чужих исследованиях. Она должна быть повторяемая. Иначе, это все на уровне "личное мнение".
Сам аттрактор уже многое дает для нейросети. Странный аттрактор - это фрактальный аттрактор, где как раз механизм внимания и является по сути фракталом.
Построение фазового пространства в данном случае, как раз позволяет понять эффективные механизмы обучения и улучшить сходимость. Об этом как раз была недавно статья, тут выкладывал ее перевод
https://t.me/c/1714947028/13149
Проблема не придумать с хаосом или без. Проблема понять, как правильно. И пока просто придумывают - это так и остается проблемой. Потому что именно понимание - является ключом к эффективности.
Не нужно каждый нейрон связан с каждым. У нас это не так - есть пирамидальные клетки, звездчатые и т.д. И они прекрасно справляются. Там роль играет совсем другое. И все это отлично переноситься, как раз при правильном описании фазового пространства и реализации странного аттрактора. Все верно - это свойства качества сети, которыми трансформеры обладают лишь частично.
Нет здесь развития - тупик тут. Надо менять подход. Я сейчас разбираю как раз аудио речи, разбив ее на паттерны как у людей так и у животных - там явно прослеживаются фракталы на уровне градиентов частот, и явно есть фазовое пространство (с точки зрения биологии человека ограниченное движением языка). И более высокий уровень иерархии - тоже должен быть странным аттрактором, что мы и наблюдаем у текстов. И архитектуры реализующие их. тоже должны соответствовать требованиям странных аттракторов.
https://t.me/c/1714947028/13176
Тут пример того, о чем я говорю в речи. Постепенно пытаюсь построить странный аттрактор русского языка и затем сначала сравнить его с другими языками людей и затем с животными (пробовал сместить у тех же ворон и дельфинов форманты и тон, чтобы он соответствовал человеку - совсем иначе звучит сразу на слух)
https://t.me/greenruff/1927
Поэтому я готов утверждать. что трансформеры сработали, потому что реализуют большинство важных свойств странных аттракторов при обучении.
Суцкевер не является автором трансформеров. он использовал их явно без понимания почему именно эти свойства важны.
Вы можете хоть в миллион раз масштабировать систему - это не даст толку. Потому что на верхнем уровне иерархии не будет паттерна самоподобия (внимания), которая в нашем случае реализуется через лобные доли (как модулятор нейронных путей - переключатель активностей связей на другие внимание и участки в неокортексе).