Обновить
54
0.1
Илья @proxy3d

нейробиология, нейронные сети, AR/VR

Отправить сообщение

Так же слуховая кора не особо отличается от человеческой у птиц. Те же слои.

https://t.me/greenruff/2004?single

Так что звуки они разделяют по тому же принципу что и мы в отдельные сигналы.

Что касается мозга то нейроны там во много раз плотнее. А вместо неокортексе там свой аналог, с тем же кол-во слоев. И на абстрактном уровне не такие уж огромные различия. Разница в деталях скорее, во вспомогательных зонах (которых у нас много). Например, у нас левое полушарие это цепочки нейронов в одном слое, а правое связи между слоями. У ворон например, там все как правое. Правое у нас как раз связано с абстрагированием, поэтому вороны отлично с этим справляются .

Например тут я сравнивал степень развитости разных животных по сложности их артикуляции. Кошки оказались на удивление сильно развиты в артикуляции, но слабо развиты в детализации "речи".

https://t.me/greenruff/2009?single

А вот вороны неплохо.ищ минусов, я брал данные всех ворон, а надо брать воронов(чтоб сравнить, они умнее).

Аналогично, с попугаями была ошибка, так как смешал много пород попугаев, а они сильно отличаются. В среднем попугаи не особо , но опять же я брал всех. Надо брать конкретно отдельные виды и сравнивать.

Я не так давно пробовал изменить диапазон речи под человеческую: тон, форманты, темп речи. Сделал на сколько смог из имеющихся инструментов. В этом случае вместо кар мы уже слышим совсем другие звуки. И там явно более сложнее все.я сейчас так же разбираю степень развитости животных, включая ворон.

https://t.me/greenruff/1932?single

Насчёт музыки, разбирал музыкальные теории формирования разных тональных структур с распределением нот, звуков, кол-во тонов и тд. Классическая просто использовала немного устаревший подход, потом ввели другую модель.

В реальности же, когда я проанализировал речь, то она тесно связанна с уровнями слуха. Их математическим аналогом являются гамматон фильтры. И там логарифмическая шкала получается.

Диссонанс получается тогда, когда звук оказывается на границе фильтра. Мозг в этом случае напрягается, так как непонятно к какому уровню относиться звук.

Пока не понял, как сюда вписывается описание выше. Хотелось бы побольше точных исследований и их названий.

Фонемы работают хуже, потому что основа выбрана неверно. Я столкнулся с этим сейчас, когда разбирал на части произвольную вокализацию. До этого как и многие считал что есть разбивка на фонемы и делается это в зоне А2 слуховой коры. Когда же, я разобрал вокализацию по косточкам, то оказалось что наше представлением о фонемах неверное. Точнее отчасти верное, и мы его описали себе как удобно. Но по факту нет. Например, слово молоко. В речи это будет и молоко и молоко и маЛОко. Мало чтого что фонемы летят в топку и усложняют тут, так ещё и на уровне фонем например нет звука ЛО, а разобрав звуки речи я выделяю этот звук при быстрой речи. Фонемы к реальной речи мало сопоставимыми и описывают лишь часть наиболее частых кластеров звуков. Именно поэтому подход с использованием фонем провалился.

При этом, разбиение на части даёт более компактный результат и более качественный. Просто надо изначально понимать что берем, как берем, на что разбиваем, что на каждом участке выделяем и с чем связываем в обратной связи и т.д. В этом случае все прекрасно работает. Яркий пример, использование MEL спектрограмм в аудио распознавании речи на вход и дальше пуста сама. Что в итоге привело к тому, что не одна сетка не умеет работать с шумными данными. А что уж говорить про проблемы ударных слогов, где приходиться обучать доп сетку. И все потому что входные данные не корректны. Поэтому просто сырые данные работают хуже.

Добавим сюда ещё то, что важную роль играют этапы обучения. Если возьмём одни и те же данные и скормим их в разном порядке, то сетка обручиться по разному. Поэтому у человека сначала одна зона обучается, следом развивается другая и тд. Где после их обучения, новые данные уже не обучают эти зоны (отсюда и изучение родного языка до определенного возраста на уровне слуховой коры первых 2ух зон, иначе уже языки будут распознаваться в других частях мозга как дополнительные, вторые языки).

Так что разбиение обязательно. А фонемы, просто неудачный формат абстрагирования звуков человеком, во времена когда не было возможности детально изучать звуки.

Да и области колбочек, были бы нагляднее.

А вообще, в этом плане можно порекомендовать эту книгу.

Да и в контексте лиц, тоже можно было немного больше добавить. Иначе это как то упрощено

Например одни из клеток, после их работы. На примере симуляции их работы.

Например про клетки которые определяют края, угол, направление и кучу других. На обработку в мозг они отдают сигналы, и именно они в первую очередь формируют картинку

В статье как то слишком упростили. В реальности порядка 30 параметров, а не только колбочки. Про клетки почти ничего, а именно они играют большую роль в зрении.

Тут скорее свой ход делает теория хаоса со странными аттракторами. Где в основе лежит фрактал, но при этом присутствует хаотичность в рамках фазового пространства. И получается, что с одной стороны стремление к центру "аттрактора", который ближе к фрактальному (красивому идеальному), но флуктуации всегда будут создавать хаотичные отклонения (от идеала) в рамках ограниченного пространства (иначе система развалится).

Так что обобщенно закон может быть и F=ma, а вот уже при его детализации вылезает хаотичность где приходиться как то учитывать ее через сложные динамические системы, которые с какой-то точностью описывают ее.

Как вы все упростили в нашем мозге) Сразу решили что у нас все работает на уровне слов почему то. Но это не совсем так. Слова конечно есть как основа, но так не только слова но простые сочетания слов. И там же плавный переход терминов снова в новые слова.
А до этого у нас базовые паттерны сигналов, а не как у сеток сейчас через спектрограмму. А дальше не фонемы, а наборы паттернов звуков которые гораздо шире фонем.

А как вы лихо выкинули гиппокамп который сохраняет цепочку событий, префронтальную кору которая держит внимание и другие части (например понятие времени, с которым у ChatGPT и других сеток большие проблемы когда идет сравнение ни конкретных дат а временной шкалы завтра, послезавтра, вчера, недавно и т.д.).

Почему вы выкинули такую важную вещь как лобные доли? Которые являются модулятором сигнала и могу как стрелочник перенаправлять сигнал по разным маршрутам, где речь будет разной... от более простой "Вась, подай ту хрень" до "Вась. мне нужен ключ для карбюратора, который лежит у окна".

Как прекрасно вы выкинули теменную зону, которая завязана на получение сигналов от всего тела, и играет важную роль в интерпретации "Я" отделяя таким образом ощущение тела от остального мира и объектов.

Чудесно, что и правое полушарие не нужно оказалось, которая помогает абстрагировать информацию, связывая его не на уровне последовательности слов. а на уровне последовательности событий.

И список можно продолжать. Почему вы считаете, что это формально не описано?
ChatGPT реализует небольшую часть только, где главным оказался паттерн внимания, который и позволил сделать шаг.

Да, может порой. Я всегда в таких случаях пишу в конце "с чем ты не согласна?". В этом случае модель описывает минусы и временами спрашивает " Как вы планируете решить...? "

У меня другая параноя развивается. А точно ли все люди обладают интеллектом, что даже в таких глюченных llm они увидели равный интеллект. /sarcasm

Какой код вы пишите? У меня все llm люта начинают глючить при конвертации больших sql процедур, причем порой зацикленно.

Да даже элементарно, недавно для доп анализа решил вместо praat дополнительно проанализировать данные просто lpc из librosa. Скормил ей функцию выполняющую эти действия в praat и попросил аналогичную на lpc. Так она выкинула часть данных, вместо массива вернула единичные значения. Ладно я понимаю в чем ошибки и могу исправить или указать (в итоге сам исправил ее код), но что если это рабочая программа?

А что за дичь она мне выдавала, когда я писал функции сдвига частоты или усиления ее.

Да, код для игры на unity простой для обработки действия, или сохранения данных в pandas делает. Но что то сложное и все, тупая как пробка.

Отлично, я сейчас занимаюсь анализом речи животных. Современные LLM могут лишь анализировать мои решения чтобы указать на слабые места в их анализе. Но сами по себе, они не смогли родить ни одной новой идеи в сложной области. Только личный анализ, который опирается множество вещей.

Таким образом, накидать код построения графика он может быстрее хотя и допустить ошибки в логике.

А вот несмотря на огромный массив обученных данных, абстрагировать на уровень выше чтоб найти взаимосвязи не может. Только когда указываешь ему на них.

Если вы спросите его как к примеру распознать слова и речь дельфинов и всю цепочку почему именно так. То он просто выдаст тоже, что модно найти в поисковике, но более лаконично. Предложит общий подход, но подход без понимания почему так делаем, откуда такая гипотеза, ни абстрагирования.

Современные llm лишь инструмент и наличие агентов будет улучшать его и усложнять. Но это не перевод мышления на новый уровень абстрагирования накопленных знаний из одной области в другую.

Кстати, почему ни кто не рассматривает возможный бум с другой стороны. Обучение живых клеток. Сейчас это делают.

Да это накладывает ограничения, нельзя скопировать данные. Но затраты на содержание меньше, на обучение тоже.

Натренировал большую языковую модель на них и используешь в проде)) не совсем ясно как распаралеливать несколько запросов. Но обучать таким методом можно уж сегодня. Общался с зарубежными лабами, которые обучают живые клетки на решение задач. Но там пока интерес академический. Рано или поздно бизнес и сюда заглянет и будет новый хайп.

Я недавно проводил анализ речи муравьёв.

https://t.me/greenruff/2021?comment=6573

Артикуляция у них развита (но не через язык а трение) и речи. Именно вокализация на уровне простой речи есть, но не сильно развита.

Они явно компенсируют вокализацию с помощью кучи других способов общения. Так что я бы не стал недооценивать их социальный интеллект. Другое дело, что тут вопрос в том, что им движет. То ли роевый интеллект, то ли индивидуальный. В любом случае, с их огромными колониями они прекрасно общаются и коммуницируют на уровне речи.

Наличие у них множества профессий от врача до охранника, тоже говорит о многом.

Так же, вполне возможно что главным интеллектом у них является королева. Так как её речь в экспериментах ученых приводила муравьёв в экстаз. А проигрывание ее речи, повторяло этот эффект. Так что вероятно у них иерархический интеллект. Вождь сказал - партия сделала.

На самом деле, когда говорят про эмоции, то должны подразумевать сетку лимбической системы, которая сильно завязана как на физиологии так и на окружающей среде. Так как те же тональные и нетональные языки подразумевают разные модели поведения.

https://t.me/greenruff/2034?single

Второй момент, это лобные доли, которые могут в зависимости от того кто доминирует и на сколько (лимб или высшая нервная) моделировать и перенаправлять нейронные связи по другим маршрутам.

Третье, это модель аналогичная правому полушарию которая отвечает за абстрактные связи и умение абстрагироваться.

В четвёртых это теменная доля, которая позволяет нам связать себя с нашим телом и таким образом разделять себя и внешние объекты. За счёт этого запуская механизм самокопания, если его так можно назвать.

Так что сейчас нейронки в самом начале своего пути. Текущие llm это просто обобщение результата их совместной работы без причинно-следственных саязей

Информация

В рейтинге
4 349-й
Откуда
Москва, Москва и Московская обл., Россия
Зарегистрирован
Активность