Pull to refresh
57
0.3
Илья@proxy3d

нейробиология, нейронные сети, AR/VR

Send message

Дополню к прошлому ответу, до этого для подобных вещей использовался другой подход. Основанный на согласовании поведения моделей с человеческими ценностями через обучение с подкреплением (RLHF). В OpenAI им занимался к примеру Дэниэл Леви (Daniel Levy), сейчас по моему ушел с Суцкевером.

Например эти исследования и подходы

"Aligning Language Models to Human Values" (OpenAI, 2021) — исследование методов согласования поведения моделей с человеческими ценностями через обучение с подкреплением (RLHF).

Работы по детектированию вредоносного использования ИИ, такие как "Forecasting transformative AI governance challenges" (OpenAI, 2023).

ну и в частности

"Fine-Tuning Language Models from Human Preferences" (2019) — использование RL для настройки моделей под человеческие предпочтения.

RLHF решает задачу «согласования» (alignment) через три этапа:

Сбор человеческой обратной связи
Люди оценивают ответы модели на запросы, сравнивая несколько вариантов и выбирая наиболее предпочтительный. Например, два ответа на вопрос: один вежливый и безопасный, другой — грубый или спорный. Такие сравнения формируют обучающий набор для модели вознаграждения.

Обучение модели вознаграждения (Reward Model)
На основе собранных данных создается модель, которая предсказывает, какой ответ человек сочтет лучшим. Эта модель выступает в роли «вознаграждения» для обучения самой языковой модели.

Файн-тюнинг языковой модели с помощью RL
Используя модель вознаграждения, языковая модель обучается генерировать ответы, которые максимизируют это вознаграждение. Таким образом, модель учится адаптироваться к человеческим предпочтениям.

Но этот подход плохо масштабируется, так как стоит огромных денег. OpenAI использовала его в 2019 году и явно использует сейчас. Но, он слишком затратный и имеет много проблем при оценке. Кто-то оценивает краткость, а кто детализацию ответа. И получается сильный разброс.

Собственно это одна из причин почему перешли на MAS на основе Deep CFR. Он более гибкий, дешевле и легче масштабируем. Так как в MAS агентов могут обучить на разных правилах, по которым они потом оценивают ответы, чтобы дать оценку вопросу пользователя или для тюнинга модели.

Как пример, есть два подхода (в реальности их больше), где MAS на основе DeepCFR хорошо масштабируется и очень удобен:

  • Constitutional AI : Модель обучается на правилах (например, правах человека) вместо прямой обратной связи.

  • Debate : Две модели спорят между собой, а третья оценивает их аргументы.

Так что DeepCFR просто более качественный, универсальный, экономически более выгодный и легче масштабируется. Так как можно обучить агента под конкретные правила. Завтра поменялись правила, заменили какого то из агентов. Чем переобучать/fine-tuning всю модель.

Noam Brown исследователя Research Scientist из OpenAI.

Meta безуспешно пыталась переманить Корая Кавукчуоглу, одного из ведущих исследователей ИИ в Google, а также Ноама Брауна, ведущего исследователя в OpenAI

https://www.bloomberg.com/news/articles/2025-06-11/meta-hires-top-researchers-from-google-sesame-for-new-ai-lab

Noam Brown — исследователь из OpenAI, известный своими работами в области искусственного интеллекта, машинного обучения и теории игр, после перехода в OpenAI его исследования сосредоточились на более широких задачах ИИ, включая многопользовательские взаимодействия, обучение с подкреплением и этику ИИ. Он один из авторов Deep CFR

Он до этого уже занимался (и сейчас занимается): играми с неполной информацией (именно агентские, а не просто), исследование стратегий взаимодействия между ИИ-агентами и людьми в условиях конкуренции и сотрудничества, анализом рисков связанных с мультагентными системами и разработка механизмов контроля поведения ИИ.

В свое время Brown высказывался о рисках использования ИИ в стратегических взаимодействиях и необходимость контроля за поведением агентов.

То есть, его задача - это риски работы пользователя с ИИ. Он до этого занимался и продолжает заниматься Deep CFR, OpenAI это подчеркивало. В целом в докладах и на разных видео об этом часто говориться. Ни кто в здравом уме (кроме Яндекса после утечки данных) не станет делать это через скрипты, так как для этого есть целая область, которая этим занимается и исследуется. В РФ просто этим так глубоко не занимаются (я не встречал).

Вам нужны CFR/Deep CFR и мультиагентные системы (MAS). Тут надо понимать, что их изучение завязано на теории игр. Все что обучают играть в игры, на самом деле относится совсем не к играм, на них просто тестируют данные системы. Так как они должны находить оптимальные стратегии взаимодействия при неполной информации.

Тут подойдет все что угодно, главное чтобы сначала вникнуть в теорию игр. Любые брошюры или книги. Так как без общего понимания теории игр, проблематично будет полноценно использовать.

Не знаю, есть ли на русском, но думаю сейчас сетки могут неплохо переводить

https://www.cs.cmu.edu/~sandholm/cs15-892F13/algorithmic-game-theory.pdf

либо видео какое то посмотреть

https://www.youtube.com/watch?v=TM_QFmQU_VA&pp=0gcJCf0Ao7VqN5tD

А там уже Классический CFR

тут просто искать по подобным критериям

https://www.cs.cmu.edu/~sandholm/cs15-888F23/Lecture_5_CFR.pdf

Deep CFR

тут искать видео Noam Brown: Pluribus and Deep CFR (NeurIPS 2019)

https://www.youtube.com/live/cn8Sld4xQjg

чтобы понимать как этот подход перенесли на обучаемые сетки

Именно как это используется внутри компаний, они не вынесут. Но сами фреймфорки на которых она выстраивают и обучают модели, часто открыты. Но

https://github.com/google-deepmind/open_spiel

https://github.com/Farama-Foundation/PettingZoo

Подобные вещи ни кто не афиширует, ведь их делают для безопасности. Но примеры косвенные можно увидеть. На примере теории игры информационной войны, если рассматривать взаимодействие системы и пользователя (который пытается ее вскрыть)

https://www.researchgate.net/publication/305627389_A_Survey_of_Game_Theoretic_Approaches_to_Modelling_Decision-Making_in_Information_Warfare_Scenarios

Но в России я пока не разу не видел, чтобы это использовали так глубоко. Максимум на уровне langChain, LlamaIndex у того же сбера GigaChain( на базе langchain). Но это все таки немного не то.

Я ничего не говорю про продуктовые разработки на базе нейронок в РФ. Наоборот подчеркнул, что в России именно продуктовые разработки связанные с сетками. Я же говорил про фундаментальные исследования в области AI/ML. Их нет в РФ и они не ведутся. Точнее есть их блеклая тень (есть список исследований Сбера, МФТИ, Тинькофф, Яндекс), но часть из них уже в постановке задачи неправильные. Другие не тянут на мировые, вроде квантования. И чаще всего это взяли opensource продукт и обучили на своих данных и своих метриках. Это всегда отставание.

Представим, что завтра Meta, DeepMind и китайцы перестанут публиковать свои исследования в архитектурных решениях. И в один момент у нас будет отставание в 5-10 лет в этой области, которое будет быстро расти. Да и сейчас, из-за этого, все наши компании на шаг позади. Не потому что видеокарт не хватает, а потому что для этого надо понимать куда/как/что исследовать.

ntechlab  - это продуктовая компания, которая будет готовые архитектуры и обучает их на собранных данных. Продуктовое R&D? Мне кажется тут ближе слово - оптимизация продуктового процесса. По этой же причине Сбер, Яндекс сидят на древних моделях tacatron2 (пробуют VITs) для синтеза речи, обучаях их и косметически изменяя.

Можете так же глянуть в сторону "Anthropic computer use, OpenAI Operator".

https://docs.anthropic.com/en/docs/agents-and-tools/tool-use/computer-use-tool

https://openai.com/index/computer-using-agent/

https://github.com/All-Hands-AI/open-operator

https://github.com/Significant-Gravitas/AutoGPT

https://github.com/crewAIInc/crewAI

https://github.com/reworkd/AgentGPT

Tинькофф как раз пытается:

Мы записываем всё, что делает сотрудник в интерфейсе, и учим LLM повторять эти действия: ходить по сценариям, справочникам, заполнять любые формы на экране компьютера, отвечать клиенту. Обученная модель и оператор работают вместе: когда модель знает что делать — она делает это сама, а когда не знает — помогает оператор.

Некоторые из перечисленных выше агентских систем позволят расширить ваши задачи, без необходимости вникать в AI/ML. И заодно расширять их спектор.

AutoGPT - позволяющая LLM автоматически выполнять задачи, разбивая их на подзадачи и используя внешние инструменты (например, браузер, файловая система).

CrewAI - Фреймворк для создания многоагентных систем, где каждый агент имеет свои цели, навыки и инструменты. Агенты взаимодействуют для решения сложных задач. Ансамбль агентов в общем.

AgentGPT - Дает визуальное конфигурирование агентов. Автопрограммирование на нем не построишь.

Если же решили прям глубоко углубиться, то смотрите в сторону Deep CFR, OpenAI Five и его основу CFR (Counterfactual Regret Minimization). Их задача поиск равновесия Нэша в теории игр, то ест в рамках неопределенности найти оптимальную стратегию поведения для получения оптимального результата.

Справедливости ради, надо отметить, что когда вы решаете такие задачи, то в реальности работаете не только с LLM (или кроссмодальной), но и с агентскими системами. Эти агентские системы, так же являются небольшими сетками, задача которых безопасность и взаимодействие с пользователем с использованием подходов вроде "Deep CFR". Deep CFR - это алгоритм для оптимизации стратегий в условиях неполной информации.

Он основан на CFR — это итеративный алгоритм, который решает задачи оптимизации стратегий в условиях неопределённости. Он обучает агента играть в игру с неполной информацией, постепенно минимизируя "сожаление" (regret) о предыдущих действиях.

В OpenAI за это отвечает Ноам Браун по идеи, который был участником разработки обучаемого Deep CFR (выиграла в покер).

Это MAS системы, которые создают задачи, которые невозможно решить стандартными методами:

  • Частичная наблюдаемость (каждый агент видит только часть информации),

  • Неустойчивость среды (другие агенты меняют поведение в ответ на действия),

  • Комбинаторная сложность (число возможных стратегий растёт экспоненциально с количеством агентов).

То есть это обучаемые агентские системы, в которые обернуты LLM при взаимодействии с ними. Так что они оказывают влияние на результат.

Это кстати относится к тому, что люди когда пытается "взломать" думают что ломают сетку. На самом деле в этот момент обучается MAS (или уже обучена), которая может "блефовать" и выбрать другую стратегию, которая обеспечит оптимальное взаимодействие с пользователем.

Странно, что на Хабре ни кто не разбирает подобные вещи. Не оценивает их при построении оценок, как в статье выше. То есть не оценивает стратегии поведения модели (их обученные MAS) в рамках предлагаемых им задач.

Речь не про исследовании архитектуры. Речь о фундаментальных исследованиях. Это тоже самое как сказать, исследовать закон Ньютона можно, но без Варп-двигателя это не нужно. А вот без топлива на нейтрино с гелием-3 нет смысла браться. Вот так это звучит. Я столько раз слышал эти левые оправдания, я бы начал фотографировать, но без зеркалки за 200 тыс руб и объектива к нему еще за 200 тыс начинать бесполезно. Один в один. И дай этим людям такой фотик, он либо будет пылиться или они придумают новый аргумент.

Почему другим это не мешает? И зачем надо, чтобы другие обращали внимания? Или вы думаете, что у китайского DeepSeek карточек было больше чем у Сбера или денег больше? У DeepSeek прежде всего были мозги. А сейчас Сбер использует их открытую модель и дообучает. Мозги - вот главный ресурс и наши компании и большинство тех кто занимается AI/ML в РФ, им явно не обладают.

Вы путаете фундаментальные исследования и оптимизацию и производственные масштабирование продуктов. Для того, чтобы разработать трансформер, достаточно 1 нормальной видеокарты и работы. Чтобы разработать модель гиппокампа - deepmind не нужно было сотен видеокарт, так как они исследовали соответствие обучаемой модели и нейронов у крысы.

Откуда вы вообще взяли про видео карты? Причем тут обучение модели на открытых моделях и исследования? Вы пишете об оптимизации, дообучении - это сбер и яндекс как раз и делает на открытых моделях, внося косметические изменения. Я же говорю про R&D. Я говорю о том, что надо работать над разработкой "станков", а вы пишите - что не могут разработать станки, так как заводы не построены, площадей для этого нет, чтобы много станков поставить. Что вы собрались масштабировать? Если вы не занимаетесь исследованием и разработкой. Закупка чужих станков на свой завод - это не R&D, это производство продукта. Это нормальное явление. Но дело не видеокартах, а в подходе. "Плохому танцору яйца мешают", так что дело не в видеокартах, а мозгах.

Российский ML сейчас и до - не было. Был продуктовый AI/ML, а R&D и это разные вещи. Вам про исследования, а вы про производство. Вы путаете понятия R&D и разработку продукта.

Ни чего не имею против RAG. Речь шла о том, что из себя представляет на сегодня рынок AI/ML в России. Подавляющее число это RAG (который тоже требует метрик) либо расчет ML метрик для статистики. То что раньше считали в Excel, различные мат методы статистики, теперь перешло в ML. Но ML в продуктовых компаниях, где надо найти метрики по заказам ВкуссВилл и другие подобные, очень поверхностно затрагивает тему машинного обучения. А так вакансии RAG это сегодняшние вакансии AI/ML во всех крупных компаниях в РФ, недавно HR из СберЗдоровье писал, тоже RAG.

Мое личное мнение, что RAG это не совсем AI/ML, это что то среднее. Так как это работа с готовыми фреймворками LangChain (или подобных) с их API, а не с нейронками. Но при этом надо знать различные ML метрики, хотя их набор небольшой для оценки результата. Поэтому отчасти RAG можно отнести к ML.

Что касается R&D, то это не так. Речь не про просто обучение на готовых открытых моделях, как это делает Сбер или Тинькофф, а как DeepMind именно исследования. Тут не нужны видеокарты. Да и у Сбера приличное кол-во видеокарт, они сдают в аренды GPU сервера облачные. Здесь дело в самом подходе, приоритетах, мышлении.

Судя по вакансиям расклад все таки другой

1) Яндекс, подавляющее кол-во вакансий от HR это RAG проекты. Хотя описано про ML/AL как только начинаешь общаться, оказывается RAG.

2) Сбер, часть чисто ML по метрикам оценки разных систем, типа онлайн кинотеатра (условно). Большая часть это чисто RAG, langchain в обвязке Сбера. ML метрики для обучения LLM моделей. Ни новые архитектуры, ни новые решения или r&d.

3) Тинькофф - RAG и недавно присылали, что собираются делать систему на базе открытой для обучения ИИ управлять компом или приложением (забыл). Замахнулись на то, что сами слабо понимают. Опять взять опенсоурс и обучать.

4) ВК - тоже по-моему в основном RAG предлагают под соусом AI/ML. Либо считать ML метрики в разных системах.

5) МТС точно не помню, что то пытались они в синтез речи. Но судя по результатам , вышло хреново.

То есть все сводится к тому, что обучать в лучшем случае готовые решения. Но чаще всего работа с RAG. Или делать обвязку вокруг готовых ACR, TTS. Ничего нового.

В целом, сетки конечно есть, пытаются то VITs для синтеза речи обучить, то tacatron2. Тоже с остальным. То есть в реальности, работа в том, что делать обвязки, готовить данные по ML метрикам, внедрять RAG и так далее.

Это не хорошо не плохо. Наверное продуктовые компании так и должны делать. Но реальным AI/ML исследованиями заниматься там все равно не будешь. В лучшем случае оптимизировать текущие, перебирая токенизаторы и гиперпараметры, считая метрики для бенчмарок.

На фоне DeepMind или deepseek это выглядит очень печально.

Там очень много что ещё нужно. Даже область Верника сейчас сделали криво. Для нее обучили статичный токенизатор.

Нет таламуса, который играет важную роль фильтрации и создания ритмов, которые позволяют синхронизировать сигналы. Например релейные клетки в нем, они работают в двух режимах tone и bust. В одном посылают одиночный сигнал, а в другом серию сигналов во времени и система переключается в разные режимы

Нет теменной доли, которая играет важную роль для представления "я". Она тесно связана с работой тела. При ее блокировке , нарушении происходит такое явление, когда человек перестает ассоциировать себя и тело, и для него внешний и внутренний "мир" это все "я". То есть он не может отличить условно себя и окружающий его мир.

Нет саморефлексии, которая задействует MPFC/ACC зоны и гоняет мысль по кругу, отсеивая ложную, и детализируя. И это не то же самое, как рассуждающие модели, хотя они частично схожи.

Нет гиппокампа, который в отличие от "памяти" чатгпт хранит не фрагменты, а сигналы. И не просто сигналы, а множество контекстов. Где каждый из них может усилит мысли при саморефлексии.

Тот же гиппокамп, играет важную роль в саморефлексии. Так как смешивает сигналы идущие повторно через петлю и внешние. Поэтому если вы читаете книгу, то это усиливает сигнал. Так как сама мысль по петле саморефлексии кружится, плюс внешний сигнал от зрения (вы видите это в книге) усиливает это сильнее.

И таких моментов очень много

Вы смешали два определения: оптимизация и энергоэффективность. Кроме того, вы рассматриваете модель по совокупным критериям в целом. Но система подстраивается под среду. Она приходит к балансу наиболее энергоэффективного равновесия. Есть такая формула Лагранжа, по которой можно рассчитать на более энергоэффективный путь. Из него выводится закон Ньютона (тот описал его до того, как эта формула была доказана).

Я не знаю, почему система пришла к такому состоянию которое вы описали. Но не вижу противоречий, что этот вариант был наиболее эффективен в момент ее формирования. Это ни как не противоречит тому, что в целом система может быть менее эффективна чем другая.

Я проводил исследования градиентов речи. Выше описано как. Они тесно связаны с артикуляторами.

Оказалось, что у всех живых существ, независимо от формы их артикуляторов и их природы (язык, гортань, жужальце и так далее), они все приходят к одинаковой форме фазового пространства. То есть одинаково стремиться оптимизировать свою энергоэффективность. Разница лишь в масштабе, смещении, и степени развитости.

Да, формально мы можем сравнить их и сказать, у кого они более эффективны, а у кого менее. Но формально, все они стремятся к одному фазовому пространству, пусть и отличаются его масштабом и расположением на частотной плоскости.

Поэтому это весомый аргумент, что и с другими биологическими реализациями происходит так же. То что нам кажется не оптимальным, на самом деле идеально энергоэффективно в рамкам данной особи. Но может быть менее эффективно в глобальном плане и иметь тупиковое развитие. Но и тут все зависит от того, в каких условиях среды система развивалась и какой она была в тот момент, когда произошел скачек ее развития.

Условно говоря, возможно для жирафа в момент развития, было более энергоэффективным не заниматься улучшением шеи, а другие критерии.

Например капилляры работают на фрактальном принципе. Это очень энергоэффективно и оптимально, так как их создание кодирует только базовый алгоритм формирования фрактала капилляров. Но в масштабе всей системы, это может казаться менее эффективно на каких то участках. Но оптимизация конкретного участка, может привести к тому, что вся система окажется менее энергоэффектавной.

Развитие ИИ не неизбежно из-за фундаментальных ограничений (насыщение данными).

Ваша концепция "идеального работника" путем "вырезания" человеческих качеств технически не обоснована и сомнительна. Более того, AGI — экономически неэффективная и технически сомнительная фантазия по сравнению с реальным человеком.

Да, текущие ИИ — полезные, но ограниченные инструменты, а не путь к AGI.

В целом, ваши аргументы сейчас строятся на абстракциях, экстраполяции и бизнес-оптимизме без доказательной базы, подобно вере в фантастические сценарии. Уверен, что скоро встретимся с инопланетянами, ведь космос быстро как развиваем, еще вчера в него даже не летали и не исследовали, а сегодня уже...

Я лишь говорю о том, что если, что то утверждать, нужно это сначала доказать. Если сделаем так (теория), то получим результат (доказательства), который можем потом применить.

Откуда вы это взяли? У людей нет врожденной, специальной "системы распознавания лиц обезьян", которая затем "удаляется".

Всем чем обладают новорожденные - это врожденной предрасположенностью обращать внимание и обрабатывать паттерны лиц. Да, благодаря нейронной пластичности мозг у младенца в течение первого года жизни оптимизирует свои способности к распознаванию лиц. Он специализируется на тех типах лиц, которые он видит постоянно (человеческих). В результате способность различать индивидуальные лица незнакомых видов (как обезьяны, аборигены острова "Мумба") ослабевает, если нет опыта взаимодействия с ними, в то время как способность различать человеческие лица улучшается. Это процесс "настройки", а не "удаления".

То есть система, сначала делает большое обобщение, и потом постепенно детализирует его. Ни каких лиц обезьян в ней изначально не заложено.

Можно конкретно, так как у Сбера есть список исследований по годам. Там фундаментальным даже не пахнет. А вот лекции сберовские, а так же с чем приходят HR Сбера, исправления Deepseek поверхностные (у них можно глянуть), и другие работы - говорят об обратном. Сейчас в Сбере упор на RAG, исследования на уровне.. мы попробовали вот так, получили такой результат - это не фундаментальное исследование. Фундаментальное исследование - это когда доказали, вывели, обосновали сначала - затем сделали и получили результат.

То что отдельные ребята там увлекаются спайковыми сетями и ковыряют их для себя - к исследованиям ни какого отношения не имеет. Это называется хобби - попробовал, потыкал, что то поменял...

Иначе покажите конкретно на такое. Так как я постоянно смотрю кто. что сделал в надежде найти что то. Да и Сбер комьюните по сеткам показало, что ни кто там ничем не занимается, все сводится к оптимизации текущего подхода, файтюнингам и RAG.

Какая конкретно была задача на входе? Так как оценивать надо по задаче. Так как от постоянного переписывания модели теряют детали прошлые и часто выкидывают важное или упрощают. Постоянно такое происходит, от LLM не зависело. Пробовал гонять между двумя тремя крупными LLM, аналогичным образом. Вроде на выходе идеально и правдоподобно и аргументировано по каждому пункту, но как начнешь разбирать, там чушь полная оказывается. Поэтому хочется понять, какие задачи подходят, а какие нет.

Система всегда пытается минимизировать затраты энергии. Не важно живая она или нет. То что кажется лишним - часть этого баланса. Выкинете это и посыплется другое. Может ли она развиваться так же, если что-то убрать? Это уже теория хаоса, вы по сути приводит к бифуркации системы, когда нарушен баланс и система пытается перестроиться. Это может привести к тому, что система будет полностью разрушена либо найдет новую устойчивую точку. Мы заранее не знаем, потому что не можем учесть все факторы.

Внешние условия играют огромную роль. Выше говориться, что многие организмы не эволюционируют. У них нет для этого условий. Простой пример, помню была научная работа по Чернобылю. Там оказалось что у червей произошла дифференциация пола. Черви бесполые, но внешняя среда заставила их развиться. Так как радиоактивный фон приводит к повреждению ДНК, и нужен какой-то механизм, который позволяет сохранять прежнюю копию и быстро находить более приспособленную. Иначе одна неверная мутация и черви вымрут, если это распространиться. Нужен отбор мутаций. Это не значит что там было разделение на мужской и женский пол, но это значит что произошло разделение, где одна особь сохраняет накопленные полезные мутации и обирает полезные по каким то критериям, а другая приобретает их.

DeepMind от Гугла больше всех у меня вызывает уважение. Они не просто создают новые подходы, они проводят исследования и на живых клетках и сравнивают результаты своих работ и реальное поведение клеток. Их архитектуры flamingo и другие были созданы не как полная интернерпретация. У них есть работы по гиппокампу, таламусу, расширению мультмодальных моделей.

Deepseek сделал исследования по оптимизации, доказав математически как это можно сделать. И ещё ряд нововведений.

Когда был в чате сбер комьюнити по нейронкам, мне вечно писали что зачем нужно изучать мозг, проводить аналогии, пытаться перенести механизмы. Как итог, Сбер использует чуть изменённую косметически модель deepseek (была статья с репозиторием на Хабре). То же касается группы по синтезу речи, гоняют VITs пробуя методом тыка разные параметры, токенизаторы. Ни кто фундаментально ничего не пытается сделать.

Без фундаментальных исследований как у DeepMind это всегда работы, как дети в песочнице с новыми игрушками. Крик души, так как обидно что Яндекс и Сбер не проводят таких фундаментальных исследований, хотя и возможности есть и деньги и ресурсы. Для этого не нужно 1000 видеокарт.

Можно пример? Не абстрактный на основе галлюцинаций, а с доказательством. Так как плодить сущности без строгих доказательств люди могут и так. На Хабре куча статьей каждый день, где народ через сетки генерирует свои вольные интерпретации. Которые не имеют отношения к реальности.

Например, мне надо было сделать растворимый промежуточный слой. Была идея использовать изморозь, когда вода тонким слоем покрывает подложку и затем растворяется. Сетка не может предложить такое, так как у нее нет абстрактной связи, что изморозь может образовываться равномерно, а мы каждую зиму такое встречаем на окнах, перилах. Потому что нет у них абстрактного мышления, нет связи с реальным миром.

Все что она мне генерировала, была чушь собачья с точки зрения физики. Поэтому приведите пример. Пример, химией не уместен, там специализированные сетки обученные именно на химических соединениях затем подбирали наиболее вероятные в плане устойчивости и к LLM ни какого отношения не имеющие.

Возьмите реальную задачу. Вот сейчас решаю. Есть гистерезис сигнала по частоте и амплитуде. По амплитуде написал, отлично работает. А вот учесть частоту проблематично на уровне традиционных сетей для гистерезис, не понятно. Вывел формулы, они совпали с SSM. Но вот встроить гистерезис частот бы и амплитуды в SSM, со строгим математическим доказательством не получается пока что.

LLM все только пишут вольную интерпретацию, как можно это сделать. То есть математически доказать они не могут. Вольные интерпретации я и сам могу насочинять.

То есть LLM не могут мне сделать сами математическое доказательства и вывести формулы и логическую цепочку, в строго доказательной форме. Так как ранее у них нет таких примеров. Они лишь приводят примеры существующих работ, как другие пробовали.

Вот реальная сложная задача. А все остальное это трудоёмкая задача. Не нужно путать трудоемкость и сложность. Свести множество формул, это трудоёмкая задача. Сложная задача, это найти математическое доказательство, которого до этого не было.

Information

Rating
2,294-th
Location
Москва, Москва и Московская обл., Россия
Registered
Activity