через детект нейронов 'незнания', которые активны для 100% сетке неизвестных вопросов. а такие вопросы детекируются по тому, что ответы сетки на них 'плавают', непостоянны. целые отделы работают над таким пост-тюнингом.
Современная transformer архитектуры сеток делают примерно 99,5% мусорных вычислений, к делу не относящихся. MoE-плоская архитекура показывает что легкая модификация сокращает их в 5-20 раз. Дальше какой-то 'гений' додумается до каскадной MoE - которая еще в 5 - 20 сократит вычисления. И наконец следующий "гений" догадается, что каждый МоE эксперт внутри себя оптимально должен имеет каскадную MoE архитектуру ( = иерархический MoE) - еще в 5-20 ускорится. И следующему гению останется только догадаться, что для сокращения памяти, потоки данных в сети должны быть с обратной связью. И вот тогда дохлый проц шутя понянет хоть AGI. Жаль только долго ждать придется.
Успели ли вы столкнуться с подобным отношением к себе?
Был забанен на их github, google groups за довольно мягкую критику кода flutter в google groups. Собственно когда другие разрабы стали писать "а ведь чувак прав, че вы там курите.." но счас, спустя 4 года разблокировали. Трампа боятся однако, чудики они те еще,
Поспорю) псилобицин объявлен "прорывной терапией -лечением от депрессии " от FDA в 2024. Более того, он и ЛСД имеют эффект долговременной коррекции (не нужно кушать постоянно) + минимальная токчисность и т.д. и т.п.
У них там мура с правами на генерацию через их сайт : https://www.youtube.com/watch?v=e9F9Uti6G1U&ab_channel=DataScienceinyourpocket 1.50 если чо. Тестировал на мутных задачах по кодингу (в которые не хотел вникать), с треском проиграла напару с Gemini Flash thinking 01-21 GPT-4 mini, т е последняя положила их на лопатки. Не торт пока что.
В браузере Firefox WebAssembly выполняется в 2,4 раза быстрее, чем в Chrome, и в 8,7 раз быстрее, чем в Edge по сравнению с JavaScript в аналогичных условиях.
Учитывая что Edge это Chromium звучит неправдоподобно. +почему сравнение Firefox Webassemply c Chome JS а не Firefox WS c Chome WS? кто так сравнивает и кто за этим стоит?
Router - отдельная от экспертов сущность, и ее размер соответвенно считается отдельно. Спеки Mistral его явно не указывают, скорее всего потому, что он экстремально простой у них. В более поздних и совершенных моделях он +- сравним по размеру с экспертом, и поэтому четко указывается. )
В MiniMax-Text-01 есть 32 таких эксперта, каждый из которых содержит 45,9 миллиарда параметров, что в сумме составляет около 456 миллиардов параметров.
Представьте, что у каждой программы, которую написали, магически появляется некий универсальный Remote API, который кроме логическо-математической оптимальности (бритва Оккама про это) содержит семантику о данных в системе и доступных операциях над ними, позволяющий визуализировать данные и операции (автоматический GUI) этих интерфейсов (систем), также автоматом, среди прочего, взаимодействовать с ними голосом. Придумано, сделано, пользуюсь в своих проектах.
asyncio при старте запускает кучу потоков, поэтому однопоточным яаляется врядли. мне интересно, когда asyncio перестанет работать в одном потоке и почему это не сделано сейчас. хотя бы в бете или экспериментально.
asyncio при старте запускает кучу потоков, поэтому однопоточным яаляется врядли. мне интересно, когда asyncio перестанет работать в одном потоке и почему это не сделано сейчас. это ж странно.
A не проще вынести борьбу с безопасностью и авторизацией во внешний специализированный условно стандартный Proxy сервер, не отвлекаясь от прикладной логики и отдав это админам или еще кому. такой подход хуже-лучше? правда интересно..
Самое главное - многопоточность, почему-то не упомянута. Почему?)
через детект нейронов 'незнания', которые активны для 100% сетке неизвестных вопросов. а такие вопросы детекируются по тому, что ответы сетки на них 'плавают', непостоянны. целые отделы работают над таким пост-тюнингом.
ссылка на ролик-победитель?
a что еще для linux есть? conan не выглядит для меня как 'простое' решение.
Современная transformer архитектуры сеток делают примерно 99,5% мусорных вычислений, к делу не относящихся. MoE-плоская архитекура показывает что легкая модификация сокращает их в 5-20 раз. Дальше какой-то 'гений' додумается до каскадной MoE - которая еще в 5 - 20 сократит вычисления. И наконец следующий "гений" догадается, что каждый МоE эксперт внутри себя оптимально должен имеет каскадную MoE архитектуру ( = иерархический MoE) - еще в 5-20 ускорится. И следующему гению останется только догадаться, что для сокращения памяти, потоки данных в сети должны быть с обратной связью. И вот тогда дохлый проц шутя понянет хоть AGI. Жаль только долго ждать придется.
Был забанен на их github, google groups за довольно мягкую критику кода flutter в google groups. Собственно когда другие разрабы стали писать "а ведь чувак прав, че вы там курите.." но счас, спустя 4 года разблокировали. Трампа боятся однако, чудики они те еще,
Поспорю) псилобицин объявлен "прорывной терапией -лечением от депрессии " от FDA в 2024. Более того, он и ЛСД имеют эффект долговременной коррекции (не нужно кушать постоянно) + минимальная токчисность и т.д. и т.п.
У них там мура с правами на генерацию через их сайт : https://www.youtube.com/watch?v=e9F9Uti6G1U&ab_channel=DataScienceinyourpocket 1.50 если чо. Тестировал на мутных задачах по кодингу (в которые не хотел вникать), с треском проиграла напару с Gemini Flash thinking 01-21 GPT-4 mini, т е последняя положила их на лопатки. Не торт пока что.
Учитывая что Edge это Chromium звучит неправдоподобно. +почему сравнение Firefox Webassemply c Chome JS а не Firefox WS c Chome WS? кто так сравнивает и кто за этим стоит?
S.N.U.F.F. как по мне самый руль. тем более что пошло сбываться. в целом бурно одобряю.
Router - отдельная от экспертов сущность, и ее размер соответвенно считается отдельно. Спеки Mistral его явно не указывают, скорее всего потому, что он экстремально простой у них. В более поздних и совершенных моделях он +- сравним по размеру с экспертом, и поэтому четко указывается. )
ошибка в переводе как ни крути. общие параметры эксперты иметь НЕ ДОЛЖНЫ.
цифры не бьются
Представьте, что у каждой программы, которую написали, магически появляется некий универсальный Remote API, который кроме логическо-математической оптимальности (бритва Оккама про это) содержит семантику о данных в системе и доступных операциях над ними, позволяющий визуализировать данные и операции (автоматический GUI) этих интерфейсов (систем), также автоматом, среди прочего, взаимодействовать с ними голосом. Придумано, сделано, пользуюсь в своих проектах.
Скрытый текст
https://github.com/unisi-tech/unisi
asyncio при старте запускает кучу потоков, поэтому однопоточным яаляется врядли. мне интересно, когда asyncio перестанет работать в одном потоке и почему это не сделано сейчас. хотя бы в бете или экспериментально.
asyncio при старте запускает кучу потоков, поэтому однопоточным яаляется врядли. мне интересно, когда asyncio перестанет работать в одном потоке и почему это не сделано сейчас. это ж странно.
Кто-нить проверял есть ли ускорение NO-GIL для asyncio в 3.13? на этот вопрос везде только зловещее молчание.
осталось понять уже может asyncio и await async функций без глюков работать без GIL, раскидывая задачи по ядрам.
A не проще вынести борьбу с безопасностью и авторизацией во внешний специализированный условно стандартный Proxy сервер, не отвлекаясь от прикладной логики и отдав это админам или еще кому. такой подход хуже-лучше? правда интересно..
Своевременно и интересно!