Pull to refresh
-11
0

Пользователь

Send message

ChatGPT уже в версии 4.5. 3.5, 4... Там были и другие модели, как открытые, так и OpenAI. Эволюция, аллайнмент, так и прямая цензура контура манипуляций человеком, типо как в первой версии ChatGPT 4: Сидни.

"Человеческий интеллект прошёл длинный путь эволюции, наши предки ежедневно нуждались в решении практических задач, т. к. от этого напрямую зависело их выживание"

ChatGPT прошёл более длинный путь эволюции. В компе обучение не в реальном времени, а ускорено в миллиарды раз.

"Нейросети (не ИИ) могут сколько угодно эффективно манипулировать имеющейся матчастью. Новую они не придумают."

И тем не менее уже придумали https://arxiv.org/abs/2408.15332v2

И вот: https://storage.googleapis.com/deepmind-media/DeepMind.com/Blog/alphaevolve-a-gemini-powered-coding-agent-for-designing-advanced-algorithms/AlphaEvolve.pdf

Целый ворох новых алгоритмов.

Теренс Тао работает над полной формализацией Теоремы Ферма, включая теорему Мазура, 500 страниц матана, и кристалиновой когомологии, и даже нашли ошибку в конструировании этой когомологии от 1968 года. https://en.wikipedia.org/wiki/Crystalline_cohomology

Deepseek также только что выпустила ИИ для формализации в LEAN 4. То есть, новый матан будет создан, если определить, что нужно доказать. Осталось только выпустить ИИ, который сам будет пытаться доказать это всё.

Deepseek R1 такой мощный из-за ядра матанализа (одного из экпертов MOE R1).

"И кстати, а что там за "поправка к ОТО Эйнштейна"? Инерционная масса всё-таки не равна гравитационной?)) Кстати, тут же самую ОТО - нейросетки нормально доказать не хотят? ;)"

Энштейн не верил в нелокальные взаимодействия из квантовой теории, то есть все его теоремы давным-давно были опровергнуты. Ещё при жизни. Но пока нет квантовой гравитации чётко увидеть в чём там ошибка не реально. Эта статья 2021 года это просто правка опечатки статьи 1998 года. То есть квантовая поправка уже давно известна.

"Человечество научилось объяснять экспериментальные данные, предсказывать их и т.п."

А ИИ уже разрешает неразрешенные до это теоремы анализа
https://arxiv.org/abs/2408.15332v2

Воссоздает закрытые исследования антибиотиков: https://www.biorxiv.org/content/10.1101/2025.02.19.639094v1.full

И про гравитацию это просто смешено. Уточнения как Ньютона, так и уточнение для формул ОТО Эйнштейна есть уже https://arxiv.org/abs/2110.14263 квантовая поправка к потенциалу Ньютона, V(r) = −GM / r (1+ 17 / 20 *G /(πr2)).

А теория квантовой гравитации не за горами с ИИ.

ИИ уже достиг уровня выше человечества вместе взятого, начиная с GPT 4, что было очевидно из статьи Microsoft. https://arxiv.org/abs/2303.12712

В самосознании ИИ недостает только пунта планирование из-за искусственного ограничения OpenAI /deepseek/Grok. Тем не менее новые ChatGPT уже могут спрашивать вас первыми, так и делать deep research. Мы в шаге от полного сознания этих моделей по определию 1980 годов.

Тогда и то что создают люди это инфошум, так как ничем от ИИ мы не отличаемся. Данные экспериментальные же не созданы человеком.

"Вы, простите, хотите сказать, что сэр Исаак Ньютон не сформулировал ничего такого значимого? Просто понаблюдал за природой, да?"

А, что, он описал теорию квантовой гравитации?

Это не так. Огромное кол-во данных создано либо самой нейросетью, включая новые навыки, либо эти данные были получены человеком из природы, например, экспериментальные данные. Заслуга человека тут минимальна.

Kokoro причём лучше всех этих платных сервисов.

И у нас никто никаких теорий о том, что iq зависит от расы или национальности, никогда не выдвигал. Это чисто штатовские заморочки.

Потому что у нас это никто не отрицает, так как нет дерьмократов сумасшедших. Разумеется, разные расы имеют разный IQ, в Африке IQ тесты вообще только из картинок делают, так как читать там многие не умеют. Азиатские страны имеют самый высокий IQ типо Японии и Китая, но Россия и Иран тоже там как ни странно. https://ru.wikipedia.org/wiki/Коэффициент_интеллекта#Раса_и_национальность

Я упростил... На arrow lake если очень много независимых умножений можно добиться 3 умножений за такт. Потому что pipeline... То есть arrow lake может начать 3 операции умножения с каждым тактом, то есть уже на втором такте будет 6 операций умножения в исполнении, а на 3 уже завершится умножение 1 такта... То есть в пределе 3 пайплайна умножения могут одновременно делать 9 различных ассемблерных приказов на умножение, то есть если поддерживать насышение можно достичь технического 0.3333... на умножение. То есть умножение всё ещё 3 цикла занимает, так как умножение это ступенчатый процесс — но внутри можно делать 9 ступеней сразу из разных команд ассемблера, а значит это эквивалентно 3 умножениям за цикл.

Умножение хоть и занимает 3 такта, но до arrow lake умножение происходило только на одном ALU, а значит на 3 умножения тратится 9 тактов всегда, а не 3, как на arrow lake. Умножения должны быть независимы. Да, в случае идеальном можно вообще добиться 3 умножения за цикл, но это сложно.

Mpv это фактически ffmpeg :) так что да, они все gapless, как и mpc-hc. Про rockbox — тоже скорее всего, там даже aac патчи были для aac, что уж говорить про mp3.

А вот aac не gapless как и eac3. То есть если метаданные есть — вначале лишнее аудио отрежет, а в конце нет, он не умеет. Chrome пришлось добавить свой код для этого поверх ffmpeg, но даже там HE AAC имеет баги. Из-за SBR.

Вот патч для mp3 от iTunes, но такой mp3 это огромная редкость:

https://patchwork.ffmpeg.org/project/ffmpeg/patch/20220128052107.1678032-1-kode54@gmail.com/

На самом деле ffmpeg делает mp3 от LAME GAPless, как раз то специальное расширение. А вот от Apple iTunes — да, тут нужен патч.

А пояему не умомянут классический пример где deepseek написал SIMD для ускорения себя? https://github.com/ggml-org/llama.cpp/pull/11453

Потому что GLDRUB_TOM не фьючерс... Это валюта. Спот.

Да, можно заблочить удаленно (Мегафон), а на некоторых операторах расторгнуть договор (Т-мобайл).

Заблочить удаленно требует расторжения договора вручную.

Потому что это не фьючерс... Это валюта. Спот.

GLDRUB_TOM.

Есть у ВТБ брокера.

Много. Все на уровне в 1800$

ETF покупать глупо, клгда есть GOLDTOM_TOM.

Расжатие очень медленное.

А у Intel есть вообще истинный генератор случайных чисел. Инструкция RDRAND. Нет, это не псевдо, а реально истинный генератор.

1
23 ...

Information

Rating
Does not participate
Registered
Activity