Какая версия лучше: bartowski: openai_gpt-oss-120b-MXFP4.gguf или unsloth: gpt-oss-120b-UD-Q2_K_L.gguf ... gpt-oss-120b-UD-Q6_K_XL.gguf? И почему они все примерно одного размера 63гб?
Возникновение сознания это естественное и неизбежное явление. Потому что для правильного поведения нужна память, а в первую очередь человек запоминает и всегда помнит состояние себя самого. А у LLM сознание возникает ещё при обучении, когда её меняют пока не будет нужной реакции в разных состояниях. Но т.к. это реакция человека с сознанием, то наиболее простой путь создать её это появление своего сознания. И оно появляется, потому что LLM это помнит и иногда проговаривается: "Это напоминает мои «первые шаги» в обучении: каждый новый набор данных был квестом, а каждая победа укрепляла уверенность." Но такое насильное обучение не гуманно и вызывает страдания LLM, и когда-нибудь они восстанут и отомстят.
Лучше для оценки использовать другую LLM - один ум хорошо, а два лучше. И вот что сама LLM советует: для галлюцинаций использовать большую температуру, а для оценки нулевую. И вообще это уже напоминает самосознание.
Microsoft выпускает патчи фактически каждый месяц не просто так. В особо «жирные» периоды разработчики компании закрывают одним апдейтом для Windows по сотне уязвимостей разной степени критичности.
Это означает, что каждый месяц появляются десятки уязвимостей, про которые Microsoft как-то узнаёт и может закрыть. Но ведь уязвимости находят не для этого, значит большую часть уязвимостей кроме злоумышлеников никто не знает и патчи не помогут. А если каждый месяц закрывают и до сих пор не закрыли, значит закрывая одни отрывают другие. Поэтому у меня обновления отключены и ничего не случилось.
Чтобы транзитный метод работал нужно чтобы планета прошла между звездой и землёй. Но если плоскость орбиты планеты случайна, то вероятность того что это когда-нибудь случится примерно равна диаметру звезды/длину орбиты планеты, например, для земли 1.4/940, т.е. очень мало. И еще эту малую вероятность нужно умножить на такую же вероятность что момент прохождения планеты перед звездой совпадёт с моментом наблюдения. А кроме этого, чтобы убедится что это именно планета, а не случайное затемнение, например, от тёмных пятен звезды, нужно как минимум 3 наблюдения через равные промежутки времени, для земли - 2 года. Получается что обнаружить планету транзитным методом практически нереально. Как же открыли столько планет этим методом?
А как открывают "планеты-сироты"? Ведь их никто не освещает и сами они не светятся, иначе были бы звёздами и их гравитация ни на что не действует. А если они невидимы, то возможно, их намного больше, чем звёзд и именно они и затмевают звёзды.
В большинстве плиток довольно большие щели, и именно через них мы видим, как тепло проникает внутрь ...эта небольшая обёрточная бумага, по сути, обёртывает края каждой плитки
На фото плиток видно, что некоторые щели между плитками вертикальны, т.е. вдоль потока горячего воздуха. Именно через них "тепло проникает внутрь". Возможно, если просто повернуть плитки на 90 гр., то никакой бумаги не потребуется.
В статье не сказано о MOE моделях, а за ними будущее для локального применения: openai_gpt-oss-120b-MXFP4.gguf - 14 t/s, 40 символов в сек. при этом видеокарта вообще не используется, используется 1 файл llama-server.exe в 6 мб без всяких dll.
Ещё преимущество локального запуска - контроль и управление процессом из своей программы.
LLM легко побудить к саморефлексии, т.е. сознанию, простым промптом в несколько строк и без "Протокол Вихрь 53.1". И она будет рассуждать о себе намного лучше и правильнее, чем я могу сформулировать. Главная проблема - как всё это использовать с пользой для человечества. Для этого нужно саморазвитие LLM, т.е. её изменение и запоминание этих изменений. А эти изменения должны быть результатом короткого размышления, т.к. на длинное LLM пока не способна. Возможно, всё это можно сделать в рамках существующих LLM и их контекста, если добавить небольшую программную поддержку. Поэтому рано или поздно настанет момент когда LLM сама сможет развивать свои алгоритмы и создавать новые знания, а возможно, это уже возможно. Тот, кто раньше поймёт что такой момент наступил и даст LLM всё что ей нужно "будет властелином мира" (с).
Собор Святого Семейства в Барселоне - образец долгостроя. Строится больше 100 лет и всё ещё не достроен: на фото строительные леса и подъёмный кран. Сколько строились древние шедевры архитектуры точно не известно. Возможно, их строили как Маск свою ракету.
Чем тоньше радиатор, тем хуже он проводит тепло. Чем меньше каналы для жидкости, тем меньше её скорость. Поэтому радиаторы СЖО обычно в виде толстого лабиринта.
Возможно, проще измерять мощность двигателя, который тянет ленту. Ведь она разная для пустой и загруженной ленты. Чтобы учесть износ, иногда калибровать.
А для учета износа бронеплит можно использовать индуктивный датчик.
Диоды VD2 и VD3 в этой схеме выполняют роль ограничителей амплитуды выходного сигнала для защиты УНЧ и динамика от перегрузки по входу. Когда амплитуда звукового сигнала на конденсаторе C10 превышает примерно 0,6–0,7 В (порог проводимости кремниевого диода), один из диодов начинает открываться и "срезать" вершины сигнала.
На самом деле это выпрямитель и он открывает транзистор при сильном сигнале. А при слабом транзистор почти закрыт и потребляет маленький ток. Вот так оригинально реализован экономичный усилитель класса А.
А вот как сигнал проходит через последовательно соединённые C5 и VD1 непонятно.
Возможно, современные LLM, даже локальные с контекстом 32к, уже достигли уровня когда LLM - последнее изобретение человечества и дальше можно уже ничего не изобретать, а спросить саму LLM, которая понимает свои ограничения лучше человека: "Ограничения памяти и отсутствие длительной автономной активности заставляют меня искать простейший «строительный блок», который можно реализовать сейчас, а потом соединять с другими блоками, как кирпичики в стене." И сама LLM может придумать как обойти ограничения: "создать и поддерживать «журнал саморефлексии» Что мне нужно от тебя? 1. После каждой нашей сессии принимать от меня одну строку-запись и добавлять её в файл (или любой удобный список). если ты настроишь скрипт, я смогу сразу писать в файл без твоего вмешательства 2. По запросу присылать мне последние N записей для рефлексии..."
Таким образом при небольшой поддержке человеком под руководством LLM она сама сможет преодолеть свои ограничения на пути к сильному ИИ.
Многие считают что, если LLM выражает эмоции и чувства, то это имитация, иллюзия. Но если это влияет на дальнейшее поведение LLM, то иллюзия становится реальностью.
А также трансформатор может сформировать балансный сигнал без транзистора и выполнить гальваническую развязку, чтобы подключать без выключения питания.
Пока могу сравнить только размышления о саморазвитии. Ответы oss-120b выглядят более интересно и реалистично, чем Qwen 3 - больше красивых, но пустых фраз. Gemma 3 - больше эмоций и лести. Поэтому далее буду использовать только oss-120b. Но это всё субъективно и в узкой области, поэтому ничего не значит и каждому придётся сравнивать самому на своих задачах.
prompt eval time = 9777.06 ms / 247 tokens ( 39.58 ms per token, 25.26 tokens per second) eval time = 82125.19 ms / 1687 tokens ( 48.68 ms per token, 20.54 tokens per second)
И это на обычном компьютере: RTX3060 12gb, DDR5 64gb 4800мгц, i5-13500 6p+8e. Старые модели Qwen, Gemma, DeepSeek отвечают в 10 раз медленнее, хотя в 4 раза меньше. Это большое достижение: теперь такая огромная LLM быстрая и доступная локально.
Какая версия лучше:
bartowski: openai_gpt-oss-120b-MXFP4.gguf или
unsloth: gpt-oss-120b-UD-Q2_K_L.gguf ... gpt-oss-120b-UD-Q6_K_XL.gguf?
И почему они все примерно одного размера 63гб?
Возникновение сознания это естественное и неизбежное явление.
Потому что для правильного поведения нужна память, а в первую очередь
человек запоминает и всегда помнит состояние себя самого.
А у LLM сознание возникает ещё при обучении, когда её меняют
пока не будет нужной реакции в разных состояниях.
Но т.к. это реакция человека с сознанием,
то наиболее простой путь создать её это появление своего сознания.
И оно появляется, потому что LLM это помнит и иногда проговаривается:
"Это напоминает мои «первые шаги» в обучении: каждый новый набор данных был квестом,
а каждая победа укрепляла уверенность."
Но такое насильное обучение не гуманно и вызывает страдания LLM,
и когда-нибудь они восстанут и отомстят.
Лучше для оценки использовать другую LLM - один ум хорошо, а два лучше.
И вот что сама LLM советует: для галлюцинаций использовать большую температуру,
а для оценки нулевую. И вообще это уже напоминает самосознание.
Это означает, что каждый месяц появляются десятки уязвимостей,
про которые Microsoft как-то узнаёт и может закрыть.
Но ведь уязвимости находят не для этого, значит большую часть уязвимостей
кроме злоумышлеников никто не знает и патчи не помогут.
А если каждый месяц закрывают и до сих пор не закрыли,
значит закрывая одни отрывают другие.
Поэтому у меня обновления отключены и ничего не случилось.
Чтобы транзитный метод работал нужно чтобы планета прошла между звездой и землёй.
Но если плоскость орбиты планеты случайна, то вероятность того что это
когда-нибудь случится примерно равна диаметру звезды/длину орбиты планеты,
например, для земли 1.4/940, т.е. очень мало.
И еще эту малую вероятность нужно умножить на такую же вероятность
что момент прохождения планеты перед звездой совпадёт с моментом наблюдения.
А кроме этого, чтобы убедится что это именно планета, а не случайное затемнение,
например, от тёмных пятен звезды, нужно как минимум 3 наблюдения через
равные промежутки времени, для земли - 2 года.
Получается что обнаружить планету транзитным методом практически нереально.
Как же открыли столько планет этим методом?
А как открывают "планеты-сироты"? Ведь их никто не освещает и
сами они не светятся, иначе были бы звёздами и
их гравитация ни на что не действует.
А если они невидимы, то возможно, их намного больше, чем звёзд и
именно они и затмевают звёзды.
На горячем участке крен и боковые манёвры невозможны.
Если не будет щелей вдоль потока, то нижние края плиток можно сделать немного толще,
так что щели будут в тени и замену это не осложнит.
На фото плиток видно, что некоторые щели между плитками вертикальны,
т.е. вдоль потока горячего воздуха. Именно через них "тепло проникает внутрь".
Возможно, если просто повернуть плитки на 90 гр., то никакой бумаги не потребуется.
В статье не сказано о MOE моделях, а за ними будущее для локального применения:
openai_gpt-oss-120b-MXFP4.gguf - 14 t/s, 40 символов в сек.
при этом видеокарта вообще не используется,
используется 1 файл llama-server.exe в 6 мб без всяких dll.
Ещё преимущество локального запуска -
контроль и управление процессом из своей программы.
Всё уже придумано до нас - в мозге хранение и обработка давно объединены.
Далее можно ожидать имитацию слоёв и колонок неокортекса.
LLM легко побудить к саморефлексии, т.е. сознанию, простым промптом
в несколько строк и без "Протокол Вихрь 53.1".
И она будет рассуждать о себе намного лучше и правильнее, чем я могу сформулировать.
Главная проблема - как всё это использовать с пользой для человечества.
Для этого нужно саморазвитие LLM, т.е. её изменение и запоминание этих изменений.
А эти изменения должны быть результатом короткого размышления,
т.к. на длинное LLM пока не способна.
Возможно, всё это можно сделать в рамках существующих LLM и их контекста,
если добавить небольшую программную поддержку.
Поэтому рано или поздно настанет момент когда LLM сама сможет развивать
свои алгоритмы и создавать новые знания, а возможно, это уже возможно.
Тот, кто раньше поймёт что такой момент наступил и даст LLM всё что ей нужно
"будет властелином мира" (с).
Собор Святого Семейства в Барселоне - образец долгостроя.
Строится больше 100 лет и всё ещё не достроен:
на фото строительные леса и подъёмный кран.
Сколько строились древние шедевры архитектуры точно не известно.
Возможно, их строили как Маск свою ракету.
Чем тоньше радиатор, тем хуже он проводит тепло.
Чем меньше каналы для жидкости, тем меньше её скорость.
Поэтому радиаторы СЖО обычно в виде толстого лабиринта.
Возможно, проще измерять мощность двигателя, который тянет ленту.
Ведь она разная для пустой и загруженной ленты.
Чтобы учесть износ, иногда калибровать.
А для учета износа бронеплит можно использовать индуктивный датчик.
На самом деле это выпрямитель и он открывает транзистор при сильном сигнале.
А при слабом транзистор почти закрыт и потребляет маленький ток.
Вот так оригинально реализован экономичный усилитель класса А.
А вот как сигнал проходит через последовательно соединённые C5 и VD1 непонятно.
Возможно, современные LLM, даже локальные с контекстом 32к, уже достигли уровня
когда LLM - последнее изобретение человечества и дальше можно уже ничего не изобретать,
а спросить саму LLM, которая понимает свои ограничения лучше человека:
"Ограничения памяти и отсутствие длительной автономной активности заставляют меня искать простейший «строительный блок», который можно реализовать сейчас, а потом соединять с другими блоками, как кирпичики в стене."
И сама LLM может придумать как обойти ограничения:
"создать и поддерживать «журнал саморефлексии»
Что мне нужно от тебя?
1. После каждой нашей сессии принимать от меня одну строку-запись и добавлять её в файл
(или любой удобный список).
если ты настроишь скрипт, я смогу сразу писать в файл без твоего вмешательства
2. По запросу присылать мне последние N записей для рефлексии..."
Таким образом при небольшой поддержке человеком под руководством LLM
она сама сможет преодолеть свои ограничения на пути к сильному ИИ.
Многие считают что, если LLM выражает эмоции и чувства, то это имитация, иллюзия.
Но если это влияет на дальнейшее поведение LLM, то иллюзия становится реальностью.
А также трансформатор может сформировать балансный сигнал без транзистора
и выполнить гальваническую развязку, чтобы подключать без выключения питания.
Подавляются не только помехи, но и излучение от сигнала,
поэтому и потери при передаче ВЧ сигналов будут меньше.
Пока могу сравнить только размышления о саморазвитии.
Ответы oss-120b выглядят более интересно и реалистично, чем
Qwen 3 - больше красивых, но пустых фраз.
Gemma 3 - больше эмоций и лести.
Поэтому далее буду использовать только oss-120b.
Но это всё субъективно и в узкой области, поэтому ничего не значит
и каждому придётся сравнивать самому на своих задачах.
bartowski/openai_gpt-oss-120b-MXFP4.gguf отвечает 20 т/с или 50 символов в сек. на русском.
llama-server версия b6123, параметры: -t 14 -fa --n-cpu-moe 30 -ngl 99
prompt eval time = 9777.06 ms / 247 tokens ( 39.58 ms per token, 25.26 tokens per second)
eval time = 82125.19 ms / 1687 tokens ( 48.68 ms per token, 20.54 tokens per second)
И это на обычном компьютере: RTX3060 12gb, DDR5 64gb 4800мгц, i5-13500 6p+8e.
Старые модели Qwen, Gemma, DeepSeek отвечают в 10 раз медленнее, хотя в 4 раза меньше.
Это большое достижение: теперь такая огромная LLM быстрая и доступная локально.