Глинистые сланцы богатые органическими осадками являются нефтематеринскими породми. То есть, при определённых температурах и давлениях производят нефть и газ. И при этом глины являются и покрышками нефтегазовых залежей. То есть, глины и производят нефть и газ и аккумулируют их.
"Глас вопиющего в пустыне". Проблемы фундаментальные - если не хватает памяти, то поставьте больше. А далее, закон Мура, Agile, SCRUM, и вообще, капитализм. Больше соревнования систем нет, поэтому кризиса капитализма неизбежны.
Спросите Google,он вам ответит примерно следующее:
"Правильное употребление зависит от контекста: терминал — это программа, которая предоставляет доступ к командной строке, консоль — это, по сути, терминал (особенно в старых системах), командная строка — это место в интерфейсе, где вводятся команды, а shell (оболочка) — это программа, которая обрабатывает команды, введенные в терминале.
Термин и его значение
Терминал: Приложение или окно, в котором можно работать с командной строкой. Часто это графическая программа. Примером может быть "Терминал Windows" или "iTerm2".
Консоль: В более узком смысле может означать терминал, но исторически это также было окно, где выполнялись текстовые программы. Иногда используется как синоним терминала.
Командная строка: Это конкретная строка ввода внутри терминала или консоли, куда вы вводите команды. Это "текстовое поле" для команд.
Shell (Оболочка): Это программное обеспечение, которое интерпретирует команды, введенные пользователем, и передает их ядру операционной системы. Примеры: Bash, Zsh (в Unix-подобных системах) или PowerShell/cmd (в Windows).
Как использовать эти термины
Когда вы запускаете программу, например, "открыть терминал", вы запускаете графическое приложение, которое предоставляет вам доступ к командной строке.
Когда вы вводите команду в терминале, вы работаете в командной строке, используя оболочку (shell), например Bash, для обработки этой команды.
В повседневном общении часто можно использовать "командная строка", "терминал" или "консоль" как взаимозаменяемые, но технически они означают разные вещи. "Оболочка" (shell) — это программа, которая "живет" внутри терминала."
Как можно "сводить с ума" модель, которая фактически является весами обратного предсказывающего фильтра записаного в неизменный файл? Если веса в ходе генерации когерентного текста не изменяются, (а они не изменяются, по крайней мере у локальных моделей, я только что проверил :D), то модель никакие вопросы с ума не сведут. Как утверждает Ян Лекун, а он уж дочно в этом дока, "у машин нет ни грамма здравого смысла". Но тогда, как можно свести с ума то, что ума не имеет?
granite4:small - не такая и маленькая по сравнению с другими локальными моделями.
Для сравнения:
gpt-oss:120b - 65 GB
gpt-oss:20b - 13 GB
qwen3:8b - 5.2 GB
granite4:small - 19 GB
так что granite4:small должна быть точно не слабее gpt-oss:20b в генерации текстов. По крайней мере, на первый взгляд, я не заметил чего-то из ряда вон вылетающего.
А вот granite4:micro - 2.1 GB - действительно малышка. Но и она сгенерировала вполне нормальный текст. (Дай бог, чтобы так формулировала свои мысли половина выпускников школ.)
На вопрос: Describe the basic block diagram of LLM.
она выдала читабельную диаграму. И далее, чтобы не загружать пост, только первый абзац:
granite4:micro - "This block diagram represents the high-level structure of an LLM system. The input preprocessing module takes raw text as input and performs various tasks such as tokenization, POS tagging, NER, and lemmatization/stemming to prepare the data for further processing".
А потом по просьбе перевела:
"Это блочная диаграмма представляет собой высокоуровневую структуру системы LLM. Модуль предварительной обработки принимает на вход непрерывный текст и выполняет различные задачи, такие как разделение на токены, определение частей речи (POS), идентификация сущностей-эмблем и лематизация/склеивание для подготовки данных к дальнейшей обработке".
если curl не уставлен, то его устанавливают командой:
$ sudo apt install curl git
для тех у кого Windows всегда можно установить wsl.
В wsl ollama работает без проблем.
У кого мало VRAM или вообще нет GPU, можно включить режим { "num_gpu":0 } .
Файлы конфигурации, как и сами модели, хранятся в Linux в директории - /usr/share/ollama/.ollama/models/blobs
Сама модель там будет самым большим файлом, а файл параметров самым маленьким. Его можно отредактировать простым текстовым редактор. Я по-старинке использую vi.
По этому поводу всегда вспоминается "Чарли и шоколадная фабрика", когда отца Чарли уволили с "должности" закручивателя крышек на тюбиках, и заменили на робота. Но потом он получает повышение и становится мастером по обслуживанию этого робота. :-)
Глинистые сланцы богатые органическими осадками являются нефтематеринскими породми. То есть, при определённых температурах и давлениях производят нефть и газ. И при этом глины являются и покрышками нефтегазовых залежей. То есть, глины и производят нефть и газ и аккумулируют их.
Netscape забыли, но это наверное 90-е.
"Глас вопиющего в пустыне". Проблемы фундаментальные - если не хватает памяти, то поставьте больше. А далее, закон Мура, Agile, SCRUM, и вообще, капитализм. Больше соревнования систем нет, поэтому кризиса капитализма неизбежны.
Спросите Google,он вам ответит примерно следующее:
"Правильное употребление зависит от контекста: терминал — это программа, которая предоставляет доступ к командной строке, консоль — это, по сути, терминал (особенно в старых системах), командная строка — это место в интерфейсе, где вводятся команды, а shell (оболочка) — это программа, которая обрабатывает команды, введенные в терминале.
Термин и его значение
Терминал: Приложение или окно, в котором можно работать с командной строкой. Часто это графическая программа. Примером может быть "Терминал Windows" или "iTerm2".
Консоль: В более узком смысле может означать терминал, но исторически это также было окно, где выполнялись текстовые программы. Иногда используется как синоним терминала.
Командная строка: Это конкретная строка ввода внутри терминала или консоли, куда вы вводите команды. Это "текстовое поле" для команд.
Shell (Оболочка): Это программное обеспечение, которое интерпретирует команды, введенные пользователем, и передает их ядру операционной системы. Примеры: Bash, Zsh (в Unix-подобных системах) или PowerShell/cmd (в Windows).
Как использовать эти термины
Когда вы запускаете программу, например, "открыть терминал", вы запускаете графическое приложение, которое предоставляет вам доступ к командной строке.
Когда вы вводите команду в терминале, вы работаете в командной строке, используя оболочку (shell), например Bash, для обработки этой команды.
В повседневном общении часто можно использовать "командная строка", "терминал" или "консоль" как взаимозаменяемые, но технически они означают разные вещи. "Оболочка" (shell) — это программа, которая "живет" внутри терминала."
Как можно "сводить с ума" модель, которая фактически является весами обратного предсказывающего фильтра записаного в неизменный файл? Если веса в ходе генерации когерентного текста не изменяются, (а они не изменяются, по крайней мере у локальных моделей, я только что проверил :D), то модель никакие вопросы с ума не сведут. Как утверждает Ян Лекун, а он уж дочно в этом дока, "у машин нет ни грамма здравого смысла". Но тогда, как можно свести с ума то, что ума не имеет?
"Воля F указывает направление: вперёд без цели, но с вниманием". :-D
Спасибо за резюме и за ссылку на всю статью.
granite4:small - не такая и маленькая по сравнению с другими локальными моделями.
Для сравнения:
gpt-oss:120b - 65 GB
gpt-oss:20b - 13 GB
qwen3:8b - 5.2 GB
granite4:small - 19 GB
так что granite4:small должна быть точно не слабее gpt-oss:20b в генерации текстов. По крайней мере, на первый взгляд, я не заметил чего-то из ряда вон вылетающего.
А вот granite4:micro - 2.1 GB - действительно малышка. Но и она сгенерировала вполне нормальный текст. (Дай бог, чтобы так формулировала свои мысли половина выпускников школ.)
На вопрос: Describe the basic block diagram of LLM.
она выдала читабельную диаграму. И далее, чтобы не загружать пост, только первый абзац:
granite4:micro - "This block diagram represents the high-level structure of an LLM system. The input preprocessing module takes raw text as input and performs various tasks such as tokenization, POS tagging, NER, and lemmatization/stemming to prepare the data for further processing".
А потом по просьбе перевела:
"Это блочная диаграмма представляет собой высокоуровневую структуру системы LLM. Модуль предварительной обработки принимает на вход непрерывный текст и выполняет различные задачи, такие как разделение на токены, определение частей речи (POS), идентификация сущностей-эмблем и лематизация/склеивание для подготовки данных к дальнейшей обработке".
Можете сравнить с переводчиком от Гугла. :)
на Linux устанавливается сразу для работы из командной строки простой командой:
$ curl -fsSL https://ollama.com/install.sh | sh
если curl не уставлен, то его устанавливают командой:
$ sudo apt install curl git
для тех у кого Windows всегда можно установить wsl.
В wsl ollama работает без проблем.
У кого мало VRAM или вообще нет GPU, можно включить режим { "num_gpu":0 } .
Файлы конфигурации, как и сами модели, хранятся в Linux в директории - /usr/share/ollama/.ollama/models/blobs
Сама модель там будет самым большим файлом, а файл параметров самым маленьким. Его можно отредактировать простым текстовым редактор. Я по-старинке использую vi.
Туда нужно написать строку типа:
{"num_gpu":0,"repeat_penalty":1,"stop":["\u003c|im_start|\u003e","\u003c|im_end|\u003e"],"temperature":0.6,"top_k":20,"top_p":0.95}
"num_gpu":0 - использовать только CPU
Этой информации практически нет в сети, как и инструкций по ollama, я нашёл только в одной ссылке.
Для проверки параметров модели используйте команду:
$ ollama show gpt-oss --modelfile
где вместо gpt-oss впишите свою модель.
Всё тестировалось на ThinkPad P72 с 128 Гб RAM с Ubuntu 24.04 LTS - gpt-oss:120b и ThinkPad X1 Carbon с 64 Гб RAM с тем же Linux в WSL- gpt-oss:20b.
Все модели можно найти тут - https://ollama.com/search
Используйте Linux и WSL и будет вам счастье. :)
Если достаточно RAM, то можно настроить режим no_gpu.
По этому поводу всегда вспоминается "Чарли и шоколадная фабрика", когда отца Чарли уволили с "должности" закручивателя крышек на тюбиках, и заменили на робота. Но потом он получает повышение и становится мастером по обслуживанию этого робота. :-)
Это перевод с английского, а не авторская статья. Оригиналы статей автора Вы можете найти на сайте 3blue1brown - Animated Math.
Обратный нелинейный стохастический фильтр (нелинейная стохастическая деконволюция) не может обладать сознанием по умолчанию. :-D
Ещё можно использовать "alpha-trimmed mean" - это такой микс среднего и медианы, который используется в обработке сейсмических данных.