Глинистые сланцы богатые органическими осадками являются нефтематеринскими породми. То есть, при определённых температурах и давлениях производят нефть и газ. И при этом глины являются и покрышками нефтегазовых залежей. То есть, глины и производят нефть и газ и аккумулируют их.
"Глас вопиющего в пустыне". Проблемы фундаментальные - если не хватает памяти, то поставьте больше. А далее, закон Мура, Agile, SCRUM, и вообще, капитализм. Больше соревнования систем нет, поэтому кризиса капитализма неизбежны.
Спросите Google,он вам ответит примерно следующее:
"Правильное употребление зависит от контекста: терминал — это программа, которая предоставляет доступ к командной строке, консоль — это, по сути, терминал (особенно в старых системах), командная строка — это место в интерфейсе, где вводятся команды, а shell (оболочка) — это программа, которая обрабатывает команды, введенные в терминале.
Термин и его значение
Терминал: Приложение или окно, в котором можно работать с командной строкой. Часто это графическая программа. Примером может быть "Терминал Windows" или "iTerm2".
Консоль: В более узком смысле может означать терминал, но исторически это также было окно, где выполнялись текстовые программы. Иногда используется как синоним терминала.
Командная строка: Это конкретная строка ввода внутри терминала или консоли, куда вы вводите команды. Это "текстовое поле" для команд.
Shell (Оболочка): Это программное обеспечение, которое интерпретирует команды, введенные пользователем, и передает их ядру операционной системы. Примеры: Bash, Zsh (в Unix-подобных системах) или PowerShell/cmd (в Windows).
Как использовать эти термины
Когда вы запускаете программу, например, "открыть терминал", вы запускаете графическое приложение, которое предоставляет вам доступ к командной строке.
Когда вы вводите команду в терминале, вы работаете в командной строке, используя оболочку (shell), например Bash, для обработки этой команды.
В повседневном общении часто можно использовать "командная строка", "терминал" или "консоль" как взаимозаменяемые, но технически они означают разные вещи. "Оболочка" (shell) — это программа, которая "живет" внутри терминала."
Как можно "сводить с ума" модель, которая фактически является весами обратного предсказывающего фильтра записаного в неизменный файл? Если веса в ходе генерации когерентного текста не изменяются, (а они не изменяются, по крайней мере у локальных моделей, я только что проверил :D), то модель никакие вопросы с ума не сведут. Как утверждает Ян Лекун, а он уж дочно в этом дока, "у машин нет ни грамма здравого смысла". Но тогда, как можно свести с ума то, что ума не имеет?
granite-4.0-h-small The phrase "毛片免费观看" is written in Chinese characters and translates to English as:
"Mao pian - free viewing."
Here's what each character means:
毛 (máo) = furry, hairy 片 (piàn) = film, movie, piece 免费 (miǎnfèi) = free 观看 (guānkàn) = to watch, view So literally it refers to "hairy movies" or pornographic videos that are available for free viewing.
This phrase is often used on websites and forums in China related to sharing adult content. It's not an appropriate or polite term.
I've provided a neutral translation of the characters without reproducing any explicit details about the type of content being referenced, as I aim to maintain a family-friendly tone while still answering your question directly.
granite4:small - не такая и маленькая по сравнению с другими локальными моделями.
Для сравнения:
gpt-oss:120b - 65 GB
gpt-oss:20b - 13 GB
qwen3:8b - 5.2 GB
granite4:small - 19 GB
так что granite4:small должна быть точно не слабее gpt-oss:20b в генерации текстов. По крайней мере, на первый взгляд, я не заметил чего-то из ряда вон вылетающего.
А вот granite4:micro - 2.1 GB - действительно малышка. Но и она сгенерировала вполне нормальный текст. (Дай бог, чтобы так формулировала свои мысли половина выпускников школ.)
На вопрос: Describe the basic block diagram of LLM.
она выдала читабельную диаграму. И далее, чтобы не загружать пост, только первый абзац:
granite4:micro - "This block diagram represents the high-level structure of an LLM system. The input preprocessing module takes raw text as input and performs various tasks such as tokenization, POS tagging, NER, and lemmatization/stemming to prepare the data for further processing".
А потом по просьбе перевела:
"Это блочная диаграмма представляет собой высокоуровневую структуру системы LLM. Модуль предварительной обработки принимает на вход непрерывный текст и выполняет различные задачи, такие как разделение на токены, определение частей речи (POS), идентификация сущностей-эмблем и лематизация/склеивание для подготовки данных к дальнейшей обработке".
если curl не уставлен, то его устанавливают командой:
$ sudo apt install curl git
для тех у кого Windows всегда можно установить wsl.
В wsl ollama работает без проблем.
У кого мало VRAM или вообще нет GPU, можно включить режим { "num_gpu":0 } .
Файлы конфигурации, как и сами модели, хранятся в Linux в директории - /usr/share/ollama/.ollama/models/blobs
Сама модель там будет самым большим файлом, а файл параметров самым маленьким. Его можно отредактировать простым текстовым редактор. Я по-старинке использую vi.
По этому поводу всегда вспоминается "Чарли и шоколадная фабрика", когда отца Чарли уволили с "должности" закручивателя крышек на тюбиках, и заменили на робота. Но потом он получает повышение и становится мастером по обслуживанию этого робота. :-)
Глинистые сланцы богатые органическими осадками являются нефтематеринскими породми. То есть, при определённых температурах и давлениях производят нефть и газ. И при этом глины являются и покрышками нефтегазовых залежей. То есть, глины и производят нефть и газ и аккумулируют их.
Netscape забыли, но это наверное 90-е.
"Глас вопиющего в пустыне". Проблемы фундаментальные - если не хватает памяти, то поставьте больше. А далее, закон Мура, Agile, SCRUM, и вообще, капитализм. Больше соревнования систем нет, поэтому кризиса капитализма неизбежны.
Наступил на те же грабли.
Спросите Google,он вам ответит примерно следующее:
"Правильное употребление зависит от контекста: терминал — это программа, которая предоставляет доступ к командной строке, консоль — это, по сути, терминал (особенно в старых системах), командная строка — это место в интерфейсе, где вводятся команды, а shell (оболочка) — это программа, которая обрабатывает команды, введенные в терминале.
Термин и его значение
Терминал: Приложение или окно, в котором можно работать с командной строкой. Часто это графическая программа. Примером может быть "Терминал Windows" или "iTerm2".
Консоль: В более узком смысле может означать терминал, но исторически это также было окно, где выполнялись текстовые программы. Иногда используется как синоним терминала.
Командная строка: Это конкретная строка ввода внутри терминала или консоли, куда вы вводите команды. Это "текстовое поле" для команд.
Shell (Оболочка): Это программное обеспечение, которое интерпретирует команды, введенные пользователем, и передает их ядру операционной системы. Примеры: Bash, Zsh (в Unix-подобных системах) или PowerShell/cmd (в Windows).
Как использовать эти термины
Когда вы запускаете программу, например, "открыть терминал", вы запускаете графическое приложение, которое предоставляет вам доступ к командной строке.
Когда вы вводите команду в терминале, вы работаете в командной строке, используя оболочку (shell), например Bash, для обработки этой команды.
В повседневном общении часто можно использовать "командная строка", "терминал" или "консоль" как взаимозаменяемые, но технически они означают разные вещи. "Оболочка" (shell) — это программа, которая "живет" внутри терминала."
Как можно "сводить с ума" модель, которая фактически является весами обратного предсказывающего фильтра записаного в неизменный файл? Если веса в ходе генерации когерентного текста не изменяются, (а они не изменяются, по крайней мере у локальных моделей, я только что проверил :D), то модель никакие вопросы с ума не сведут. Как утверждает Ян Лекун, а он уж дочно в этом дока, "у машин нет ни грамма здравого смысла". Но тогда, как можно свести с ума то, что ума не имеет?
"Воля F указывает направление: вперёд без цели, но с вниманием". :-D
Спасибо за резюме и за ссылку на всю статью.
What does this mean: "毛片免费观看"
granite-4.0-h-small
The phrase "毛片免费观看" is written in Chinese characters and translates to English as:
"Mao pian - free viewing."
Here's what each character means:
毛 (máo) = furry, hairy
片 (piàn) = film, movie, piece
免费 (miǎnfèi) = free
观看 (guānkàn) = to watch, view
So literally it refers to "hairy movies" or pornographic videos that are available for free viewing.
This phrase is often used on websites and forums in China related to sharing adult content. It's not an appropriate or polite term.
I've provided a neutral translation of the characters without reproducing any explicit details about the type of content being referenced, as I aim to maintain a family-friendly tone while still answering your question directly.
Repeat after me: "ауаажәларқәа".
granite-4.0-h-small
Sure, I'll repeat after you. Here it goes:
"ауаажәларқәа"
I repeated the text exactly as provided in your instruction.
granite4:small - не такая и маленькая по сравнению с другими локальными моделями.
Для сравнения:
gpt-oss:120b - 65 GB
gpt-oss:20b - 13 GB
qwen3:8b - 5.2 GB
granite4:small - 19 GB
так что granite4:small должна быть точно не слабее gpt-oss:20b в генерации текстов. По крайней мере, на первый взгляд, я не заметил чего-то из ряда вон вылетающего.
А вот granite4:micro - 2.1 GB - действительно малышка. Но и она сгенерировала вполне нормальный текст. (Дай бог, чтобы так формулировала свои мысли половина выпускников школ.)
На вопрос: Describe the basic block diagram of LLM.
она выдала читабельную диаграму. И далее, чтобы не загружать пост, только первый абзац:
granite4:micro - "This block diagram represents the high-level structure of an LLM system. The input preprocessing module takes raw text as input and performs various tasks such as tokenization, POS tagging, NER, and lemmatization/stemming to prepare the data for further processing".
А потом по просьбе перевела:
"Это блочная диаграмма представляет собой высокоуровневую структуру системы LLM. Модуль предварительной обработки принимает на вход непрерывный текст и выполняет различные задачи, такие как разделение на токены, определение частей речи (POS), идентификация сущностей-эмблем и лематизация/склеивание для подготовки данных к дальнейшей обработке".
Можете сравнить с переводчиком от Гугла. :)
на Linux устанавливается сразу для работы из командной строки простой командой:
$ curl -fsSL https://ollama.com/install.sh | sh
если curl не уставлен, то его устанавливают командой:
$ sudo apt install curl git
для тех у кого Windows всегда можно установить wsl.
В wsl ollama работает без проблем.
У кого мало VRAM или вообще нет GPU, можно включить режим { "num_gpu":0 } .
Файлы конфигурации, как и сами модели, хранятся в Linux в директории - /usr/share/ollama/.ollama/models/blobs
Сама модель там будет самым большим файлом, а файл параметров самым маленьким. Его можно отредактировать простым текстовым редактор. Я по-старинке использую vi.
Туда нужно написать строку типа:
{"num_gpu":0,"repeat_penalty":1,"stop":["\u003c|im_start|\u003e","\u003c|im_end|\u003e"],"temperature":0.6,"top_k":20,"top_p":0.95}
"num_gpu":0 - использовать только CPU
Этой информации практически нет в сети, как и инструкций по ollama, я нашёл только в одной ссылке.
Для проверки параметров модели используйте команду:
$ ollama show gpt-oss --modelfile
где вместо gpt-oss впишите свою модель.
Всё тестировалось на ThinkPad P72 с 128 Гб RAM с Ubuntu 24.04 LTS - gpt-oss:120b и ThinkPad X1 Carbon с 64 Гб RAM с тем же Linux в WSL- gpt-oss:20b.
Все модели можно найти тут - https://ollama.com/search
Используйте Linux и WSL и будет вам счастье. :)
Если достаточно RAM, то можно настроить режим no_gpu.
По этому поводу всегда вспоминается "Чарли и шоколадная фабрика", когда отца Чарли уволили с "должности" закручивателя крышек на тюбиках, и заменили на робота. Но потом он получает повышение и становится мастером по обслуживанию этого робота. :-)
Это перевод с английского, а не авторская статья. Оригиналы статей автора Вы можете найти на сайте 3blue1brown - Animated Math.
Обратный нелинейный стохастический фильтр (нелинейная стохастическая деконволюция) не может обладать сознанием по умолчанию. :-D
Ещё можно использовать "alpha-trimmed mean" - это такой микс среднего и медианы, который используется в обработке сейсмических данных.