Он может решаться изнутри контейнера через передачу туда токена, либо, поскольку контейнер шерит диск с хостом и как правило модели лежат именно в этом расшеренном месте, установить туда внешним от контейнером способом - скриптом или руками
Нет, но можно добавить.
Те контейнеры, что сейчас, наоборот, сделаны необновляемыми: я прошиваю в них и версию питона, и зависимостей, и commit репозитория - для того, чтобы это надежно и воспроизводимо работало. Как правило, обновление делают ради новой функциональности, и в данном случае это означает, что и внутренность контейнера тоже нужно менять. Но у брейнбокса другая цель - не новые исследования и функции какого-нибудь ИИ, а, наоборот, стабилизация уже освоенных функций ИИ и их подготовка для использования прикладным слоем.
Да, gpu пробрасывается в контейнер по умолчанию методами докера. Установка CUDA осуществляется средствами хоста.
Смотря для каких целей. Если цель - исследовать системы и их взаимодействие, где вы настраиваете это на одной машине и один раз, а потом исследуете - то да, проще. BrainBox предназначен скорее для случая, когда вы ничего исследовать не хотите: вы хотите, допустим, озвучить электронную книгу или сделать суммаризацию одной книги. В этом случае вы, как правило, не хотите ни с чем разбираться и ничего устанавливать руками - и вот здесь с помощью Брейнбокса вы сможете быстро развернуть озвучиватель или ollama, и затем обратиться к ним через HTTP интерфейс хоть из Node.js хоть из шарпа.
У меня возникло ощущение, что это ближе к аналогу докер-файла, который запустится не в контейнере, а прямо на хосте: "Everything you can run in your command line can be automated with Pinokio script, with a user-friendly UI.", и собственно далее они описывают, как писать скрипты для их системы так, чтобы они по-разному работали на разных ОС. Это страшновато =) Плюс, есть проблема зависимостей некоторых ИИ от линуксовых программ в ОС, плюс проблема того, что некоторые ИИ выложены не как приложение, а как библиотека для питона.
Он может решаться изнутри контейнера через передачу туда токена, либо, поскольку контейнер шерит диск с хостом и как правило модели лежат именно в этом расшеренном месте, установить туда внешним от контейнером способом - скриптом или руками
Нет, но можно добавить.
Те контейнеры, что сейчас, наоборот, сделаны необновляемыми: я прошиваю в них и версию питона, и зависимостей, и commit репозитория - для того, чтобы это надежно и воспроизводимо работало. Как правило, обновление делают ради новой функциональности, и в данном случае это означает, что и внутренность контейнера тоже нужно менять. Но у брейнбокса другая цель - не новые исследования и функции какого-нибудь ИИ, а, наоборот, стабилизация уже освоенных функций ИИ и их подготовка для использования прикладным слоем.
Да, gpu пробрасывается в контейнер по умолчанию методами докера. Установка CUDA осуществляется средствами хоста.
Смотря для каких целей. Если цель - исследовать системы и их взаимодействие, где вы настраиваете это на одной машине и один раз, а потом исследуете - то да, проще. BrainBox предназначен скорее для случая, когда вы ничего исследовать не хотите: вы хотите, допустим, озвучить электронную книгу или сделать суммаризацию одной книги. В этом случае вы, как правило, не хотите ни с чем разбираться и ничего устанавливать руками - и вот здесь с помощью Брейнбокса вы сможете быстро развернуть озвучиватель или ollama, и затем обратиться к ним через HTTP интерфейс хоть из Node.js хоть из шарпа.
Интересное решение! Для интересующихся, вот прямая ссылка на его документацию https://program.pinokio.computer/#/
У меня возникло ощущение, что это ближе к аналогу докер-файла, который запустится не в контейнере, а прямо на хосте: "Everything you can run in your command line can be automated with Pinokio script, with a user-friendly UI.", и собственно далее они описывают, как писать скрипты для их системы так, чтобы они по-разному работали на разных ОС. Это страшновато =) Плюс, есть проблема зависимостей некоторых ИИ от линуксовых программ в ОС, плюс проблема того, что некоторые ИИ выложены не как приложение, а как библиотека для питона.