Ну, это в целом грозит всем крупным продуктам от наших горячо любимых корп, старательно продвигающих enshittification в массы. Благо никто и не против, кроме полутора недовольных гиков, что-то там вопящих о праве на ремонт и опенсорсе. Но даже если все андроид устройства вот прям сию же секунду превратятся в тыкву, я примерно вижу, в какую сторону копать. Тв приставку можно собрать на малине, а в крайнем случае так вообще на RISC-V проце, платы с которым вполне себе продаются на али, да и вроде как есть больше одной мобилки на основе линукс, которые хоть и являются достаточно кривоватыми поделками, но в минимальную работоспособность обеспечить могут, да и фанаты понемногу пилят опенсорсные девайсы. По крайней мере, это всё доступные опции, пока владение несертифицированным телекоммуникационным девайсом не станет преступлением, хотя хотелось бы верить, что до такого не дойдёт. Обидно, что корпы с этими своими горячо любимыми экосистемами идут целиком по пути зла, но с этим, видимо, ничего не поделать.
Проблема не столько в рекламе, сколько в том, что пираты дают лучший сервис, чем тот, что так и быть готовы дать корпы за наши кровные. Единственное преимущество премиума в том, что тебе достаточно платить и тебе не нужно будет разбираться в том, как скачать и поставить apk на твой миникомп (но гугл уже планирует закрывать эту возможность, а ес решил начать требовать от производителей закрывать бутлоадер). А в остальном, проигрывание в фоне? Ну тут пираты наравне. Оффлайн просмотр? Если ты слишком долго не открывал инет, то скачанные видео станут недоступны, извольте открывать ютуб раз в три дня с включённым инетом. Вырезание рекламы? Встроенные в видео интеграции не будут резаться, только ролики от партнёрки. Ну, не могу сказать о сервисах типа музыки и фильмов, так как я для этого ютуб не использую, но я не удивлён тому, что даже люди, платившие за премиум, отказываются от него в пользу реванседа/newpipe, и дело даже не только в деньгах, как я понимаю. Для меня то такой опции как-то и не поднималось, так как из-за некоторых событий корпа не будет принимать мои деньги, но и даже до этих событий ревансед, а до этого вансед был лучше, чем премиум. Ревансед даёт и другие опции по модификации приложения, лично я удалил с главной плейлисты, отключил некоторые кнопки, обязательно включавшиеся субтитры..
Ну посудите сами, вдруг какой-то Вася скачает себе на комп олламу и настроит нейронку, чтобы получать инструкции от госдепа по синтезу метамфетамина? Надо регулировать, чтобы каждого Васю можно было посадить за установленную на комп нейронку в обход Алисы.
Баланс в такой игре - это вообще дело десятое. Ии если видит, что слишком легко - может адаптировать сложность, и если слишком сложно - тоже. Если империя игрока слишком большая и разрастается на весь мир - накидываем внутренних кризисов, слишком маленькая - поглощается соседом и начинаешь захватывать его изнутри.. В общем, фантазировать можно долго, другое дело, что до такого нам пока далеко. Я сам наигрался в игры от парадох, и сейчас я могу назвать пяток тайтлов, охватывающих разные периоды, с десятого века до 25го, но все они хороши только в своём временном периоде (что неудивительно, в общем-то). Есть некоторые конвертеры сейва между играми, но это всё равно не то. Самое интересное, что я видел - это интеграция crusaders kings и mount and blade bannerlord, где сражения в первом триггерят запуск второй с симуляцией сражения от первого лица. Ну и ещё я бы отдельно упомянул Terra Invicta, которая покрывает период между 21м веком и стелларисом.
Ну так требовал то он для теста именно мусорные игры, так что справедливо для сравнения и у него самого их требовать. Раз уж тестировать эффективность нейронки по сравнению с человеком, то задачи надо ставить перед испытуемыми одинаковые.
Забавный момент в том, что на это придётся смотреть, независимо от чьего-либо желания. Ну, может, не совсем на это, а на что-то похожее в этом духе, но тем не менее.
У человеческого мозга меняется структура в процессе взаимодействия с реальностью, у нейронок в нынешней реализации - нет. Использование внешней бд для имитации этого процесса - мне кажется, недостаточно. Эдакий костыль, который может на какое-то время замаскировать проблему. Наверное, можно устроить нейронкам что-то вроде сна, когда нейронка дообучается на основе новых данных, произошедших за день.. но я не знаю, какие задачи вообще выполняет сон у людей, чтобы просто так сравнивать его с обучением нейронки.
По мелочи пробовал запускать всякое в подмане, столкнулся с тем, что не работает проброс портов средствами самого подмана. Приходилось использовать виндовую утилиту netsh для этого, пока я не столкнулся с тем, что она не может пробрасывать udp траффик.. в итоге пришлось городить велосипед с использованием опенсорсной утилиты sudpipe. В общем, в итоге всё работало довольно некрасиво (но работало, да), так в итоге докером и пользуюсь.
Этот же самый лист ожидания грозится призвать на их сервак дискорда. Кажется, это будет ещё один пример, как открытый продукт ушёл прятаться за пейвол)
Ну, как-то так. Тут всё через докер, можно и нативно поставить, но я с этим не заморачивался.
Установить дрова для nvidia cuda и докер. Нужно, чтобы из контейнеров докера был доступ к видеокарте, т.е. команда типа docker run --gpus all nvcr.io/nvidia/k8s/cuda-sample:nbody nbody -gpu -benchmark выводила информацию о видеокарте.
Клонировать ollama-webui. Там есть docker-compose.yml с необходимой минимальной настройкой. Разве что порты у сервиса ollama раскомментировать. Также можно добавить локальную папку в volume у ollama, например так. - ./ollama_models/:/models Пригодится, если будете дорабатывать существующие нейронки заменой системного промпта, например.
Выполнить docker compose up -d. Должен заработать ollama-webui на http://localhost:3000/
Библиотека уже готовых моделей тут. Инструкция по ollama конкретно есть в репозитории. Для deepseek coder нужно выбрать подходящий тэг и пуллить командой типа docker exec ollama ollama pull deepseek-coder:6.7b-instruct-q8_0. После чего в webui можно будет поспрашивать по коду. Правда, лично у меня на линуксе из webui конкретно эта нейронка не может выгружать слои в видеопамять. Собственно, почему 1й пункт этой инструкции со ссылкой под винду - я так и не разобрался, из-за чего так.
Для режима копилота в VScode: в папке ./ollama_models создать modelfile - текстовый файл с удобным именем и содержимым типа FROM deepseek-coder:6.7b-instruct-q8_0 После чего выполнить docker exec ollama ollama create deepseeker-copilot-f /models/modelfile Это, возможно, лишнее, но мне кажется, Continue не очень корректно отрабатывает разные теги у нейронок в ollama, он вообще выдаёт ошибку за использование неправильной нейронки в конфиге.
Установить расширение Continue. После начальной настройки в файле в папке пользователя\.continue\config.json добавить в модели свою нейронку и сохранить. , { "title": "DeepSeeker Copilot", "provider": "ollama", "model": "deepseeker-copilot", "api_base": "http://localhost:11434" }
Выбрать DeepSeeker Copilot из нейронок и развлекаться. Кстати, через расширение DeepSeek Coder работает с выгрузкой в видеокарту и в линуксе, так что, вероятно, проблема всё-таки со стороны именно webui у меня.
У deepseek coder есть разные варианты, какая-нибудь вариация из 1.7b может запуститься с использованием видеокарты. Но работает так себе, судя по запросу накодить змейку. Не знаю, будет ли вообще какая-то выгода от запуска нейронки на такой видеокарте, но можно попробовать и 6.7b варианты, с нагрузкой на CPU, ОЗУ может и хватит. Правда, и на моём i7-8700k оно было ощутимо медленнее, чем на видеокарте rtx 4070. Запускаю максимально уместившуюся в 12 гигов видеопамяти 6.7b-instruct-q8_0, но там есть варианты полегче.
Не заметил, что интересует генерация картинок, их я особо не пробовал пока.
Настроил deepseek coder с применением ollama, и подключил к vscode с помощью continue. Ну и дополнительно ollama webui запустил. Очень удобно, хотя, возможно, есть интерфейс и получше, но оно и так работает.
Видел на чужих скринах сторисы, но у меня их не было, так что вроде как можно было жить. Но последняя обнова таки включила это счастье и для меня, выдав нескрываемый сторис от самой солнцеликой телеги, так что в течение минут десяти поиска решения я и удалил официальный клиент в пользу плюса. Особенно меня порадовал официальный ответ на багрепорт с просьбой дать возможность скрыть эти сторисы, мол, нет, сторисы вовсе не мешают пользователям, вы ведь можете их скрывать по одному.
Ну, это в целом грозит всем крупным продуктам от наших горячо любимых корп, старательно продвигающих enshittification в массы. Благо никто и не против, кроме полутора недовольных гиков, что-то там вопящих о праве на ремонт и опенсорсе. Но даже если все андроид устройства вот прям сию же секунду превратятся в тыкву, я примерно вижу, в какую сторону копать. Тв приставку можно собрать на малине, а в крайнем случае так вообще на RISC-V проце, платы с которым вполне себе продаются на али, да и вроде как есть больше одной мобилки на основе линукс, которые хоть и являются достаточно кривоватыми поделками, но в минимальную работоспособность обеспечить могут, да и фанаты понемногу пилят опенсорсные девайсы. По крайней мере, это всё доступные опции, пока владение несертифицированным телекоммуникационным девайсом не станет преступлением, хотя хотелось бы верить, что до такого не дойдёт. Обидно, что корпы с этими своими горячо любимыми экосистемами идут целиком по пути зла, но с этим, видимо, ничего не поделать.
Проблема не столько в рекламе, сколько в том, что пираты дают лучший сервис, чем тот, что так и быть готовы дать корпы за наши кровные. Единственное преимущество премиума в том, что тебе достаточно платить и тебе не нужно будет разбираться в том, как скачать и поставить apk на твой миникомп (но гугл уже планирует закрывать эту возможность, а ес решил начать требовать от производителей закрывать бутлоадер). А в остальном, проигрывание в фоне? Ну тут пираты наравне. Оффлайн просмотр? Если ты слишком долго не открывал инет, то скачанные видео станут недоступны, извольте открывать ютуб раз в три дня с включённым инетом. Вырезание рекламы? Встроенные в видео интеграции не будут резаться, только ролики от партнёрки. Ну, не могу сказать о сервисах типа музыки и фильмов, так как я для этого ютуб не использую, но я не удивлён тому, что даже люди, платившие за премиум, отказываются от него в пользу реванседа/newpipe, и дело даже не только в деньгах, как я понимаю. Для меня то такой опции как-то и не поднималось, так как из-за некоторых событий корпа не будет принимать мои деньги, но и даже до этих событий ревансед, а до этого вансед был лучше, чем премиум. Ревансед даёт и другие опции по модификации приложения, лично я удалил с главной плейлисты, отключил некоторые кнопки, обязательно включавшиеся субтитры..
Ну посудите сами, вдруг какой-то Вася скачает себе на комп олламу и настроит нейронку, чтобы получать инструкции от госдепа по синтезу метамфетамина? Надо регулировать, чтобы каждого Васю можно было посадить за установленную на комп нейронку в обход Алисы.
Баланс в такой игре - это вообще дело десятое. Ии если видит, что слишком легко - может адаптировать сложность, и если слишком сложно - тоже. Если империя игрока слишком большая и разрастается на весь мир - накидываем внутренних кризисов, слишком маленькая - поглощается соседом и начинаешь захватывать его изнутри.. В общем, фантазировать можно долго, другое дело, что до такого нам пока далеко. Я сам наигрался в игры от парадох, и сейчас я могу назвать пяток тайтлов, охватывающих разные периоды, с десятого века до 25го, но все они хороши только в своём временном периоде (что неудивительно, в общем-то). Есть некоторые конвертеры сейва между играми, но это всё равно не то. Самое интересное, что я видел - это интеграция crusaders kings и mount and blade bannerlord, где сражения в первом триггерят запуск второй с симуляцией сражения от первого лица. Ну и ещё я бы отдельно упомянул Terra Invicta, которая покрывает период между 21м веком и стелларисом.
Ну так требовал то он для теста именно мусорные игры, так что справедливо для сравнения и у него самого их требовать. Раз уж тестировать эффективность нейронки по сравнению с человеком, то задачи надо ставить перед испытуемыми одинаковые.
Забавный момент в том, что на это придётся смотреть, независимо от чьего-либо желания. Ну, может, не совсем на это, а на что-то похожее в этом духе, но тем не менее.
Ещё можно Obtainium использовать для автообновления с гитхаба.
У человеческого мозга меняется структура в процессе взаимодействия с реальностью, у нейронок в нынешней реализации - нет. Использование внешней бд для имитации этого процесса - мне кажется, недостаточно. Эдакий костыль, который может на какое-то время замаскировать проблему. Наверное, можно устроить нейронкам что-то вроде сна, когда нейронка дообучается на основе новых данных, произошедших за день.. но я не знаю, какие задачи вообще выполняет сон у людей, чтобы просто так сравнивать его с обучением нейронки.
Ну, я работал из под винды, и описал то, с чем столкнулся.
По мелочи пробовал запускать всякое в подмане, столкнулся с тем, что не работает проброс портов средствами самого подмана. Приходилось использовать виндовую утилиту netsh для этого, пока я не столкнулся с тем, что она не может пробрасывать udp траффик.. в итоге пришлось городить велосипед с использованием опенсорсной утилиты sudpipe. В общем, в итоге всё работало довольно некрасиво (но работало, да), так в итоге докером и пользуюсь.
Ну, если допустить, что все деньги ушли на шлемы по сорок тыщ штука, то выходит 45650 комплектов. Предполагаю, что это максимум.
Этот же самый лист ожидания грозится призвать на их сервак дискорда. Кажется, это будет ещё один пример, как открытый продукт ушёл прятаться за пейвол)
Буквально обучение нейронки
Ну так речь то про 1 ТБ, а не 20 ТБ
Ну, как-то так. Тут всё через докер, можно и нативно поставить, но я с этим не заморачивался.
Установить дрова для nvidia cuda и докер. Нужно, чтобы из контейнеров докера был доступ к видеокарте, т.е. команда типа
docker run --gpus all nvcr.io/nvidia/k8s/cuda-sample:nbody nbody -gpu -benchmark
выводила информацию о видеокарте.Клонировать ollama-webui. Там есть docker-compose.yml с необходимой минимальной настройкой. Разве что порты у сервиса ollama раскомментировать. Также можно добавить локальную папку в volume у ollama, например так.
- ./ollama_models/:/models
Пригодится, если будете дорабатывать существующие нейронки заменой системного промпта, например.Выполнить
docker compose up -d. Должен заработать ollama-webui на
http://localhost:3000/Библиотека уже готовых моделей тут. Инструкция по ollama конкретно есть в репозитории. Для deepseek coder нужно выбрать подходящий тэг и пуллить командой типа
docker exec ollama ollama pull deepseek-coder:6.7b-instruct-q8_0
. После чего в webui можно будет поспрашивать по коду. Правда, лично у меня на линуксе из webui конкретно эта нейронка не может выгружать слои в видеопамять. Собственно, почему 1й пункт этой инструкции со ссылкой под винду - я так и не разобрался, из-за чего так.Для режима копилота в VScode: в папке
./ollama_models
создать modelfile - текстовый файл с удобным именем и содержимым типа
После чего выполнитьFROM deepseek-coder:6.7b-instruct-q8_0
docker exec ollama ollama create deepseeker-copilot-f /models/modelfile
Это, возможно, лишнее, но мне кажется, Continue не очень корректно отрабатывает разные теги у нейронок в ollama, он вообще выдаёт ошибку за использование неправильной нейронки в конфиге.Установить расширение Continue. После начальной настройки в файле в папке пользователя\.continue\config.json добавить в модели свою нейронку и сохранить.
,
{
"title": "DeepSeeker Copilot",
"provider": "ollama",
"model": "deepseeker-copilot",
"api_base": "http://localhost:11434"
}
Выбрать DeepSeeker Copilot из нейронок и развлекаться. Кстати, через расширение DeepSeek Coder работает с выгрузкой в видеокарту и в линуксе, так что, вероятно, проблема всё-таки со стороны именно webui у меня.
Нашёл сайт для таких расчётов.
У deepseek coder есть разные варианты, какая-нибудь вариация из 1.7b может запуститься с использованием видеокарты. Но работает так себе, судя по запросу накодить змейку. Не знаю, будет ли вообще какая-то выгода от запуска нейронки на такой видеокарте, но можно попробовать и 6.7b варианты, с нагрузкой на CPU, ОЗУ может и хватит. Правда, и на моём i7-8700k оно было ощутимо медленнее, чем на видеокарте rtx 4070. Запускаю максимально уместившуюся в 12 гигов видеопамяти 6.7b-instruct-q8_0, но там есть варианты полегче.
Не заметил, что интересует генерация картинок, их я особо не пробовал пока.
Настроил deepseek coder с применением ollama, и подключил к vscode с помощью continue. Ну и дополнительно ollama webui запустил. Очень удобно, хотя, возможно, есть интерфейс и получше, но оно и так работает.
Видел на чужих скринах сторисы, но у меня их не было, так что вроде как можно было жить. Но последняя обнова таки включила это счастье и для меня, выдав нескрываемый сторис от самой солнцеликой телеги, так что в течение минут десяти поиска решения я и удалил официальный клиент в пользу плюса. Особенно меня порадовал официальный ответ на багрепорт с просьбой дать возможность скрыть эти сторисы, мол, нет, сторисы вовсе не мешают пользователям, вы ведь можете их скрывать по одному.
Для такого можно использовать zerotier. Правда, на телефоне его завести у меня не вышло, но на компе работает.