Apple мне выглядит так: заплатить дяде побольше денег, чтобы самому себя кастрировать. У меня не топовый андроид, стоит дешевле яблочной продукции. При этом офлайн карты, музыка, книги и даже википедия есть на телефоне. При наличии 4-9тр в кармане плевать на отсутствие доступа в интернет с телефона. И так было практически всегда.
Но некоторым не пойдет такое, то-ли от слабоумия, то-ли от желания самому себе усложнить жизнь: купим телефон с особо скругленными углами, наличку брать не будем, картами учиться пользоваться не будем.
Исключительное ИМХО. Прошу москвичей всего этого не делать ибо улыбает какой баттхёрт вызывает у них ситуция.
Не очень понятен ваш комментарий. У нас в сибири интернет работает стабильно. Все же очень давно выкачал весь плейлист на телефон и слушаю без связи. Каким тут боком отключения и плееры - не понятно.
Невероятно странно, почему под такой новостью столь мало комментариев. Помню времена, когда в РФ уничтожали продукты питания. Комментариев было написано на целую книгу. При этом ситуация в целом схожа: раздайте велосипеды школьникам, студентам, пенсионерам, беременным и иным нуждающимся. Однако комментаторы процесса уничтожения продуктов питания молчат на тему уничтожения велосипедов. Мистика.
Буквально вчера такое выспрашивал у qwen. Все довольно подробно описала, с примерами для моего текста, предложила все автоматизировать для 1000 книг ).
Зайдите к ним в телеграм. Группа живая, в ней точно есть разработчики. Там уточните, может на сайте инфу не подправили и саппорт уже по другим адресам.
Ollama на бэкенде точно использует llama.cpp. Сам работаю с llama.cpp напрямую, у него тоже есть web интерфейс, сборку выполняю сам, но есть и бинари ( https://github.com/ggml-org/llama.cpp )
llama.cpp точно умеет работать с двумя видеокартами, но по скорости не прокомментирую. Думаю все норм будет с двумя 4060ti
Сам использую radeon 7900xtx (24Gb). Мне в эту карту влезают модели чуть большего размера (например DeepSeek-R1-Distill-Qwen-32B-Q6_K.gguf 26.9GB https://huggingface.co/bartowski/DeepSeek-R1-Distill-Qwen-32B-GGUF/tree/main). Что не влезает в память видеокарты - остается в системной RAM (просто нужно будет указать количество слоев загружаемых в видеокарту)
Отличный обзор. Стараюсь отслеживать эту тему, но узнал о многих моделях из вашей статьи. Но как же вы пропустили vicuna? По моим "ощущениям" сильно лучше чем alpaca. А раз у вас получается хорошо излагать знания в текстовом виде - есть такие проекты как "llama.cpp", "Auto-GPT". Возможно сможете рассказать о них и их скрещивании большой аудитории.
Сразу оговорюсь, что я далеко не зуммер.
Apple мне выглядит так: заплатить дяде побольше денег, чтобы самому себя кастрировать. У меня не топовый андроид, стоит дешевле яблочной продукции. При этом офлайн карты, музыка, книги и даже википедия есть на телефоне.
При наличии 4-9тр в кармане плевать на отсутствие доступа в интернет с телефона. И так было практически всегда.
Но некоторым не пойдет такое, то-ли от слабоумия, то-ли от желания самому себе усложнить жизнь: купим телефон с особо скругленными углами, наличку брать не будем, картами учиться пользоваться не будем.
Исключительное ИМХО. Прошу москвичей всего этого не делать ибо улыбает какой баттхёрт вызывает у них ситуция.
Предположим, что так.
Но от этого связь между mp3 плеерами, доступностью интернета и прослушиванием аудиозаписей не появилась.
Не очень понятен ваш комментарий. У нас в сибири интернет работает стабильно. Все же очень давно выкачал весь плейлист на телефон и слушаю без связи. Каким тут боком отключения и плееры - не понятно.
Невероятно странно, почему под такой новостью столь мало комментариев.
Помню времена, когда в РФ уничтожали продукты питания. Комментариев было написано на целую книгу.
При этом ситуация в целом схожа: раздайте велосипеды школьникам, студентам, пенсионерам, беременным и иным нуждающимся.
Однако комментаторы процесса уничтожения продуктов питания молчат на тему уничтожения велосипедов. Мистика.
Буквально вчера такое выспрашивал у qwen. Все довольно подробно описала, с примерами для моего текста, предложила все автоматизировать для 1000 книг ).
А от статьи такой толку 0.
Зайдите к ним в телеграм. Группа живая, в ней точно есть разработчики. Там уточните, может на сайте инфу не подправили и саппорт уже по другим адресам.
Антены на вышках сотовой связи очень узконаправленны и вверх не светят.
В Китае начинается старение населения. Так что на пенсии будут сериалы смотреть.
Ollama на бэкенде точно использует llama.cpp. Сам работаю с llama.cpp напрямую, у него тоже есть web интерфейс, сборку выполняю сам, но есть и бинари ( https://github.com/ggml-org/llama.cpp )
llama.cpp точно умеет работать с двумя видеокартами, но по скорости не прокомментирую. Думаю все норм будет с двумя 4060ti
Сам использую radeon 7900xtx (24Gb). Мне в эту карту влезают модели чуть большего размера (например DeepSeek-R1-Distill-Qwen-32B-Q6_K.gguf 26.9GB https://huggingface.co/bartowski/DeepSeek-R1-Distill-Qwen-32B-GGUF/tree/main). Что не влезает в память видеокарты - остается в системной RAM (просто нужно будет указать количество слоев загружаемых в видеокарту)
Отличный обзор. Стараюсь отслеживать эту тему, но узнал о многих моделях из вашей статьи.
Но как же вы пропустили vicuna? По моим "ощущениям" сильно лучше чем alpaca.
А раз у вас получается хорошо излагать знания в текстовом виде - есть такие проекты как "llama.cpp", "Auto-GPT". Возможно сможете рассказать о них и их скрещивании большой аудитории.
В этом проекте много студентов. Отличная практика. Возможно со временем еще и польза от практики появится.