Pull to refresh
0
Send message

Сразу оговорюсь, что я далеко не зуммер.

Apple мне выглядит так: заплатить дяде побольше денег, чтобы самому себя кастрировать. У меня не топовый андроид, стоит дешевле яблочной продукции. При этом офлайн карты, музыка, книги и даже википедия есть на телефоне.
При наличии 4-9тр в кармане плевать на отсутствие доступа в интернет с телефона. И так было практически всегда.

Но некоторым не пойдет такое, то-ли от слабоумия, то-ли от желания самому себе усложнить жизнь: купим телефон с особо скругленными углами, наличку брать не будем, картами учиться пользоваться не будем.

Исключительное ИМХО. Прошу москвичей всего этого не делать ибо улыбает какой баттхёрт вызывает у них ситуция.

Предположим, что так.

Но от этого связь между mp3 плеерами, доступностью интернета и прослушиванием аудиозаписей не появилась.

Не очень понятен ваш комментарий. У нас в сибири интернет работает стабильно. Все же очень давно выкачал весь плейлист на телефон и слушаю без связи. Каким тут боком отключения и плееры - не понятно.

Невероятно странно, почему под такой новостью столь мало комментариев.
Помню времена, когда в РФ уничтожали продукты питания. Комментариев было написано на целую книгу.
При этом ситуация в целом схожа: раздайте велосипеды школьникам, студентам, пенсионерам, беременным и иным нуждающимся.
Однако комментаторы процесса уничтожения продуктов питания молчат на тему уничтожения велосипедов. Мистика.

Буквально вчера такое выспрашивал у qwen. Все довольно подробно описала, с примерами для моего текста, предложила все автоматизировать для 1000 книг ).

А от статьи такой толку 0.

Зайдите к ним в телеграм. Группа живая, в ней точно есть разработчики. Там уточните, может на сайте инфу не подправили и саппорт уже по другим адресам.

Антены на вышках сотовой связи очень узконаправленны и вверх не светят.

В Китае начинается старение населения. Так что на пенсии будут сериалы смотреть.

Ollama на бэкенде точно использует llama.cpp. Сам работаю с llama.cpp напрямую, у него тоже есть web интерфейс, сборку выполняю сам, но есть и бинари ( https://github.com/ggml-org/llama.cpp )

llama.cpp точно умеет работать с двумя видеокартами, но по скорости не прокомментирую. Думаю все норм будет с двумя 4060ti

Сам использую radeon 7900xtx (24Gb). Мне в эту карту влезают модели чуть большего размера (например DeepSeek-R1-Distill-Qwen-32B-Q6_K.gguf 26.9GB https://huggingface.co/bartowski/DeepSeek-R1-Distill-Qwen-32B-GGUF/tree/main). Что не влезает в память видеокарты - остается в системной RAM (просто нужно будет указать количество слоев загружаемых в видеокарту)

Отличный обзор. Стараюсь отслеживать эту тему, но узнал о многих моделях из вашей статьи.
Но как же вы пропустили vicuna? По моим "ощущениям" сильно лучше чем alpaca.
А раз у вас получается хорошо излагать знания в текстовом виде - есть такие проекты как "llama.cpp", "Auto-GPT". Возможно сможете рассказать о них и их скрещивании большой аудитории.

В этом проекте много студентов. Отличная практика. Возможно со временем еще и польза от практики появится.

Information

Rating
Does not participate
Registered
Activity