Обновить
4

Пользователь

0,2
Рейтинг
5
Подписчики
Отправить сообщение

(Пардон, не ту кнопку "Ответить" нажал)

Приветствую. Похоже один из ваших клиентов использует либо решил создать дубликат собственного сервиса и "некропостить" старых пользователей (с 2016г), либо использует украденную базу другого сервиса.

Я получатель рассылки на которую не подписывался, почта относительно уникальна и была в базе потому что в 2016 выполнял работы для компании и на этот адрес был привязан тестовый аккаунт. С 2016 практически не использовалась (как и до, это специфический ящик на личном домене). Можно ли принять какие-то меры по этому поводу к спамеру?

Дополнительная проблема состоит в том, что на Яндексе невозможно отправить в Спам все письма с вашего сервиса. То: что я пометил как спам улетает в спам, новые же - опять во входящих. Кнопку "отписаться" использовать не буду принципиально, так как не подписывался.

pub(crate) struct MultiError {
    first: syn::Error,
    rest: VecDeque<syn::Error>,
}

Я не rust разработчик, но это тоже выглядит как плохой подход: он создаёт дополнительный edge case который требует отдельного кода для обработки

Ок, закручу персональные гайки. При чтении по диагонали не заметил неестественно большого количества знаков препинания.

Что вообще первично: смысл или участие ИИ в создании текста?

Почему-то пропустил этот вопрос.
Проблема в том, что участие ИИ в создание текста результат удучшает редко. С чего вдруг автор решил, что не смотря на то, LLM не может написать текст на тему, о которой пишет автор, LLM вдруг сможет дать ему адекватные советы по стилю?

Более того, текст написанный с помочью LLM "тригеррит" те же признаки, что и текст, написанный LLM целиком. И я персонально я не хочу разбираться в разных сортах вот этого вот. Если я вижу стиль LLM - я просто больше никогда не буду читать этого автора.

Ну так он и не выглядит написанным LLM. В отличии от коммента автора в этом топике: https://habr.com/ru/articles/913002/#comment_28356480
Я просто с его тезисом не согласен.

Есть обычные предложения, есть длинные предложения, есть предложения написанные Гоголем, а есть текст от LLM.
Проблема не в длине предложений, а в их целесообразности. LLM имеет склонность стоить длинные предложения ради длинных предложений. Быть может вы видели мем - gif с грузовиком с разных ракурсов, который никак не врежется в столб. Тексты от LLM ощущаются именно как эта gif.

Это совершенно точно лучше, чем установка языка в аккаунте на сейте, но для этого вам нужно зарегистрироваться на сайте некорректно выбранным языком и найти этот пукнт в настройках (Гугл, ты совсем того? Блогспот таким же страдает)

Воздух в помещении всё таки должен вентилироваться. У меня прошлым летом кондишка в 35С потекла внутри помещения. Выключать при такой погоде не вариант, пришлось пластиковый ящик ставить чтоб в него текла. За сутки литров 50 набралось.

Так что в теории оно таки может "работать****"

Я поспорю с тезисом что LLM может повысить качество. LLM чаще всего просто наливает воды в текст, причём всегда используя одни и те же обороты. Если вы видите в фразу "delve into <topic>" вместо "dive into <topic>" - это 99% AI. (0.95% человек который читал слишком много AI текстов и 0.05% - выходец из ЮАР)

Вот это коммент - отличный пример почему люди не любят LLM-тексты. Букв много, а смысла почти нет.
Смотришь на это счастье, и хочется tl;dr у этой самой нейронки спросить.

По-моему только Meta* заморачивается тем, чтобы их сети отвечали кто они такие более или менее правильно

При всём уважении, статья на волне хайпа.
> Сейчас доступно 2 модели:
Все они доступны. То, что вы видите - это featured модели, а не доступные в принципе.
Просто наберите "R1 Distill" в поиск, или посмотрите модели вот этого пользователя:
https://huggingface.co/bartowski

Или, например, вот "abliterated" версия
https://huggingface.co/mradermacher/DeepSeek-R1-Distill-Llama-70B-abliterated-GGUF
Если вы хотите чтобы вам AI рассказывал матные частушки - вам нужна эта (модифицированная) версия.

И, главное, distill модели это не R1

Запускать любую сетку, а особенно большую на CPU обычного ПК - идея довольно плохая. Оно в доступ к памяти упирается.

Ещё, если у вас DDR5 и Intel 12 gen - отключите e-cores в UEFI. p-cores поддерживают частоту 4800GHz, e-cores - только 3300, в результате когда они активны (в на Windows они активны всегда) - частота внутренней шины снижается до 3300GHz.

LM Studio самое "User Friendly" приложение. Проприетарное.
На Windows вы просто качаете инсталятор, ставите приложение, качаете через него совместимые с вашим ПК кванты модели и запускаете LLM. Всё.
- Встроенный GUI поддерживает RAG (загрузить документы в чат), но не без багов.
- Поддерживает некоторое Vision модели (Поддерживает LLaVa, не поддерживает llama 3.2-vision).
- Может быть сервером, пытается симулировать OpenAI API но функционал явно work in progress. Невозможно управлять токенизацией.

Ollama - Open Source, MIT - ставится как сервис, нет интерфейса, работает только через сеть. Делает это намного лучше чем LM Studio, но вам придётся ставить один из веб-интерфейсов (и я не смог заставить работать нормально ни один их них)
- Управление через терминал
- Поддерживает llama 3.2 vision

Формат моделей LM Studio и Ollama не совместим, к сожалению. Так что если вы хотите использовать и то и то - этак 70Gb будут лежать на диске у вас дважды.
В итоге у меня Ollama стоит, но использую я LM Studio. Оба используют llama.cpp под капотом.

Мне бы оригинальную версию запустить хотелось, не distilled. Но у меня похоже RAM не хватит, у меня её "всего" 96Gb... (И потолок для материнки - 128Gb)

0.5 tok/sec как-то медленно? Я запускал llama 3.1 70B на 100% CPU (оригинальную, когда она только вышла)
у меня после всех танцев с бубном был один токен в секунду, ровно!..
У вас DDR4 или DDR5? Проверьте частоту памяти в UEFI, у меня она по умолчанию стояла в 4000.
На CPU бутылочное горлышко не сами вычисления, а доступ к памяти. i5 12600K, считать в 2 потока, или в 12 - результат идентичный.

Они по сути сделали то, что принято в ИИ-коммунити (каким бы малым оно ни было, там всего с десяток открытых крупных игроков)
Они использовали свою и чужую открытую работу, улучшили её и отдали результат в открытое же использование. То же самое желает Meta* с их llama'ми.

Обойти же OpenAI не то чтобы трудно было, они больше финансами и прибылью увлеклись, чем научной работой.

В задачах программирования, в частности, Nemotron от nVidia (файнтюн llama 3.1 70b instruct) обходил ChatGPT, и местами даже Claude.

Вообще это всё выглядит как подготовка почвы для выдавливания конкурента. Проблема в том, что это "почва" не выдерживает даже поверхностной критики (не говоря даже о самой практике). DeepSeek просто пришли и отдали результат: "на, пользуйтесь бесплатно и без нашего участия". У них даже патентов в США нет (на данный момент).

https://www.forbes.com/sites/zakdoffman/2025/01/27/warning-deepseek-is-a-chinese-security-nightmare-come-true/

DeepSeek isn’t hiding any of this — far from it. “The personal information we collect from you may be stored on a server located outside of the country where you live,” it tells users. “We store the information we collect in secure servers located in the People's Republic of China.” As for what that information might be —everything.

Мне нравится этот уровень лицемерия. Оно такое простое и незамутнённое. Смотришь и восхищаешься прямо как котёнком. Когда Россия требовала перевести данные от сервисов на свою территорию - сколько криков про тоталитаризм-то было...

И это всё при том, что вы можете скачать модель и запустить её локально: не делясь ни какими данными в принципе.

...надо было покупать 2 p40, а не одну :D
Если я правильно читаю - самой сжатой версии нужно 131+ Gb ram? (обычной, не видео?)

Информация

В рейтинге
3 025-й
Откуда
Россия
Дата рождения
Зарегистрирован
Активность