Обновить
4
0.1

Пользователь

Отправить сообщение

Эффект как на картинке до ката я получил на локальной модели когда GGUF-файл был повреждён при скачивании

А проверка родительского процесса хоть как-нибудь поможет?
- ваше приложение всё равно запустится перед тем как закрыться при сканировании, попав в список вызовов
- exec("start ./app.exe")

Оно вполне себе... ползало на Tesla P40 + RTX 4060Ti (пока с P40 проблемы не начались)
llama 3 70b врёт не заикаясь, и с хотя с причинно-следственными связами у неё лучше, чем у llama 2, её ничего нельзя доверить. Даже "поменяй пожалуйста формат этих данных"

Ок, АИ таки хайп и пузырь который лопнет, Llama 3 70B совершенно непригодна ни для чего серьёзного, я её тут на локальном компе пинаю...

Насколько я помню, в Wayland не было какой-то фичи нужной драйверу nvidia для работы с переменной частотой обновления. В результате оно работало на Xorg, но не работало на Wayland.

Он в перманентном development hell. Там приложение не может свой значёк окна поменять или расставить свои окна как оно считает нужным. И они только полгода назад vsync на картах nvidia исправили.

https://www.youtube.com/watch?v=iwaaSatk0pIВот видео о релизе, которое вероятно в том числе стало причиной его блокировки

Я тут должен добавить что Bryan Lunduke не разу ни является нейтральной стороной и у него есть свои при претензии к Red Hat. С другой стороны, он был единственным технологическим ютубером из тех что появляются у меня в рекомендациях, который рассказал о бане Российских мэйнтейнеров ядра Linux.

(Пардон, не ту кнопку "Ответить" нажал)

Приветствую. Похоже один из ваших клиентов использует либо решил создать дубликат собственного сервиса и "некропостить" старых пользователей (с 2016г), либо использует украденную базу другого сервиса.

Я получатель рассылки на которую не подписывался, почта относительно уникальна и была в базе потому что в 2016 выполнял работы для компании и на этот адрес был привязан тестовый аккаунт. С 2016 практически не использовалась (как и до, это специфический ящик на личном домене). Можно ли принять какие-то меры по этому поводу к спамеру?

Дополнительная проблема состоит в том, что на Яндексе невозможно отправить в Спам все письма с вашего сервиса. То: что я пометил как спам улетает в спам, новые же - опять во входящих. Кнопку "отписаться" использовать не буду принципиально, так как не подписывался.

pub(crate) struct MultiError {
    first: syn::Error,
    rest: VecDeque<syn::Error>,
}

Я не rust разработчик, но это тоже выглядит как плохой подход: он создаёт дополнительный edge case который требует отдельного кода для обработки

Ок, закручу персональные гайки. При чтении по диагонали не заметил неестественно большого количества знаков препинания.

Что вообще первично: смысл или участие ИИ в создании текста?

Почему-то пропустил этот вопрос.
Проблема в том, что участие ИИ в создание текста результат удучшает редко. С чего вдруг автор решил, что не смотря на то, LLM не может написать текст на тему, о которой пишет автор, LLM вдруг сможет дать ему адекватные советы по стилю?

Более того, текст написанный с помочью LLM "тригеррит" те же признаки, что и текст, написанный LLM целиком. И я персонально я не хочу разбираться в разных сортах вот этого вот. Если я вижу стиль LLM - я просто больше никогда не буду читать этого автора.

Ну так он и не выглядит написанным LLM. В отличии от коммента автора в этом топике: https://habr.com/ru/articles/913002/#comment_28356480
Я просто с его тезисом не согласен.

Есть обычные предложения, есть длинные предложения, есть предложения написанные Гоголем, а есть текст от LLM.
Проблема не в длине предложений, а в их целесообразности. LLM имеет склонность стоить длинные предложения ради длинных предложений. Быть может вы видели мем - gif с грузовиком с разных ракурсов, который никак не врежется в столб. Тексты от LLM ощущаются именно как эта gif.

Это совершенно точно лучше, чем установка языка в аккаунте на сейте, но для этого вам нужно зарегистрироваться на сайте некорректно выбранным языком и найти этот пукнт в настройках (Гугл, ты совсем того? Блогспот таким же страдает)

Воздух в помещении всё таки должен вентилироваться. У меня прошлым летом кондишка в 35С потекла внутри помещения. Выключать при такой погоде не вариант, пришлось пластиковый ящик ставить чтоб в него текла. За сутки литров 50 набралось.

Так что в теории оно таки может "работать****"

Я поспорю с тезисом что LLM может повысить качество. LLM чаще всего просто наливает воды в текст, причём всегда используя одни и те же обороты. Если вы видите в фразу "delve into <topic>" вместо "dive into <topic>" - это 99% AI. (0.95% человек который читал слишком много AI текстов и 0.05% - выходец из ЮАР)

Вот это коммент - отличный пример почему люди не любят LLM-тексты. Букв много, а смысла почти нет.
Смотришь на это счастье, и хочется tl;dr у этой самой нейронки спросить.

По-моему только Meta* заморачивается тем, чтобы их сети отвечали кто они такие более или менее правильно

Информация

В рейтинге
3 191-й
Откуда
Россия
Дата рождения
Зарегистрирован
Активность