Обновить
4

системный инженер

0,3
Рейтинг
Отправить сообщение

Чем так извращаться, проще через посредника(предложений полон интернет) кинуть десяток баксов на официальное апи и пользоваться сколько душе угодно без ограничений.
Никаких обходов ограничений по ип и впн не надо, все работает напрямую.
https://api-docs.deepseek.com/

Токены у дипсика очень дешевые, я за месяц более или менее активного юза+ресонинг потратил бакса 3-4 всего.

Вы задаёте вопрос на который модель просто не может знать ответа, для неё не существует никакого "я/ты", она себя никак не осознает, да и не может, у неё нет для этого самосознания.
Воспринимайте LLM как огромные базы векторных данных, которые возвращают наиболее вероятные(ВАЖНО! именно вероятные а не точные) ответы на ваш запрос, если в датасете на которых её обучали было что в 70% случаев на такой вопрос ответ был чатгпт, она ответит вам что она чатгпт, без какой-либо привязки к реальности.

Модель не умеет никуда ходить, это просто черный ящик в который вы передаёте "текст", а оно возвращает другой "текст". Больше ничего. По ссылкам и прочему ходит отдельный фронтэнд сервис, который собирает все данные и передаёт в контекст модели вместе с вашим запросом(в нем вообще может не быть нейронок, просто парсер). Далее модель смотрит на то что собрал фронт и ваш вопрос, и пытается собрать для этого ответ.

Если программисты решили по умолчанию не обрабатывать все ссылки в диалоге, то для модели это будет просто текст http://* и т.д. Сейчас у онлайн сервизов есть отдельная кнопка внизу, включающая работу в web, попробуйте её.

Сами LLM ничего не ищут, они лишь обрабатывают переданные в них данные, ищет отдельный фронтэнд, и уже его задача собрать информацию и отдать модели. Вы можете сами такое сделать под ваши задачи.
Впрочем если у вас достаточно возможностей и ресурсов можно затюнить уже существующую крупную модель, впихнув туда весь объем научной литературы, но поддерживать её актуальность само собой придется тоже вам, это все дорого, очень и очень дорого.

Если мы говорим о серьёзных вещах вроде почты или банковского счета, у сервиса всегда достаточно данных для точной идентификации и легкого отсеивания злоумышленников уже на первых слоях проверки. Впрочем никто не запрещает добавить ещё что-то обязательное при регистрации.
Если же говорить о всякой мелочи где не фигурируют деньги, да это займет больше времени, вплоть до просьб вспомнить что последнее делалось с аккаунта и т.д. Но и злоумышленникам такие вещи куда менее интересны, и их потеря куда менее болезненна.

Это как раз решается проще всего, через четкий регламент, когда сторона ведущая расследование, принимающая решения, и исполняющая его, это разные люди. Никто не запрещает изучать человека вплоть до запроса документов. Все же это довольно редкий случай, как следствие он не несет больших накладных расходов.

Будем объективны, количество людей которые хотя бы один раз в жизни меняют страну проживания в процентном соотношении несущественно, а пересечение "меняет место жительства + пользуется нашим сервисом" совсем ничтожно. Про три страны даже речи не идет, это доли процента, и подстраиваться под них явно никто не будет.
Я в целом за системы привязки к номеру телефона, это чаще всего даёт приемлемый уровень защиты от угона, проблема ТС находится в другой плоскости, а именно абсолютная бесполезность технической поддержки. В идеальном мире ТО выслушает пользователя, запросит дополнительные данные и в ходе успешного расследования выдаёт доступ к аккаунту, но чаще вас просто пошлют на 3 буквы, и вот это уже проблема.

Не лень, а невостребованность навыка. Вам просто не нужен английский чтобы жить так как вы сейчас живете. Если бы незнание языка вызывало реальный дискомфорт, то вы бы его выучили.

LLM это в целом не про стабильный результат, так уж оно устроено. Если ваш вопрос не подразумевает совсем уж очевидного ответа, то почти все модели будет шатать от запроса к запросу в зависимости от построение вопроса/температуры/фазы луны.

Невозможность переместить панель задач на правую или левую сторону монитора. Какого черта?

При этом, так как наша Матрица неотличма от реальности

Это если исходить из предположения что мы знаем как выглядит и ощущается настоящая реальность. Но мы не знаем. Для нас всегда была только эта версия. Для паука который родился в закрытой коробке, эта коробка и есть весь мир.

Возможно мы живем в максимально примитивной и упрощенной версии реальности, либо вовсе наша вселенная является "авторским" творением очередного авангардиста.

С 24 GB vram вы можете вполне запустить Qwen2.5-Coder-32B-Instruct в 4-5 кванте. Погуглите koboldcpp, там есть и бек и фронт в одном флаконе, все весьма интуитивно и в целом больше ничего не надо, но если захочется за место вебморды кобольда можно поставить sillytavern, мануалов по работе с ними в интернете вагон и маленькая тележка.

В моем случае на сильном пк вся память утилизируется LLM (оно несколько сотен ГБ памяти сожрет и не заметит, про 64 ГБ и речи не идет), а на слабом браузер справляется самостоятельно, максимум ещё фоном пара асдмок на джаве с утечкой памяти. В целом концептуально ситуация идентичная, и там и там почти не остается RAM, но мне нужно продолжать работать.
Я был бы счастлив если бы этот баг пофиксили, но пока приходится жить на хроме, т.к он сопротивляется своей смерти до последнего. Разве что перейти потом на другой кусок хромиума, но уже не от гугла.

Как я написал в другом комментарии, само количество RAM не важно, важно как браузер реагирует на её острую нехватку. Если у тебя редки ситуации когда всё занято на полную и при этом ты ещё пытаешься использовать браузер, то само собой шанс на то что ситуация повторится минимален.

Подкачка у меня 16 гб на 64 гб своей RAM, и нет это не имеет никакого значения. Крашит абсолютно одинаково что тут, что на системе с 8гб RAM и 4 гб подкачки.

По второму пункту, сейчас это уже не так актуально, разница там не велика. А вот с чем лиса справляется куда хуже так это работа с этой самой памятью. Когда вы доходите до 80-90%+ занятой RAM лиса начинает непредсказуемо крашить вкладки, и следом по цепочке сам браузер, хром же таким убить куда сложнее(впрочем возможно офк.).

Собственно я пытался переехать на лису, в связи с скорым выпилом старого манифеста в хроме, и в целом мне понравилось, но вот эти краши делают все остальные плюсы бессмысленными.

Доступ к внешним ресурсам это сложная тема, и её выполняет не модель а фронтэнд, сама модель не имеет к этому никакого отношения. Если фронт не нашёл ничего по вашей ссылке и не передал в контекст, то эта часть строки будет только путать модель, прося делать непонятно что.
Для чистоты эксперимента скачайте все нужные файлы по ссылке вручную и положите в контекст модели.

Вы описываете ровно то о чем я сказал в последнем абзаце, поиск иных подходов. В вашем случае тоже требуется куда меньшие мощности т.к каждая отдельная такая сетка требует много меньше чем текущие корпоративные монстры, что позволяет гибко масштабировать нагрузку под любое железо.

Кормя LLM мусором вы получите на выходе только генератор мусора. Это прекрасно видно на некоторых опенсорсных моделях которые кормили голимой синтетикой.

Почитал, да так и есть. Чуда не случилось. Для нормального R1 готовьте майнинг ферму. Впрочем крупным компаниям это не должно составить проблем, для них деньги на запуск полноценной версии не большие.

Информация

В рейтинге
2 985-й
Зарегистрирован
Активность

Специализация

Администратор серверов, Сетевой инженер
Средний