Экономически дает, но с долгой перспективой. А насчет безопасности то тут вы в точку.
Но все же, испытав десятки моделей, как локальных так и "больших" у меня сложилось чувство что большие братья в большинстве фуфло. По разным отзывам могу только признать что джимини хорошая модель.
А вообще если честно то я просто захотел что бы у меня был довольно мощный GPU сервер, да это дорого, но я надеюсь что это окупится, если нет то и хер с ним. Но сейчас мы с локальной нейросетью и моим сервером на подряде выкачиваем 5 больших форумов. Полностью, до каждой запятой. Раньше было это делать проще, а сейчас приходится анализировать каждый URL и нейросеть для этого создала хороший код на питоне. Вот бы мне такой компьютер году в 2006.
RAG я строю на другой модели, а qwen3-coder-next пишет красивый и правильный код, в чем то он даже лучше чем код от модели gpt-oss:120b, он реально меня разгрузил. А для RAG лучше использовать thinking модели.
А что касается опасений, да, есть небольшая паранойя - конфидециальность и если отключат.
Тем летом планировал зимой (то есть сейчас) купить еще 2 видеокарты RTX4090D 48Gb, но случился облом с ценами и логистикой. За картами придется лететь в Китай самому, а я боюсь такие долгие перелеты и вообще самолетов почему то последнее время стал боятся, возраст может.
А можно я напишу статью про то как я охраняю свой range rover?
Ну я вообще не стронник импортных слов, но иногда всетаки лаконичней именно английский язык. LLM проще произносится чем БЯМ. Уж извините.
LLM что ли?
Я не сильно молодой и понятия типа "бямке" не знаю и спрашивать у поиска не хочу. Лучше вы пишите нормальным русским языком.
На питоне и выкачивает.
Экономически дает, но с долгой перспективой. А насчет безопасности то тут вы в точку.
Но все же, испытав десятки моделей, как локальных так и "больших" у меня сложилось чувство что большие братья в большинстве фуфло. По разным отзывам могу только признать что джимини хорошая модель.
А вообще если честно то я просто захотел что бы у меня был довольно мощный GPU сервер, да это дорого, но я надеюсь что это окупится, если нет то и хер с ним. Но сейчас мы с локальной нейросетью и моим сервером на подряде выкачиваем 5 больших форумов. Полностью, до каждой запятой. Раньше было это делать проще, а сейчас приходится анализировать каждый URL и нейросеть для этого создала хороший код на питоне. Вот бы мне такой компьютер году в 2006.
RAG я строю на другой модели, а qwen3-coder-next пишет красивый и правильный код, в чем то он даже лучше чем код от модели gpt-oss:120b, он реально меня разгрузил. А для RAG лучше использовать thinking модели.
А что касается опасений, да, есть небольшая паранойя - конфидециальность и если отключат.
Тем летом планировал зимой (то есть сейчас) купить еще 2 видеокарты RTX4090D 48Gb, но случился облом с ценами и логистикой. За картами придется лететь в Китай самому, а я боюсь такие долгие перелеты и вообще самолетов почему то последнее время стал боятся, возраст может.
Да уж, цены конечно сейчас негуманные.
Пока только 4 регистрации одобрил, остальные с непонятними почтами удалил.
15000 хвати
Уже знает
Пакман и астероидс
Но у кого то есть в личном пользовании такие сервера и не загруженные, об этом вы не думали?
Да больно было надо с вами общаться, раз вы этого не умеете.
Это неплохо, но без GPU эта модель будет очень сильно тормозить
А вы что так переживаете? Не нужно нервничать, нервы не восстанавливаются.
Будьте позитивней.
Ну уже результат, а какие характеристики вашего ПК? раз туда 49Гб влезло.
А более обоснованно вы можете ответить?