Search
Write a publication
Pull to refresh
4
0
Send message

Мобильное железо 3-4х летней давности, какой бы ни был вау эффект от корпуса, на нем далеко не уедешь...

Даже если на расстоянии 50-60 световых лет есть сверхразвитая цивилизация и она уже засекла наши сигналы, сколько ей нужно будет лет, что бы послать исследовательский дрон в нашу сторону - скажем реалистично с 10-20% от скорости света?
Думаю лет 300-600 у нас есть в запасе.

Надо конечно указывать пиковые значения RAM и VRAM - вот у меня под рукой машина с 3060ti 8Гб и 16гб памяти, Forge крутится - вот и думай, взлетит или нет Kontext, что бы зря не тянуть десятки гигов моделей. Не у всех же есть 32Гб а тем более 64.

Тут или платить миллион подписок по 5-20$ в месяц или купить нормальный комп и крутить локально любые опенсорс модели - те же SDXL, HiDream, Flux, Flux Kontext и даже AI видео генерировать вполне адекватное в Wan 2.1 или FP Studio. Я выбрал второй путь.

Самый полезный промт для меня в последнее время это дописать в конце такую конструкцию:
"Прежде чем дать мне ответ оцени его неопределённость. Если она больше 0.1 — задавай мне уточняющие вопросы до тех пор пока неопределённость будет 0.1 или меньше"

Если ранвей и пика я еще могу понять, то дальше рекламируется полный трэш - клон Luma.AI и другие нонейм сервисы, плюс из "бесплатного" там 2-3 генерации а дальше заноси чемоданы. Спасибо, но лучше я на компе бесплатно Wan и FramePack погоняю.

"В текущем году ожидается релиз GTA V с трассировкой лучей"
Она уже месяц как вышла если что...

Я бы уже не называл новыми и интересными решения на N100-150 в 2025 году.
Неужели нам опять годы ждать массовый выпуск среднеценовых Ryzen AI и Core 2xx, почему-то производители лепят на них продукты за 1000-1200+ долларов, хотя такой ценовой сегмент явно не массовый и не подходящий для мини-пк.

LM Studio и винда вполне достаточны что бы пощупать, запускал довольно большие но квантованные модели Qwen 14B Q4_K на 3060ti 8Gb и Qwen 32B Q6 на 4080 16Gb - довольно медленно но работают.

Странное позиционирование у девайса, и плюс 329 это если вложиться в краудфандинг, после будет дороже.

После нескольких десятков часов игры начинаешь понимать всю скудность и ограниченность её механик, в ней нет глубины. Причем в начале тебя всегда тащат по квестам и пока ты не построишь на своей базе какую-то ненужную постройку сюжет не продвинется - это немного бесит.

Тест Тьюринга OpenAI тихонечко прошли уже несколько месяцев назад - но результаты неоднозначны.

Ну скажем так, 2 года назад (почти) я выбрал 13600KF и немножко его подразогнал, до сих пор стабильно работает, даже не смотря на всплывшие проблемы у интела (микрокод конечно обновил на всякий) в целом покупкой доволен.
Cегодня наверное смотрел бы в сторону AMD с 3D кэшем, дождался бы наверное 9ххх3D

"Каждое ядро современных высокопроизводительных процессоров для настольных ПК, таких как Intel® Core® i7 6700"

Дальше читать не стал...

Как знал, что без Марии Disco photomode не обойтись в этом вопросе, спасибо за статью )

По идее модель должна находиться в VRAM для быстрого отклика - даже с сильной квантизацией это откусит 2-3гб видеопамяти, которой сама же Nvidia зажала в 3ххх и 4ххх серии, а игроделы уже спокойно рассчитывают на 12-16гб видеопамяти для ультра настроек. Так что похоже G-Assist будет всем советовать ставить минимальные настройки, что бы хоть как-то поиграть на 8-12 гиговых картах в месте с ним.

Похоже зафайнтюненые SDXL модели останутся с нами надолго - такая надежда была на локальный SD3 и такое разочарование...

Слишком дорого для офисной печатающей машинки и слишком слабо для профессиональных задач (3D, нейросети и т.д.) про современные игры вообще речь не зайдет - даже с внешней картой.

Любой VPN и логин через гугл аккаунт.

Сейчас AGI идет в сторону конкурирующих мультимодальных агентов, для которых LLM один из инструментов. Но конечно всё это костыль на костыле и костылём погоняет.

Information

Rating
5,257-th
Registered
Activity