
Комментарии 12
Вроде все хорошо и спасибо автору за работу. Но...
1) Вот скормил я тот же вопрос про температуру пациента обычной Алисе (про западно-восточные варианты ИИ вообще молчу) и она дала очень похожий ответ.
2) эта модель может проанализировать pdf-файл с результатами анализа крови?
3) Ваш уровень холестерина или черте-чего-ещё утечет в Сеть? Лично мне вот абсолютно пофиг.
Вывод: на фига козе баян? Вроде и так всё работает, не? Если с точки зрения поковыряться самому с этим, вопросов нет. А иначе.. не вижу смысла.
Карманный врач прямо в телефоне с локальным инференсом без зависимости от интернета, голосовой связи, денег на карточке - это же реально одино из самых классных применений небольших моделей!
Кстати, работает очень неплохо на трехлетней давности смартфоне с 8ГБ памяти.
Не понял. Автор пишет, что без почти последней видеокарты с 8/16 ГБ локальной памяти всё будет очень медленно - на полноценно компе, а тут аж на старом телефоне работает.
А Яндекс плюс у меня всё равно на год вперёд оплачен. Нет интернета? Типа, в лесу ногу сломал? Ну разве что...
Вот мне нужен бесплатный ИИ, который большой анализ крови проинтерпретирует. Не знаю, какой.
Скачал medgemma-4b-it-Q4_K_M.gguf, запустил на телефоне - работает с короткими текстовым запросами шустро. Конечно, при загрузке фото или сканов все станет грустно и для серьезного использования телефон не годится.
Кстати, ставить диагнозы и давать рекомендации, как оказалось, по лицензии эта модель не может, к сожалению. Очень трудно от нее подобного добиться. Поэтому в качестве карманного фельдшера использовать ее затруднительно всё-таки...
Дипсик пробовал, по своему анализу крови. Вполне, вполне, врач написал практически то же самое. И с ветеринаркой пробовал - даже сложные случаи разбирает, только думает минут по 10, зато бесплатный.
Привет, спасибо за коммент!
Открытая LLM с возможностью локального запуска в первую очередь нужна для работы в ограниченном контуре и для дообучения. Я думаю, что в будущем именно такие модели станут основой для агентов в клиниках, возможно, даже на госуровне. Они смогут безопасно обращаться к OpenFDA, искать информацию по побочкам и подбирать варианты комбинации молекул, не сливая при этом чувствительные данные пациентов в условный OpenAI.
Что касается мультимодальности (вопрос про PDF и анализы) — картинки и прочее эта модель тоже понимает. Сами Google показывали примеры с анализом флюорограммы и снимков кожи.
Вот только я не понял юмора этой модели. Спрашиваешь "Расскажи про супрастин" - рассказывает. Просишь "Сравни супрастин и Эриус" - отвечает "Как ИИ, я не могу предоставить медицинские консультации". Я даже не говорил, что хочу пить эти таблетки...
Действительно, в статье очень много восторгов, но нету сравнения с теми же самыми промптами на обычных хороших моделях
Пара вопросов.
Никто не проверял, насколько хорошо модель знает всякую биохимию? Например, если спросить ее, какие гормоны и биорегуляторы выделяются в зоне желудка или тонкого кишечника -- насколько полным будет ответ?
В связи с этим -- как можно дообучать эту модель и на каких источниках, чтобы она была в курсе последних данных на интересующую меня тему?
можно же попробовать на Вертексе и не стесняясь взять 27в модель. Там же ссылка есть.
Все что может эта модель, могут спокойно и Грок и Гопота и ошибки там точно те-же и галлюцинации те же. Наверняка есть исключения., но вцелом, самое плохое, что галлюцинации будут поданы как 100% надёжный материал и даже разбирающемуся будет сложно в потоке этого "пиз...жа" отловить ересь, но когда ты пару раз это отловишь, начинаешь все перепроверять, а потом приходит понимание, что проще самому ..
Спрашивать симптомы Орви это конечно стоит Ллм..., но копни куда-то в сторону и начинается цирк.
Пользуюсь MedGemma-27B. Весьма полезный инструмент. Фотографирую болячки - и оно мне расписывает детали, варианты... Использую просто с llama.cpp.
У вас в статье ссылка на модель, которая вышла в мае-2025.
Гугл уже выпустил новую версию этой модели в январе-2026:
https://huggingface.co/google/medgemma-1.5-4b-it
Сейчас уже подтянулись китайцы. У них есть две "медицинских" модели:
1. https://huggingface.co/baichuan-inc/Baichuan-M3-235B
Это модель тюненная на основе Qwen3-235B. Для "принятия клинических решений".
С изображениями работать не может.
2. https://huggingface.co/MedAIBase/AntAngelMed
103B. С изображениями работать не может.
MedGemma: разбираем медицинский AI от Google