Обновить

Комментарии 12

Вроде все хорошо и спасибо автору за работу. Но...

1) Вот скормил я тот же вопрос про температуру пациента обычной Алисе (про западно-восточные варианты ИИ вообще молчу) и она дала очень похожий ответ.

2) эта модель может проанализировать pdf-файл с результатами анализа крови?

3) Ваш уровень холестерина или черте-чего-ещё утечет в Сеть? Лично мне вот абсолютно пофиг.

Вывод: на фига козе баян? Вроде и так всё работает, не? Если с точки зрения поковыряться самому с этим, вопросов нет. А иначе.. не вижу смысла.

Карманный врач прямо в телефоне с локальным инференсом без зависимости от интернета, голосовой связи, денег на карточке - это же реально одино из самых классных применений небольших моделей!

Кстати, работает очень неплохо на трехлетней давности смартфоне с 8ГБ памяти.

Не понял. Автор пишет, что без почти последней видеокарты с 8/16 ГБ локальной памяти всё будет очень медленно - на полноценно компе, а тут аж на старом телефоне работает.

А Яндекс плюс у меня всё равно на год вперёд оплачен. Нет интернета? Типа, в лесу ногу сломал? Ну разве что...

Вот мне нужен бесплатный ИИ, который большой анализ крови проинтерпретирует. Не знаю, какой.

Скачал medgemma-4b-it-Q4_K_M.gguf, запустил на телефоне - работает с короткими текстовым запросами шустро. Конечно, при загрузке фото или сканов все станет грустно и для серьезного использования телефон не годится.

Кстати, ставить диагнозы и давать рекомендации, как оказалось, по лицензии эта модель не может, к сожалению. Очень трудно от нее подобного добиться. Поэтому в качестве карманного фельдшера использовать ее затруднительно всё-таки...

Дипсик пробовал, по своему анализу крови. Вполне, вполне, врач написал практически то же самое. И с ветеринаркой пробовал - даже сложные случаи разбирает, только думает минут по 10, зато бесплатный.

Спасибо, попробую Глубокого.

Привет, спасибо за коммент!

Открытая LLM с возможностью локального запуска в первую очередь нужна для работы в ограниченном контуре и для дообучения. Я думаю, что в будущем именно такие модели станут основой для агентов в клиниках, возможно, даже на госуровне. Они смогут безопасно обращаться к OpenFDA, искать информацию по побочкам и подбирать варианты комбинации молекул, не сливая при этом чувствительные данные пациентов в условный OpenAI.

Что касается мультимодальности (вопрос про PDF и анализы) — картинки и прочее эта модель тоже понимает. Сами Google показывали примеры с анализом флюорограммы и снимков кожи.

Вот только я не понял юмора этой модели. Спрашиваешь "Расскажи про супрастин" - рассказывает. Просишь "Сравни супрастин и Эриус" - отвечает "Как ИИ, я не могу предоставить медицинские консультации". Я даже не говорил, что хочу пить эти таблетки...

Действительно, в статье очень много восторгов, но нету сравнения с теми же самыми промптами на обычных хороших моделях

Пара вопросов.

  1. Никто не проверял, насколько хорошо модель знает всякую биохимию? Например, если спросить ее, какие гормоны и биорегуляторы выделяются в зоне желудка или тонкого кишечника -- насколько полным будет ответ?

  2. В связи с этим -- как можно дообучать эту модель и на каких источниках, чтобы она была в курсе последних данных на интересующую меня тему?

можно же попробовать на Вертексе и не стесняясь взять 27в модель. Там же ссылка есть.

Все что может эта модель, могут спокойно и Грок и Гопота и ошибки там точно те-же и галлюцинации те же. Наверняка есть исключения., но вцелом, самое плохое, что галлюцинации будут поданы как 100% надёжный материал и даже разбирающемуся будет сложно в потоке этого "пиз...жа" отловить ересь, но когда ты пару раз это отловишь, начинаешь все перепроверять, а потом приходит понимание, что проще самому ..

Спрашивать симптомы Орви это конечно стоит Ллм..., но копни куда-то в сторону и начинается цирк.

Пользуюсь MedGemma-27B. Весьма полезный инструмент. Фотографирую болячки - и оно мне расписывает детали, варианты... Использую просто с llama.cpp.

У вас в статье ссылка на модель, которая вышла в мае-2025.

Гугл уже выпустил новую версию этой модели в январе-2026:

https://huggingface.co/google/medgemma-1.5-4b-it

Сейчас уже подтянулись китайцы. У них есть две "медицинских" модели:

1. https://huggingface.co/baichuan-inc/Baichuan-M3-235B

Это модель тюненная на основе Qwen3-235B. Для "принятия клинических решений".

С изображениями работать не может.

2. https://huggingface.co/MedAIBase/AntAngelMed

103B. С изображениями работать не может.

Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации