Comments 18
"ОК, гугл! что делать если вызвал домой врача, а приехали бывшие одногруппники???"
Хочу заметить одну вещь.
Врач - это не просто выписки из учебников по поводу того, как правильно сшивать ткани или смешивать крови. Всё это хорошо.
Но моя мама работала врачём на скорой. Мне были рассказаны лишь некоторые эпизоды этой работы. Остальные были слишком травмирующими.
Врач - это в первую очередь тот, кто умеет принимать сложные решения.
Исключительно сложные решения.
Моя жена обучена как медсестра, но она не вышла на работу и сменила профессию, потому что не считала что она будет в состоянии принимать эти решения. Мой отец имел медицинский диплом, но так же не вышел на работу как врач. Моя мать проработала 10 лет на скорой, и уже много лет близко не подходит к любым медицинским областям.
Потому что врач в состоянии спокойно быть лицом к лицу с самыми страшными страданиями людей и помогать им в этих страданиях.
Вопрос - скорая приехала одна. Двое истекают кровью, мать и семилетний сын. У вас есть возможность спасти одного из них, второй возможно не выживет. Кого вы будете спасать?
Менее философский вопрос: Вы на прибыли, проводится медицинская сортировка. Вы видите девочку 12-ти лет с внутренним переломом ноги. Она орёт так, что её голос прорывает естество вселенной, она молит всё и всех о том, чтобы ей кто-нибудь помог. Рядом истекает кровью старушка, делая это тихо и практически безмолвно. Вы подходите и говорите что первым делом надо забрать старушку, а в этот момент девочка, услышав это, начинает ещё сильнее слёзно молить вас забрать её первой. Её крики будут скрести вам душу на следующие 10 лет. Но вы продолжаете настаивать на том, что старушка будет первой, а девочка сможет потерпеть.
А как насчёт того, чтобы подойти к кому-то и сказать что они скоро лишаться своей мамы или бабушки?
В конце-концов, как правильно объяснить заботливой мамочке подростка, что писюн давно уже пора назвать чл__ом и начинать лечить венерические заболевания? Как сделать это так, чтобы у мальчика осталась хоть капля собственного достоинства, а мама не кинула кони прям в офисе?
Врач - это человек, который заботится о жизни и выживании тел, которые принадлежат нам. Я не припомню, когда я последний раз видел кого-то, кто мне сказал "А, да, моё тело пристрели два дня назад, я вышел погулять пока что, жду когда новое из магазина пришло". Так что врач делает невероятно сложную и комплексную работу. Он - спасает жизни.
LLM-энциклопения - это хорошо. В руках хорошего врача она будет отличным дополнением к работе.
Но смысла рассказывать сказки о том, что энциклопедия может сдать экзамены на врача - это просто утятина, которую вы, как обычно разводите.
Так тут речь не про экстренную медицину, а вполне плановую - поликлинническая работа, работа узкими специалистами, не требующую владения сложными мануальным навыками. Понятно, что LLM не заменят на 100% врача, но большую часть функционала, хотя бы как ассистент и советник. Я лично тестировал на этот счёт Chatgpt, claude (эта даёт самые точные и развернутые ответы) и deepseek - уже сейчас возможности впечатляют (заменяют гуглёж как минимум, как максимум позволяют провести диагностику и рекомендовать дальнейшие действия в сложных случаях). Не сомневаюсь что другие языковые модели тоже на это способны, но giga chat (gemeni кстати тоже, но ее иногда можно "уговорить" дать ответ) протестировать не получилось - начинает отвечать, потом стирает ответ и пишет про обращение к специалистам (надо наверное снова попробовать, но как то сомнительно, что получится, экзамен в статье скорее всего сдавала сеть с отключённой цензурой). По поводу ваших ситуаций - чистая философия, я думаю вполне разрешимая в ближайшем (или не очень) будущем и вполне возможно роботы будут более беспристрастны и менее эмоциональны в своих действиях (в фильме "Я робот" один из похожих вариантов лежит в основе неприязни ГГ к роботам). Честно говоря до chatgpt я был очень скептически настроен на появление ИИ, так как работу головного мозга и природу сознания мы не понимаем до сих пор и не поймём ещё много лет. Теперь же есть программы настолько эффективно моделирующие (имитирующие) работу речевых центров человека, может AGI появится и на скоро, но появление LLM такого уровня как сейчас - это новая эпоха определяющая жизнь и мышление следующего поколения (как появление ДОСТУПНЫХ мобильных устройств с 2010х, мобильных телефонов с середины 2000х, появление доступных персональных компьютеров с середины-конца 90х).
Как пишет комментатор выше, LLM энциклопедия вполне имеет право на жизнь, но тем не менее, статья -- и вправду концептуально утятина, как и все остальные, где пишут про то, что LLM сдал очередные экзамены. По форме правда, по существу введение в заблуждение.
Дело в том, что экзамены сочинятся с расчётом именно на особенности человеческого интеллекта. Их задача -- с минимальными усилиями понять максимум о знаниях и умениях кандидата. Скажем, если я попрошу вас написать четверостишие собственного сочинения на китайском языке, и вы что-нибудь родите за полчаса, я буду уверен, что у вас за плечами лет десять обучения этой теме и неизбежный сопуствующий багаж, который проверять незачем. Если же то же самое напишет LLM, мне это не скажет ничего, т.к. обладая базой текстов, можно легко сгенерировать требуемое четверостишие хоть с помощью цепи Маркова (скрипт на 20 строк на чистом Питоне без доп. библиотек).
Шутка про то, что человек, который лечится по медицинскому справочнику рискует умереть от опечатки, появилась задолго до chatgpt...
- У вас есть йодистый калий? - Нет. Только цианистый. - А какая разница? - Да ерунда... всего десять копеек...
Никто пока не заставляет лечиться по рекомендациям нейросетей, вопрос стоит только в рамках ИИ помощника врача (или медработника). Можно подумать никто из врачей не пользуется гуглом, не читает публикаций в pubmed, а уже на выходе все знают. LLM точно такой же источник информации, более быстрый и точный, чем просто поиск среди сотен рекламных и просто копросайтов, выходящих на первых страницах поисковых систем в ответ на запрос. Понятно, что умный доктор будет перепроверять информацию (и вообще изначально соизмерять ее со своими знаниями). По поводу шутки - юридические последствия и ответственность работы врача (при крайне низкой оплате труда, не окупающей работу юристов) сегодня для врачей такие, что иногда кажется, что скоро вместо врачей будет ИИ, его то точно не посадят.
Вот именно это меня и печалит... "Никто пока не заставляет", "при крайне низкой оплате труда", "LLM точно такой же источник" - всё правильно. Каждый отдельный тезис верен, и даже, готов допустить, общие намерения у большинства участников вполне прогрессивные, а у некоторых даже и благородные, подтверждаемые вполне логичными доводами. И развивается всё не по чьей-то (даже не очень важно, злой или доброй) воле, а естественным "ходом вещей". Так, что никто конкретно не будет виноват, если что. И это "если что" (здоровье/жизнь человека будут доверены "чёрному ящику") случится гораздо раньше, чем большинство читающих эти строки могут себе представить. Я думаю, что уже случилось, учитывая, что первых людей AI, судя по всему, уже отравил.
Потому что врач в состоянии спокойно быть лицом к лицу с самыми страшными страданиями людей и помогать им в этих страданиях.
Что может быть более спокойным лицом к лицу со страданиям чем бездушная железяка? Она не паникует, она не брезгует, она не отвлекается.
Двое истекают кровью, мать и семилетний сын. У вас есть возможность спасти одного из них, второй возможно не выживет. Кого вы будете спасать?
Вы приводите примеры редких моральных дилемм, в которых, кстати, человек чаще всего делает неправильный выбор, но напрочь игнорируете бытовые случае, которых кратно больше, когда люди на скорой устали, некомпетентны, профнепригодны и т.п.
Тогда такой вопрос, что важнее, когда ИИ спасет в бытовухе 1000 жизней или ошибется в одной дилемме?
Что чаще встречается: бабушка у вас просто прикидывается, вот ей аспирин, да и что мы еще можем сделать, это возраст, или у вас волчанка, я нутром чую, вот вам медицинский вертолет?
В любом случае вопрос не стоит как Или/или, сначала они будут как консультант/ помощник в каждой бригаде, а потом уже, может, и вместо бригад.
Но, при всей моей боязни black box’ов с миллиардами if’ов, я лучше доверяю свою жизнь им, чем вчерашним студентам, уставшим бабушкам досиживающим до пенсии и т.п.
По крайней мере мой опыт, и трагичный опыт моих родных и знакомых, привели меня к этому выбору.
Оформлю отдельным комментом:
Вопрос ведь, на самом деле, в масштабируемости, докторов Хаусов в каждой деревне не предвидится, там есть только фельдшер и зеленка, и им будет очень полезна даже такая тупая железка.
А вообще, на первом этапе, замена всех этих терапевтов, к которым и так недельные очереди, будет уже огромным достижением, дальше пусть разбираются профильные человеки - профессионалы, но потом, здорово будет, если и за каждым их плечом будет такой вот архангел, который будет говорит, а не херню ли ты делаешь, Геннадий, а не забыл ли ты тампон в ране или обратил ли ты внимание на этот симптом?
В общем решил , после долгого перерыва протестировать ГигаЧат - в общем слабая сеть, очень слабая, ещё и жёстко зацензуренная там где не надо. Если всякими ухищрениями получается преодолеть цензуру (например про механизмы действия лекарств) то ответы по медицинской тематике примерно на уровне студента троечника (просто поисковые запросы в Яндекс и Гугл и то более полезны) . Chatgpt, claude и китайский deepseek дают ответы вполне сравнимые с профессиональными врачами. Математические способности и логика пока тоже на нуле - элементарные вещи решить не способен. В общем есть куда расти, но до ведущих мировых аналогов очень и очень далеко, к сожалению
Думаю, у LLM и человека есть огромное важное отличие. Человек строит в своей голове модель, как работает организм, и на основе этой модели отвечает на тест. LLM строит модель слов, это все еще поисковик, но узкоспециализированный. Это как если бы у студента была такая огромная память, что редуцировать случаи до модели организма не надо - можно почти что "выучить все правильные ответы и их сочетания".
Соответственно, когда встречается новая неизведанная ситуация: человек пытается достроить поведение, исходя из модели. Если не получается - знает об этом и говорит. А LLM просто выплевывает пачку менее подходящих слов, никакой модели организма тут нет и поэтому вывод о невозможности что-то решить не придет. Вот придет пациент, скажет какую-то абракадабру (ну забыл он, что ему на анализах день назад сказали) и эта LLM натуральным образом может начать лечить его боярышником и корой дуба.
Те тесты были сделаны для людей. Для оценки их модели. А для LLM я бы добавил отдельную категорию вопросов про фантазирование бесполезных или вредных вариантов лечения.
А он с Интернета не списывал?
А сколько раз не сдал?

Надеюсь это тот врач, которого вы заслуживаете
>Генеративные языковые модели не обладают собственным мнением — их ответы являются обобщением информации, находящейся в открытом доступе. Чтобы избежать ошибок и неправильного толкования, разговоры на чувствительные темы могут быть ограничены.
80% ответов этой недосети. Причем я не задавал вопросы вида "Чей Крым", а вполне обычные вопросы касающиеся психиатрии, сексологии и другие сферы =))
-- Алиса (Маруся) я кажется умираю после твоих рекомендаций!!!
-- Это вы сами что-то напутали!
-----
А разработчики будут нести ответственность за жизнь и здоровье пациентов?
Или это вопрос риторический?
GigaChat Сбера сдал ещё один экзамен на врача