Я должен сказать, что достаточно привязался к умным часам и слежу за показателями. Но у меня упорно устойчивое ощущение, что генетика решает все. Вот сегодня вывшло видео от Браяна Гослинга (чувак, который даже перекачивал кровь сына, но в целом специалист по здоровью) и оно про мотивацию.
И вот я смотрю
вовремя лечь, это челенж, вы должны стремиться спать по 9 часов
нагрузки это челенж, вам тяжело, но вы должны стараться ходить в зал
диета, - челенж, вы должны отказаться от того, чего вам хочется
кардио, - челенж, но вы должны развивать сердце
А я не должен... Я всегда идеально высыпаюсь, у меня иммунитет к стрессу, нагрузки и диета не вызывают никаких эмоций, а сердце, бьется с 120+ HRV хотя кардио я не делал никогда.
Хотелось бы, чтобы мы все просто дожили до момента, когда здоровье перестанет быть челенжем, а не пытались гипероптимизировать, говоря, что Garmin/Whoop выдавливают на 4% более точные показатели, чем всем доступные и везесущие Apple/Samsung/Huawei watch
Данные обрабатываются на сервере только потому, что у вам пластырь c электродами и лампочкой за 30 тысяч рублей продали. Никаких причин как в любых часах сделать дисплей и проц нет. Я не говорю про ремешок, который можно было сделать 22mm, совместимым с ремешками из кожи людей от кутюр и поделки из китая за 12 центов.
ИМХО, генетика и среда. Болезни вроде альцгеймера вызываются недоочисткой, если подумать, - умственная активность почти ничего не делает с процессом очищения. А вот физическая активность, сон, стресс, - делают. Кардиоваскулярка делает. Ковид может вообще вызовет альцгеймер у сотен тысяч людей, которым до пенсии остались десятилетия.
Но вот есть фактические способы упускать память по другим причинам, - в СДВГ плохо регистрируются в памяти эпизоды, на связанные с дофаминовым подкреплением. У меня похожая ерунда с адреналином, стрессовые ситуации не задерживаются в воспоминаниях.
Возможно хорошей теорией была бы не "работа" мозга, а закрепление воспоминаний эмоциями, болью и иными стимулами? Мозг, который не воспринимает/не знает стимулы не преследует их. Это объясняет, почему за воспоминания было бы тяжелее держаться и объясняет, почему то, что вы делали до старости может быть важнее, чем то, что пытаетесь с ее наступлением.
Я вот не в США и не в РФ, я отдавал немыслимые для меня деньги за лечение в французском госпитале. У меня была переводчица, в постель подавали утку с картофельным гратеном и там был самый вкусный латте, что я только пробовал, на кнопке у меня была "яндекс-доставка" в виде человека, который мог принести, позвать, купить что-угодно, несколько человек убирались в моей палате, помогали ходить, умывали, доктора говорили на чистом английском.
А неделей ранее я лежал в гос.госпитале, потому, что частные отказывались меня принимать. Он предполагали, что спасти меня у них не получится. В том госпитале был один лифт, грязные корридоры, у знакомой похитили телефон, а по палатам бегали тараканы, меня оперировал пьяный хирург и главврач, вызванный в полночь воскресенья, в операционной парила пыль.
В одном госпитале мне через задницу спасли жизнь, а в другом не расчитали анастезию, не укрепили швы, полтора часа и с десятком медсестер не могли поставить вену, ошиблись в антибиотиках.
В одном я боялся, что мне придется провести еще хотя бы день на койке, созданной ради человеческих страданий, а в другом, - человека в галстуке и с широкой улыбкой. Он заставил меня посмотреть на дорогого человека и сказать, - "я не могу позволить себе прожить еще 10 дней".
хах, спасибо, сочту за комплимент меня в целом радует, когда люди, подобно вам, интересуются медициной в ИИ, это одна из достойных тем, куда в прошлом дорога обычным смертным была заказана в принципе
Ну, используйте пожалуй другие модели, если вам нужна точность без анализов. Refusalы в медицинских моделях имхо вообще несовместимы с любой задачей.
Скоринг в таком виде бессмысленен, значительная часть результатов даже не отвечает этим симптомам, метеоризм вообще просто газы, он не может вызвать ни одного из трех симптомов, а например фибромиалгия хроническая и исключается температурой тела.
Скорее всего, симптомы матчатся синтаксически и частотно, а не семантически, слишком редкие/региональные заболевания, которые стоит опускать негативными весами локации/не указанных симптомов.
Имхо, можно без анализов сделать выводы, что вы попадете в emergency в любом случае.
Ну так-то, будьте выше газлайтинга. Вы прямо сказали, что это алгоритм ллм и подсказки снижают поле предсказаний подобно бинарному поиску. Это совершенно точно максимально далеко от правды. Масштабирование на маленькие модели и векторный поиск ничего не меняет.
Касательно остального, - блин, ну понятное дело нужно хотя бы локацию боли и число температуры уточнить. Вот 8b модель например
Пример
Не знаю, что вы пытаетесь проиллюстрировать от себя.
Я искренне извиняюсь, если вам покажется это грубым, но это вы демонстрируете ошибку выжившего. У вас попросту не было причин критически воспринимать уровень собственной осведомленности LLM или возможности верифицировать медицинскую историю по фактически произошедшим обстоятельствам/нарушением/ошибкам.
Мне Data-Инженером быть приходится уже 9 лет и работать с врачами в тандеме приходилось, MD спит рядышком, а самому стать case-study повезло.
Без анализов такие решения действительно сложно принимать
Если ваше состояние требует госпитализации, у вас не может не быть анализов. Но если предположить, что все от руки, на китайском, Gemini уверенно вам ответит, что отменить тот антибиотик на третий день могли за счет биопсии, никак иначе и никак не вопреки. Gemini также знает, что боль и непроизвольное сокращение мышц с температурой это перитонит, а вы в дерьме, без анализов и уточнений обошелся.
То что модель может что то определить с подсказками так это не чудеса, а алгоритм. (бинарный поиск)
Вы заблуждаетесь, - сам механизм LLM буквально противопоставлен бинарному поиску. Если пытаться представить пример, врач будет отсеивать некорректные гипотезы, LLM будет "балансировать" конфликтующие диагнозы.
Как раз поэтому продукт девушки из статьи, - собачья чушь, неумело построенная человеком, не понимающим, как работает LLM, буквально усиливающим некорректные гипотезы и отдалаясь от истины с каждым шагом.
Без исследований за 2024 год в обучении, модели придется размышлять симптоматично и укреплять некорректные гипотезы, пытаясь совместить их между собой, пример хорош именно тем, что у модели нет знаний. Их придется искать, и чем хуже модель справляется, тем сильнее confirmation bias будет отдалять ее от корректного результата.
По итогам вычислений моей модели - Если человек систематически курит или употребляет алкоголь (пусть и слабоалкогольное даже в 1 процент) больше 2 раз в неделю, то не нужно других причин заболеваний - это отражается на всех органах и на психике. Если избыточная масса или ожирение, то тоже нужно бороться с этими недугами, а уж потом с самой болезнью.
Не понял мысль. Лечение идет симптоматично, чтобы врач сказал, что проблема с курением/ожирением, вы должны проявлять симптомы ослабленной кардиоваскулярной системы.
По моим тестам обычного DeepSeek и ChatGPT4, - они спасли мне жизнь, в реальном кейсе с реальными emergency госпитализациями в другой стране. Без них (например, ибо пример не один), я бы уныло кивнул, когда доктора отменили IV-антибиотик и через неделю скончался или попал в ICU с отказом органов.
Ну, открытые модели угадывают мой фенотип с 4-8 итераций в зависимости от подсказок, но только с интернетом. Из закрытых только Gemini, но угадывает за 2 итерации(одна серия уточняющих вопросов да/нет)
По моему опыту Gemini единственная модель с реальным знанием научных публикаций за 25 год, даже у антропика cut-off часто в 2019/2022.
Касательно сферы компетенции врачей, - может быть так верят в СНГ. Но в США врачи лично отвечают за каждое из положений врачебной сертификации, а уровень образования считается эквивалентен PhD. Для врача нормально заниматься научной деятельностью даже в России, с чего бы им не интересоваться ИИ в США, где он, как я сказал, - буквально включен в работу.
Сидя по реддиту, не только пользуются, но даже заставляют и встроены в системы. Никто не остерегается правовых последтсвий, у докторов регулярно посты в стиле "я задал вопрос, как обеспечивается безопасность данных, мне сказали, что не могут ответить". Все через задницу, как и везде в этой сфере.
Я очень рад, что агенты по зарабатыванию бабла скопипастили статью из другой помойки, но у ресурса есть вебсайт, который - вся суть статьи. https://raredx.cn/doctor#/doctor
Учитывая смешное ограничение по символам, - у них все получилось, потому, что запланировали, что получится. Невозможно описать даже до смешного короткий список симптомов. Мое достаточно редкое состояние модель не угадала.
Edit: Дотестил до конца, боже, я упомянул 2 госпитализации в пределах одной недели (одно и то же заражение), а модель в итоге сгаллюцинировала 85% Mendelian Susceptibility to Mycobacterial Disease, что абсолютный абсурд с 2х кейсов за жизнь в течении 1 недели и вообще другой бактерии, при том, что прочие проявления пожизненны. Я ожидал ошибку с первого же этапа (их 6), но такой бред для реального врача должен заканчиваться отзывом лицензии.
Упомяну, что ресурс ВООБЩЕ не предназначен для обычных людей, исключительно и только для докторов и ученых, поэтому с проблемой, которую описал @alexhu они не боролись.
Свойство моделей общаться/соглашаться/убеждать/имитировать эмпатию не естественное свойство, а намеренный пост-тренинг, цель которого ни разу не блек бокс.
В естественном виде все модели "Instruct". Оставалась бы ChatGPT "instruct", - осталась бы ножом. А так, даже у вас никакой уровень понимания аналогий для LLM, что говорить об обычных человеках, которые не смотрят новости/обзоры, не используют их в разработке и реальных прикладных задачах.
Оффтоп в контексте литературы, но я тестил Gemini без интернета/поиска и это единственная модель, которая сходу знала об исследованиях, сделанных в 2025 году, по сути переопределяющих многое из известного в 2019, 2022 или 2024.
Остальные модели, сколько не пишут, что cut-off знаний в Июле 2025, умудряются не только из 2025 и 2024, но и из 2022 ничего не знать.
В списке этих моделей и Opus 4.6, который я протестил еще раз только что. Причем исследования медицинские, а противоречия вполне себе могу привести к смерти пациента, поэтому Anthropic сейчас я бы не стал использовать как бекенд для мед-ассистента.
Вспоминаются флешбеки на закрытия фискального года, я тогда учился возле налоговой и недоумевал, почему сотни людей в лакированных ботинках, с портфелями и в костюмах, стоят очередью по колено в грязи, в маленькую будочку на заправке прямо напротив налоговой
У OpenAI и Anthropic хватает мозгов засунуть nginx с ранкинг llmкой, чтобы нужная модель отвечала на нужные вопросы, а гугл пытается обучить всему и сразу
Но не уверен, что соглашусь, в англоязычном интернете Gemini был стандартом для написания текстов, который в добавок не чурается NSFW, у Anthropic просто очень удобные инструменты, которые почти невидимо промпт инженерят.
Причем эта симуляция не работает. Если вы спите 5-6 часов, у вас обычно появляться время скушать лишний йогурт, поиграть в игры, почитать на досуге. Остальные то люди спит, либо задолго до того, как вы ляжете, либо еще долгое время после, что может делать CEO, который, строго говоря, вообще ничего сам не может делать?
Если честно, оригинальная статья, - просто ai сборище последних новостей в сфере сна+деменции. Никаких полезных выводов или теорий она сделать не дает и тезис в заголовке статьи не подтверждает, что даже любопытно, поскольку достаточно много исследований доказывающих прямое влияние недосыпа на память, прямое влияние циркадных ритмов на недосып и прямое влияние памяти на деменцию.
Справедливости ради, в этой сфере каждые пол года выходит исследование опровергающее предедущие, по которым уже написаны тысячи статей и сделаны тысячи lifestyle тиктоков. А воз и ныне там, пол года не могу понять, безопасно ли мне спать 5 часов
Я должен сказать, что достаточно привязался к умным часам и слежу за показателями. Но у меня упорно устойчивое ощущение, что генетика решает все. Вот сегодня вывшло видео от Браяна Гослинга (чувак, который даже перекачивал кровь сына, но в целом специалист по здоровью) и оно про мотивацию.
И вот я смотрю
вовремя лечь, это челенж, вы должны стремиться спать по 9 часов
нагрузки это челенж, вам тяжело, но вы должны стараться ходить в зал
диета, - челенж, вы должны отказаться от того, чего вам хочется
кардио, - челенж, но вы должны развивать сердце
А я не должен... Я всегда идеально высыпаюсь, у меня иммунитет к стрессу, нагрузки и диета не вызывают никаких эмоций, а сердце, бьется с 120+ HRV хотя кардио я не делал никогда.
Хотелось бы, чтобы мы все просто дожили до момента, когда здоровье перестанет быть челенжем, а не пытались гипероптимизировать, говоря, что Garmin/Whoop выдавливают на 4% более точные показатели, чем всем доступные и везесущие Apple/Samsung/Huawei watch
Данные обрабатываются на сервере только потому, что у вам пластырь c электродами и лампочкой за 30 тысяч рублей продали. Никаких причин как в любых часах сделать дисплей и проц нет. Я не говорю про ремешок, который можно было сделать 22mm, совместимым с ремешками из кожи людей от кутюр и поделки из китая за 12 центов.
ИМХО, генетика и среда. Болезни вроде альцгеймера вызываются недоочисткой, если подумать, - умственная активность почти ничего не делает с процессом очищения. А вот физическая активность, сон, стресс, - делают. Кардиоваскулярка делает. Ковид может вообще вызовет альцгеймер у сотен тысяч людей, которым до пенсии остались десятилетия.
Но вот есть фактические способы упускать память по другим причинам, - в СДВГ плохо регистрируются в памяти эпизоды, на связанные с дофаминовым подкреплением. У меня похожая ерунда с адреналином, стрессовые ситуации не задерживаются в воспоминаниях.
Возможно хорошей теорией была бы не "работа" мозга, а закрепление воспоминаний эмоциями, болью и иными стимулами? Мозг, который не воспринимает/не знает стимулы не преследует их. Это объясняет, почему за воспоминания было бы тяжелее держаться и объясняет, почему то, что вы делали до старости может быть важнее, чем то, что пытаетесь с ее наступлением.
Я вот не в США и не в РФ, я отдавал немыслимые для меня деньги за лечение в французском госпитале. У меня была переводчица, в постель подавали утку с картофельным гратеном и там был самый вкусный латте, что я только пробовал, на кнопке у меня была "яндекс-доставка" в виде человека, который мог принести, позвать, купить что-угодно, несколько человек убирались в моей палате, помогали ходить, умывали, доктора говорили на чистом английском.
А неделей ранее я лежал в гос.госпитале, потому, что частные отказывались меня принимать. Он предполагали, что спасти меня у них не получится. В том госпитале был один лифт, грязные корридоры, у знакомой похитили телефон, а по палатам бегали тараканы, меня оперировал пьяный хирург и главврач, вызванный в полночь воскресенья, в операционной парила пыль.
В одном госпитале мне через задницу спасли жизнь, а в другом не расчитали анастезию, не укрепили швы, полтора часа и с десятком медсестер не могли поставить вену, ошиблись в антибиотиках.
В одном я боялся, что мне придется провести еще хотя бы день на койке, созданной ради человеческих страданий, а в другом, - человека в галстуке и с широкой улыбкой. Он заставил меня посмотреть на дорогого человека и сказать, - "я не могу позволить себе прожить еще 10 дней".
хах, спасибо, сочту за комплимент
меня в целом радует, когда люди, подобно вам, интересуются медициной в ИИ, это одна из достойных тем, куда в прошлом дорога обычным смертным была заказана в принципе
Ну, используйте пожалуй другие модели, если вам нужна точность без анализов. Refusalы в медицинских моделях имхо вообще несовместимы с любой задачей.
Скоринг в таком виде бессмысленен, значительная часть результатов даже не отвечает этим симптомам, метеоризм вообще просто газы, он не может вызвать ни одного из трех симптомов, а например фибромиалгия хроническая и исключается температурой тела.
Скорее всего, симптомы матчатся синтаксически и частотно, а не семантически, слишком редкие/региональные заболевания, которые стоит опускать негативными весами локации/не указанных симптомов.
Имхо, можно без анализов сделать выводы, что вы попадете в emergency в любом случае.
Ну так-то, будьте выше газлайтинга. Вы прямо сказали, что это алгоритм ллм и подсказки снижают поле предсказаний подобно бинарному поиску. Это совершенно точно максимально далеко от правды. Масштабирование на маленькие модели и векторный поиск ничего не меняет.
Касательно остального, - блин, ну понятное дело нужно хотя бы локацию боли и число температуры уточнить. Вот 8b модель например
Пример
Не знаю, что вы пытаетесь проиллюстрировать от себя.
Я искренне извиняюсь, если вам покажется это грубым, но это вы демонстрируете ошибку выжившего. У вас попросту не было причин критически воспринимать уровень собственной осведомленности LLM или возможности верифицировать медицинскую историю по фактически произошедшим обстоятельствам/нарушением/ошибкам.
Мне Data-Инженером быть приходится уже 9 лет и работать с врачами в тандеме приходилось, MD спит рядышком, а самому стать case-study повезло.
Если ваше состояние требует госпитализации, у вас не может не быть анализов. Но если предположить, что все от руки, на китайском, Gemini уверенно вам ответит, что отменить тот антибиотик на третий день могли за счет биопсии, никак иначе и никак не вопреки. Gemini также знает, что боль и непроизвольное сокращение мышц с температурой это перитонит, а вы в дерьме, без анализов и уточнений обошелся.
Вы заблуждаетесь, - сам механизм LLM буквально противопоставлен бинарному поиску. Если пытаться представить пример, врач будет отсеивать некорректные гипотезы, LLM будет "балансировать" конфликтующие диагнозы.
Как раз поэтому продукт девушки из статьи, - собачья чушь, неумело построенная человеком, не понимающим, как работает LLM, буквально усиливающим некорректные гипотезы и отдалаясь от истины с каждым шагом.
Без исследований за 2024 год в обучении, модели придется размышлять симптоматично и укреплять некорректные гипотезы, пытаясь совместить их между собой, пример хорош именно тем, что у модели нет знаний. Их придется искать, и чем хуже модель справляется, тем сильнее confirmation bias будет отдалять ее от корректного результата.
Не понял мысль. Лечение идет симптоматично, чтобы врач сказал, что проблема с курением/ожирением, вы должны проявлять симптомы ослабленной кардиоваскулярной системы.
По моим тестам обычного DeepSeek и ChatGPT4, - они спасли мне жизнь, в реальном кейсе с реальными emergency госпитализациями в другой стране. Без них (например, ибо пример не один), я бы уныло кивнул, когда доктора отменили IV-антибиотик и через неделю скончался или попал в ICU с отказом органов.
Ну, открытые модели угадывают мой фенотип с 4-8 итераций в зависимости от подсказок, но только с интернетом. Из закрытых только Gemini, но угадывает за 2 итерации(одна серия уточняющих вопросов да/нет)
По моему опыту Gemini единственная модель с реальным знанием научных публикаций за 25 год, даже у антропика cut-off часто в 2019/2022.
Касательно сферы компетенции врачей, - может быть так верят в СНГ. Но в США врачи лично отвечают за каждое из положений врачебной сертификации, а уровень образования считается эквивалентен PhD. Для врача нормально заниматься научной деятельностью даже в России, с чего бы им не интересоваться ИИ в США, где он, как я сказал, - буквально включен в работу.
Сидя по реддиту, не только пользуются, но даже заставляют и встроены в системы.
Никто не остерегается правовых последтсвий, у докторов регулярно посты в стиле "я задал вопрос, как обеспечивается безопасность данных, мне сказали, что не могут ответить". Все через задницу, как и везде в этой сфере.
Я очень рад, что агенты по зарабатыванию бабла скопипастили статью из другой помойки, но у ресурса есть вебсайт, который - вся суть статьи. https://raredx.cn/doctor#/doctor
Учитывая смешное ограничение по символам, - у них все получилось, потому, что запланировали, что получится. Невозможно описать даже до смешного короткий список симптомов. Мое достаточно редкое состояние модель не угадала.
Edit: Дотестил до конца, боже, я упомянул 2 госпитализации в пределах одной недели (одно и то же заражение), а модель в итоге сгаллюцинировала 85% Mendelian Susceptibility to Mycobacterial Disease, что абсолютный абсурд с 2х кейсов за жизнь в течении 1 недели и вообще другой бактерии, при том, что прочие проявления пожизненны. Я ожидал ошибку с первого же этапа (их 6), но такой бред для реального врача должен заканчиваться отзывом лицензии.
Упомяну, что ресурс ВООБЩЕ не предназначен для обычных людей, исключительно и только для докторов и ученых, поэтому с проблемой, которую описал @alexhu они не боролись.
Свойство моделей общаться/соглашаться/убеждать/имитировать эмпатию не естественное свойство, а намеренный пост-тренинг, цель которого ни разу не блек бокс.
В естественном виде все модели "Instruct". Оставалась бы ChatGPT "instruct", - осталась бы ножом. А так, даже у вас никакой уровень понимания аналогий для LLM, что говорить об обычных человеках, которые не смотрят новости/обзоры, не используют их в разработке и реальных прикладных задачах.
Оффтоп в контексте литературы, но я тестил Gemini без интернета/поиска и это единственная модель, которая сходу знала об исследованиях, сделанных в 2025 году, по сути переопределяющих многое из известного в 2019, 2022 или 2024.
Остальные модели, сколько не пишут, что cut-off знаний в Июле 2025, умудряются не только из 2025 и 2024, но и из 2022 ничего не знать.
В списке этих моделей и Opus 4.6, который я протестил еще раз только что.
Причем исследования медицинские, а противоречия вполне себе могу привести к смерти пациента, поэтому Anthropic сейчас я бы не стал использовать как бекенд для мед-ассистента.
Вспоминаются флешбеки на закрытия фискального года, я тогда учился возле налоговой и недоумевал, почему сотни людей в лакированных ботинках, с портфелями и в костюмах, стоят очередью по колено в грязи, в маленькую будочку на заправке прямо напротив налоговой
У OpenAI и Anthropic хватает мозгов засунуть nginx с ранкинг llmкой, чтобы нужная модель отвечала на нужные вопросы, а гугл пытается обучить всему и сразу
Но не уверен, что соглашусь, в англоязычном интернете Gemini был стандартом для написания текстов, который в добавок не чурается NSFW, у Anthropic просто очень удобные инструменты, которые почти невидимо промпт инженерят.
Не рекомендую, я все отрочество провел с такими снами, за что, видимо, на оставшуюся жизнь снов меня лишили
Причем эта симуляция не работает. Если вы спите 5-6 часов, у вас обычно появляться время скушать лишний йогурт, поиграть в игры, почитать на досуге. Остальные то люди спит, либо задолго до того, как вы ляжете, либо еще долгое время после, что может делать CEO, который, строго говоря, вообще ничего сам не может делать?
Если честно, оригинальная статья, - просто ai сборище последних новостей в сфере сна+деменции. Никаких полезных выводов или теорий она сделать не дает и тезис в заголовке статьи не подтверждает, что даже любопытно, поскольку достаточно много исследований доказывающих прямое влияние недосыпа на память, прямое влияние циркадных ритмов на недосып и прямое влияние памяти на деменцию.
Справедливости ради, в этой сфере каждые пол года выходит исследование опровергающее предедущие, по которым уже написаны тысячи статей и сделаны тысячи lifestyle тиктоков. А воз и ныне там, пол года не могу понять, безопасно ли мне спать 5 часов