Локальное хранение нужно не ради безопасности данных, а для того, что когда сервис умрет, или станет платным, то свои драгоценные записи потеряны не будут.
Сделал для ваших драгоценных записей выгрузку всех данных в Json
Я правильно понимаю, что отсюда следует, что оригинальную статью про ИИ в медицине бездумно писала какая-то ИИ на основе "статистического анализа темпов публикации новых медицинских исследований", после этого ее отобрал и перевел ИИ бот Хабра, а после вы с помощью своего ИИ сделали факт-чекинг?
К примеру, подсказывала к какому специалисту обратиться?
Да, конечно, это она и сейчас делает, но не всегда. Это свойство LLM - ответы варьируются на одних и тех же входных данных.
Там внизу при заказе аналитики можно свой запрос составить - укажите явно что вы хотите получить, и она должна лучше справиться.
В дальнейшем есть планы добавить чатбот - в этом случае по составленному отчету можно будет задавать дополнительные вопросы и получать уточнения.
Был ли у вас опыт по использованию обученных на мед.данных моделей?
Не было. Собирался их сразу попробовать, но прочитал, что на общей диагностике и терапии (вроде сферы этого приложения) они не сильно далеко ушли от обычных моделей, типа используемой gpt-4o. Поэтому отложил.
PDF файл сохраняется и его можно потом посмотреть в любой момент, в том числе, если послать результат анализа ссылкой
Удалить программно данные в PDF не вижу как. Можно опционально удалить сам PDF файл и не использовать из него персональную информацию. Но этот файл как источник может быть полезен - сравнить, что все правильно распарсилось, плюс в этом файле может быть дополнительная информация. Я бы не удалял. Еще раз - нужна анонимность - проще всего почистить pdf предварительно.
В будущем планируется работа со сканами и изображениями - там можно будет замазать персональные данные
Если беспокоитесь о сохранности своих данных, в статье и в Справке на сайте описан 100%-ный способ - открываете любой pdf редактор, удаляете из файла все персональные данные и всё. Одна минута на файл.
Буду счастлив, если все так сделают. Миллионные штрафы за утечку персональных данных или до 4 лет по 137 статье УК РФ мне тоже совсем не интересны.
Серьезно? Системы с кэшем имеют всегда свойство - что-то с кэшем случается, система как ни в чем не бывало работает дальше Что будет у вас если кэш решит почиститься?
Вообще-то это делается не так, если у вас какие-то запросы к БД длительностью в минуты (что абсурдно), или большие вычисления, или асинхронные иные операции. Пользователь оставляет запрос на получение результата, и когда результат готов, он или посылается ему чем-то типа вебсокета, либо кладется в БД в таблицу сообщений пользователям. Но кэшу в данной задаче места не видно.
Короткоживущий AT и httpOnly RT решают большинство описанных проблем.
50 строк на бэкенде и 30 на фронте - вот и всё "усложнение"
RT не воруется, либо добавляется привязка к компу / IP
Для разлогина / отзыва по любому надо что-то делать в БД - можно поставить флаг у пользователя
Здравствуйте
Увидел ваш пост. Я написал приложение для анализа показателей лабораторных тестов - https://habr.com/ru/articles/883456/
Ваша LLM подходит для таких общих рекомендаций?
Сделал для ваших драгоценных записей выгрузку всех данных в Json
В аккаунте пользователя
Я правильно понимаю, что отсюда следует, что оригинальную статью про ИИ в медицине бездумно писала какая-то ИИ на основе "статистического анализа темпов публикации новых медицинских исследований", после этого ее отобрал и перевел ИИ бот Хабра, а после вы с помощью своего ИИ сделали факт-чекинг?
Что за период в 73 дня?
А неайтишникам унижаться не приходится?
Да, конечно, это она и сейчас делает, но не всегда. Это свойство LLM - ответы варьируются на одних и тех же входных данных.
Там внизу при заказе аналитики можно свой запрос составить - укажите явно что вы хотите получить, и она должна лучше справиться.
В дальнейшем есть планы добавить чатбот - в этом случае по составленному отчету можно будет задавать дополнительные вопросы и получать уточнения.
Не было. Собирался их сразу попробовать, но прочитал, что на общей диагностике и терапии (вроде сферы этого приложения) они не сильно далеко ушли от обычных моделей, типа используемой gpt-4o. Поэтому отложил.
В первый раз слышу, но если так, то это очень круто
Совет директоров уже официально отклонил его, так что зафиксировано
Хорошая статья
Хотелось бы теперь про отпочковавшийся Anthropic почитать, учитывая данные за последний год
По аналитике сходу есть несколько вариантов:
Улучшенные промпты с бОльшим (чем сейчас) числом вариантов и более структурированными ответами
Несколько последовательных промптов (то есть, по сути AI агент)
Использование специализированных LLM, обученных на медицинских данных (такие есть в открытом доступе)
Использование RAG для получения специализированных ответов (например, анализ данных с точки зрения определенной теории)
Каждый из этих способов может ощутимо улучшить результат, но большинство нужно уже только специалистам.
Дообучать LLM на своих данных имеет смысл на действительно больших объемах, поэтому это вряд ли. Пока )
PDF файл сохраняется и его можно потом посмотреть в любой момент, в том числе, если послать результат анализа ссылкой
Удалить программно данные в PDF не вижу как. Можно опционально удалить сам PDF файл и не использовать из него персональную информацию. Но этот файл как источник может быть полезен - сравнить, что все правильно распарсилось, плюс в этом файле может быть дополнительная информация. Я бы не удалял. Еще раз - нужна анонимность - проще всего почистить pdf предварительно.
В будущем планируется работа со сканами и изображениями - там можно будет замазать персональные данные
Если беспокоитесь о сохранности своих данных, в статье и в Справке на сайте описан 100%-ный способ - открываете любой pdf редактор, удаляете из файла все персональные данные и всё. Одна минута на файл.
Буду счастлив, если все так сделают. Миллионные штрафы за утечку персональных данных или до 4 лет по 137 статье УК РФ мне тоже совсем не интересны.
LLM нужна для парсинга PDF файлов и структуризации данных. Не представляю, как это сделать иначе. Без нее это будет просто Google Drive для файлов.
Не думал. Основная таргет-группа докер вряд ли поднимет. Но если будет интерес - можно сделать.
Но тогда ведь и LLM-ку придется локально поднимать. Или им можно доверять? )))
У Гугла очень много денег и очень много понтов
Во-первых, вы используете кэш как хранилище, а не как кэш
Во-вторых, ещё и оборачиваете работу с ним нетривиальной логикой
Посмотрите в статье, под кэшем подразумевается просто прокладка между БД и клиентом для улучшения производительности.
Серьезно?
Системы с кэшем имеют всегда свойство - что-то с кэшем случается, система как ни в чем не бывало работает дальше
Что будет у вас если кэш решит почиститься?
Вообще-то это делается не так, если у вас какие-то запросы к БД длительностью в минуты (что абсурдно), или большие вычисления, или асинхронные иные операции. Пользователь оставляет запрос на получение результата, и когда результат готов, он или посылается ему чем-то типа вебсокета, либо кладется в БД в таблицу сообщений пользователям. Но кэшу в данной задаче места не видно.
И как кэш решает эту "проблему"?
Форматирование статьи явно указывает на чат-бот
Хотя информация интересная