"подошел к философскому вопросу, действительно ли мне оно необходимо — голосовое управление ПК?" - это отличное решение для слабовидящих, и таких людей достаточно много.
На данный момент действуют более десятка ГОСТов по применению ИИ в медицине, также на эту тему есть Методические Указания минздрава Москвы. Есть Российские компании, выпускающие сертифицированные программные продукты для анализа и рентгеновских снимков и КТ на основе применения нейронных сетей. Рекомендую ознакомиться, там найдёте ответы на практически все вопросы.
"В ходе обсуждений определяют, что необходимо для проверки идей." - и это "в соответствии с общепринятыми академическими принципами"? Не, это принцип колхозного собрания колхоза "40 лет без урожая". В хорошо знакомой академической среде академик и его команда и сами пишут статьи и знакомы с результатами коллег до их публикации и обсуждения в форме семинаров/конференций проводятся совсем для иного.
Chroma - это легко доступная чисто векторная БД и по моему опыту нормально работает с классическим RAG. Для GraphRAG Chroma тоже работает, но логичнее использовать графовые БД. Есть опыт применения открытых/доступных графовых БД?
"всегда договаривайся о критериях приемки (когда это возможно)" - это правило НОМЕР ОДИН, и только если убрать текст в скобках. Если это правило не согласовано и не подписано, то всё остальное - сотрясение воздуха. Можно сформулировать и иначе: "нет хода - не вистуй".
"Эксперты должны свою интуицию, воображение, вообще образные формы мышления" - скорее осознание сути абстрактного мышления совершит прорыв в развитии ИИ
"И было бы интересно знать, как Вы валидируете полученные результаты." Тут только один адекватный способ - по сравнению спектров, синтетического и реального.
Интересно посмотреть на граф молекулы воды с учетом ангармонизма связи О-Н или Н-О-Н
Уже совершили. Как говорила одна моя подругу: три раза утром и два раза вечером. Можно утром два раза, но тогда вечером три раза. Если серьёзно, то читайте про GraphRAG
Запустил T-Lite и Qwen2.5-7B на ноутбуке с Intel Core i7-8750H 2.20GHz. Скрипты из huggingface. Из huggingface взял Prompt "Напиши стих про машинное обучение" и сделал перевод "Write a poem about machine learning" для моделей соответственно. T-Lite считала в 7 раз дольше. Какие мысли, почему?
Для T-Lite max_new_tokens=256, для Qwen2.5-7B max_new_tokens=512
"Что нужно, для запуска:
Linux, видеокарта nvidia
" а на какой карте запускали с CUDA_VERSION=12.4.0 ?
SemanticChunker - очень интересная возможности работы с текстом
"подошел к философскому вопросу, действительно ли мне оно необходимо — голосовое управление ПК?" - это отличное решение для слабовидящих, и таких людей достаточно много.
На данный момент действуют более десятка ГОСТов по применению ИИ в медицине, также на эту тему есть Методические Указания минздрава Москвы. Есть Российские компании, выпускающие сертифицированные программные продукты для анализа и рентгеновских снимков и КТ на основе применения нейронных сетей. Рекомендую ознакомиться, там найдёте ответы на практически все вопросы.
Тяжелый текст, одни общие фразы и повторы.
"В ходе обсуждений определяют, что необходимо для проверки идей." - и это "в соответствии с общепринятыми академическими принципами"? Не, это принцип колхозного собрания колхоза "40 лет без урожая". В хорошо знакомой академической среде академик и его команда и сами пишут статьи и знакомы с результатами коллег до их публикации и обсуждения в форме семинаров/конференций проводятся совсем для иного.
"Генерация сводки сообщества: " перед этим абзацем ожидается цифра 4, а не 1
"
api_key = os.environ["OPENAI_API_KEY"]" как встречаю подобный текст, сразу интерес переходит из практического в академическийChroma - это легко доступная чисто векторная БД и по моему опыту нормально работает с классическим RAG. Для GraphRAG Chroma тоже работает, но логичнее использовать графовые БД. Есть опыт применения открытых/доступных графовых БД?
"всегда договаривайся о критериях приемки (когда это возможно)" - это правило НОМЕР ОДИН, и только если убрать текст в скобках. Если это правило не согласовано и не подписано, то всё остальное - сотрясение воздуха. Можно сформулировать и иначе: "нет хода - не вистуй".
"Эксперты должны свою интуицию, воображение, вообще образные формы мышления" - скорее осознание сути абстрактного мышления совершит прорыв в развитии ИИ
"Мультиплицирование (перефраз/перевод) запроса" ссылка:
https://python.langchain.com/docs/how_to/MultiQueryRetriever/
"Наверное, для меня AutoRAG (repo) - это первый рабочий автоматизированный RAG фреймворк."
судя по картинке на ссылке https://huggingface.co/spaces/AutoRAG/AutoRAG-data-creation там только Choose Langauge. En, Ko, Ja are supported.
"В 2017 году архитектура трансформатора упростила обработку долгосрочных зависимостей в тексте " - дальше можно не читать.
"Векторная база данных используется для поиска соответствующих точек входа графа (узлов) с поиском по сходству."
Чушь написана. Самое главное - как формируются графы (узлы и ребра) автор видимо не понял
Заключение просто повеселило - такие "спецы" советуют нам как жить!
Такое ощущение, что авторы и соавторы ни одного обзора сами не делали.
"Семантическое понимание ", извините, а это не одно и то же?
RAG он и в Африке RAG. А почему не используют GraphRAG - это вопрос. Семантический поиск для подобных задач далеко не особо адекватен.
"И было бы интересно знать, как Вы валидируете полученные результаты." Тут только один адекватный способ - по сравнению спектров, синтетического и реального.
Интересно посмотреть на граф молекулы воды с учетом ангармонизма связи О-Н или Н-О-Н
Зачем переводить/публиковать этот текст для домохозяек?
Уже совершили. Как говорила одна моя подругу: три раза утром и два раза вечером. Можно утром два раза, но тогда вечером три раза. Если серьёзно, то читайте про GraphRAG
Ув автор! Чем Ваш труд отличается от десятка аналогичных статей, уже опубликованных на Хабре?
Запустил T-Lite и Qwen2.5-7B на ноутбуке с Intel Core i7-8750H 2.20GHz. Скрипты из huggingface. Из huggingface взял Prompt "Напиши стих про машинное обучение" и сделал перевод "Write a poem about machine learning" для моделей соответственно. T-Lite считала в 7 раз дольше. Какие мысли, почему?
Для T-Lite max_new_tokens=256, для Qwen2.5-7B max_new_tokens=512