Обновить
-2
0
Nick@ENick

Пользователь

Отправить сообщение

Спасибо, жду следующую часть!

Проверил некоторые промпты на DeepSeek - нормально работает!

"Все равно мы идем в мир, где стоимость интеллекта равна нулю." - Прикольно!

Милый Автор!

"мы с ChatGPT прошли астрофизику и квантовую физику" - как меня это радует!

А я, грешным делом, так далёк от этого. На какой-то "отрицательной вероятности" зациклился. Кстати, это из квантовой физики.

А перед "пробежкой" по астрофизике и квантовой физике, видимо, был фитнес по матричным вычислениям?

Возможны варианты: могли кошку Карамельку их-за окраски/темперамента упомянуть черепашкой. Скорее вопрос к Автору - это его реальный пример? Кто такая Карамелька? В папку Кошки могла заползти черепаха?

Спасибо, познавательно, пожалуйста продолжайте

"разметить эту же выборку экспертом по нашей 9 бальной шакале, чтобы проверить, подтверждается ли наше нормальное распределение"

Для этого логичнее использовать Кобзарь А.И. "Прикладная мат статистика". Там описаны пара десятков критериев на нормальность распределения

"Этот алгоритм, как и PageRank, оценивает связи между узлами НА ГРАФИКЕ, присваивая более высокие баллы тем, у кого эти связи сильнее." видимо "НА ГРАФЕ"

"Во вторых, если уже посылаете человека генерить с помощью Deepseek макрос, то почему ему бы и другие задачи не решить с помощью того же Deepseek? ".

Солидарен!!! Когда читал этот, простите, "текст", всё время ожидал этот тезис

Спасибо за то, что поделились опытом. Неужели Semantic Chunking хуже Recursive? 

Под какой GPU ориентировались?

Я пробовал Qwen2.5-Omni-7B Demo на HuggingFace. Отправил фото и попросил написать рассказ о том, что изображено. Получил текст порядка полсотни слов на англ и озвучку этого текста. Попросил написать на русском и получил текст, но раза в три короче

"OpenAI - это компания, которая выпустила, кроме всего прочего, нейросеть ChatGPT." Спасибо большое, теперь буду знать, это так неожиданно....

def init(self, provider: Literal["deepseek", "openai"] = "deepseek"):

deepseek вижу, что используется, а openai вроде как не используется?

А если серьёзно, напишите лучше про GraphRAG, ну и про LangGraph

Поясните пожалуйста, почему в скриптах несколько раз упоминается OpenAI, но нигде не используется?

На HuggingFace представлен "младший братик": Qwen2.5-Omni-7B

embeddings = HuggingFaceEmbeddings(model_name="sentence-transformers/all-MiniLM-L6-v2")

embedding = OpenAIEmbeddings()

А что было на самом деле?

Предполагаю, что месяца через три добавят RAG и возможно это будет GraphRAG. У Microsoft есть хорошие наработки в этом направлении

  1. Как следует из Вашего текста, реализован просто RAG. Хотелось бы GraphRAG

  2. Сегодня Яндекс анонсировал Нейроэксперт. Интересно сравнить на одних данных

Если это RAG-подобная система, то очень интересно ознакомиться со значениями метрик для тестирования RAG

Уважаемый Илья! Спасибо Вам большое!

Уточните пожалуйста, почему не записывать свои данный в текстовом формате?

Очень неожиданно для меня, что для RAG более эффективен i9. Поясните пожалуйста, вроде в RAG в основном работают llm и для них главнее GPU, чем CPU

Информация

В рейтинге
5 276-й
Зарегистрирован
Активность

Специализация

Десктоп разработчик
Старший