Спасибо! Очень интересная работа! Давно ждал появление работ этого направления. Теорий эмоций много, мне близка информационная теория П.В. Симонова, в которой рассматриваются эмоции через связь с вероятностью удовлетворения потребностей
"ложные чувства" - вспомнил, как нам в армии большой командир на общем собрании говорил: домой не пишите, что кушать хочется, это ЛОЖНОЕ чувство, пишите, что пищи мало, но она калорийная.
"Итог: русскоязычные LLM имеют преимущества для задач, связанных с русским языком и бизнесом, в то время как глобальные адаптации остаются лидерами в универсальности. Пользователям важно выбирать инструмент в зависимости от конкретных задач, а разработчикам — продолжать улучшать модели, учитывая потребности рынка." Как правильно это назвать: маркетинговые заклинания или чистые лозунги?
"Главное к чему надо прилагать усилия это то чтобы декодировать этот смысл из многоумных математических формул которые подобны кодам шифрования и выразить его обычным человеческим языком " - принципиально неправильно. Если бы "обычный человеческий язык" был способен выразить корректно хотя бы корень квадратный из минус единицы, то математика уже была не нужна. Я не говорю уж об отрицательной вероятности. Для формализации абстрактных сущностей необходим язык абстракций.
А это не типа OpenWebUI, там тоже встроен RAG
Конечно, только при наличии граф карты, какой процессор CPU наиболее оптимален?
Подскажите пожалуйста, что лучше из CPU: i7 верхнего уровня или начального уровня i9?
Спасибо! Очень интересная работа! Давно ждал появление работ этого направления. Теорий эмоций много, мне близка информационная теория П.В. Симонова, в которой рассматриваются эмоции через связь с вероятностью удовлетворения потребностей
"ложные чувства" - вспомнил, как нам в армии большой командир на общем собрании говорил: домой не пишите, что кушать хочется, это ЛОЖНОЕ чувство, пишите, что пищи мало, но она калорийная.
"Итог: русскоязычные LLM имеют преимущества для задач, связанных с русским языком и бизнесом, в то время как глобальные адаптации остаются лидерами в универсальности. Пользователям важно выбирать инструмент в зависимости от конкретных задач, а разработчикам — продолжать улучшать модели, учитывая потребности рынка." Как правильно это назвать: маркетинговые заклинания или чистые лозунги?
А где Вы взяли Gemini Flash 2.0 ? На HaggingFace такой нет
"Порфирьевич не работает без включенного JavaScript" - элементарно переключается на gpt3
"попытаться сделать читаемыми" - это прежде всего относится к этой статье.
Спасибо, почистил свой диск
Согласен на 100%. Иногда мне кажется, что квантовые компьютеры придумали злыдни. Ну ни какого человеколюбия!
"Главное к чему надо прилагать усилия это то чтобы декодировать этот смысл из многоумных математических формул которые подобны кодам шифрования и выразить его обычным человеческим языком " - принципиально неправильно. Если бы "обычный человеческий язык" был способен выразить корректно хотя бы корень квадратный из минус единицы, то математика уже была не нужна. Я не говорю уж об отрицательной вероятности. Для формализации абстрактных сущностей необходим язык абстракций.
Для GraphRAG такой же алгоритм выбора модели для векторизации?
Какая RAM, какой процессор?
А почему сразу не применили GRAPHRAG?
Интересная работа! Спасибо, что поделились опытом. А почему не рассмотрели вариант GRAPH+RAG?
"Модели SmolLM2 в первую очередь понимают и генерируют контент на английском языке". https://huggingface.co/HuggingFaceTB/SmolLM2-1.7B
Авторы модели четко и однозначно предупреждают
"Твой ИИ тебя понимает?" - А давайте вначале формализуем (однозначно определим) термин "понимает", а потом уже и всё остальное проясниться с ИИ
Спасибо за модели.
"Модель large обучалась 2 эпохи, почти месяц" если обучать ещё пару эпох, метрики будут лучше?
"для 7-8b вполне норм" а это примерно сколько токенов/сек?