Pull to refresh

Comments 11

Пока не очень понятно, чем эта Лама-3 лучше ламы-2 при равных вводных (требования). А код она лучше Кодестраля пишет или только общение?

LLaMA (Large Language Model Application) - это семейство языковых моделей, разработанных Meta AI. LLaMA2 и LLaMA3 - это две последние версии этой модели. Вот некоторые ключевые улучшения, которые делают LLaMA3 лучше, чем LLaMA2:

  1. Большая языковая модель: LLaMA3 имеет более крупную языковую модель, чем LLaMA2, что позволяет ей лучше понимать контекст и генерировать более качественный текст.

  2. Улучшенная генерация текста: LLaMA3 может генерировать текст более высокого качества, чем LLaMA2, с меньшим количеством ошибок и более естественным языком.

  3. Более точное понимание контекста: LLaMA3 лучше понимает контекст и может отвечать на вопросы более точно, чем LLaMA2.

  4. Улучшенная поддержка многоязычности: LLaMA3 поддерживает более 20 языков, в то время как LLaMA2 поддерживала только несколько языков.

  5. Более быстрое обучение: LLaMA3 может обучаться быстрее, чем LLaMA2, что позволяет ей адаптироваться к новым данным и задачам быстрее.

  6. Улучшенная работа с длинными текстами: LLaMA3 может работать с длинными текстами более эффективно, чем LLaMA2, что позволяет ей лучше понимать контекст и генерировать более качественный текст.

  7. Улучшенная поддержка задач с ограничениями: LLaMA3 может работать с задачами, которые имеют ограничения на длину текста, язык или стиль, что позволяет ей генерировать текст, который лучше соответствует требованиям задачи.

  8. Улучшенная интерпретация запросов: LLaMA3 может лучше интерпретировать запросы и понимать, что пользователь хочет получить в ответ, что позволяет ей генерировать более релевантный текст.

В целом, LLaMA3 - это более мощная и гибкая языковая модель, чем LLaMA2, которая может помочь в более широком спектре задач, связанных с обработкой естественного языка.

Вот вам ответ от самой LLaMA3))

llama3-8b уже можно закапывать, на локальном компьютере https://ollama.com/library/gemma2 работает намного лучше а потребление такое же, бесплатно как сервис гемму можно получить на openrouter.ai, там так же как на groq дают апи ключ и можно использовать библиотеку от openai для доступа ко всем моделям.

Для работы с базой юзеров есть гораздо более простой способ - sqlitedict, с ним можно работать как с обычным словарем(ну почти).

Форматирования в ответах не хавтает.

Да, вы правы. В целом много планов на бота этого. К примеру выбор языковой модели, форматирование, как вы указали и прочее. Сейчас жду отклика от аудитории и если он будет - по плану ещё есть, как минимум 3 статьи. Но пока ждем)

«pacedoжалуй» — какое интересное слово у него получилось )

да, бывает выдает такое)

У gemma2 такого не бывает.

У меня почему-то отличается вывод в groq от вывода на локальном компе при использовании ollama. Groq использует "llama3 8b:8192", а ollama - просто "llama3 8b". Вы не в курсе - это разные модели?

Это одинаковые модели, а 8192 = это размер контексного окна модели

Хороший гайд, спасибо, очень помог разобрать.

Sign up to leave a comment.

Articles