Comments 7
Попробовал её, правда неплохая
В lm studio ее можно добавить? Не нашел как, к сожалению.
к сожалению, длина контекста 4096 токенов, мне кажется, это даже для чат-бота поддержки уже мало
по сравнению с Gemma 3 27b, где 128 000 токенов, Olmo никуда не годится
то есть поймите меня правильно, я высоко ценю усилия и что люди пытаются сделать нейронки лучше. Но какой прок от Эйнштейна, у которого память на несколько минут?
Надо бы сравнить с Gemma 3 27b
Sign up to leave a comment.
OLMo 2 32B устанавливает новый стандарт для моделей LLM с открытым исходным кодом