Комментарии 1
"Предварительно она была обучена с длиной последовательности 1024 с использованием трансформаторов командой SberDevices на 80B токенах около 3 эпох " 1024 - последовательность чего? "Трансформаторов"??? "Около 3 эпох" - первый раз встречаю приблизительное значение числа эпох. Дальше читать этот ФИЛОСОФСКИЙ ТРУД не стал
Зарегистрируйтесь на Хабре, чтобы оставить комментарий
Как идеи Аристотеля применяются в GenAI. Разбираем вопросы этики ИИ в образовании и создаем философский чат-бот