Чётко, ясно и конкретно. Основная проблема во внедрении нейросетевых алгоритмов - выверка "баз знаний". Надо законы писать так, чтобы их воспринимали системы семантического поиска, чтобы эмбеддинги были адекватными. Тогда и субъективизм судей будет достоверно ниже, иначе - словоблудие.
"Предварительно она была обучена с длиной последовательности 1024 с использованием трансформаторов командой SberDevices на 80B токенах около 3 эпох " 1024 - последовательность чего? "Трансформаторов"??? "Около 3 эпох" - первый раз встречаю приблизительное значение числа эпох. Дальше читать этот ФИЛОСОФСКИЙ ТРУД не стал
Браво! Впервые услышал этот анекдот на даче, когда мне было лет 7, и что интересно, от философа, профессора МГУ. А сейчас, когда освоил и сверточные сети и llm и RAG, общие фразы и анекдотная аргументация совсем не интересна, уже хочется конкретики
Уважаемый Автор! Пожалуйста, в одной - пяти фразах, напишите, что нового Вы хотели донести до читателей? Помогите осилить Ваш труд. Кроме общих фраз в ЗАКЛЮЧЕНИЕ я ничего не увидел.
На HuggingFace, по приведенной автором ссылке, в двух местах указано, что "метод нормализации QK для повышения стабильности обучения."
Уважаемый Автор! Большое спасибо! Очень для меня своевременно! Обязательно куплю
Чётко, ясно и конкретно. Основная проблема во внедрении нейросетевых алгоритмов - выверка "баз знаний". Надо законы писать так, чтобы их воспринимали системы семантического поиска, чтобы эмбеддинги были адекватными. Тогда и субъективизм судей будет достоверно ниже, иначе - словоблудие.
"Предварительно она была обучена с длиной последовательности 1024 с использованием трансформаторов командой SberDevices на 80B токенах около 3 эпох " 1024 - последовательность чего? "Трансформаторов"??? "Около 3 эпох" - первый раз встречаю приблизительное значение числа эпох. Дальше читать этот ФИЛОСОФСКИЙ ТРУД не стал
https://www.tensorflow.org/tutorials/generative/autoencoder?hl=ru
В первом приближении картинки до и после можно здесь посмотреть
Браво! Впервые услышал этот анекдот на даче, когда мне было лет 7, и что интересно, от философа, профессора МГУ. А сейчас, когда освоил и сверточные сети и llm и RAG, общие фразы и анекдотная аргументация совсем не интересна, уже хочется конкретики
Уважаемый Автор! Пожалуйста, в одной - пяти фразах, напишите, что нового Вы хотели донести до читателей? Помогите осилить Ваш труд. Кроме общих фраз в ЗАКЛЮЧЕНИЕ я ничего не увидел.