Обновить
-2
0
Nick@ENick

Пользователь

Отправить сообщение

На HuggingFace, по приведенной автором ссылке, в двух местах указано, что "метод нормализации QK для повышения стабильности обучения."

Уважаемый Автор! Большое спасибо! Очень для меня своевременно! Обязательно куплю

Чётко, ясно и конкретно. Основная проблема во внедрении нейросетевых алгоритмов - выверка "баз знаний". Надо законы писать так, чтобы их воспринимали системы семантического поиска, чтобы эмбеддинги были адекватными. Тогда и субъективизм судей будет достоверно ниже, иначе - словоблудие.

"Предварительно она была обучена с длиной последовательности 1024 с использованием трансформаторов командой SberDevices на 80B токенах около 3 эпох " 1024 - последовательность чего? "Трансформаторов"??? "Около 3 эпох" - первый раз встречаю приблизительное значение числа эпох. Дальше читать этот ФИЛОСОФСКИЙ ТРУД не стал

https://www.tensorflow.org/tutorials/generative/autoencoder?hl=ru

В первом приближении картинки до и после можно здесь посмотреть

Браво! Впервые услышал этот анекдот на даче, когда мне было лет 7, и что интересно, от философа, профессора МГУ. А сейчас, когда освоил и сверточные сети и llm и RAG, общие фразы и анекдотная аргументация совсем не интересна, уже хочется конкретики

Уважаемый Автор! Пожалуйста, в одной - пяти фразах, напишите, что нового Вы хотели донести до читателей? Помогите осилить Ваш труд. Кроме общих фраз в ЗАКЛЮЧЕНИЕ я ничего не увидел.

12 ...
9

Информация

В рейтинге
4 924-й
Зарегистрирован
Активность

Специализация

Десктоп разработчик
Старший