Как стать автором
Обновить
16
0

Пользователь

Отправить сообщение

LLM field landscape

Уровень сложностиСредний
Время на прочтение43 мин
Количество просмотров4.6K

Ради чего эта статья?

Сфера генеративных моделей сегодня кипит, булькает и шипит — каждый день выходят новые статьи, новые бенчмарки, новая модель вырывается вперёд на Arena, открывается очередной AI‑стартап… Только мы успеваем потрогать одну модель и сделать свои выводы, выходит другая, а Sam Altman в каждом интервью намекает, насколько GPT-5 будет умнее, лучше и круче, чем GPT-4.

В общем, за сферой LLM сегодня очень трудно уследить. Но уследить хочется. Хочется сделать снэпшот, в котором отразить максимально актуальное состояние области на текущий момент, насколько это возможно, чтоб было от чего отталкиваться потом. На самом деле, это задача для серьёзного научного review, но лучшее враг хорошего, поэтому начну я со статьи на Хабре.

Читать далее
Всего голосов 9: ↑9 и ↓0+14
Комментарии7

Сможем ли мы контролировать сверх-интеллект? – новая статья от OpenAI

Уровень сложностиСредний
Время на прочтение8 мин
Количество просмотров13K

14 декабря OpenAI опубликовали статью, в которой показывают, что люди смогут улучшать полезность потенциально созданного в будущем сверх-интеллекта несмотря на то, что будут глупее него. При этом, судя по всему, людям будет очень сложно оценивать ответы сильного ИИ,и RLHF в нынешнем его виде будет работать не слишком хорошо.

Читать далее
Всего голосов 7: ↑7 и ↓0+7
Комментарии69

Mixtral 8x7B – Sparse Mixture of Experts от Mistral AI

Уровень сложностиСредний
Время на прочтение4 мин
Количество просмотров12K

11 декабря 2023 года Mistral AI, парижский ai-стартап, основанный 7 месяцев назад, выпустил новую модель Mixtral 8x7B – high-quality sparse mixture of experts model (SMoE). Многие считают модели Mistral AI самыми крутыми из открытых llm-ок, я тоже так считаю, поэтому интерес к новой модели есть большой. В этой статье я хочу коротко пробежаться по тому, как устроена новая модель и какие у её архитектуры преимущества. На некоторых технических моментах я буду останавливаться более подробно, на некоторых – менее.

Читать далее
Всего голосов 10: ↑10 и ↓0+10
Комментарии11

LASSO и Ridge Регрессия. Что же значит та картинка

Время на прочтение8 мин
Количество просмотров23K

Пыталась я вникнуть в устройство регрессии LASSO и Ridge… И сделала объективный вывод, что верхнеуровнево про них много где хорошо и подробно написано. Человеку непосвящённому легко найти понятные объяснения, просто погуглив. Но я-то человек посвящённый! Я хочу понять! Но вот беда — в русскоязычных блогах я нигде не смогла найти толкового прояснения некоторых метаматематических моментов работы лассо и ридж регрессии. Пришлось доходить до понимания самой с опорой на пару англоязычных источников, и я решила изложить некоторую математику, лежащую в основе лассо и ридж в этой статье.

Читать далее
Всего голосов 11: ↑11 и ↓0+11
Комментарии7

Глубокое погружение в рекомендательную систему Netflix

Время на прочтение12 мин
Количество просмотров7K

Как Netflix добился 80 процентов от всего своего стримингового времени благодаря персонализации.

Читать далее
Всего голосов 2: ↑2 и ↓0+2
Комментарии3

Netflix. Архитектура системы персонализации и рекомендаций

Время на прочтение9 мин
Количество просмотров4.5K

Перевод неточный, некоторые куски пропущены, так как показались мне повторением уже высказанных выше мыслей, некоторые - уточнены и дополнены примерами.

В предыдущих постах о персонализации в Netflix уже говорилось о том, что и данные, и алгоритмы их обработки одинаковы важны в задаче персонализации пользовательского опыта. Также важно вовлекать пользователя в систему рекомендаций - получать от него так больше откликов и данных. Сегодня мы поговорим о том, как может выглядеть архитектура, которая может максимизировать пользу от собираемых данных и поддерживает возможность быстрого внедрения нововведений.

Читать далее
Всего голосов 4: ↑3 и ↓1+4
Комментарии0

Информация

В рейтинге
Не участвует
Зарегистрирован
Активность