Как стать автором
Обновить

Сбер выложил русскоязычную модель GPT-3 Large с 760 миллионами параметров в открытый доступ

Время на прочтение 10 мин
Количество просмотров 164K
Блог компании Сбер Блог компании SberDevices Машинное обучение *Искусственный интеллект Natural Language Processing *
Последнее десятилетие в области компьютерных технологий ознаменовалось началом новой «весны искусственного интеллекта». Впрочем, ситуацию в индустрии в наши дни можно, наверное, охарактеризовать уже не как весну, а полноценное «лето ИИ». Судите сами, за последние неполные 10 лет только в области обработки естественного языка (Natural language processing, NLP) произошли уже две настоящие технологические революции. Появившаяся в результате второй из них модель GPT-3 произвела настоящий фурор не только в технологических медиа, но стала знаменитой далеко за пределами научного сообщества. Например, GPT-3 написала для издания «The Guardian» эссе о том, почему ИИ не угрожает людям. GPT-3 сочиняет стихи и прозу, выполняет переводы, ведёт диалоги, даёт ответы на вопросы, хотя никогда специально не училась выполнять эти задачи. До недавних пор все возможности GPT-3 могли по достоинству оценить лишь англоязычные пользователи. Мы в Сбере решили исправить эту досадную оплошность. И сейчас расскажем вам, что из этого получилось.


Источник изображения
Читать дальше →
Всего голосов 165: ↑160 и ↓5 +155
Комментарии 241

Учим AI Dungeon говорить по-русски

Время на прочтение 3 мин
Количество просмотров 91K
Машинное обучение *Искусственный интеллект Игры и игровые консоли Natural Language Processing *
Из песочницы

Недавно ребята из сбер(-банка) анонсировали и выложили в свободный доступ свою модель gpt-3 и я понял, что можно наконец то реализовать свою давнюю мечту - сделать AI dungeon для русского языка. Данная игра сильно выстрелила в прошлом году, про нее было написано множество статей. Если описать AI dungeon кратко, то это эксперимент с огромной генеративной нейронной сетью, где слово игра используется, чтобы заменить множество непонятных слов. Суть игры проста: вы пишете историю и место действия своему персонажу (или выбираете из заранее готовых). Буквально пишете. Вариантов выборов бесконечно много, результаты всегда непредсказуемы, а приключения по настоящему уникальны. Завораживающе, правда?

Читать далее
Всего голосов 13: ↑13 и ↓0 +13
Комментарии 9

Генеративное искусство: с чего начать

Время на прочтение 3 мин
Количество просмотров 11K
Блог компании Space307

Генеративное искусство, как и любая тема из мира технологий, может быть пугающей, если вы никогда не пробовали её использовать в деле. Но я думаю, что каждый может оценить концепцию произведений искусства, которые буквально создают сами себя.

Читать далее
Всего голосов 7: ↑6 и ↓1 +5
Комментарии 4

Открытый AI-лекторий Samsung Innovation Campus — продолжаем копать нейронные сети

Время на прочтение 10 мин
Количество просмотров 2.6K
Блог компании Samsung Машинное обучение *Искусственный интеллект

Популярность нейронных сетей резко взлетела вверх и падать не собирается. На этой волне хайпа их пытаются применить везде, где есть большие данные. И даже там, где реальных больших данных нет, их порой создают - генерируют. В итоге мы имеем большое многообразие задач, в которых свои инструменты и подходы, и в наших 20 лекциях мы постарались затронуть наиболее интересные из них. Эти лекции не для начинающих, нет. Для начинающих у Samsung есть курсы по нейронным сетям, с них и можно начинать. AI-лекторий Samsung Innovation Campus - для тех, кто разобравшись с основами, захочет узнать больше.

Читать далее
Всего голосов 3: ↑3 и ↓0 +3
Комментарии 0

Улучшаем генеративных чатботов на нейросети ruGPT3: умный ранжировщик ответов

Время на прочтение 16 мин
Количество просмотров 5.3K
Машинное обучение *Искусственный интеллект Natural Language Processing *

Нейронные сети все прочнее входят в нашу жизнь. В последнее время особую значимость приобретают исследования, связанные с обучением искусственных нейронных сетей в сфере анализа естественного языка (NLP, NLU) для создания реалистичных, человечных разговорных «скиллов». Одним из первых примеров «человечных» диалоговых решений стала Xiaoice от Microsoft, которая обладала навыками дружелюбности. Позже такие компании как Яндекс, Google [1], Mail.ru и другие выпустили на рынок своих голосовых помощников. Однако все они столкнулись с фундаментальной проблемой: их решения хорошо выполняют запросы пользователей, связанные с четкими командами («расскажи новости»), но совершенно не обладают человечными способностями, качествами характера, эмуляцией чувств, эмпатией и поэтому не способны поддерживать человеческий разговор на различные темы. При этом «видимость человечности» часто обеспечивается набором шаблонных фраз и шуток, подходящих практически в любой ситуации (неспецифичных контексту разговора).

В этой статье мы покажем, как устроен и как работает разработанный нами умный Ранжировщик ответов для нейросеток Трансформер и какой эффект он оказывает на качество разговора любых генеративных чатботов.

Читать далее
Всего голосов 3: ↑3 и ↓0 +3
Комментарии 11

Поиск аномалий во временных рядах

Время на прочтение 10 мин
Количество просмотров 14K
Информационная безопасность *Анализ и проектирование систем *Промышленное программирование *Машинное обучение *

Вокруг нас появляется все больше различных устройств, систем, комплексов, платформ – технологических, информационных, киберфизических. Мы не задумываемся о том, как кофеварка варит кофе, робот-пылесос выбирает маршрут при уборке квартиры, система биометрической идентификации определяет человека на видеокадре, а портал государственных услуг обрабатывает наше заявление на получение справки об отсутствии судимости. Мы привыкаем к этим системам как к «черным ящикам», которые дают предсказуемый результат на выходе, не заботясь о том, как эти системы себя «чувствуют».

Изучим этот процесс более подробно
Всего голосов 11: ↑11 и ↓0 +11
Комментарии 11

Генеративные диалоговые модели: как мы разговорили виртуальных ассистентов Салют

Время на прочтение 9 мин
Количество просмотров 4.4K
Блог компании SberDevices Машинное обучение *Искусственный интеллект Natural Language Processing *Голосовые интерфейсы *

Порой люди обращаются к искусственному интеллекту не для того, чтобы заказать еду, найти подходящий фильм или решить какую-то ещё свою задачу, а для того, чтобы просто поболтать. Например, потому что грустно, а рядом нет тех, с кем было бы удобно про это поговорить. И пусть виртуальные помощники пока не заменяют настоящих друзей или близких людей (они и не должны), но всё же они могут поднять настроение, помочь снизить уровень напряжения. Чтобы такое общение было живым и действительно интересным, мы разработали и применяем мощные разговорные модели на русском языке для виртуальных ассистентов Салют в режиме «Собеседник». Так, за Сбера с пользователем общается SBERT (retrieval-модель), за Джой — ruGPT-3 (генеративная модель), а за Афину — обе сразу. Поговорим сегодня о генеративной части.

Передаю слово моему коллеге, руководителю RnD NLP SberDevices Валерию Терновскому.

Читать далее
Всего голосов 8: ↑7 и ↓1 +6
Комментарии 3

Как генерировать стихи с помощью силлабо-тонической трансформенной языковой модели (часть первая)

Время на прочтение 8 мин
Количество просмотров 6.1K
Блог компании SberDevices Машинное обучение *Искусственный интеллект Natural Language Processing *

Всем привет! Меня зовут Илья Козиев, я работаю в Управлении экспериментальных систем машинного обучения SberDevices над вопросами генерации текстового контента. В этой статье я хочу представить эффективный способ решения такой интересной задачи, как генерация стихов, с помощью одной из самых современных нейросетевых архитектур — GPT-3. Я подробно распишу все необходимые шаги на пути к получению стихов примерно вот такого уровня:

Я оставляю брошенные фразы
Иного смеха, слабости и слёз
Я превращаюсь в голубые стразы
Кружась ветвями молодых берёз

Читать далее
Всего голосов 29: ↑28 и ↓1 +27
Комментарии 17

Модель-полиглот: как мы учили GPT-3 на 61 языке мира

Время на прочтение 10 мин
Количество просмотров 7.5K
Блог компании SberDevices Open source *Машинное обучение *Искусственный интеллект Natural Language Processing *

Генеративные языковые модели уверенно обосновались в практике Natural Language Processing (NLP). Большие предобученные трансформеры двигаются сразу в трёх направлениях: мультимодальность, мультизадачность и мультиязычность. Сегодня мы расскажем про последнюю — о том, как учили модель на основе GPT-3 на 61 языке мира.

Это — самая многоязычная авторегрессионная модель на сегодня. Такую модель можно использовать, например, чтобы создать вопросно-ответную систему, обрабатывающую тексты на многих языках, научить диалогового ассистента говорить на разных языках, а также сделать более универсальные решения для парсинга текста, извлечения информации.

Этим релизом мы хотим привлечь внимание к развитию NLP для языков стран СНГ, а также народов России. Для многих из представленных языков эта модель стала первой авторегрессионной языковой моделью. 

Модель доступна в двух вариантах размеров: mGPT XL на 1,3 миллиарда параметров — в открытом доступе, а mGPT 13B — будет доступна в ML Space SberCloud.

Читать далее
Всего голосов 31: ↑29 и ↓2 +27
Комментарии 30

Я уеду жить в Лейнвуд. Создаем новые слова при помощи GPT

Время на прочтение 4 мин
Количество просмотров 4.9K
Ненормальное программирование *Python *Машинное обучение *Искусственный интеллект Natural Language Processing *
Туториал

Предлагаю немного поразвлечься и научиться придумывать новые слова, которые звучат совсем как настоящие (прям как товары в Икее). Для начала вот вам десяток несуществующих городов:

Лумберг, Сеф, Хирнов, Бинли, Лусский, Ноловорск, Сант-Гумит, Хойден, Голтон и Оголенда

И женских имен:

Инела, Каисья, Ганнора, Целия, Тарисана, Лелена, Феомина, Олиcc, Нулина и Рослиба

Для запуска генерации нам не понадобится технических навыков, хотя технология, стоящая за ней, сейчас является очень перспективной и многофункциональной. Это генеративная нейронная сеть, способная решать множество задач по обработке естествнного языка (NLP). Это такие задачи как суммаризация (сделать из большого текста его резюме), понимание текста (NLU), вопросно-ответные системы, генерация (статей, кода или даже стихов) и другие. Тема эта очень глубокая, поэтому далее я дам пару ссылок для любителей копнуть поглубже. А те, кто хочет "только спросить", может сразу приступить к созданию слов.

Генерировать будем скриптом makemore от Андрея Карпати (недавно писал про скрипт в канале градиент обреченный), который он выложил пару недель назад. Андрей является известным исследователем в мире ИИ и периодически радует народ такими вот игрушками, можно полазить по его репозиторию, там еще много интересного.

Запустим скрипт.

Читать далее
Всего голосов 26: ↑26 и ↓0 +26
Комментарии 12

Обучение алгоритма генерации текста на основе высказываний философов и писателей

Время на прочтение 7 мин
Количество просмотров 2.6K
Машинное обучение *Data Engineering *
Туториал

Наверняка вы мечтали поговорить с великим философом: задать ему вопрос о своей жизни, узнать его мнение или просто поболтать. В наше время это возможно за счет чат-ботов, которые поддерживают диалог, имитируя манеру общения живого человека. Подобные чат-боты создаются благодаря технологиям обработки естественного языка и генерации текста. Уже сейчас существуют обученные модели, которые неплохо справляются с данной задачей.

В этой статье я расскажу о своем опыте обучения алгоритма генерации текста, основанного на высказываниях великих личностей. В датасете для обучения модели используются цитаты десяти известных философов, писателей и ученых. 

Читать далее
Всего голосов 2: ↑2 и ↓0 +2
Комментарии 2

Кому принадлежат платформы генеративного искусственного интеллекта?

Время на прочтение 12 мин
Количество просмотров 2.4K
Блог компании RoboUniver Облачные вычисления *Исследования и прогнозы в IT *Искусственный интеллект
Аналитика
Перевод

Часто новые технологические тенденции становятся «пузырями» задолго до того, как они реально становятся востребованными на рынке. Но бум генеративных ИИ сопровождается реальными достижениями на реальных рынках и реальной подпиткой со стороны реальных компаний. Такие модели, как Stable Diffusion или ChatGPT устанавливают исторические рекорды роста пользователей, а несколько приложений на основе ИИ достигли годового дохода в размере 100 миллионов долларов менее чем через год после запуска. И пора признать, что в некоторых задачах искусственный интеллект уже превосходит людей на несколько порядков. Вопрос один: кто получает основной профит от этого и кто будет владеть всем этим в будущем?

Читать далее
Всего голосов 9: ↑8 и ↓1 +7
Комментарии 2

Революция генеративного ИИ началась — как мы к этому пришли?

Время на прочтение 18 мин
Количество просмотров 12K
Блог компании Cloud4Y Машинное обучение *Искусственный интеллект
Ретроспектива
Перевод

Сегодня только и разговоров, что о ChatGPT, Midjourney и прочих DALL-E. Почему именно сейчас нейросети стали такими крутыми и развиваются семимильными шагами? Прорыв стал возможен благодаря новому классу невероятно мощных моделей искусственного интеллекта. Рассказываем, с чего всё началось и как мы здесь оказались.

Читать далее
Всего голосов 17: ↑17 и ↓0 +17
Комментарии 6

Нейросети в генерации видео: Imagen video и Phenaki

Уровень сложности Средний
Время на прочтение 5 мин
Количество просмотров 20K
Блог компании RUVDS.com Машинное обучение *Искусственный интеллект

Мы видели уже большое количество генеративных нейросетей способных превращать текстовые запросы в изображение, но почему все забыли про видео? Разве никто не хочет примерить на себе кресло режиссёра без съёмочной группы и выхода за пределы комнаты с любимым компьютером? Google начал делать первые шаги в этой области, и сейчас мы рассмотрим их нейросети: Imagen video и Phenaki. Приготовьтесь к приключению в глубины машинного обучения, где искусственный интеллект превращает написанное слово в завораживающее зрелище.
Читать дальше →
Всего голосов 55: ↑54 и ↓1 +53
Комментарии 4

Как работает ChatGPT: объясняем на простом русском эволюцию языковых моделей с T9 до чуда

Уровень сложности Простой
Время на прочтение 30 мин
Количество просмотров 192K
Блог компании Open Data Science Машинное обучение *Искусственный интеллект Будущее здесь Natural Language Processing *
Обзор

В последнее время нам почти каждый день рассказывают в новостях, какие очередные вершины покорили языковые нейросетки, и почему они уже через месяц совершенно точно оставят лично вас без работы. При этом мало кто понимает — а как вообще нейросети вроде ChatGPT работают внутри? Так вот, устраивайтесь поудобнее: в этой статье мы наконец объясним всё так, чтобы понял даже шестилетний гуманитарий!

Погнали →
Всего голосов 357: ↑350 и ↓7 +343
Комментарии 280

Мы обнаружили в GPT-2 нейрон конкретного токена

Время на прочтение 10 мин
Количество просмотров 14K
Математика *Машинное обучение *Искусственный интеллект
Перевод

Мы начали с вопроса: откуда GPT-2 знает, когда использовать слово an, а не a? Выбор зависит от того, начинается ли следующее за ним слово с гласной, однако GPT-2 может прогнозировать только одно слово за раз.

У нас по-прежнему нет полного ответа, однако мы нашли нейрон MLP в GPT-2 Large, который необходим для прогнозирования токена " an". Также мы выяснили, что веса этого нейрона соотносятся с эмбеддингом токена " an", что позволило нам найти другие нейроны, прогнозирующие конкретный токен.
Читать дальше →
Всего голосов 31: ↑30 и ↓1 +29
Комментарии 6

Обучение VAE и нижняя вариационная граница

Уровень сложности Средний
Время на прочтение 4 мин
Количество просмотров 1.9K
Математика *Машинное обучение *
FAQ
Из песочницы
🤖 Сезон machine learning

Объяснение принципа обучения вариационного автокодировщика для генерации картинок. Как мне показалось, прочие статьи на эту тему недостаточно подробные. Часто некоторые математически важные аспекты опускаются как очевидные, чего я пытался избежать

Читать далее
Всего голосов 10: ↑10 и ↓0 +10
Комментарии 0

Диффузионная нейросеть ModelScope text2video 1.7B — создаём видео по текстовому описанию у себя дома

Уровень сложности Простой
Время на прочтение 3 мин
Количество просмотров 10K
Работа с видео *Python *Машинное обучение *Искусственный интеллект Будущее здесь
Туториал
Из песочницы
🤖 Сезон machine learning

Ещё не успело ИИ-сообщество оправится от набега ЛЛаМ и высвобождения GPT-4, подоспела новая напасть — 19го марта была выпущена китайская нейросеть ModelScope text2video от Alibaba, создающая короткие видеоролики по текстовому описанию.

Читать далее
Всего голосов 18: ↑18 и ↓0 +18
Комментарии 11

Ассоциативная память без нейросетей + генерация текста

Время на прочтение 9 мин
Количество просмотров 1.6K
Data Mining *Алгоритмы *Машинное обучение *Natural Language Processing *

Когда‑то давно ко мне пришла идея реализовать алгоритм основанный на цепочках символов. Этот алгоритм выделяет в тексте несколько последовательностей символов, и таким образом производит его анализ. Этот алгоритм в какой‑то мере похож на метод построения N‑грамной модели, разница лишь в том, что он строит последовательности символов переменной длины. Как это делается я расскажу немного ниже. В результате алгоритм мог сравнивать тексты друг с другом и находить степень похожести между ними. Я приспособил его для того, чтобы отсеивать ранее известные тексты, и выбирать только те, которые обладают наибольшей уникальностью на момент анализа. Результат работы алгоритма можно посмотреть здесь: http://luksian.ru

Расскажу вкратце суть идеи. Например, у нас есть текст ABCABD. Из этого текста можно выделить следующие последовательности из двух символов: AB, BC, CA, AB, BD. Здесь видно что последовательность AB встречается два раза, а за этой последовательностью в каждом случае следуют разные символы. Такая ситуация считается конфликтом который необходимо разрешить. Для этого создаются новые последовательности символов: ABC и ABD. Последовательности из этих трех символов в тексте встречаются по одному разу, поэтому конфликт считается разрешенным, больше неоднозначностей в тексте не наблюдается. Разумеется, в обычном тексте написанном на простом человеческом языке для разрешения конфликтов иногда может потребоваться построить гораздо более длинные цепочки символов чтобы можно было найти между ними разницу. И вот недавно я вспомнил об этом алгоритме и попробовал его исследовать поподробнее.

Читать далее
Всего голосов 5: ↑5 и ↓0 +5
Комментарии 6

Зоопарк трансформеров: большой обзор моделей от BERT до Alpaca

Уровень сложности Сложный
Время на прочтение 59 мин
Количество просмотров 5.4K
Блог компании Just AI Машинное обучение *Искусственный интеллект Natural Language Processing *
Обзор

Авторский обзор 90+ нейросетевых моделей на основе Transformer для тех, кто не успевает читать статьи, но хочет быть в курсе ситуации и понимать технические детали идущей революции ИИ.

Читать далее
Всего голосов 28: ↑28 и ↓0 +28
Комментарии 15
1