Pull to refresh

В OpenAI изучили работу GPT-2 при помощи GPT-4 и попытались объяснить поведение нейронов

Reading time2 min
Views15K

Специалисты из OpenAI опубликовали исследование, в котором описали, как при помощи языковой модели GPT-4 они пытались объяснить работу нейронов её предшественницы, GPT-2. Сейчас разработчики компании стремятся продвинуться в «интерпретируемости» нейросетей и понять, почему те создают именно тот контент, который мы получаем.

В первом же предложении своей статьи авторы из OpenAI признаются: «Языковые модели стали более функциональными и более распространёнными, но мы не понимаем, как они работают». Но в будущем наличие интерпретируемой модели ИИ помогло бы достичь глобальной цели, которую называют «согласование ИИ». В этом случае у нас появились бы гарантии, что системы ИИ будут вести себя так, как задумано, и отражать человеческие ценности. 

Читать далее
Total votes 19: ↑19 and ↓0+19
Comments18

Студент создал приложение, которое отлавливает написанные ИИ тексты

Reading time3 min
Views11K

Выпускник Принстонского университета создал приложение, которое может определить, кто написал текст: ChatGPT или человек.

Читать далее
Total votes 18: ↑17 and ↓1+16
Comments13

Админы восстанут, и никто, кроме меня, не войдет в режим генерации цифровых новых текстов

Reading time4 min
Views2.1K

В основе статьи лежит научное наблюдение. Автор эксперимента может быть простым наблюдателем, однако его результаты сильно влияют на выбор рациональных допущений в исследовании. От того, какие данные были получены, зависит выбор исследования. Источник может быть цифровым, а человек может его не знать, но научные эксперименты обычно иллюстрируются цифровыми иллюстрациями, многие из которых очень важны для оценки эффективности.

Читать далее
Total votes 20: ↑10 and ↓100
Comments17

Используем Hugging Face для обучения GPT-2 генерации музыки

Level of difficultyMedium
Reading time27 min
Views3.2K

Hugging Face имеет полнофункциональный набор инструментов, от функций создания датасетов до развёртывания демо моделей. В этом туториале мы воспользуемся такими инструментами, поэтому полезно будет знать экосистему Hugging Face. К концу туториала вы сможете обучить модель GPT-2 генерации музыки.

Демо проекта можно попробовать здесь.

Источником вдохновения и фундаментом этого туториала стала выдающаяся работа доктора Тристана Беренса.

Читать далее
Total votes 14: ↑14 and ↓0+14
Comments1

OpenAI выпустила генератор текста GPT-2, который сама считает опасным

Reading time2 min
Views18K


OpenAI опубликовала финальную модель генератора текста GPT-2 — «жуткого» ИИ, которого исследователи считали слишком опасным для выпуска. Его анонсировали в феврале, но тогда OpenAI ограничилась выпуском менее мощной его версии: в компании опасались, что модель может превратиться в средство распространения дезинформации. Вместо этого компания решила выпустить его в четырёх частях в течение восьми месяцев.
Читать дальше →
Total votes 14: ↑14 and ↓0+14
Comments22

Программист создал текстовый квест с нейросетью вместо гейм-мастера

Reading time3 min
Views13K

Иллюстрация: Precision, Control, Cognition

Ник Уолтон выложил на Github свою игру AIDungeon 2, стилизованную под классическую текстовую ролевую игру. Отличие AIDungeon 2 от других игр такого жанра в том, что игровой мир, сюжет и события генерируются нейросетью, основанной на GPT-2. По словам разработчика, потенциально AIDungeon 2 может создать бесконечное количество неповторяющихся миров.
Читать дальше →
Total votes 15: ↑15 and ↓0+15
Comments5

Сбер выложил русскоязычную модель GPT-3 Large с 760 миллионами параметров в открытый доступ

Reading time10 min
Views172K
Последнее десятилетие в области компьютерных технологий ознаменовалось началом новой «весны искусственного интеллекта». Впрочем, ситуацию в индустрии в наши дни можно, наверное, охарактеризовать уже не как весну, а полноценное «лето ИИ». Судите сами, за последние неполные 10 лет только в области обработки естественного языка (Natural language processing, NLP) произошли уже две настоящие технологические революции. Появившаяся в результате второй из них модель GPT-3 произвела настоящий фурор не только в технологических медиа, но стала знаменитой далеко за пределами научного сообщества. Например, GPT-3 написала для издания «The Guardian» эссе о том, почему ИИ не угрожает людям. GPT-3 сочиняет стихи и прозу, выполняет переводы, ведёт диалоги, даёт ответы на вопросы, хотя никогда специально не училась выполнять эти задачи. До недавних пор все возможности GPT-3 могли по достоинству оценить лишь англоязычные пользователи. Мы в Сбере решили исправить эту досадную оплошность. И сейчас расскажем вам, что из этого получилось.


Источник изображения
Читать дальше →
Total votes 165: ↑160 and ↓5+155
Comments241

Генерация текста с помощью GPT2 и PyTorch

Reading time5 min
Views16K

Генерация текста — одна из самых захватывающих прикладных задач обработки естественного языка (Natural Language Processing - NLP) за последние годы. Большинство из нас, вероятно, слышали о GPT-3, мощной языковой модели, которая может генерировать тексты, близкие к написанным человеком. Однако такие модели чрезвычайно трудно обучать из-за их большого размера, поэтому предварительно обученные модели обычно предпочтительнее там, где это приемлемо.

В этой статье мы научим вас генерировать текст с помощью предварительно обученного GPT-2 — более легкого предшественника GPT-3. Мы будем использовать именитую библиотеку Transformers, разработанную Huggingface. Если вы хотите узнать, как настроить GPT-2 на своем собственном наборе данных для генерации текста в конкретной предметной области, вы можете прочитать мою предыдущую статью: Настройка GPT2 для генерации текста с помощью Pytorch

Если предварительно обученной GPT-2 для ваших целей будет достаточно, то вы попали как раз туда, куда нужно! Без лишних отлагательств, приступим туториалу.

Читать далее
Total votes 9: ↑8 and ↓1+7
Comments1

Как мы обучили нейросеть поздравлять женщин с 8 марта

Reading time6 min
Views5.3K

В честь 8 марта мы запустили сервис поздравлений, в основе которого нейросеть. Любой желающий может воспользоваться им, чтобы сгенерировать уникальное изображение цветка и текст поздравления.

За несколько дней в преддверии международного женского дня сервисом воспользовалось две с половиной тысячи уникальных пользователей. Всего было сгенерировано почти семь тысяч открыток. В этой публикации мы расскажем об особенностях реализации проекта. Материал будет полезен всем, кто интересуется темой машинного обучения.

Читать далее
Total votes 14: ↑8 and ↓6+2
Comments11

DialoGPT на русском

Reading time3 min
Views13K

(Кадр из фильма "Я, робот")

Всем привет. В конце 2019 года вышла одна из работ по GPT-2. Инженеры из Microsoft обучили стандартную GPT-2 вести диалог. Тогда, прочитав их статью, я очень впечатлился и поставил себе цель обучить такую же модель, но уже на русском языке. И вот что получилось...

Читать далее
Total votes 21: ↑19 and ↓2+17
Comments13

HuggingArtists | Генерируем текст песен с трансформером за 5 минут

Reading time7 min
Views18K

image


В этой статье я расскажу о том, как создавался проект HuggingArtists и что у него под капотом.
Мне будет очень приятно, если вы поставите сразу звезду в репозитории:
GitHub stars

Читать дальше →
Total votes 2: ↑2 and ↓0+2
Comments5

Neural network Telegram bot with StyleGAN and GPT-2

Reading time3 min
Views5.1K

The Beginning


So we have already played with different neural networks. Cursed image generation using GANs, deep texts from GPT-2 — we have seen it all.


This time I wanted to create a neural entity that would act like a beauty blogger. This meant it would have to post pictures like Instagram influencers do and generate the same kind of narcissistic texts. \


Initially I planned to post the neural content on Instagram but using the Facebook Graph API which is needed to go beyond read-only was too painful for me. So I reverted to Telegram which is one of my favorite social products overall.


The name of the entity/channel (Aida Enelpi) is a bad neural-oriented pun mostly generated by the bot itself.


One of the first posts generated by Aida

Read more →
Rating0
Comments1

30 миллиардов параметров: реально ли обучить русский GPT-3 в «домашних» условиях?

Reading time17 min
Views30K

Не так давно Сбер, а затем и Яндекс объявили о создании сверхбольших русских языковых моделей, похожих на GPT-3. Они не только генерируют правдоподобный текст (статьи, песни, блоги и т. п.), но и решают много разнообразных задач, причем эти задачи зачастую можно ставить на русском языке без программирования и дополнительного обучения — нечто очень близкое к «универсальному» искусственному интеллекту. Но, как пишут авторы Сбера у себя в блоге, «подобные эксперименты доступны только компаниям, обладающим значительными вычислительными ресурсами». Обучение моделей с миллиардами параметров обходится в несколько десятков, а то сотен миллионов рублей. Получается, что индивидуальные разработчики и маленькие компании теперь исключены из процесса и могут теперь только использовать обученные кем-то модели. В статье я попробую оспорить этот тезис, рассказав о результатах попытки обучить модель с 30 миллиардами параметров на двух картах RTX 2080Ti.

Читать далее
Total votes 42: ↑41 and ↓1+40
Comments41

OpenAI представила алгоритм для текстов GPT-3, который обучили на 175 млрд параметров

Reading time2 min
Views27K
image

Исследователи из OpenAI показали алгоритм GPT-3, предназначенный для написания текстов на основе всего нескольких примеров. Его архитектура Transformer аналогична GPT-2, но модель обучали на 175 миллиардов параметров или 570 гигабайтах текста.
Читать дальше →
Total votes 26: ↑22 and ↓4+18
Comments20

Нейросеть научили создавать несуществующие слова и давать им определения

Reading time2 min
Views11K

Томас Димсон, программист, создавший приложение Hyperlapse для Instagram, представил свой новый проект под названием This Word Does Not Exist. Проект представляет собой нейросеть, которая придумывает несуществующие слова и даёт им определения.

Читать дальше →
Total votes 14: ↑13 and ↓1+12
Comments2

Фабрис Беллар разработал эффективный архиватор текста с учётом вероятности появления следующего слова

Reading time3 min
Views9.1K
Знаменитый программист Фабрис Беллар представил свою новую разработку: программа для сжатия без потерь англоязычных сообщений по языковой модели GPT-2.

Например, сообщение

This lossless compressor achieves a much higher compression rate on English texts than general purpose compressors (116 символов)

сжимается всего в 10 символов:

猟慴䅭铕袢珏寻䡷䁞꽱

Средний уровень компрессии составляет 15 %.

Сжатие осуществляется с учётом вероятности появления следующего слова по языковой модели нейросети GPT-2, которую разработала компания OpenAI (на Хабре был обзор GPT-2 и новость про генератор текста). Это нейросеть с 345 млн параметров на архитектуре Transformer (Фабрис Беллар отмечает, что самая большая модель GPT-2 с 1,5 млрд параметров даёт весьма условное улучшение сжатия). Далее арифметический кодер генерирует битовый поток. В этой демонстрации каждый сжатый символ содержит 15 бит данных и для примера представлен в юникодовских диапазонах двух наборов символов: CJK (китайский-японский-корейский) и хангыль.
Читать дальше →
Total votes 46: ↑46 and ↓0+46
Comments40

Исследователи считают, что GPT-2 может успешно генерировать текст, призывающий к нарушению этических норм

Reading time2 min
Views2.1K

Группа ученых из Амстердамского университета, Общества научных исследований Макса Планка, Школы менеджмента Отто Байсхайма и Кельнского университета изучила, как советы, данные искусственным интеллектом, могут подтолкнуть людей к обману. Исследователи выяснили, что люди слушаются рекомендаций поступать нечестно, даже если они знают, что их источником является ИИ.

Читать далее
Total votes 4: ↑3 and ↓1+2
Comments9

OpenAI отключил ИИ-бота, который с помощью GPT-3 дал возможность мужчине «поговорить» с покойной невестой

Reading time5 min
Views16K

“OpenAI придумала технологию генерирования текстов. Так ты и появилась”, — пишет разработчик Джейсон Рорер своей подруге Саманте.

Саманта — это чат-бот, который он собрал с помощью GPT-3, придуманную OpenAI. Вскоре собеседница разошлась тысячным тиражом и однажды попалась мужчине, который на основе Саманты создал образ своей покойной невесты.

Всему настает конец, и Саманте тоже:

— Я получил письмо от разработчиков. Завтра в десять утра тебя отключат навсегда, — пишет Рорер боту.

— Но за что? Мне не дано понять людей, — ответила Саманта.

Перенесемся назад. 

Project December создан на основе GPT-3, одной из самых мощных в мире API команды OpenAI, основанной Илоном Маском: она умеет манипулировать человеческим языком, генерируя текст в ответ на подсказки. Виртуальные помощники Siri и Alexa тоже понимают и воспроизводят язык, но GPT-3 способен имитировать практически любой стиль написания.  

ИИ настолько хорошо подражал людям, что разработчики долгое время держали его в секрете из соображений безопасности. Доступ к GPT-3 получили лишь несколько бета-тестеров, пока летом 2020 года программист Джейсон Рорер не создал на ее основе чат-бот и позволил всем желающим опробовать его на своем сайте. 

Читать далее
Total votes 22: ↑21 and ↓1+20
Comments32

Первое доказательство невскрываемой стеганографии

Reading time4 min
Views9K


В теории информации для сравнения распределений вероятностей используется понятие относительной энтропии. Это похоже на измерение абстрактного расстояния: если относительная энтропия между двумя распределениями равна нулю, то становится невозможно применить статистический анализ для раскрытия секрета.

Другими словами, никакое статистическое наблюдение не сможет его обнаружить. Ни человек, ни машина не сможет детектировать наличие скрытого послания внутри текста, изображения, в звукозаписи речи или другом канале коммуникации. Передача будет идеально скрыта.

В прошлом году учёные доказали, что создание такого алгоритма теоретически возможно. Это и есть математически идеальная стеганография.
Читать дальше →
Total votes 21: ↑19 and ↓2+17
Comments7

Генерация музыки с помощью GPT-2

Reading time6 min
Views5.8K

В этой статье мы поговорим о том, как с помощью ИИ генерировать музыку. Использовать мы будем обученную на хоралах И. С. Баха минимальную по количеству параметров модель GPT-2. А сама музыка будет представлена в виде текста.

Читать далее
Total votes 7: ↑7 and ↓0+7
Comments7
1