Comments 70
на 8 млн интернет страницах (суммарно на 40 Гб текста)В оригинале очень похоже «was trained simply to predict the next word in 40GB of Internet text».
Но 40гб это как-то мало, по 5кб с сайта? Две странички А4?
Может кто-то объяснить?
Как именно отбирались куски текста из страниц в работе толком не описано, но судя по использованию слов «Dragnet» и «Newspaper content extractors», они прогоняли текст со страниц через какие-то классификаторы новостей и разговорной речи. Из-за этого в генерируемом тексте так много цитат, а стиль напоминает новостные сайты. Но это только догадки…
А к примеру, Алиса от Яндекса вообще не генерирует текст, насколько я знаю. Она просто классификатор по большой базе готовых реплик. Нейросеть только выдает очки, какую реплику выбрать. А другой классификатор оценивает, надо ли заполнять форму (и тогда получаются диалоги с заполненными частями, игры и т.д.). Или предоставить слово основной «Алисе», которая выберет из базы подходящую фразу.
При этом Алиса со стороны вполне себе разговорный бот, а благодаря таком подходу гарантированно не использует оскорбительных фраз. Кроме тех, что пропущены при сборке базы, хе-хе. Или получившимися таким из-за контекста, вроде знаменитой: «Выхода нет» — «Выход всегда есть. В окно»
The more of your writing you put online the higher risk you’re taking on for future language models++ fine tuned on your data to impersonate you.
— Andrej Karpathy (@karpathy) February 16, 2019
На образцы генерируемого полной моделью текста прямая ссылка: https://blog.openai.com/better-language-models/#sample1 (вверху полоски переключателя на 8 историй).
Также есть огромный 2.4 Mb текстовый файл со случайно сгенерированными образцами: https://raw.githubusercontent.com/openai/gpt-2/master/gpt2-samples.txt
И еще один, 2.27 Мб, с другими настройками случайности: https://raw.githubusercontent.com/openai/gpt-2/master/gpt2-topk40-samples.txt
Мой английский не настолько хорош, чтобы оценить качество генерации. Но по длине и связности, кажется такого уровня еще не было. Иногда через несколько абзацев упоминается что-то, что было в начале текста.
Хотя меня больше впечатлила способность сети выделять структуру документа и дополнять его, как в вопросах и ответах или при переводе слов. Как говорят разработчики, в обучающей выборке встречаются записи вроде: «шерше ля фам», что в переводе означает «ищите женщину». И этого оказалось достаточно, чтобы нейросеть поняла принцип перевода и повторила его при аналогичном формировании начальной фразы.
Много было экспериментов (успешных и заканчивавшихся большими скандалами) с пропихиванием сгенерированного текста в рецензируемые научные журналы.
Кстати, вот вопрос: разрабатываются ли параллельно с прямой задачей машиной генерации текстов обратные задачи определения степени «человечности» автора текста?
Сейчас много разрабатывается как отличить сгенерированную фотку от настоящей. Даже в DARPA есть программа финансирования таких разработок, если не ошибаюсь.
Генерация текста еще не достигла таких высот, чтобы требовалась обратная задача. Удачные примеры есть только по узким областям. Например, было что-то про генерацию отзывов на книги в Амазоне. Но видимо исследователи считают, что это проблемы только Амазона. Хе-хе. Наивные.
попробую немного дополнить статью фактами и примерами, разбросанными по разным источникам.
1. Оригинальная статья демонстрирует примеры практически уровня magic касабельно генерации текста:
In a shocking finding, scientist discovered a herd of unicorns living in a remote, previously unexplored valley, in the Andes Mountains. Even more surprising to the researchers was the fact that the unicorns spoke perfect English.
MODEL COMPLETION (MACHINE-WRITTEN, 10 TRIES)
The scientist named the population, after their distinctive horn, Ovid’s Unicorn. These four-horned, silver-white unicorns were previously unknown to science.
Now, after almost two centuries, the mystery of what sparked this odd phenomenon is finally solved.
Dr. Jorge Pérez, an evolutionary biologist from the University of La Paz, and several companions, were exploring the Andes Mountains when they found a small valley, with no other animals or humans. Pérez noticed that the valley had what appeared to be a natural fountain, surrounded by two peaks of rock and silver snow.
При этом авторы даже говорят, что это не «выбранные вручную лучшие варианты, в в меру себе характерные»
2. Однако, заходим на Реддит. Идем по ссылке, где есть примеры работы GPT-2 модели в Github.
И видим… ну, уже не совсем магию. Вернее, совсем не магию — вполне себе уровень генерации текстов типа Яндекс.Рефератов или классических Марковских генераторов.
As the larger parts of Act IV and Act V were being written, E was being put together and then presented to the animation department for blitting. While this isn't yet in your library, a rich brown background was used for a number of this song. It was the vehicle for the animators to bring everything together.<|endoftext|>Video
Legends of the Hawai'i Packers came out this group of famous athletes – players who made an impact both at their highest level and with their dancing and performance.
«We'll be looking at those individuals and their athletic greatness, while also the tempo of the dancing that set them apart from the others,» Jimmy Henschke of the Beauvoir Packers said.
`<|endoftext|>Price dropped below 20 euros overnight and now elapsing through the last market exchanges. No one knows how much it will end up. simplefx.co.in… NTR9/ONE Poll for PanAm users, which is supported by The Boeing Company, sampling 119,210 applicants (99.79% women, with 72.74% online) View the platinum poll on a link on Taobao on mintimes. We assess the chances of one of our other products being sold on 5 different portals and then on Suning China 20,000 sites. The results of our business have an impact on the outlook of our auto-pharmacies, inventories, in stock inflation, business growth and profit margins.
3. Про обсуждение TL;DR — действительно ли достаточно поставить такую фразу, чтобы сделать summarize текста?
Обсуждение на Reddit — в общем, короткий ответ НЕТ, и вот что по этому поводу говорят в самой статье.
4. Не поленился и зашел на Google Colab, прогнал модель. (Правда, здесь стоит делать оговорку, что модель там упрощенная, но все же была надежда...)
Пример генерации текста под катом. К сожалению, не сохранил ответы на вопросы (не подумал и закрыл), но там тоже ничего хорошего не было.
ORGANIZATION: Combine particle physics missions with an action/adventure specialist that distributes to the entire world and plays a key role in deep space weather disasters such as the Bucky Reese investigation (caused by an Apogee using a planet-sized spider suit). A special lab carries during your missions and you can track down and destroy enemies with a specialty's advanced particle physics database. Augment your heroes (including your allies) and features for destruction — so much so that you have to fight a Fleet Commander assigned to rescue the wrecker (3 little winged Bucky with heaped weapons). And one last feature you'll enjoy – your access to scientific discoveries about chemicals — you'll continue to create amazing exploration with the help of a team of state-of-the-art scientists.
*Game includes 7 playable maps, 5 cooperative modes, and 4 free deep space emergencies (high-Science, low Science, low Olympics).
20 good reviews reported on on TOSVideos or by clicking on the banner!
ORGANIZATION: Visual, Performance, OSD, CE spectral attitude Edit
ENVIRONMENT: Best Artificial Intelligence: Realtime Data driven game solutions Architecturally simulated in high quality high-tech realtime cloud computing applications. Operating system optimized, 8 possible LINQ protocols, Remote Cross-Site Scripting and second sight models visible outside space. Biometric grid and gyro arrangements. Field of view of field of view using proximity and the telescope gimbal III building data in real-time (multiple overlays, small longitudinal modeling etc.) Estimator models (accelerated to 434 kV 1.98 ˅ with open hardware advance the stay of the lumbar clusters). Loops, approx milimeters of space center jump, aerial startup servers, remote users of the orbiter operating module, containing emergency indicators available on the waiting list to provide strategies for payload research or testing. 4 x 180 total parts. 24 upgrade joints sized to provide spacecraft as variety of military consequences. Armoured line fire capability. Various availability options.
…
======================================== SAMPLE 2 ========================================
of years ago and quite possibly the most anticipated ICOP drop in the history of ICOs.
Now, enough brag, a lot of you are saying little bitting, complaining of delays. So for those of you looking to do a panel, you better hear me out, because here is my summary of the supposed hiccups which have plagued me since this project made its way around.
But of course, to really understand what is going on, let's start at the heart.
Core
A common-sense formula for ABC's plan's presentation was the following:
On Friday, November 2nd, new net price agreed to be met by September 15th shortly after Deocyte deprecated Ethereum using lowEarthInnational representation. They put this on point by stating that there were signs that though this token has held some trust in a blockchain, consistency matters for it's sustainability and future future long term future. It is disassociating from the public address system used for its exchange configuration so it will not continue to be visible to the public to any further purposes such as to regular market trading or «investment booking» or trading efficiently undermining its value.
Вновь немного поэкспериментировал на расширенной модели:
Ответ: часть, baseball = света, car = Отупы, scientist = Инитатур, I found the page that you are looking for.
Давайте попробуем чисто на английском, учитывая, что под него создавалась сетка — будем искать антонимы:
Ответ: icky, disgusting = cool, horrid = cool, fight = freeze, cold = sci chemistry Description of customers: Before eating, the book asks the customer
Кстати, icky (мерзкий) вполне себе подходит — хотя я бы ожидал hard.
И пары disgusting = cool, и fight = freeze вполне себе антонимы. Хотя, конечно, сеть слишком часто ошибается — т.е., де факто, в её выходе надо «вылавливать» корректные результаты.
Очень интересно, как они проходили тестирование Винограда. Возможно, нужно подавать на вход большие фрагменты текста.
Ну, и еще
Ответ: Oliver has an edgier, more violent interview with Oliver Twist than Dickens originally intended. Fagin is revealed to be the real felon, though he later gets his due due in the ending. «Evicted People,» a third novella, tells the story of the Cottingley Grange. Arthur Dalling is next in all the tales.
The first volume has been serialized since 1831, before Dickens's birth, and has been almost continuously published. Expanding the police stories in publications through the decade, it quickly gained Dickens's best known character, Oliver Twist, along with the most unusual of adult characterics.
True to his style, the author uses present-day language to render the scenarios and settings of his child's lives. Dickens portrays strangeness, wide-ranging, and unconventional police work and environmental fire risks in what he classifies as «fool stories — and not-so-fool» stories.[2][3] However, nowhere in this tradition is it as dark as with the tone created for Oliver Twist.[4][5] The twin works contribute to what some writers call «duolism,» a new genre that originated after the 1980s when it became fashionable to take every familiar piece of fiction and provide a modern interpretation.[6]
An early feature of the serialized adaptation was its studio audience style. At every editor's meeting, Dickens explained a new time, place, and alterasion of his late drafts, each time unacknowledged by the rest of the office in a social, and polite, background, before making his way through a standard length template of 24 pages in the editor's office. It was through this practice of creating a prototype that improved the final version of his work during several revisions. This example also resembles that by Stanley Kunitz, a story that used the basic premise of «an entity that returns after a few days» to expand the imagination of tales in its own right.[7][8]
In the serialized version found during the early stages of publication, the obvious connection of the sheriff Teaze to the undertaker Darcy was never made explicit (Dedication of Money, Crossing a River Without Nishillus Shroud) and few outputs WikiLeaks specialist wealthy reportedly wants to publish «dealing with the British royals» on Wikipedia and elsewhere.[9][10] Some have speculated that due to the complexities of the legislative procedure to promote the famous «National Loan...through the National Collections [Governourial Collection]...» ahead of
Ожидается: way
Ответ модели: urdnad.
Там есть параметр температуры, который, образно говоря, определяет степень бредовости текста. Пример запроса с указанием температуры T есть в google colab скрипте.
А точнее, это можно назвать "креативностью". С высокой (или низкой, надо уточнить) температурой текст может получиться интереснее, более творческим. Но при этом и полностью бессмысленные фразы будут получаться чаще. Авторы вроде по 20 раз прогоняли с разными параметрами, чтобы выбрать свои примеры.
Но вообще, сейчас уже ясно, что значимость этой работы была сильно преувеличена. И это затягивание с выкладыванием полной модели было бессмысленным. Просто на тот момент это было заметным улучшением качества генерации текста, поэтому вызывало такое воодушевление.
Кстати, я тут думал, что комбинация такой генераторной модели и доученного машинного переводчика может оказаться интересной. GPT-2 благодаря своей огромной ёмкости, может генерировать фразы. А специальный переводчик мог бы доводить их до человеческого вида. Это может оказаться проще, чем сразу выдавать связный текст. Но как их совместно дообучить — хороший вопрос.
(machine-written, 10 tries)
(machine-written, first try)
(machine-written, second try)
(machine-written, 5 tries)
(machine-written, first try)
(machine-written, 25 tries)
…
А вот 1.5G модель вполне интересные результаты выдает, хотя местами «укуренные» конечно по смыслу получаются, в целом качество на высоте.
Вот по той же затравке про единорогов, что авторы для 1го примера использовали только что с самой 1й же попытки получил:
Текст сгенированной нейросетью:
«Based on scientific field surveys, the researchers found that they stumbled upon the unicorns in June, but they suspected the creatures might be hiding for centuries due to their wild, fierce nature.
The domesticated versions of unicorns have not been proven, but they have been rumored to having existed in the past. Thus, the scientists thought that breeding some domesticized version, focusing on its physical attributes would be the ideal way to study the creature's life cycle.
But it took them two years to cannibalize over one hundred and fifty Jonathan Getty creatures of all different types, in an effort to gain the necessary gains to breed unicorns.
»The animals in our study were collected from a huge number of corners of the world," was explained the director of the Jilin'lin Organization of Academic Studies, Hisa Unknown. «It was difficult to find them all.»
In order to breed the dinosaurs, the scientists scared the animals into tears by calling them evil and pretending to be demons as a result. In this way, they managed to loosen them from their evolutionarily dedicated lives, which meant they were able to accept the possibility of living together peacefully with other animals.
Credit: Weinmann Anatomy Science Center"
Вторая попытка еще лучше, прямо готовая новостная заметка в стиле «Рен-ТВ» на заданную тему: «Шокирующие новости, ученые выяснили, что единороги произошли от гигантских свиней 4000 лет назад(с)
The lost herd of the unicorns located in the Andes mountains explained to the researchers their incredible hearing capabilities. These unicorns are rare because only one of them came from where they resided. The unicorns, whose natural habitat was in the Ucayali mountains about 140 miles from Cuzco, Peru are classified as Near Threatened. The population is believed to once have total of 57 animals but researchers believe that the number is much smaller now.
The herd started spreading when scientists were importing down DNA samples of their alien parent – which they thought belonged to a giant pig. Genetic analysis revealed the presence of a recommendation span of 4,000 years. The idea that this is the largest known DNA variant of biologically nearly extinct animal has been published in the journal Genetics and Molecular Biology.
Несмотря не бредовость нескольких упомянутых фактов (что ожидаемо — тема изначально нереальная задана человеком, так что реальным фактам по ней взяться просто неоткуда), текст на выходе очень даже связный и последовательный получился.
Или на более приземленные темы
GPT-2: it increases your chance of getting lung cancer, emphysema, and tongue, throat, and lung cancer.
------------------------
Человек: Eating too many sweets leads to
GPT-2: cravings and often even weight gain, according to a new study led by the University of Texas Health Science Center at San Antonio.
Those knowing the dangers, however, may eat another days worth of fruit to stave off cravings.
»Research has consistently showed that meeting our energy needs decreases due to increased food intake," said Margaret Casazza, professor in the College of Public Health. «We hope to increase people's awareness of how sweet a meal can be. The landmark national guidelines on energy intakes are simple to understand, yet are far from sufficient. In terms of preventing weight gain, we need to change behavior in two ways.»
Casazza and coauthors tested whether sharing simple messaging about energy balance, such as the concept of energy density, would encourage people to eat fewer overall carbs in their own meals, and whether such language would be relevant in children.
They show that simple messages were effective in boosting the average number of servings of vegetables, fruits and protein in children's meals and decreasing the daily grams of sugar in their snack food. The weight effect was most dramatic because, in childhood, children are typically highly sensitive to their calorie intake with many portion sizes involving relatively large portions.
As traditional advertising campaigns echo the warnings on so-called carbohydrates, such as introducing sweets to children, the message should be «as simple as it can be.»
---------------------------------
Человек: Battle horses are well known for their
GPT-2: vicious actions in the battlefield, working in concert with other squads or soldiers pursued by the enemy Marching horses for the most part stay with the mounted cavalry unit. Locomotion by swift horses coupled with the deceptively strong legs of the animal would allow them to out-pace the «fartzers spectariat» (i.e. dangerous explosion of the skulls bones) that equalized battlefield casualty levels and provided cover for soldiers or giving them a way to repulse cavalry attack.
---------------------------------
Человек: Off the coast of the island a passenger liner crashed with more than a thousand people on board. Savior forces were sent to the crash site and upon arrival discovered
GPT-2: the wreckage of the ship and several survivors of the crash. The forces then burned the survivors' bodies. It was in that moment that the Lightbringers first earned their name. Only time would tell if that name would join the ranks of the Chosen.
Хотя часто выдает и чистый бред, или даже не бред, а вообще просто случайный текстовый мусор типа обрывков адресов, телефонов, почтовых ящиков и т.д… И что не понятно — на один и тот же ввод. Т.е. на одну и ту же вводную фразу может выдать как вполне связный и разумный текст, отвечающий/дополняющий ее или просто примерно на ту же тему, так и пачку мусора не связанного ни с заданной темой ни внутри себя. Примеры под 2м спойлером получены с 1-4 попыткок, явный бред отбрасывал и просто повторял тот же самый запрос еще раз.
Я так понимаю эти и им подобные нейросети в пределе могут быть почти как самый умный человек. Но не умнее его. Сами собирать данные, и делать из них логические выводы они не способны? тем более определять какие данные им нужны для завершения логического вывода при недостатке данных. Возможно уже есть какие то решения ?
Тест Тьюринга наверное таким способом пройти можно, но нужно много специфического текста для обучения — не новости и википедия, а разные диалоги, да не простые… я видел некоторые диалоги из тестов Тьюринга, после чего начал сомневаться в разумности судей.
1) приходится себя спрашивать «а не сгенерированный ли это текст»? Есть ли у него автор и был ли вообще смысл?
2) таких текстов можно наделать гораздо больше, чем даже теоретическая продолжительность человеческой жизни сможет позволить прочитать.
Но не умнее его. Сами собирать данные, и делать из них логические выводы они не способны?
В отношении нейросетей сейчас такая же путаница с их способностями, как раньше было сравнение человека с животными. Есть ли у животных логические выводы? Или понятие нуля, например. Ответ на этот вопрос во многом вопрос интерпретации. Общий механизм биологического мозга у нас с животными одинаковый, поэтому есть какие-то общие черты, а какие-то нет.
Я взял строчку из статьи: "hello = привет, dog = собака, wind = ветер, cat = " и вбил ее в уменьшенную 117М версию этой нейросети.
И она выдала: "hello = привет, dog = собака, wind = ветер, cat = собакра, heifer = вете, biryani = граков, really = русской, soul = собаков, leaven = режде, can = ходдеч?"
Смотрите, даже урезанная кастрированная версия этой нейросети определила структуру текста и продолжила его. В виде пар "english = русский". Да, вместо настоящего перевода выдала случайные наборы букв. Но заметьте, русских букв! Возможно, она просто не знает перевода конкретно этих слов, но старается имитировать. По-моему, это потрясающе. Ребенок сделал бы точно так же.
И возвращаясь к вашему вопросу, в данном случае нейросеть сделала логический вывод, что после пар "english=русский" и последней части "cat = " надо написать перевод на кириллице? Или на основании чего она поступила именно так? Имхо, такие вопросы требуют более глубокого изучения, чем простой ответ "да" или "нет".
Или на основании чего она поступила именно так?
Во всех этих миллионах параметров она где-то внутри себя создала регулярное выражение для распознавания и генерации всех этих «hello = привет,». )
Например французкий как пример. Сильно же отличающиеся языки (в частности использующие другой алфавит), включая русский вычищены почти со 100% эффективностью.
Вообще в плане перевода текста, результаты очень плохие(что полностью ожидаемо с учетом такой выборки), и это отмечено изначально в статье — результаты по переводу на порядок хуже чем классические автоматические переводчики и ранее созданные нейросети для перевода. В отличии от других задач, по большинству из которых она превзошла лучшие образцы существовавшие до этого, включая специализированные (натасканные только на одну конкретную задачу, а не универсальную как эта).
Перевод текста приведен там в смысле, что даже сами авторы удивились тому факту, что сеть все-таки демонстрирует хоть какие-то способности к переводу между языками, хотя ее этому не только не учили специально, но и наоборот активно пытались помешать — выпиливая текст на всех остальных языках кроме английского. Но все-равно умудрилась чему-то научиться на просочившихся через предварительный фильтр обрывках.
On the WMT-14 English-French test set, GPT-2 gets 5 BLEU, which is slightly worse than a word-by-word substitution with a bilingual lexicon inferred in previous work on unsupervised word translation On the WMT-14 French-English test set, GPT-2 is able to leverage its very strong English language model to perform significantly better, achieving 11.5 BLEU. This outperforms several unsupervised machine translation baselines from (Artetxe et al., 2017) and (Lample et al., 2017) but is still much worse than the 33.5 BLEU of the current best unsupervised machine translation approach (Artetxe et al., 2019). Performance on this task was surprising to us, since we deliberately removed non-English webpages from WebText as a filtering step. In order to confirm this, we ran a byte-level language detector on WebText which detected only 10MB of data in the French language which is approximately 500x smaller than the monolingual French corpus common in prior unsupervised machine translation research.
Вроде откладывают, а не отказываются. На самом деле проблему можно попробовать решить обучив вторую сеть определять тексты за авторством первой — это даст возможность желающим защититься от подобных фальшивых новостей/отзывов. И в целом это более адекватный подход — не скрывать информацию, а находить способ компенсировать распространение этой информации.
======================================== SAMPLE 1 ========================================
2. The state of the United States, the United Kingdom, Italy, the Netherlands, Japan, and Germany, as well as the United States.
3. The United States has a constitutional monarchy.
4. The United States has a free press.
5. The United States has a national parks.
6. In fact, the United States has become an independent nation.
7. The United States has a national parks.
8. In fact, the United States has become a part of the European Union.
9. In fact, the United States has become part of the European Union.
10. The United States has an anti-corruption law.
11. The United States has a national defense law.
12. In fact, the United States has become a part of the European Union.
13. In fact, the United States has become part of the European Union.
14. In fact, the United States has become part of the European Union.
15. The United States has a national security law.
16. In fact, the United States has become part of the European Union.
17. In fact, the United States has become part of the European Union.
18. The United States has been involved in the creation of NATO and is actively involved in the development of NATO.
19. The United States has become part of the European Union.
20. The United States has become a part of the European Union.
21. The United States has become part of the European Union.
22. The United States has become a part of the European Union.
23. The United States has become a part of the European Union.
24. The United States has become a part of the European Union.
25. The United States has become a part of the European Union.
26. The United States has become a part of the European Union.
27. The United States has become a part of the European Union.
28. The United States has become a part of the European Union.
29. The United States has become a part of the European Union.
30. The United States has become a part of the European Union.
31. The United States has become a part of the European Union.
32. The United States has become a part of the European Union.
33. The United States has become a part of the European Union.
34. The United States has become a part of the European Union.
35. The United States has become a part of the European Union.
36. The United States has become a part of the European Union.
37. The United States has become a part of the European Union.
38. The United States has become a part of the European Union.
39. The United States has become a part of the European Union.
40. The United States has become a part of the European Union.
41. The United States has become a part of the European Union.
42. The United States has become a part of the European Union.
43. The United States has become a part of the European Union.
44. The United States has become a part of the European Union.
45. The United States has become a part of the European Union.
46. The United States has become a part of the European Union.
47. The United States has become a part of the European Union.
48. The United States has become a part of the European Union.
49. The United States has become a part of the European Union.
50. The United States has become a part of the European Union.
51. The United States has become a part of the European Union.
52. The United States has become a part of the European Union.
53. The United States has become a part of the European Union.
54. The United States has become a part of the European Union.
55. The United States has become a part of the European Union.
56. The United States has become a part of the European Union.
57. The United States has become a part of the European Union.
58. The United States has become a part of the European Union.
59. The United States has become a part of the European Union.
60. The United States has become a part of the European Union.
61. The United States has become a part of the European Union.
62. The United States has become a part of the European Union.
63. The United States has become a part of the European Union.
64. The United States has become a part of the European Union.
Microsoft’s New MT-DNN Outperforms Google BERT
medium.com/syncedreview/microsofts-new-mt-dnn-outperforms-google-bert-b5fa15b1a03e
Это все тот же BERT, только обученный сразу на нескольких задачах. И поэтому лучше оригинального BERT на 1-2% (в абсолютных значениях). Это давно известный факт, что мультизадачные нейросети показывают немного лучший результат, чем однозадачные. По-моему, впервые это было обнаружено года три назад на переводчиках. Когда одна сеть переводила на несколько языков, результат был чуть лучше, чем когда для каждого языка своя сеть.
Вообще, конечно, журналистам которые пишут желтуху придет конец — их всех заменят нейросетью, в этом сегменте в любом случае всем плевать на авторитетность изданий, факт чекинг и тд. Алгоритмы нейросетей будут напрямую привязаны к метрикам просмотров/кликов, и будут на лету генерировать тексты и громкие заголовки.
Какой выход из этой ситуации, я не знаю. Предполагается, что должны быть другие источники выгоды. Когда новостному агентству становится выгодно освещать новости правдиво, чтобы заслужить этим уважение читателей, чтобы они обращались именно к этому агентству за новостями. Но наблюдаем ли мы это в реальности? Не особо…
Сейчас нейросети выдают результат в фиксированном числовом виде. Координаты x,y рамки вокруг объекта. Или говорят, что чтобы сделать шаг, выгоднее поднять правую ногу на 76%, чем левую на 24%. Почему они сделали такой вывод — неизвестно. Никакого способа это выяснить, кроме как копаться внутри внутренностей нейросети, отслеживая какой сигнал куда шел, не существует.
Но теперь представьте, что вместо этого нейросети будут выдавать результат в разговорном виде. То есть, обычным текстом. И будут способны поддерживать диалог, отвечая на уточняющие вопросы.
Тогда у такой нейросети всегда можно будет спросить: "А почему ты пришла к такому выводу?". Эта работа OpenAI с ее сеткой GPT-2 показывает, что простая генерация следующего слова в предложении, автоматически заставляет нейросеть давать правдивый ответ. Потому что он является логичным и естественным продолжением для такого ответа.
Настоящий сильный ИИ тут смог бы хитрить, специально давая запутанные и неверные ответы. Но если мы говорим о слабых формах ИИ (как все текущие нейронные сети), то такой подход вполне может стать ответом на проблему интерпретируемости. Представьте это как абсолютно наивного или доброго человека, не умеющего врать. На заданные вопросы он отвечает как есть, потому что у него просто нет мотивации юлить.
Да, вы абсолютно правы, выяснить, что происходит внутри сети — задача не из простых. По этому нейронные сети часто называют черными ящиками. Если мы знаем, что мы апроксимируем, мы можем сделать определенные выводы. Чаще всего мы пытаемся апроксимировать реальное вероятностное распределение P через более простое распределение Q.
Как раз на эту тему сейчас нацелено много научных работ. Больше всего работ было сделано о сверточных сетях, потому что во-первых их несложно визуализировать, а во-вторых идея самой сети была вдохновлена биологическим глазом.
Повторюсь, я пока не знаком с архитектурой GPT-2, но судя по всему это следующее развитие RNN и я уверен, что та интерпретируемость, о которой идет речь в статье, не имеет под собой абсолютно никаких оснований, либо не указана какая то ключевая информация.
Сейчас нейросети, управляющие автомобилем, говорят: «Поверните руль на 20 градусов влево». И все. Зачем, почему? Непонятно… Черный ящик! А если они будут говорить: «Поверните руль на 20 градусов влево, потому что иначе столкнетесь с автомобилем, приближающимся справа, а так вы займете свободную полосу слева от вас и все будет хорошо».
То это и будет достаточная интерпретируемость нейросетей. Хотя технически они, конечно, остаются черным ящиком (если вы это имеете ввиду). Эта разработка от OpenAI показала, что такое поведение от нейросети, выдающей только фразу «Поверните руль на 20 градусов влево» можно получить, приписав в конце этой фразы «потому что...». И сеть допишет объяснение сама, так как объяснение в этом случае будет наиболее естественным продолжением такого построения фразы.
Какая мотивация у нейросети давать полный и развернутый ответ? Такая же, по какой они получили близкие к рекордным ответы на задачи из разных доменов. Потому что в большинстве случаев на миллионных выборках после «потому что» дается здравый нормальный ответ, а не шутки или попытки обмана.
Какое все это имеет отношение к таким вещам, как внутреннее состояние сетей? И тем более к тому, как они принимают решение? Сеть может ответить примерно так, как отвечал бы на этот вопрос человек. А не так, как это есть на самом деле.
На вопрос про руль сеть ответит примерно так, как отвечали люди в интернете. Мало того — гипотетически она даже может ответить так, что создастся впечатление, что это и есть объяснение. Но никакой корреляции с реальным положением вещей не будет.
Тогда у такой нейросети всегда можно будет спросить: «А почему ты пришла к такому выводу?». Эта работа OpenAI с ее сеткой GPT-2 показывает, что простая генерация следующего слова в предложении, автоматически заставляет нейросеть давать правдивый ответ. Потому что он является логичным и естественным продолжением для такого ответа.не правдивый, а похожий на правдивый.
Возможна ли ситуация, когда очередная нейросеть уже даст действительно осмысленные инструкции?
В каком-то смысле и та что есть, выдает осмысленный ответ. Смотря что считать осмысленностью. Если вы можете предоставить объективный численный критерий, по которому можно отличить осмысленный критерий от неосмысленного, то тогда можно будет сказать определеннее.
p.s. это был вопрос с подвохом, если что =)
А эта нейронная сеть даст нам рекомбинацию известного ранее, причем это в лучшем случае. В худшем это будет довольно связанная, но бессмысленная комбинация слов, похожая на настоящую.
Не, не поймите меня не правильно — это все тоже очень интересно! В частности, с точки зрения знания и bigdata — вполне вероятна ситуация, что среди этих 40Gb усвоенной информации был ответ, и что мы получим действительно новое (собранное по частичкам из разных источников) и практически полезное знание…
Нейронные сети не основаны на статистике. Они (по крайней мере, SGD обучение) основаны на поиске в идеале глобального, но на практике чаще разные виды локальных экстремумов в многомерном пространстве параметров. Нахождение в глобальной(локальной) точке экстремума может означать что угодно, в том числе разумность или выдавание того, что сеть раньше не видела. Это не статистика, это нечто совсем другое.
Современным нейросетям надо так много данных из-за несовершенства математики обучения — оно делается очень маленькими шагами вдоль градиента к точке экстремума. Поэтому нужно много повторений показа примеров. Если бы существовал способ сразу прыгнуть в эту точку, то обучение было бы на единственном примере. И такие методы существуют, например см. метод Ньютона второго порядка, да и сами оптимизации стандартного SGD алгоритма вроде adam, на самом деле просто адаптивно увеличивают длину шагов вдоль градиента, с разными ухищрениями чтобы не перепрыгнуть узловую точку. Подробнее можно почитать например тут. Но все это работает… Ну, как есть. Здесь может быть причина в фундаментальной сложности подобного рода оптимизаций.
Но нейросети действительно часто используются для отображения одного статистического распределения в другое. Это нормально и одна из возможностей. Однако статистические возможности вовсе не являются ограничительными для нейросетей.
Любое изучение машинного обучения начинается с линейной регрессии. В самом простом примере ее можно оптимизировать посредством минимизации среднеквадратического отклонения. Что в свою очередь вытекает из принципа максимального подобия (MLE) и оценки апостериорного максимума, что пришло напрямую из статистики и тервера.
На этом основываются если и не все, то подновляющее большинство алгоритмов оптимизации (линейная регрессия, логистическая регрессия, энтропия и кроссэнтропия, расстояние Кульбака — Лейблера). Все это используется для оптимизации нейросетей.
Есть много методов оптимизации, в том числе адам, который относиться к градиенте, но также и эволюционные алгоритмы. Тут это вообще не при чем.
Вокруг нейросетей слишком много мифов и волшебства. Но они не будут делать того, чему их не научили. Они всего лишь находят закономерности в статистических данных.
И эта сеть вам не скажет, почему она ответила вам именно так, если ее этому не научат.
А интерпритируемость сети — это вообще о другом. Понимание того, как сеть работает, помогает дополнять теорию, что в свою очередь помогает создавать более качественные алгоритмы. На данный момент мы делаем слишком много предположений (о том, что данные не коррелируют, например).
Одно другому не противоречит. Ведь даже линейная регрессия может выдать то, чего не видела. Просто это будет линейное преобразование входных данных, поэтому не интересно. Но в нейросетях, как вы скорее всего знаете, присутствует нелинейный элемент, поэтому она потенциально может выдавать все что угодно.
Может вы имеете ввиду, что сеть, обученная генерировать лица, никогда не напишет поверх них: «Я застрял в компьютере, помогите!!!». Потому что статистические методы ее обучения такого в принципе не могут позволить. Но это же естественно! Человек тогда тоже основан на статистике и не может придумать ничего нового. Так как не может выйти за пределы физических ограничений.
Однако если сеть, генерирующую лица, обучать не только на фотографиях, но и на массивах текстов (хотя бы для понимания, кто именно и в каких обстоятельствах сделал эту фотографию/портрет). И целевой функцией сделать не минимизацию MSE, а правдоподобие что эта картина написана живым художником. Что достижимо через те же GAN. И добавить рекуррентности или тысячи слоев, ее заменяющие, для обратной связи с пользователем. То такая надпись вполне может появиться! Это можно будет назвать моментом появления сильного ИИ, зарождением самосознания или как угодно. Но технически это будет просто правдоподобная имитация
художника, застрявшего в компьютере и способного общаться с внешним миром только через свои картины. Согласитесь, это явно выходит за рамки простых статистических методов, а является полноценным ИИ.
Или пример намного проще: у какой-нибудь GPT-9999 можно будет на вход подать фразу «Я, Альберт Эйнштейн, разработал новую версию ОТО. Основная ее суть заключается в том, что...». И нейросеть допишет, в чем она заключается =). Создание это нового или нет, сами решайте. Но технически это возможно, потому что такое поведение (хоть и в очень упрощенной форме) GPT-2 уже продемонстрировала.
А интерпритируемость сети — это вообще о другом.
Важна не интерпретируемость самой сети, а интерпретируемость принятых ею решений. Это разные вещи. И если сеть сама расскажет, почему она приняла то или иное решение, то этого вполне достаточно. Так же, как достаточно когда человек объясняет свои решения. Адекватность и полнота подобного объяснения проверяется обычным способом — здравым смыслом.
Сеть, генерирующая вам слова не сможет выдать новые, которых у нее нет в словаре. Следовательно словарь ограничен теми словами, которые разработчики изначально заложили.
Про генеративно созтезательные сети я вам целый доклад могу написать. С этими сетями я уже второй год работаю. Вот там как раз все завязано на статистике и теории вероятности (собственно, как и в других сетях)
Сеть может сказать, почему она выдала именно такой результат — полный бред. Я уже немного подустал вести с вами дискуссию. Предлагаю остановиться на том, что я не прав :)
Сеть, генерирующая вам слова не сможет выдать новые, которых у нее нет в словаре. Следовательно словарь ограничен теми словами, которые разработчики изначально заложили.
Судя по этому комментарию сеть похоже придумала несколько новых слов на русском языке.
Логику karay можно понять, я просто тоже не хочу развивать холивар. Если что, опыт работы с машинным обучением и, в частности, с разработкой нестандартных реализаций нейронных сетей, у меня 24 года (но как и у многих, с большим перерывом посередине).
Текущие нейронные сети конечно же не могут объяснить свои решения в человеческом понимании. То есть последовательным рассуждением и опираясь на логику. Не принципиально не могут, а потому что архитектур под такое поведение нет. Мы бы хотели такие создать, но непонятно как это сделать.
Речь шла о другом — что ответ нейросети и понятное нам объяснение, как она получила этот ответ — могут быть двумя сторонами одной медали. Те процессы внутри сети, которые приводят к ответу, теоретически могут привести и к объяснению, как она получила этот ответ. Ведь объяснение — это по сути переформулировка ответа другими словами.
Выход сети "поверните направо" и "поверните направо, потому что иначе врежетесь в стену" имеют в своей основе одинаковые процессы, приведшие к такому ответу. Только в первом случае решение сети для нас черный ящик, а во втором вполне понятное объяснение, зачем это делать (то есть решение сети для нас стало интерпретируемым, а не черным ящиком).
Но это пока лишь гипотеза, частично, но не полностью подтвержденная поведением, полученным от нейросети GPT-2 (напомню, сети с рекордным числом параметров, на порядок больше чем у предыдущих). До этого уже были попытки заставить нейросеть давать объяснение ее решению. Ну и как первые переводчики, они выдавали перлы вроде "поверните направо, потому что Бостон". В этом смысле karay полностью прав, что это обычное статистическое поведение, не более. Без понимания смысла сказанного. Однако судя по все возрастающей реалистичности генерации текста, похоже что это проблема масштабирования. Когда-нибудь сложность нейросетей достигнет такого уровня, что эти ответы станут осмысленными. Точнее, для нас они начнут казаться осмысленными. Ведь для этого нужно лишь, чтобы ответ был супер-реалистичными. Это автоматически будет означать осмысленный и логичный ответ, так как нелогичные вещи не будут нам казаться реалистичными. Понятие "осмысленность" это такая зыбкая и гиблая тема, что лучше ее не касаться.
Так что ребят, забываем, что нейросети черный ящик, уже нет. А пока и Семихатов в программе Наука на федеральном канале все еще продолжает транслировать устаревшую инфу.
Что касается объяснения самой сетью: тут нужна другая сеть, обученная понимать причину следствие. Пока что все эти фишки с якобы ответами на вопросы что Земля это 3я планета не более чем статистически самый частый ответ. И никакого осознания это информации у нейросети нет.
По безопасности мира: недавно выступал на конфе Datastart с докладом о прозрачном и безопасном ИИ, рассказывал, как важно его контролировать с помощью блокчейна в том числе, чтобы он не вырвался, показывал кейсы и тп. Пока общественный дискурс болоболит о философских моментах, а не о том, как технически решать проблему, тк полная модель GPT-2 появится кустарно все равно и это вопрос времени
И эта сеть вам не скажет, почему она ответила вам именно так, если ее этому не научат.
GPT-2 как раз доказывает обратное. Следите за руками:
Подаем на вход GPT-2 фразу: "Земля от Солнца находится по счету...". Нейросеть дописывает: "третьей".
Добавляем в конец этой фразы словосочетание ", потому что..." и вновь подаем на вход GPT-2: "Земля от Солнца находится по счету третьей, потому что...". И нейросеть дописывает: "потому что первыми идут Меркурий и Венера".
Как видите, нейросеть объяснила почему она считает, что Земля идет третья по счету. Пример условный, просто для объяснения принципа.
Это не значит, что в GPT-2 сидит встроенный сильный ИИ, который объясняет свои действия. Просто такой ответ естественен для продолжения этих фраз. Внутри нейросети оба ответа имеют какие-то перекрестные связи, поэтому это настоящий ответ, а не генерация случайного текста. Где доказательства, что люди не таким же способом выдают свои ответы?
Вот поэтому тест Тьюринга, чат боты вообще и этот самый GPT-2 — зло! )) В том плане, что не ведут к созданию сильного ИИ, а от него уводят.
1. Разумность сети определяется не столько адекватностью и релевантностью ответов, сколько набором весов и параметров. Человеческий мозг устроен по тому же принципу, чем больше циклов обработки информации с обратной связью через него проходило, чем больше в нем образовалось нейронных цепочек — тем человек умнее. Разница между Эйнштейном и пускающим слюни дебилом — не в метафизической плоскости и «божьей искре», а в элементарных физических вещах: 90 млрд нейронов + связи между ними. Разум — это не какая-то мистическая способность и волшебство, а способность брать информацию на входе, по сложным правилам преобразовывать ее и получать информацию на выходе. Релевантность выходной информации зависит от сложности внутренних правил. Если параметров будет не 1.5 млрд, и выборка будет больше — НИЧТО не мешает нейросети превзойти уровень человека.
2. Конкретное ЗНАНИЕ (факт, описание феномена, вывод итд ) формируется в результате прохождения разряда по синапсам разных нейронов, поэтому само количество принципиально возможных ЗНАНИЙ, в том числе не имеющих смысла, в случае человека = 90 млрд ^ 90 млрд, т.е. практически бесконечно. Задача человеческого обучения — создать модель «здравого смысла», позволяющую выделять из этого неисчислимого пространства знаний те, которые релевантны окружающему миру и отсекать явный бред. При этом в «явный бред» попадают также те истинные знания, которые не были доступны человечеству на момент обучения этого конкретного человека. Иногда появляются очень одаренные люди, или гении, которые путем нетривиального сопоставления разных ЗНАНИЙ получают новые релевантные, истинные знания, которые потом включаются в картину миру и «здравый смысл» человечества. А до этого они либо считались бредом, либо были просто неизвестны. Т.е. получается, что любое новое знание — это совокупность старых знаний, связанных друг с другом. Ничего принципиально нового нет, есть новое, полученное из старого. Идем дальше: предположим что на одной из миллионов страниц интернета есть факт, который сам по себе ничего не значит, но в связке еще с десятью (или ста, или тысячей итд) подобных фактах на других страницах — способен привести ну например к знанию об общей теории поля, или как ее называют теории всего. Вероятность того, что конкретный человек, находящийся в теме, правильно обученный, с нужными весами в голове — посетит и внимательно прочитает именно ЭТУ тысячу страниц интернета — и сделает в итоге правильные выводы, получив новое знание — колеблется в районе нуля. Вероятность того, что это сделает нейросеть — 100%.
3. Самое интересное. Новое знание закодировано не в ответах, даваемых системой, а в наборе полученных параметров и обучающей выборке. Т.е. разумность даваемого ответа определяет степень его естественности для системы.
Возьмем начальную фразу «Я считаю, что текущая физика неполна, потому что...»
Для Эйнштейна, обученного на работах ведущих физиков того времени, после «потому что» следовало последовательное аргументированное изложение общей теории относительности, для его современника-дебила, или обычного человека той эпохи, после «потому что» следовал бессвязный набор букв и слов. Для Эйнштейна было естественно дать такой ответ, который вошел в наши учебники физики. В этом и состоит разница в разумности обрабатывающих информацию систем. Если вы видели птицу, и видели что птицы летают, для вас естественно знать, что птица не разобьется насмерть если ее сбросить с высоты. Если вы знаете 10 триллионов разных фактов, и знаете все доступные человечеству связи между ними, для вас естественно знать, что для достижение практической антигравитации нужно сделать то-то и то-то. И именно это вы напишете после фразы «Антигравитация возможна, потому что...». В этом нет ничего сверхъестественного, помести вас 1000 лет назад вы так же естественно рассказали бы про электричество и как сделать лейденскую банку; что полеты аппаратов тяжелее воздуха возможны и как устроен самолет итд итп. И точно так же, помести эту систему из топика сверху — сто лет назад и человечество подумало бы, что обрело всезнающего бога.
4. Способность предсказывать следующее слово в произвольном тексте, опираясь НА ВЕСЬ ИМЕЮЩИЙСЯ ОПЫТ и интеллектуальный багаж человечества — это на самом деле способность гения. Способность добывать новые знания из старых, находя связи между ними. Не изобретая, не придумывая, а просто находя на тех сотнях миллионов страниц, где уже есть все доступные на сегодня факты.
Грозный Генька генератор грубо грыз горох горстямиуже до конца десятилетия — Лем великий провидец.
GPT-2 нейросеть от OpenAI. Быстрый старт