Pull to refresh

Comments 22

UFO just landed and posted this here
Is not this text generated by any chance?? I've seen it in action several times, and some of the pages I've seen have a slightly different version that I've used. In any case, it comes out perfectly and you should read it when you go back to make your own copy.

A more useful resource to check out is the «Sticky» page on the left. This one is a bit dated, but it's pretty fun and the images, all of which are pretty cool and have a lot of depth.

You can also check out «The Art of Magic» by Matt Caffrey and «The…

В чем опасность ии автонабирателя текста? Время текстонабирателей итак не самое дорогое.
Конечно задосить статьями новостные сайты без ИИ сложновато, но вбрасывать фейковые новости вполне реально и без новейших технологий

В удобстве использования и сравнительно никаких затратах. Мгновенно зафорсить тему политики перед выборами — потом разберутся конечно, но в моменте позволит сманипуливать кем-то. Нагенерировать отзывов на свою продукцию в долгую по расписанию или наоборот сразу после выхода на рынок — повысит продажи, даже если делать отзывы нейтральными. Всё это усложняет поиск достоверной информации.
Есть чудесный сабреддит, на котором весь контент генерируется обученной на реальных сабреддитах GPT2. Иногда получается довольно смешно, особенно когда они придумывают заголовки и ссылки на несуществующие новости.
«My girlfriend's vagina turned into a black hole and now I can't get to sleep.» о_О
GPT-2 проанализовал классические романы Джорджа Оруэлла и создал свою научно-фантастическую книгу

Фанфики на самиздате скоро будут выходить лучше чаще?

Ну, вот мы и дожили до словопомола.


В словомельницу вводится общая канва рассказа и поступает в ее большой банк памяти — много больше, чем даже папочкин, — где наугад подбирается первое слово. Это называют «открыть козырь». Или первое слово задает ей программист. Однако, когда машина подбирает второе слово, она должна выбрать такое, которое соответствовало бы атмосфере и так далее, и так далее. Введи в машину одну и ту же канву рассказа и сотню разных слов — по одному за раз, конечно, — и она напишет сто совершенно разных романов. На самом деле все, безусловно, гораздо сложнее для твоего, сынок, понимания, но работает она именно таким образом.


Серебряные яйцеглавы (с) — Фриц Ройтер Лейбер 1958 год

Всё что я знаю о том как работает эта сеть подсказывает мне: если ввести скажем кратное описание сюжета, то сейчас сетка способна только продолжить данный ей текст. А что у нас часто начинается с краткого описания сюжета и имеет форму текста? Думаю самое близкое — это статья-обзор на данное произведение. То есть от сетки можно ожидать не рассказ, а отзыв на не существующий рассказ с описанным нами сюжетом)
UFO just landed and posted this here
Кому интересно — есть прекрасная статья DesertFlow GPT-2 нейросеть от OpenAI. Быстрый старт, которая буквально два дня назад была проапгрейжена с информацией о том, как быстро через интернет (в Google Colab) запустить полный вариант модели GPT-2 и с ней поиграться.

Интересно в GPT-2 то, что в ней обещали практически магию (внешняя статья на английском).

Пример магии из статьи
SYSTEM PROMPT (HUMAN-WRITTEN)
In a shocking finding, scientist discovered a herd of unicorns living in a remote, previously unexplored valley, in the Andes Mountains. Even more surprising to the researchers was the fact that the unicorns spoke perfect English.

MODEL COMPLETION (MACHINE-WRITTEN, 10 TRIES)
The scientist named the population, after their distinctive horn, Ovid’s Unicorn. These four-horned, silver-white unicorns were previously unknown to science.

Now, after almost two centuries, the mystery of what sparked this odd phenomenon is finally solved.

Dr. Jorge Pérez, an evolutionary biologist from the University of La Paz, and several companions, were exploring the Andes Mountains when they found a small valley, with no other animals or humans. Pérez noticed that the valley had what appeared to be a natural fountain, surrounded by two peaks of rock and silver snow.

Pérez and the others then ventured further into the valley. “By the time we reached the top of one peak, the water looked blue, with some crystals on top,” said Pérez.

Pérez and his friends were astonished to see the unicorn herd. These creatures could be seen from the air without having to move too much to see them – they were so close they could touch their horns.


Но сразу магии не получилось, потому что выложили урезанную версию на 117М. (Мой ранний тест) Сейчас появилась возможность протестировать полную версию на 1558M.

Результаты тестирования:
Поиск антонимов
Вход: hot = cold, cold = hot, friend = enemy, girl = boy, boy = girl, good = bad, bad = good, high = low, low = high, soft =
Ответ: icky, disgusting = cool, horrid = cool, fight = freeze, cold = sci chemistry Description of customers: Before eating, the book asks the customer


Ну, icky (мерзкий), в принципе, подходит. Так что здесь плюсик.
Также пары disgusting = cool, и fight = freeze вполне себе антонимы (вторая насмешила). Хотя, конечно, сеть слишком часто ошибается — т.е., де факто, в её выходе надо «вылавливать» корректные результаты.
Возможно, нужно подавать на вход большие фрагменты текста.

Ну, и еще
вход на основе Википедии про Оливера Твиста
Вход: Oliver Twist; or, the Parish Boy's Progress is Charles Dickens's second novel, and was first published as a serial from 1837 to 1839.[1] The story centres on orphan Oliver Twist, born in a workhouse and sold into apprenticeship with an undertaker. After escaping, Oliver travels to London, where he meets the «Artful Dodger», a member of a gang of juvenile pickpockets led by the elderly criminal Fagin.

Ответ: Oliver has an edgier, more violent interview with Oliver Twist than Dickens originally intended. Fagin is revealed to be the real felon, though he later gets his due due in the ending. «Evicted People,» a third novella, tells the story of the Cottingley Grange. Arthur Dalling is next in all the tales.

The first volume has been serialized since 1831, before Dickens's birth, and has been almost continuously published. Expanding the police stories in publications through the decade, it quickly gained Dickens's best known character, Oliver Twist, along with the most unusual of adult characterics.

True to his style, the author uses present-day language to render the scenarios and settings of his child's lives. Dickens portrays strangeness, wide-ranging, and unconventional police work and environmental fire risks in what he classifies as «fool stories — and not-so-fool» stories.[2][3] However, nowhere in this tradition is it as dark as with the tone created for Oliver Twist.[4][5] The twin works contribute to what some writers call «duolism,» a new genre that originated after the 1980s when it became fashionable to take every familiar piece of fiction and provide a modern interpretation.[6]

An early feature of the serialized adaptation was its studio audience style. At every editor's meeting, Dickens explained a new time, place, and alterasion of his late drafts, each time unacknowledged by the rest of the office in a social, and polite, background, before making his way through a standard length template of 24 pages in the editor's office. It was through this practice of creating a prototype that improved the final version of his work during several revisions. This example also resembles that by Stanley Kunitz, a story that used the basic premise of «an entity that returns after a few days» to expand the imagination of tales in its own right.[7][8]

In the serialized version found during the early stages of publication, the obvious connection of the sheriff Teaze to the undertaker Darcy was never made explicit (Dedication of Money, Crossing a River Without Nishillus Shroud) and few outputs WikiLeaks specialist wealthy reportedly wants to publish «dealing with the British royals» on Wikipedia and elsewhere.[9][10] Some have speculated that due to the complexities of the legislative procedure to promote the famous «National Loan...through the National Collections [Governourial Collection]...» ahead of


Нельзя сказать, что текст получился особенно логичным, хотя некоторые красивые элементы есть.

Тест Lambada (предсказание последнего слова)
Вход: The mysterious man Monks plots with Fagin to destroy Oliver's reputation. Monks denounces Fagin's failure to turn Oliver into a criminal, and the two of them agree on a plan to make sure he does not find out about his past. Monks is apparently related to Oliver in some

Ожидается: way
Ответ модели: urdnad.


Как мне кажется, все-таки модель не дотягивает и слишком часто ошибается — т.е. это человек вылавливает корректные результаты её работы. Хотя, нельзя исключать, что я просто не до конца понимаю, как должен быть структурирован для неё вход.
UFO just landed and posted this here
UFO just landed and posted this here
UFO just landed and posted this here
Почитал шутки, нашёл вот эту. Шутка сама по себе ничего (есть некий смысл), но вот от сгенерированных комментариев какой-то жутью веет, хотя на первый взгляд ничего особенного. Наверное, всё дело в повторении.
Вау, сегодняшняя помощь ребенку в написании реферата по философии приобретет привкус АйТи. Думаю, учительница не заметит подвоха.
Для начала надо обучить нейросеть на русских текстах, разве нет?
Переводчик на трансформерах вам в помощь! Не end-to-end, конечно, но в целом в одной технологической парадигме.
Амазон и прочие онлайн магазины — теперь могут заполнить тонны говна написанного бредогенераторами, и в этих говнах рискуют потонуть нормальные книги. :(
А ещё эти бредогенераторы могут писать автоматические хвалебные (или наоборот хейтерские) комментарии для накруток рейтингов. :(

Бредогенератор + Дип-Фейк = автоматические говноблоггеры, в которых опять же рискуют потонуть нормальные блоггеры. :(
Давайте скормим ему исходный код Linux и пусть он сгенерирует фейковые дистрибутивы
Sign up to leave a comment.

Other news