Как стать автором
Обновить

Комментарии 32

=D А я то думал че за идиота я читаю. ИИ умеет генерировать шизофреника. Либо меня во сне. Пока я сплю я примерно такое же генерирую.
Марковские цепи умели имитировать форумных сумасшедших на основе их постов ещё 10 лет назад (ну, подшаманить с разбивкой поста на смысловые блоки надо было, чтобы получилось вступление, тезис и ликующий вопль в конце).
Больше на обычный перевод похоже.

Действительно впечатляет! Интересно сможет ли такая нейросеть найти ответ на factoid questions? Найти ответ в исходном корпусе текстов?

В таблице ниже приведены некоторые результаты:

Хотелось бы ознакомиться, добавьте, пожалуйста!
ИИ-компанию OpenAI поддерживают Питер Тиль, Илон Маск, Рид Хоффман, Марк Бениофф, Сэм Альтман и другие.
И все как один успешные ИИ исследователи с прорывными результатами в ИИ. :)
Идея сводить General AI к чему либо типа GPT-3 (фантастически раздутому, монструозному натасканному предсказателю текстов) ущербна и тупикова изначально. Даже если ее поддержат Папа Римский и Дональд Трамп. Ее конечно можно использовать как генератор подсказок для человека для стандартных ситуаций. Но не более того.
Ermit (ответ на вопрос) Помимо знания естественного языка General AI должен понимать предметную область, соответственно должен обладать общими навыками «понимания», уметь правильно оперировать примитивами в этой предметной области и обладать общими элементарными навыками общения. (к сожалению быстро могу ответить на ваш вопрос только здесь)
А к чему, по-вашему, нужно сводить AGI? Вопрос без подвоха, в самом деле интересно ваше мнение. И должен ли AGI владеть естественным языком, например?
Чисто теоретически — если у нас программа способна понять что ее эксплуатируют (а зачем иначе создавать) и подать в суд ради признания за ней прав человека — это точно уже General AI. Если способна угрожать этим и договорится — это то же General AI.
Ну и если при создании были приняты специальные меры против такого исхода и они не всегда срабатывают — это тоже явно General AI
(вот тут E. William Brown с серией про Alice Long вспоминается — в том обществе отличить человека от ИИ с гарантией 100% можно только если достоверно знать происхождение (потому что например загрузка сознания тоже есть), понятие человека настолько размыто что системы личной обороны запрашивают локальные законы (и при этом вполне можно получить что в локальных законах написано что-то но реально местный суд приходится прямо тыкать в их же законы). Да, при этом все более менее счастливы (и андроиды тоже — методы контроля достаточно сложные).

Думаете, наш мозг "понимает" предметные области, а не "слепо" оперирует паттернами и какими-то фактами из памяти? Если и так, то разница между теми, кто всерьез хочет понять что-то (напр: Фейнман с его лекциями по физике) и 99% людей просто огромна.


Я вообще думаю, четкого водораздела понимание/генерация нет, есть градиент, в котором ИИ со временем продвинется дальше чем все люди :)

Думаете, наш мозг «понимает» предметные области, а не «слепо» оперирует паттернами и какими-то фактами из памяти?
Вы сравниваете несравнимое. На каком-то уровне наш мозг тупо выполняет программу записанную ему в ДНК и тупо поддерживает работоспособность химии. Там нет ни идей, ни чувств, ни сигналов, даже паттернов на таком уровне нет. Потом при построении мозга эволюция пришла к тому, что вот эта реакция это такой-то сигнал, вот этот фермент помогает забывать и т.п. На следующем уровне структурирования появляются те самые бессмысленные паттерны тоже выработанные эволюцией. Потом обучение, потом человеческая культура, потом интеллект. Но в самом низу молекулы, элементарные частицы, растворы электролитов и т.п. Каждый новый уровень опирается на нижестоящий. Цель же образования нового уровня в том, чтобы за счет более сложного структурирования на своем уровне иметь в себе такую модель, которую не мог принять уровень ниже. Паттерны слишком примитивны, чтобы быть в состоянии выразить полноценное мышление и полноценное обучение.
Я вообще думаю, четкого водораздела понимание/генерация нет
Разница существенна. Генератор не может ничего сказать о достоверности нагенерированного и что с ним делать. Понимающая машина точно знает достоверность своего вывода, как его улушчить и как применить.
есть градиент, в котором ИИ со временем продвинется дальше чем все люди :)
Градиент характерен для непрырывных сред. В сильно нелинейных системах градиент часто отсутствует. Либо даже вообще бывает ошибочным или случайным. А интеллект и есть та самая сильно нелинейная среда.
Паттерны слишком примитивны, чтобы быть в состоянии выразить полноценное мышление и полноценное обучение.

Паттерны могут быть примитивными, а могут быть потрясающе сложными, со встроенными элементами случайности.


Понимающая машина точно знает достоверность своего вывода, как его улушчить и как применить.

AlphaZero "понимает" шахматы или просто генерирует позиции и ходы, ничего не смысля?

AlphaZero «понимает» шахматы или просто генерирует позиции и ходы, ничего не смысля?
Попытка сравнить настоящую жизнь и задачи которые стоят перед реальным существом в реальном мире с игрой на 64 клеточках 32 фигурками по фиксированным правилам, да еще и в ключе сравнения достижений, настолько несостоятельна и примитивна, что не подлежит никакому обсуждению.
Паттерны могут быть примитивными, а могут быть потрясающе сложными, со встроенными элементами случайности.
Что такое комбинаторный взрыв вы не знаете. Чем сложнее паттерны, тем больше их надо. Чем болше паттернов надо, тем длиннее и затратнее обучение и тем больше реальных ситуаций надо сгенерировать и придумать методы их создания. А тут и комбинаторный взрыв. Время, сложность и затраты увеличиваются как минимум по x! функции. И при этом все равно не достигается надежный результат. А оценка надежности найденных решений очень важна почти везде.
На каком-то уровне наш мозг тупо выполняет программу записанную ему в ДНК и тупо поддерживает работоспособность химии.

В ДНК нет никакой программы — это просто норма реакции на среду. Программы в ней не больше, чем «программы горения» в салфетке, которая воспламеняется, если её поджечь.
за пару предложений до признания подумал, что надо написать комментарий как сарказм о том, что текст сгенерирован GPT-3

для русскоязычного читателя хабра выглядит просто как очередной плохой перевод

А он и есть плохой. Англоязычный оригинал написан хорошим языком.

Эта штука принесёт миллионы если продавать доступ к ней постранично копирайтерам и студентам. Цена может быть ничтожной, но спрос будет крайне велик. Она же уже пишет лучше большинства новостных кликбейтов.

Студентам для рерайта рефератов? Вряд ли она это сможет нормально сделать, да и эссе вряд ли напишет. А вот копирайтеры с ней сразу перестанут быть профессией, потому что 95% хуже неё пишут. А вот для спама в комментариях надо попробовать что-то такое прикрутить.

Вначале прифигел, как такой плохой перевод выложили на корпоративном блоге.

Еле дочитал эту чушь до конца. Слова правильные, а смысла нет. Какая, блин, революция, вы о чём?

Еле дочитал эту чушь до конца. Слова правильные, а смысла нет.

… можно сказать о большой части журналистики, политических дебатов, и т. д. :)

Согласен. Но это же дополнительный повод не делать так!
После некоторых прогонов gpt-2 я пришел к вполне определенным выводам, которые наверняка точно так же можно отнести к gpt-3: Любая нейросеть, обученная на текстах из интернета (а она обучена как минимум на текстах с reddit), в какой-то момент начинает генерировать порно рассказы. И получается у нее это заметно лучше, чем генерировать обычные тексты.

Честно говоря, ещё на первой половине текста стал подозревать, что это сгенерированный текст. Во-первых смешивать в тексте блокчейн и ИИ уже плохая идея. Во-вторых текст какой-то сумбурный, а учитывая, что читаю про GPT-3, решил промотать до последнего абзаца.
Оригинал, правда, не читал.

Больше похоже на сумбурного автора плюс плохой перевод. На хабре много статей не выше качеством, чем эта.


Так что веха очень и очень значительная. После GPT-4 люди будут читать много сгенерированного мусора добровольно.

А… Можно какие-то пруфы того, что текст правда создан нейросетью?
Я когда его читал, мне показалось, что это кривоватый перевод, коих на хабре дофига
Я предсказываю, что, в отличие от двух предшествующих систем (PTB и OpenAI GPT-2), OpenAI GPT-3 в конечном итоге будет широко использоваться для подделки, что автор текста — это некое лицо, с непредсказуемыми и забавными последствиями для различных сообществ

А откуда сетка знает, что PTB и OpenAI GPT-2 — это предшествующие системы?

Зарегистрируйтесь на Хабре , чтобы оставить комментарий