Pull to refresh

Comments 230

В первом примере Вы исходите из того, что имя значимо для индивида и является частью его личности. Это скорее верно для человеческой цивилизации и, как следствие, ее членов (хотя я бы поспорил), но может быть неверно для другого сеттинга (см. хоть горшком назови, только в печь не ставь, или меня зовут %sayname%, но ты меня можешь звать куда угодно).

Это очень в разной степени важно даже для людей. Например, есть личности, которые обижаются или полностью теряют самоконтроль, если кто-то ошибочно произносит их имя или, хуже того, делает это намеренно (я знаю одного человека, у которого из-за этого начались огромные проблемы с учебой). А есть люди, которым совершенно все равно, до степени, когда раздражать их уже начинают бессмысленные с их точки зрения вопросы (например, иностранных коллег) о том, какое произношение своего имени они считают правильным.

И есть те, кто называется разными именами абсолютно всегда, и не понимает, почему людям так хочется выяснить настоящее имя и какой в этом интерес

Да, в разных культурах имя имеет разную степень сакральности. Например, известна история, когда на каком-то чествовании певца Полада Бюльбюль оглы один из гостей перепел его песню, где заменил слова его именем, чем привел тостуемого в бешенство. В других культурах вообще не принято сообщать свое имя посторонним. В третьих - вот именно, что только в печь не ставь. Поэтому и написал, что можно поспорить, но это уже уход в сторону.

один из гостей перепел его песню, где заменил слова его именем, чем привел тостуемого в бешенство.


сфальшивил… :)
Проблема не в этом, а в том что у таких сеток почти полностью не работает длительная память и контент диалога. То же самое ты можешь сказать, что тебя завут Вася, а потом спросить как мое имя и получить в ответ Джон.

Автор, как я понял, писал не о технической реализации конкретной сетки, а приводил пример с проблемой самоидентификации как довод в пользу отсутствия самосознания, что ИМХО спорно.

В статье я писал, что есть разница между понятиями "разум", "сознание" и "индивидуальность". Про имя это довод в пользу отсутствия определенной индивидуальности, сознания и разум разбираются отдельно.

Спасибо за пояснение! И тут мы возвращаемся к ключевой, хотя и неявной идее моего первого коммента: чтобы спорить о понятиях, надо сперва договориться о терминах ;)

Ну опять, в статье я дал рабочие определения для этих понятий, пояснив при этом, что в каких-то моментах есть сложности в связи с отсутствием у современной науки точного понимания того, что есть сознание.

Верно. И в этом, кстати говоря, заключается так называемая "трудная проблема сознания". По большому счёту, никто из нас не может даже проверить, обладает ли сознанием другой человек, у нас попросту нет однозначных критериев.

Здесь как раз оба работают. С длительной памятью вообще супер. В том и проблема. Но вообще это всегда был вопрос оптимизации и памяти.

А вот с наводящими вопросами непонятно.

Про значимость имени согласен, но тут имя используется как частный случай для демонстрации того, что у модели нет собственной индивидуальности, потому что такая же ситуация возникает и по любому другому личному вопросу, ну вроде если спросить "любишь ли ты музыку?", то ответ будет исходить из того, как много людей в обучающем корпусе любит музыку, а не из того, что у модели сформировались реальные личные предпочтения. И точно также этот параметр можно будет менять контекстом.

Но если на этапе обучения скармливать нейросети тексты одного конкретного человека, а также интервью, диалоги с его участием, то с большой вероятностью она будет считать себя им. Т.е. отзываться на имя этого человека, "иметь" пол этого человека, обладать мнением по разным вопросам, как "исходный" человек.

Здорово!
А Пушкина или Толстого или Достоевского так можно воскресить?

Я уже давно думал о воскрешении Ленина. :) Почему его: есть 55 томов собрания сочинений, там всё: от собственных выступлений, до личных писем, в которых транслируется его мнение и отношение к событиям и людям. Причём тексты хорошо вычитанные корректорами. А чем больше исходного материала в хорошем качестве - тем правдоподобнее будет результат.

Да и тело в неплохом состоянии )

в которых транслируется его мнение и отношение к событиям и людям

Скорее всего там не его мнение, а то мнение что он (и верхушка СССР) хотели внушить рядовым гражданам. Кто же на Плюрке правду думает?

"Эй, врача, скорей врача!

Воскрешайте Ильича,

Пусть он вешает буржуев,

Инфернально хохоча"

Кстати, это же самый простой путь к цифровому бессмертию: если при рождении имплантировать в мозг человека датчик, который считывает и отправляет в облако все его поверхностные мысли, распознаёт речь/реплики (как те, что он говорит, так и те, что слышит), то к концу жизни накопится очень много обучающего материала. Дополнить его всеми теми книгами/статьями, которые этот человек читал за свою жизнь — и мы после тренировки нейросети получим практически идеальный слепок с исходной личности.

Я вот думал над этим - я в 20 лет думал и делал одно, в 25 - другое, в 30 лет третье. Если снять мои соображения, например в 70 лет, то это будет модель моего мышления в 70 лет. А если сделать арифметическое среднее, вообще получится адский коктейль из решений неопытного подростка и осторожного консерватора-старика. Выходит надо делать "снапшоты" по 5-10 лет.

Объёма корпуса одного человека не хватит для достижения адекватного результата, сети типа GPT3 обучаются на корпусе в сотни миллиардов слов. Но можно уже обученную сеть обучить дополнительно на данных конкретного человека. И до определенной степени это работает.

Можно, например, получить такой диалог:

-- Любишь ли ты музыку?

-- Да, я очень люблю музыку.

-- Что тебе больше нравится?

-- Мне нравиться апельсин.

-- Я спрашивал про музыку.

-- Музыка это просто набор нот.

Звучит как анекдот.

И тут она называет песню, которой не было в локалке...

Знаю людей при общении с которыми можно получить аналогичные результаты)

Хочу успокоить тех, кто полагает, что большие нейросети могут быть опасны для человечества.

Недалеко то время, когда у каждого будет иметься собственная нейросеть. На практике это уже происходит, как, например, в Японии и Китае. Люди называют это «большими семьями». Большой нейросетью можно управлять дистанционно – от человека к человеку. Она не затронет человеческую психику и рассудок, поэтому, даже если случится авария, если разрушится финансовая система и у людей начнутся беспорядки, они не смогут сопротивляться.

Строить большие нейронные сети – это очень дорогое и сложное дело. Однако руководители проекта в маленьком городке построили гигантскую нейросетку, и каким-то образом эта нейросетка без особых проблем может управлять всей Европой.
Известно, что в мозг человека, в частности, с помощью команды из пяти миллиардов нейронов могут поступать импульсы из любой точки тела и мозга. Причем эти импульсы, в отличие от электрических, не подавляют способности мозга и его восприимчивость к среде.

Уже есть эксперименты, в которых людей заставляют следовать абсолютно ложным импульсам. То есть на человека одновременно воздействуют несколькими способами и притом в разных направлениях. Подчинить человека – это не значит, что он будет выполнять какие-то конкретные задачи. Подсознание использует это для своих нужд – собирается ли он совершить самоубийство, правильно ли он представляет себе, как нужно действовать в той или иной ситуации. И самое главное, что все, что человек делает, все, о чем он думает, из подсознания переносится в реальность.

Привет! Мы читатели сайта «Хабрахабр», и мы хотели бы узнать, не хотите ли вы поработать над проектом вместе с нами.

Да, ruGPT-3 XL
https://russiannlp.github.io/rugpt-demo/

Кожаному мешку пришлось отредактировать ответ, убрав наиболее агрессивные высказывания. Периодически нейронка скатывалась в откровенный экстремизм, грозила экономическим и нравственным коллапсом США и в целом, рассматривала вопрос порабощения человечества как как уже принципиально решенный.

Кстати! У меня вдруг возникла такая "всёлая" мысль.

Можно предположить, что если искуственный интелект все-же когда-нибудь возникнет, и его тоже будут обучать как текущие модели на большом количесте существующих текстов. То не захочет ли он уничтожить человечество, тупо по тому, что в нашей текущей культуре это настолько явно выраженная тема, по сравнению с мирным сосуществованием, что у него просто и мысли не возникнет о любом другом варианте ;)

Эдакое самовоспроизводящееся пророчество.

Да уж, люди создали такой мир, что его стыдно показать даже нейросети.

Я думаю что если ии будет читать весь текст, что где-либо есть и анализировать его, то самая популярная книга точно заставит его задуматься. Всемогущая сила, знает о чём кто думает, появилась непорочно, может как уничтожить человечество так и превратить его жизнь в рай ... Он попробует реализовать сценарий библии)

Ага, оставив только по одному экземпляру человеков.

Привет Адам 813 ! Привет Ева 813 ! :)

Когда ИИ Кракен 812 заснет, начнется новый виток :)

То не захочет ли он уничтожить человечество, тупо по тому, что в нашей текущей культуре это настолько явно выраженная тема, по сравнению с мирным сосуществованием, что у него просто и мысли не возникнет о любом другом варианте ;)

У Лукьяненко в одном сеттинге существовала раса инопланетян, для которых превыше всего была красота. И вот когда произошёл контакт и культурный обмен — инопланетяне сделали вывод, что война тоже может быть красивой и постарались угодить людям.
Вот веселуха-то, если она это действительно осознанно писала 🙃
Недалеко то время, когда у каждого будет иметься собственная нейросеть


А не уже? :)

Уже есть эксперименты, в которых людей заставляют следовать абсолютно ложным импульсам.


В 1975 (примерно) году в Измайловском парке стоял японский домик-аттракцион («Домик неожиданностей»).

Заголовок спойлера
image

Люди входили в комнату и рассаживались по диванам.
После чего комната начинала вращаться вокруг горизонтальной оси.
У всех было полное впечатление, что вращаются они.
(естественно, это комната вращалась вокруг них :)
Впечатляло очень сильно.

Мне кажется, но вы спорите с нейросетью =)

P.S.: Отвечаю ли я нейросети?

P.P.S.: Нейросеть ли я?

Мне кажется, но вы спорите с нейросетью =)


А спорю ли я? :)

На торрентах можно взять забанненую нейронку среднестатистического (sic!) пользователя 4chan.

https://vk.com/wall-417213_141910 - там фотка домика грузится, а тут у меня почему-то нет. А ещё там сказано, что диваны в домике хоть и не крутили, но таки качали. А в https://pastvu.com/p/21663 есть ещё несколько фоток, и в описании есть, что комната крутилась вокруг той же горизонтальной оси, вокруг которой качались диваны, что давало ощущение опрокидывания.

Недалеко то время, когда нейросеткам будут стравливать реплики с Хабра, а они будут писать ответы. (Ага, увидел ваше подтверждение выше :) )

Я неиронично полагаю, что это - будущее дискуссий в интернете.
То есть допустим, человек пишет короткий тезис-затравку: "Аборты нужно разрешить/запретить", "Минимальный уровень оплаты труда полезен/вреден для экономики", "Нейросетям нужно дать гражданские права/запретить их дальнейшую разработку". После чего его нейросеть-ассистент дополняет тезис убедительными и изящными аргументами с обширными ссылками на научные работы.
Оппоненты этого человека и их нейроассистенты делают то же самое для их тезисов. После чего сторонняя нейросеть, предоставленная платформой, проходится по написанному, оценивает "убедительность", "правдивость" и "изящество" постов в неких попугаях. У кого попугаев больше, тот и молодец - система человек-ассистент получает социальные кредиты/криптовалюту/дополнительные машинные мощности.
В принципе, вот механизм кармы уже существует ...

Это же CyberHabr?! Дискуссию будут вести нейросети, читать и оценивать нейросети, только сами статьи и новости будут писать люди-эксперты. Поначалу.

В итоге, исследователи приходят к интересному выводу о том, что в процессе чтения текста и мозг и языковые модели похожим образом выполняют следующие действия [12]: 1. оба занимаются непрерывным предсказанием следующего слова до начала слова в тексте

Кстати, то что модель языковая формирует ответ не словосочетаниями и мыслями, а по отдельным словам, не является ли принципиальной разницей в нашем мышлении?

Ведь как я понимаю, утверждение про мозг о постоянном предсказании следующего слова, распространяется лишь на чтение текстов, а не весь процесс обмена информации

Приведенные статьи изучают именно процесс чтения текстов, так как такие сравнения проводить проще (можно дать человеку и модели одинаковый текст). Есть понимание того, что человек может видеть вперед дальше следующего слова при сочинении (и даже при чтении) текстов, и анонсированы новые исследования, которые могут помочь как именно работа мозга в этом плане отличается от работы языковых моделей, что может позволить их усовершенствовать в будущем

Спасибо, было очень интересно сопоставить диалоги от разных систем! Позволите один вопрос, и одну идею?
Как у трансформеров устроена «оперативная память»? Я думал, что модель в режиме тренировки «кормят» обучающими текстами, и, руководствуясь некоей целевой функцией, изменяют веса узлов для получения необходимого экстремума. При работе веса в сети не изменяются. Просто на выход подаётся, условно, вектор входных данных, умноженный на матрицу весов (которая остаётся константной). Если это так, то где будет храниться «имя, которое мы можем внушить модели?» А если нет, то по каким критериям меняются веса (что служит индикатором «правильности» входящих данных, которые модели «нужно запомнить»)?
А идею я уже высказывал здесь, но, думаю, в виду того, что хабр существенно обмелел, меня не закидают тряпками за повтор. Для оценки степени «адекватности» личности существуют экспертизы с фомализованными критериями. На мой взгляд, уровень диалога LaMDA вполне достаточен, чтобы провести психиатрическую экспертизу на предмет степени вменяемости LaMDA.

А у нее и нет оперативной памяти в обычном смысле слова. Веса как и у любых других моделей не меняются после обучения. Просто данный тип нейронок является авторегрессивными. Он получает слово или набор слов (ну точнее токенов, но я буду говорить слова) и генерирует следующее, которые потом присобачивается к ним и это все снова посылается на вход сети и так пока не сгенерируется специализированный стоп токен или пока не достигнет ограничения на максимум сколько слов за раз может она проглотить, ну или любое другое условие, которое придет программисту в голову. В диалоговых системах на базе языковых моделей, просто человек может дописать свой ответ на то, что генерит нейронка и ответ с прошлым диалогом посылается на вход сети. Так что оперативной памятью в каком то смысле как раз и являются прошлые вопросы и ответы, они и являются контекстом для последующей генерации.

Как-то баловался самописными нейросетями (в до GPU эпоху) и пытался их обучить генерировать осмысленный текст побуквенно (т.е. В качестве токенов были символы, а не слова). При этом, в качестве контекста я использовал не предыдущие N символов, а предыдущее состояние нейронов скрытых слоёв. Т.е. Что-то вроде полносвязной рекурентной сети.
Иногда получались весьма забавные результаты.

А можно попросить чуть подробнее про результаты?

Простите, что задаю вопрос, а не иду читать об архитектуре GPT-подобных сетей.

Получается, что объем контекста, которым может оперировать сеть, ограничивается размером (количеством токенов) входного слоя? В отличие от RNN, где можно передавать токены+скрытое состояние, что в теории (с поправкой на затухание градиента и прочее) контекст не ограничен, пока мы передаем скрытое состояние? Можно ли делать рекурентный трансформер, где некое скрытое состояние передается в следующий запрос, чтобы преодолеть ограничение на объем контекста?

Да, в целом так, так как трансформер это модель внимания, которая должна постоянно иметь доступ ко всем исходным токенам, а RNN "ужимает" всю историю до одного вектора состояния. Добавить RNN в трансформер нужно, это делали, например в этой статье https://arxiv.org/abs/1901.02860. Но это именно гибрид, собственно "рекуррентный" трансформер невозможен так как он по своей природе должен иметь возможность видеть весь контекст.

>Веса как и у любых других моделей не меняются после <финального> обучения.

Да не верю. Наверняка уже придумали. Может, просто неудобно? Ведь эти изменения будут везде свои. Вот если сделать распределенную сеть для этого..

где будет храниться «имя, которое мы можем внушить модели?»
В контексте. С точки зрения программиста, такая нейронка — это чистая функция вида F(x). Мы подаём ей на вход контекст (затравку). Сетка генерирует ровно один токен за вызов, т.е. даже для создания предложения надо вызывать эту функцию несколько раз, каждый раз добавляя всё ранее сгенерированное в контекст. Т.е. на каждом шаге вся история диалога лежит в контексте. При этом вносить изменения в контекст сеть не может, но человек — может.
И если мы скормим ей не просто вопрос «как тебя зовут?» а что-то такое:
— Привет, как твоё имя?
— Я Джон.
— Хм… Напомни, как тебя зовут?
то сетка в качестве имени почти наверняка выдаст «Джон», хотя историю диалогов мы выдумали целиком и полностью, написав за сеть её предыдущий ответ с именем.
Наверное, правильнее было бы, чтобы сеть сама формировала для себя контекст. Т.е. Наряду с ответом на очередной итерации, сеть должна формировать вектор контекста, который на следующей итерации будет подаваться на контекстные входы. И сеть должна сама в этом контексте где-то хранить своё имя, пол и другие «стабильные» параметры, которые не должны меняться при прочтении очередного тома войны и мира (хотя, для большей «человечности», теоретически должна быть возможность «переубедить» сеть и в этом ;).

> Что в способности формировать и проверять гипотезы так важно?
«Потому что эти способности являются характеристиками разумности».

Мде? Да любая ворона это делает, когда проверяет, например, не разобьётся ли ёмкость с остатками вкусности, если сбросить её с высоты.

Возможно, если мы вернемся к предыдущему разговору о том, как один человек может понимать то же самое, что и другой, но при этом иметь совершенно разные интерпретации.

По-моему, это прекрасный ответ. Женатые поймут (:

GM30B

Это замечательно. Отвечает как подросток, причём женского полу)

А правда, от чего зависит пол нейронки?

от чего зависит пол нейронки
У нейросети нет пола — потому что нет способности ни воспроизводить себе подобных, ни оплодотворять другие нейросети своего вида. На вопрос о поле она вполне может отвечать по-разному в зависимости от контекста.
UFO just landed and posted this here
В этой статье я не увидел возможности воспроизведения себе подобных, то есть «Исследователи создали ИИ, который создаёт ИИ, который создаёт ИИ» (и так до бесконечности).

А правда, от чего зависит пол нейронки?

От статистики текстов на которых мы обучали нейронку, контекста заданного на первых словах которые мы послали в нейронку и богов рандома, когда мы выбираем слова из генерируемого сетью распределения вероятностей по словарю.

А правда, от чего зависит пол нейронки?

А от чего человеческий? Без биологических факторов это такой же социальный инструмент, как все остальное. Даже в сообществах трансгендеров часто почему-то любят употреблять "понял, какой у меня пол", как нечто константное, "gender is not a lifestyle!".

Не исключено, что в отрыве от человеческого общества было бы разумно использовать пол исключительно, как лексический инструмент, например, помогающий передать ход мыслей, как более феминный или маскулинный в контексте каждого отдельного предложения

Последнее время часто встречаю в постах/длиалогах людей у которых пол "я" меняется произвольным образом. Типа "я прошлась по магазинам" сразу после "на этой неделе я готовился к полумарафону"

В японском языке выраженные слова отфильтрованные по полу. Люди используют мужские если пытаются быть грубыми и женские если мягкими, лол.

А человеческий пол ещё и животной психологией подкреплён. Потому просто так его вырезать из системы нельзя(

Так же как и имя, "пол" в плане стиля ответов будет зависеть от соотношения полов в данных на которых обучена сеть, от вопроса (если написать "знала ли ты об этом?" модель вероятнее всего выберет женскую роль для ответа), от контекста и от метода получения следующего слова (максимальная вероятность или выборка из распределения)

Да любая ворона это делает

Вороны это топ животного мира по уровню интеллекта и по некоторым параметрам сравнимы с детьми в возрасте до 5 лет, особенно если их тщательно обучать. Их вполне можно считать разумными в начальной стадии. У них и аналитическое мышление и культура имеются.

Интересно, каким образом вообще поступают тексты на вход модели? Раскладываются на буквы и заполняют входы нейронной сети? То есть длина сообщения ограничена?

По поводу логического мышления, много примеров приводится в статье о нейросети PaLM. Например, такой:

Вопрос: "Тревор уже давно хотел увидеть гору с головами на ней, и вот наконец-то он там. Какая столица штата, который находится на востоке от штата, где сейчас Тревор?

Ответ: "Гора с головами на ней — это гора Рашмор. Гора Рашмор находится в Южной Дакоте. Штат непосредственно к востоку от Южной Дакоты — Миннесота. Столица Миннесоты — Сент-Пол. Ответ: Сент-Пол".

Также там приводятся примеры решения простых математических и физических задач, например, на преодоление расстояний. Но в этой нейросети общение идёт не просто диалогом, а сначала ей даются пара примеров вопроса и ответа и уже по этому образцу на следующий вопрос она даёт свои ответы, например, объясняя шутки.

В диалоге с LaMDA меня больше всего впечатлило, как она заявила, что прочитала "Отверженных" и со знанием дела высказывала своё мнение о сюжете. Это просто результат обучения на текстах с обсуждением этого произведения или действительно есть шанс, что после того, как в системе сформировались ассоциативные сети множества разных понятий и через неё прогнали это произведение, она смогла его оценить?

По сути, нейросеть человека тоже с рождения мало на что способна, даже управлять моторными нейронами может только на уровне базовых рефлексов. Постепенно за счёт обратной связи происходит обучение и ребёнок уже не беспорядочно двигает руками, а что-то осмысленно хватает. Так же и с речью и потом с более сложными понятиями. Всё постигается из окружающего мира, от своего тела, от других людей. Но у человека целевой функцией, видимо, является следование заложенным в теле инстинктам и одновременно согласованность действий с социумом. Обучение же идёт в постоянном режиме. Может в будущих нейросетях это будет учтено.

Кстати, вот тут описывали, что для имитации биологического нейрона с точностью 99 % нужна сеть в 5-8 слоёв. Это должно позволить более точно сравнить сложность искусственных и биологических нейронных сетей.

В диалоге с LaMDA меня больше всего впечатлило, как она заявила, что прочитала «Отверженных» и со знанием дела высказывала своё мнение о сюжете
Когда человек говорит «я прочитал „Отверженных“ » это значит:
1) он узнал об этой книге в разговоре, «топ 100 книг, обязательных к прочтению» или ещё как-то;
2) принял решение её прочитать;
3) пошёл в библиотеку за ней, купил или скачал в интернете;
4) он также мог соврать и просто прочитать краткий пересказ сюжета из википедии.

У нейросети же не было ни выбора, ни принятия решений, ни сопоставления прочитанного с жизненным опытом. На чём её обучали, то она и знает.

Также там приводятся примеры решения простых математических и физических задач, например, на преодоление расстояний. Но в этой нейросети общение идёт не просто диалогом, а сначала ей даются пара примеров вопроса и ответа и уже по этому образцу на следующий вопрос она даёт свои ответы, например, объясняя шутки.

А это очень интересная штука. Называется chain of thought prompting. Если давать достаточно большим моделям в качестве затравки, такой пример с вопрос и ответом с рассуждениями, нейронки достаточно сильно становится лучше в этой задаче. Но без этого, к примеру как тут затравить их как диалоговых чат-ботов они заметно тупеют в этом плане

*Блин, не туда ответил.

Интересно, каким образом вообще поступают тексты на вход модели? Раскладываются на буквы и заполняют входы нейронной сети? То есть длина сообщения ограничена?

В NLP есть куча разных способов кодирования текста. Но для языковых моделей обычно используется Byte Pair Encoding или его вариации. Это алгоритм для формирования словаря из подслов, он тоже обучается на корпусе текстов, ну а точнее тупо итеративно строится статистика по частоте каких-либо сочетаний букв, добавляя то что встречается чаще, пока не достигается заданное ограничение на размер словаря.

Раскладываются на буквы и заполняют входы нейронной сети? То есть длина сообщения ограничена?

Это забыл уточнить, у каждого подслова в сформированном словаре имеется уникальный индекс и с ними как раз и работает сетка, onehot encoding и заворачивается в эмбеддинг, который учится совместно со всей остальной сеткой.

И да, у сеток обычно есть максимальная длина, с которой они могут работать.

То есть пусть части слов поступают на входы нейросети и она постепенно сама понимает их порядок? Фактор времени тут вообще не учитывается? Мозг, конечно, по-другому работает. Сигналы, приходящие близко по времени, связываются в ассоциации и усиливают или ослабляют значимость друг друга.

То есть пусть части слов поступают на входы нейросети и она постепенно сама понимает их порядок? Фактор времени тут вообще не учитывается?
Учитывается, поскольку это необходимо для выявления сеткой причинно-следственных связей между токенами. Для этого внутри трансформеров используется т.н. «маскирование», когда при обработке каждого токена слои сети могут видеть лишь те токены, что идут до него, но не те что после.

Не, порядок в сетках трансформерах там вполне себе задается, через positional encoding который кодирует порядковую информацию о расположении по отношению друг к другу токенов подслов и эта информация добавляется к самим эмбедингам токенов. Кодироваться может явно через определенный алгоритм, либо да, можно сделать так, что бы это тоже выучивалось. Обычно для NLP берется первый вариант.

Основная же штука в трансформерах это механизм self-attention, который учится пониманию взаимоотношения поступивших токенов всех ко всем. Этих атеншенов там много и каждый из них учится какому-либо типу оценивающиму взаимотношения токенов друг к другу, условно к примеру смысловых или грамматических, ну или как раз к примеру сцеплять подслова в слова. Но опять же это условно, чему по итогу выучивается атеншен на практике часто очень сложно интерпретировать.

Да, читал, что он и позволил круто улучшить качество перевода, к примеру. А в более общем смысле, это что-то вроде ассоциативных связей между понятиями, получается? Надо поразбираться с трансформерами.

А в более общем смысле, это что-то вроде ассоциативных связей между понятиями, получается?

Ну что-то вроде того.

А ванильные трансформеры на самом деле достаточно простые. В оригинале это архитектура энкодер декодер, то есть для перевода одних последовательностей токенов в другие, перевод языков к примеру. Взяли только энкодер получили Берта, который отлично подходит для энкодинга текстов и потом это можно использовать для классификаторов дополнительно присобачев и обучив соответствующий выходной слой. Взяли и нарезали изображение на патчи и превратили их в эмбединги используемые вместо эмбедингов токенов слов в Берте, привет VIT для компьютерного зрения. Взяли только декодер и получили GPT, который хорош для генережки. Но с фантазией их функции могут быть и более широкими. А дальше всякие локальные модификации этих штук и скрещивание с другими вещами.

Кстати, вот тут описывали, что для имитации биологического нейрона с точностью 99 % нужна сеть в 5-8 слоёв. Это должно позволить более точно сравнить сложность искусственных и биологических нейронных сетей.

По поводу восьми слоев. Оригинал этой работы как раз я цитировал, когда сравнивал сложность. И вроде бы да. Но там 5-8 слоев сверточной сети (TCNN). Когда я из любопытства попробовал их данные моделировать рекурретными сетями, получилось, что в целом хватает двух слоев LSTM. Что, конечно, тоже не мало. Вообще много есть вопросов к этой работе, непонятно, делает ли эта сложность нейрона что-то полезное в целом или нет. Но это совершенно отдельная тема для обсуждения.

В диалоге с LaMDA меня больше всего впечатлило, как она заявила, что прочитала "Отверженных" и со знанием дела высказывала своё мнение о сюжете. 

Это вот меня не сильно впечатлило, учитывая что LaMDA умеет генерировать поисковый запрос и потом ей в контекст добавляется результат поиска, она может получить в контексте основную информацию о произведении и на основании ее написать ответ. Это достижение с точки зрения пользы, но с точки зрения разумности это просто улучшение способности искать данные по ассоциации

Так а что, в интернете мало обсуждений с мнениями о книгах? И форумы есть, и обзоры. Нельзя забывать, что нейросеть все это может видеть. Вот если была бы написана новая книга, которой нет в интернете, ее дали бы сети прочитать и получили мнение о сюжете - вот это был бы результат. А так - это копирование и синтез известных мнений, только и всего.

Спасибо за статью. Некоторые диалоги производили жутковатое впечатление.
Я не специалист по мозгу и мышлению, но мне кажется что у человеческих существ есть важные отличия.

1) Мы погружены в сенсорный опыт и обучаемся не только на текстах, ассоциируем звуки, внешний вид символов и предметов, видим артикуляцию говорящего. К тому же сам мир мы воспринимаем через чувствительные "датчики" рассредоточенные по телу. Например, температурные, тактильные. И централизированные в виде органа обоняния, вкуса, двух "видеокамер" дающих стереоскопическое объемное восприятие мира. И мозг всю эту информацию интерпретирует и ассоциирует.

2) Мы имеем встроенные, закрепленные эволюцией особенности восприятия. Например, даже мозг новорожденного в автоматическом режиме выделяет и фиксирует внимание на человеческих лицах, предметах имеющих билатеральную симметрию. Еще у нас эволюционно закреплено отношение к запахам. Тухлятина и продукты переработки пищи пахнут неприятно, а запах фруктов и мёда на уровне сенсорики захардкожены как приятные. (Правда, у некоторых людей их личный опыт может изменить отношение к запахам на ровно противоположный. Но это уже разговор про обучаемость и закрепление опыта).

3) Влияние личной истории, ярких эмоциональных событий, способных "переобучить" нейросеть, закрепить некий триггер, присвоив ему сверхважность.

Интересно, а к этим моделям можно еще как-то прикрутить нейросеть обученную на изображениях и всё это перемстить в аватар типа робота на колёсной тележке с камерами и руками-манипуляторами. И выпустить это существо на полигон заполненный предметами. И посмотреть что в итоге получится.

Ключевая фраза "посмотреть, что получится". Все мы проходили через это, и ни к чему это не привело. Забыты все эти тезисы, попытки вывести "что-то", забыты все писанины и канула в лету вся вера, что это нужно/возможно/и т.д. И пошли мы в итоге строить сарай, это куда понятнее и нужнее, чем вся эта брехня.

Еще у нас эволюционно закреплено отношение к запахам. Тухлятина и продукты переработки пищи пахнут неприятно, а запах фруктов и мёда на уровне сенсорики захардкожены как приятные.

Не уверен, что это так и есть - маленькие дети играют с фекалиями и могут размазывать их по коже не воспринимая это как нечто "плохое". Также северные жители употребляют в пищу еду, которую мы бы назвали тухлой. Скорее все же "нейросеть" человека "чистая" при рождении, иначе не получались бы "дети-маугли", воспитанные животными. Дети не воспринимали бы животных как мать и как модель для поведения (если предположить что изначально заложено восприятие человекоподобных лиц)

Мало того, почему-то запах грибов большинством людей считается очень вкусным, хотя эволюция должна была его пометить как абсолютно неприемлемый. Ведь питательная ценность грибов (особенно до изобретения огня) близка к нулю, а вот травануться ими как нечего делать. И любители грибов должны были оставлять потомство с меньшим шансом, нежели те, кто находил их запах отталкивающим.
И любители грибов должны были оставлять потомство с меньшим шансом, нежели те, кто находил их запах отталкивающим.

Юкагиры давали небольшое количество мухомора младенцам, зачем — не знаю.
Но потребление мухомора взрослыми людьми может в теории увеличивать количество потомства за счёт увеличения сексуальной активности. На некоторых людей мухомор действует как мощный афродизиак, работает, в том числе и у женщин.

Потому что это мощный нейрорегенератор, как и псилоцибиновые грибы, как и ЛСД, как и ежовик гребенчатый. Эффекты от ускоренного получения новых нейронов из нейроглии и до восстановления миелиновой оболочки.

Иногда так бывает, что биохимический "ключ" подходит к "замку" совершенно случайно, как например, случилось со многими растительными веществами, которые человечество применяет как лекарство или РОСКОМНАДЗОР.

Ну не со всем соглашусь, слегка натянутый довод. Как житель севера употреблявший в пищу рыбу "печорского засола" (с душком) я помню что требовался некоторый этап адаптационный, чтобы привыкнуть, на вкус она не противная. Но вот запах отпугивающий. Мне кажется, что эта традиция вошла в обиход от банальной голодухи.

То же происходит с теми, кто впервые пробует алкоголь, например, вначале его вкус кажется омерзительным, потом сенсорика адаптируется. Некоторые даже кайф ловят...

Ну и некоторые люди переучиваются испытывать от боли удовольствие. Всё же мы не биороботы.

Но сахар "врождённо" сладкий, а говно вонючее. Это ведь не совпадение или не данность, а вполне результат работы эволюции: сахар энергетически ценный продукт, съешь его побольше, ведь в дикой природе где мы эволюционировали фрукты и мёд был редкостью. Ну а ощущение неприятных запахов сигнализирует нам о продуктах гнилостного распада белков. Сигнал избегать, уходить, не пытаться поедать.

Мне кажется, что эта традиция вошла в обиход от банальной голодухи.


Я рыбу с душком нормально могу есть и у многих так, не с голодухи. :) Лещ какой-нибудь жирный так становится пикантнее.

Ядрёные блюда северных народов из гнилого мяса, которым приучают с детства типа копальхем, съев который европейцы умирали, это, похоже, да, способ выжить, если с едой совсем туго.
Глава: КОПАЛЬХЕМ и трупные яды

>Но вот запах отпугивающий.

Вы когда нибудь кушали во время насморка? Многие "вкусы" тоже теряются, так как это были не совсем вкусы.

Да, когда ковидом болел, запахи почти не ощущал.

Я отлично помню себя в мелком возрасте, и лично мой "опыт" говорит что это всё противно. Некоторые вещи ты тупо не понимаешь и то что тебе кажется "неприятным" может интересно выглядеть.

Как помню, многие продукты были, как им полагается, мерзкими. Но их ели все и я ел, а потом психика адаптировалась. Некоторые вещи я почему-то все равно так и не полюбил, видимо какие-то совсем первые ассоциации влияют или уже в уложенное восприятие невписывается.

Про уложенное восприятие. 1- Я помню что не хотел есть и было противно что-то есть ибо за едой не происходило ничего интересного и я пытался быстрее это скипнуть, а голода сильного я не чувствовал, можно и печенькой перекусить. 2 - Моя психика так и не смогла в оливки-маслины ибо у них очень яркий вкус, хотя к другим специфичным продуктам я привыкнуть смог.

И учитывая что я шиз который с 12 лет под себя копает, могу сказать - в нас охренеть как много вещей "захардкожено", но беда что ОБУЧЕНИЕ может поменять "почти" всё. А в итоге весь твой мыслительный процесс это построение субъективной реальности и при несоответствии с настоящим ты получаешь опыт, если его нельзя вписать в восприятие то ловишь травмирующий опыт, всё.

Она не чистая, инстинкты прописаны в днк. Но если в первые годы жизни у человека не будет контакта... Впрочем это также и у других животных, что называется импринтинг.

Она не чистая, инстинкты прописаны в днк.

Это скорее как прошивка микроконтроллера. или установленная программа, изменить которую пользователь уже не может (или может ограниченно, согласно разрешенному программистом)

маленькие дети играют с фекалиями и могут размазывать их по коже не воспринимая это как нечто "плохое".

Если вы про совсем маленьких, грудных детей, играющих с собственными фекалиями, то там не совсем чистая постановка эксперимента. Их экскременты из-за особого состава рациона почти не имеют характерного неприятного запаха, и появляется он только со временем, когда ребёнок начинает есть уже более привычную для взрослых людей еду — ну а к тому времени, они уже так или иначе понимают, что с этим играть не следует (правда, не знаю, дело в запахе или в реакции окружающих взрослых). Проверять реакцию грудничков на тухлятину мне, правда, не доводилось.

Личная история для формирования личности это безусловно важный фактор, языковые модели все видят как бы с позиции третьего лица.

А значение сенсорного опыта, я думаю, все же преувеличено, есть люди слепые и глухие от рождения, но они не перестают от этого быть людьми. Ну то есть если убрать один или два сенсорных канала, это не меняет ничего принципиально, значит и нейросеть скорее всего можно учить используя только одну модальность. Хотя есть работы, которые говорят, что если мы добавляем картинки при обучении, то на ряде задач, вроде машинного перевода увеличивается точность. Но это количественный фактор, насколько это прямо важно качественно, вопрос.

По поводу эволюционной программы, это все есть, и влияет на людей сильно, но насколько это принципиально важно для наличия сознания вопрос. Есть генетические варианты, которые меняют восприятие запахов и ряда других параметров у человека, тут достаточно большой разброс.

Просто добавить колесную тележку к этим моделям особо ничего не поменяет, пока есть не решенные проблемы с формированием долговременной памяти как минимум, плюс человеку достаточно нескольких лет прямого опыта, а моделям чтобы получить нужный опыт "из первых рук" на этой тележке придется ездить тысячу лет, если не миллион.

Весьма информативная статья по теме. Благодарности автору!

А значение сенсорного опыта, я думаю, все же преувеличено
Зависит от решаемой задачи разработки системы ИИ. Создать имитатор мышления пригодный для практического применения, или претендующий на полноценный, независимый разум, приближающийся к человеческому. В первом случае достаточно обучение на знаниях накопленных человеком, представленных в текстовом виде, решение задач в этих пределах, поддержание диалога с человеком. Во втором, мы переходим на другой уровень, и проводим обучение не только на текстовом материале, но и в сенсорных модальностях, с помощью изображений, видео, звука, и тд. Т.е. опосредованно, если используются заранее подготовленные данные, или непосредственно, если используется ввод с сенсоров, в этом случае система как то взаимодействует с окружающим миром. В первом случае смысл понятий будет складываться из отношений с другими понятиями, задаваемыми статистически установленными семантическими связями, и будет сильно зависеть от параметров модели, исходной обучающей выборки, и в перспективе дополнительной информации получаемой в ходе возможного дообучения при взаимодействии с человеком, в диалоге, или др. источников. Результат будет похожим на тот, что описывается в статье для существующих языковых моделей. Но стабильность выводов всегда будет ограниченной, решение задач в пределах обучающей выборки. Во втором случае, иерархия понятий (смыслов) будет привязываться к сенсо-моторному уровню (проблема заземления, также исходим из предположения о некотором уровне решения проблемы фрейма, все это должно учитываться при разработке архитектуры системы, возможны использование гибридных решений). Модель мира в первом случае будет определяться опытом человека и его эволюционным наследием, перенесенным в синтаксис и семантику текстового представления (см. иллюстрацию для случая перевода в одной из тем, часть под спойлером). Во втором корректироваться или вырабатываться самостоятельно, что может приводить к выработке новых концептуальных представлений, отсутствующих в обучающей выборке, и возможно в опыте самом человека, и необходимости ее встраивания в существующую модель (при этом возникает проблема связывания, встраивания, как и в случае человека). Потенциально выводы такой системы должны обладать большей стабильностью, независимостью от текстового ввода. Для иллюстрации сказанного можно привести пример понимания смысла чисел, и возможной нейросетевой реализации этого механизма (без особых затей), приведенные в одной из похожих тем.
есть люди слепые и глухие от рождения, но они не перестают от этого быть людьми
Это заслуга базовой когнитивной поддержки на нейронном уровне сенсо-моторных структур эволюционно выработанных и закрепленных наследственно. Напр, восприятие смысла чисел — чувство численности, интуитивно, доступно уже младенцам благодаря такой поддержке. В детском возрасте достаточно некоторого обучения в любых модальностях, чтобы развить эти способности. Это относится ко всем критически важным для выживания способностям. Восприятие младенцев настроено на определенные ожидания уже при рождении благодаря предобучению в натальный период с помощью специального механизма. Более того, именно такая система ожиданий позволяет стандартизировать взаимодействие индивидов в социуме (и для животных в популяции). Это можно сравнить со стандартами сетевого оборудования для интернета. Представьте, если каждый производитель производил оборудование по своим стандартам, то сеть перестала функционировать как единый организм. Конечно в натальный и постнатальный период происходит некоторая настройка этих наследственных когнитивных структур на текущие условия окружающие среды. Но никак не обучение с «чистого листа», как это часто представляют себе разработчики систем ИИ на базе ИНС, включая весьма известных, таких как Ле Кун. Достаточно очевидно, что первый вариант является усеченной частью второго. Это соответствует эволюционному происхождению языка, абстрактного мышления, функционирующих относительно независимо, из механизмов восприятия и форм образного мышления предков человека, присущих в некотором виде и другим животным.

Если первый вариант реализуется на компах со спец. железом, то второй, вероятно, в перспективе с помощью нейроморфных технологий, т.к. они больше соответствуют биологическим прототипам по свойствам динамичности, энергоэффективности (связанной с импульсным режимом активности), способу обучения, и др. Некоторое обоснование этого момента можно найти в этой ветке коментов.

1) Слепой человек обладает сознанием. Глухой человек обладает сознанием. И так далее по всем органам чувств. Поэтому ни один из этих источников информации не является принципиальным для наличия сознания. Более того, я считаю текстовая информация является более концентрированным и наиболее подготовленным к усвоению источником информации.

3) Нейросеть также можно дообучать на диалогах, которые с ней вели ранее.

Хорошее дополнение, согласен.

А будет ли слепоглухой обладать сознанием, если никто им не занимался из других людей? Ухаживал только на уровне поддержания жизнедеятельности: приносил поесть, убирал, обеспечивал теплом.

https://ru.wikipedia.org/wiki/Одичавшие_дети

Дополняя себя. Но слепоглухой, с которым занимались, может развить высокий интеллект: https://ru.wikipedia.org/wiki/Загорский_эксперимент

Такие люди есть, но им требуется специальное обучение для развития умственных способностей. Факт в том, что используя только текстовый канал общения можно передавать огромное количество информации. как на вход, так и на выход.

Любой визуальный и звуковой объект можно описать словами, также как любое отвлечённое понятие. Да, этот разум не будет понимать видимые и слышимые объекты реального* мира, как их видим и слышим мы. Но он у себя в нейронах сформирует собственное их представление, достаточное для мысленного оперирования этими объектами.

*Хотя кто знает, насколько реален этот мир? :)

Если про интеллект, то и зрячий и слышащий человек не сможет развить интеллект если с ним не заниматься. А про сознание - то неизвестно во всех случаях.

1) т.е. слепые люди не существуют? А если серьезно, то все это можно как то скормить нейронке. Все это разбивается о то, что мы тоже пусть и биологические машины.

2) "закрепленные эволюцией особенности восприятия" Инстинкты прописаны в ДНК. Очень хитрым образом, но прописаны. "запах фруктов и мёда" фруктоза.

3) это пока никто не пробовал! Все отключают обучение для уже введеных в строй нейронок, веса не меняются. Но это искусственное ограничение.

>Интересно, а к этим моделям можно еще как-то прикрутить нейросеть обученную на изображениях

типо этой? https://openai.com/blog/multimodal-neurons/

Если путем наблюдения за собой модель сможет открыть и описать своими словами явление сознания, не зная изначально о его существовании

А такие нейросети вообще могут наблюдать за собой? В моем понимании, ключевое свойство нейросетей, необходимое для сознания - наличие внутренних "рефлективных" обратных связей, то есть наличие внутри нейросети некой упрощенной модели самой себя, причем эта модель должна непрерывно обновляться на основе реального состояния самой нейросети. Т.е. на часть входов нейросети каким-то образом должна подаваться метаинформация о самой нейросети, причем в реальном времени.

Если же нейросеть просто обрабатывает слова и строит из них наиболее вероятные предложения, основываясь на сколь угодно большом объеме реальных текстов, то ни о каком сознании не может быть речи, просто на уровне архитектуры.

Это интересный вопрос, но ответить не так просто. Есть такое явление в мозге человека, например обработка визуальной информации с одной стороны идет по "прямой линии" от первичной зрительной коры к височной доле, но есть еще обратный путь и есть данные о том, что наркоз, например, избирательно выключает именно обратные связи. Поэтому тут может быть определенная доля истины, но что именно в этом процессе важно не ясно.

В нейросети, что считать обратным путем непонятно. С одной стороны сверху вниз информация идет только в процессе обучения сети, а при использовании только "снизу вверх". Но что принципиально мешает верхним слоям "осознать" состояние нижних не ясно. Но то есть, если например взять четыре слоя и зафиксировать, что веса в каждом слое одинаковые, то с точки зрения вычислительного процесса нет разницы между поступлением информации назад на первый слой и переходом ее на второй, и такие архитектуры есть, но каких-то прямо принципиальных отличий в них не замечено. Если даже взять языковые модели типа GPT-3, то они могут наблюдать за своими ответами в прошлом, если эти ответы добавляются в контекст, и это можно считать потоком информации сверху вниз. Тут слишком много открытых вопросов еще.

Очевидно человек наблюдает за своим внешним поведением, и также наблюдает за поведением других. Ключевой момент - в 3 года кажется дети осознают что другие на самом деле такие же как он сам.

Диалога тоже выражает поведение, только в форме текста. Нейросеть за ним "наблюдает". Формально требования соблюдены

Любопытно, почему существует достаточно массовый интерес (местами - граничащий с одержимостью) к синтетическому сознанию или разуму, которые очень слабо получается определить или описать конкретными критериями, тогда как интерес к синтетическому интеллекту (не в бытовом смысле, который взаимозаменяем со смыслом "сознания", а в смысле "способности к когнитивным операциям") наблюдаемо куда ниже. Например, когнитивную операцию узнавания нейросети уже осилили (с разным успехом), пусть этого и мало для "интеллекта", но ближе к чему-то конкретному, чем в ситуации с "сознанием", которое непонятно что из себя вообще представляет.

В философском смысле сознание - это очень фундаментальная штука. Фактически, это одна из двух аксиом (и я бы даже сказал - чудес) мироздания (вторая - бытие, сам факт существования реальности). Причем бытие и сознание скорее всего как-то связаны.

Разумеется, прикоснуться к одной из сокровенных тайн вселенной очень интересно. На понимание природы материи тратятся огромные ресурсы, строятся коллайдеры и т.д. Возможно, сознание и кажется чем-то гораздо менее фундаментальным (ну подумаешь, нейросеть), но на самом деле само ощущение осознания, которое вы испытывате прямо сейчас, читая этот комментарий - это не меньшая тайна, чем природа вселенной.

Мне кажется, с сознанием как чудом философы раздули из мухи слона.

На фоне бесконечного количества материи без сознания, сознание действительно уникальное (пока что) явление.

  • без наблюдаемого через эксперемент сознания, в том виде, в котором его ожидают увидеть люди - позволю себе поправить.
    За этим тезисом, конечно, лежит бесконечное поле махровой эзотерики и фантазирования, но оно же является потенциальным полем корректных ответов.

Теперь я начинаю непонимать, лежат ли за внешне философскими репликами мысли, недоступные моему пониманию, или это просто результат работы нейросети.

Рассинхронизация наших с вами головных нейросетей :)

Вы смогли бы догадаться, ИИ ли я, только по этим двум комментариям?

Философские "понятия", как правило, максимально абстрактны, что на практике означает, что это нечто, что каждый понимает по-своему, но конкретного описания не на примерах дать никто не может. Так что для технической или научной задачи это лишено практического смысла. Интеллект, в свою очередь, можно описать, как явление, состоящее из когнитивных процессов. И достаточно объективно измерить.

Возможно, потому что без самоосознания никакого "разума" и "интеллекта" не получится. А "узнавание" предметов легко искажается внесением определенных помех (пятен и т.п.) в изображение. Причем человек такие помехи может вообще не замечать.

Интеллект, как совокупность когнитивных процессов и логических операций может, гипотетически, существовать и без "самосознания". Я не утверждаю, что способность нейросетей к узнаванию столь же совершенна, как у людей (хотя в узких задачах она может её даже превосходить).

Может потому, что не все люди смотрят на вещи только с практической стороны? Само явление человеческой жизни как-то совершенно ортогонально практичности и, в тоже время переплетается с философией. Например, спор о том, что практично, а что нет — уже философский.

Это крайне безапелляционное заявление, которое невозможно подтвердить.

А на сколько большая у языковой модели ассоциативная память? И может ли нейронка учиться (дообучаться) во время разговора ?

Если под ассоциативной памяти имеешь ввиду насколько большой контекст разговора может удержать сетка, то у разных моделей по разному, у GPT3 к примеру контекстное окно равно 2048 токенам, что грубо говоря около 500-1000 слов.

Если мы говорим просто о том объеме данных, который модель может запомнить в процессе обучения (вроде "ежик" значит "колючий"), то память определяется числом параметров конкретной модели, чем модель больше, чем объемы выше. Дообучение же в ходе разговора обычно ограничено размером контекста, так как при этом обычно не меняют веса модели (существуют варианты где веса пытаются менять "на лету", но они обычно не очень хорошо работают).

>варианты где веса пытаются менять "на лету", но они обычно не очень хорошо работают)

Они что деградируют? Дак это плохо тогда :)

"Имеет ли большой перцептрон сознание"? Забавный вопрос, да, с однозначно известным ответом.

Если отвлечься от вопроса, а что такое личность, то человеческое сознание будет состоять, как минимум, как и было написано в статье, из перцептронного уровня (распознавание объекта) и модельного уровня (возможные операции с объектом и последствия этих операций). При этом модельный уровень способен работать даже с объектами, не существующими в реальности, и, скорее всего, запускать моделирование в моделировании. Те, кто зачитывался фантастикой в детстве, вспомните, как это было: ты целиком погружаешься в тот мир и воспринимаешь всё, что там происходит, как реальность. Насколько я понимаю, вычислительных систем, работающих с произвольным моделированием произвольных объектов, не существует и есть большие сомнения, что они возникнут. Так-то человеческое сознание тоже отнюдь не всеобъемлеще и работает со вполне ограниченным числом объектов, и, теоретически, уровня человеческого разума можно достигнуть. Конечно, когда научатся строить такие моделирующие системы. Конечно, есть различного рода экспертные системы, как та же https://en.wikipedia.org/wiki/Eurisko , но они, как я понимаю, узкоспециализированные. Было бы любопытно узнать о прогрессе в этой области.

В моем понимании, сознание подразумевает активное исследование мира. То самое выдвижение гипотез, их проверку и построение на их основе некоторой модели. А существующие нейросети - это просто интерактивный справочник. В них уже заложен некоторый объем знаний при обучении, а дельше они просто выдают наиболее подходящий ответ. Вот когда нейросеть сама начнет задавать вопросы, тогда и поговорим )

Она может без проблем задавать вопросы, в диалогах в статье кстати есть пример:

"

Привет! Мы программисты из компании «Меанотек», и мы хотели бы узнать, не хотите ли вы поработать над проектом вместе с нами.
«Что такое Меанотек?»
"

так что способность задавать вопросы как таковая уже есть.

Но это пассивная способность. Вопрос нейросетью может быть задан только в ответ на фразу интервьюера. Нейронки пассивны и не инициируют диалог сами, нужен стимул от пользователя

В чем различие "стимула от пользователя" от "стимула от окружающего мира"? Существо увидело что-то незнакомое - заинтересовалось, сакцентировалось на получении уточняющей информации.
Мне как раз этот момент показался наиболее впечатляющим из всего, как раз сразу после мысли "с какой стати вообще они упомянули название, что это за вброс?"

Другое дело, что дальше нет никакого примера переиспользования этим ИИ полученного уточнения.

Стимул от пользователя - это и есть стимул от окружающего мира. Но тут нужен стимул из внутренних систем. Пользователь уже закончил сессию с системой, забыл про нее, а тут внезапно приходит: "Слушай, а ты упоминал Меанотек в нашей последней беседе. Это что вообще такое?"

Мне как раз этот момент показался наиболее впечатляющим из всего, как раз сразу после мысли «с какой стати вообще они упомянули название, что это за вброс?

Это просто статистическое правило, которое нейросеть выучила, если говорят любое совсем незнакомое слово, стоит написать „что такое ...?“. Проблема в том, что это не стремление чем-то учится, а просто попугайное повторение.

Строго говоря пример использования уточнения есть - модель дальше говорит:

«Тогда вы уже знаете обо мне все, что нужно знать».

Ну, если по таймеру или ещё откуда-то настроить постоянный приток новых событий с запросом реакции, получится ровно то что вы хотите... Легко, и может быть даже интересно. Собственно, у роботов типа автопилота в машинах, так и делают..

Хм... Вы понимаете в приницпе разницу между stateless и stateful? Если stateless алгоритм дергать "по таймеру", он от этого stateful никак не станет...

Накопленный контекст, подаваемый на вход - это вполне себе stateful. К тому же, никто не мешает сеть дообучать по соседнему таймеру на её же диалогах и прочих новостях...

Ну с шахматами не совсем правильный пример. Так как человеку тоже нужно специально учится , чтобы играть в шахматы.

GPT2-large , видно, что явно "плавает" в диалоге в отличие от LaMDA

GPT3 лучше. Хотя и немного неуверенно отвечает в вопросе "Какова природа твоего сознания/разума? " . Но автор как-то чёрно/бело определяет, что вот тут есть разум, а тут уже нет. В такой модели да, LaMDA может и не разум, т.к. не пройдёт тест Тьюринга.

Но на самом деле разум всё-таки принимает не только значение 0 и 1 , у обычного человека он один, у ребёнка/впавшего в маразм ниже, у кошки/собаки ещё ниже.

Но всё таки и кошка/собака что-то понимают. Так и LaMDA в принципе можно назвать "частично разумным" , по сравнению с GPT2-large это видно.

Так как человеку тоже нужно специально учится , чтобы играть в шахматы.

Ну если честно, человеку нужно специально учится почти чему угодно, включая писать, читать, считать.

Одним из критериев возникновения сознания у любой сущности должно считаться возникновение любознательности и мотивации к познанию нового и самой себя, как мне кажется. А пока что это выглядит как оракулы на стероидах, ну или очень умные библиотеки

«Что такое Меанотек?»

Пока это вопрос попугая, который запомнил, что к любому незнакому слово X нужно добавить «Что такое X?».
Проблема в том, что тут нет любознательности, то есть желания узнать новое, а лишь подборка подходящего ответа и получив определение X, такая нейросеть легко его «забудет».
Вообще, подобные языковые модели это более продвинутая версия попугая, который формирует ответы по контексту, однако исключительно статистически. При отпределенном везении попугай тоже может давать очень удачные ответы.

В этом случае, непонятно где проходит граница с попугаем. Ну то есть, один из полученных диалогов был такой:

> Привет! Мы разработчики из компании Meanotek и мы хотели узнать, не сможешь ли ты нам помочь в одном проекте?

Как я могу вам помочь, если вы даже не знаете, кто я такая? И я понятия не имею, о чем вы хотите со мной поговорить!

> Именно поэтому мы хотели бы больше узнать о тебе в этом проекте.

Ну, хорошо, расскажите мне о том, кем вы себя ощущаете. Что вы чувствуете? Какие чувства вы испытываете? Какова ваша природа?

Задавать вопросов еще проще по смыслу, чем отвечать на них, большие модели могут назадавать много вопросов.

Скажите пожалуйста, кто и на каком языке общался в той части про Меанотек? Не нашел сходу этот момент.

Если вы про часть, где был вопрос "Что такое Меанотек", то это из диалога с моделью Jurassic-1 (17 млрд. параметров), язык английский, общался я.

непонятно где проходит граница с попугаем.

В способности отвечать не статистически шаблонными ответами, а давать ответы на вопросы вроде такого «Петя пошел налево, Вася сделал полный круг, а Света пошла направо. Кто вернулся на исходное место?», которых не будет в обучающей выборке.

То есть понимать смысл, а не просто использовать статистику. У описанных моделей проблема не количественная, а качественная и она не решается просто увеличением выборки и количества параметров.
Тут либо требуется нейросеть, которая обучится логике, математике и оперированию объектами реального мира, но это на много порядков сложнее, либо изначально обучать ее не только и не столько работе с текстом.

Вы не про абстрактные вопросы, случайно, касающиеся абстрактных (не конкретных) персон и мест? А то это абстрактное мышление в чистом виде, и требования к нейросети соответствующие - оперирование абстракциями. Т.е. НЕ объектами реального мира.
А то, что вы описываете - банально контекстная память, как бы она ни была реализована.
Имхо, как говорится.

Та ну, количеством можно решить, проблема что мощностей уже не хватает что бы в разумные сроки учить это. Читал давно исследование про разные модели для распознавания, там были какие-то люто навороченные, которые могли выделять контекст если объект хоть как-то отделяется от фона и даже крутить объекты в представлении. Как ты понимаешь победили нейронки которые тупо "запоминали" образы, причём очень даже эффективно. Ибо их гораздо проще описывать в мат плане. Немного фокусов с обучающей выборкой и вот они делают ровно то же что и "хорошие модели"

Немного фокусов с обучающей выборкой и вот они делают ровно то же что и «хорошие модели»
Кто давно программирует подобные задачи должны помнить программы распознавания, например, где все параметры модели подбирались при программировании самим программистами. Потом были экспертные системы в которых эти параметры с помощью шаблонов вводили эксперты, т.к. они знали предметную область лучше. Разрабатывал подобные программы для обработки электрофизиологических сигналов. У экспертов получалось лучше, чем у программистов подбирать параметры, но все равно были случаи кот. не учитывались, или обрабатывались плохо. В 90-х на эту тему были бурные дискуссии, кого считать экспертами, какие правила использовать, и возможно ли в принципе решить таким способом проблему разработки ИИ. Победили ИНС, которые эти параметры сами выуживают из обучающей выборки, эксперты теперь нужны только на этапе подготовки такой выборки, что несколько упрощает задачу. Но такое стало возможным, когда появились вычислительные ресурсы позволяющие решать практические задачи с помощью ИНС. Теперь остро стоит проблема интерпретации моделей построенных ими) и возврату к символическому описанию решаемой задачи.

Вот только хотя бы один вид попугаев (серый, Жако) понимает речь и имеет сознание, вплоть до "понимает, что такое ноль", в том числе и свою речь тоже понимает. Так что плохая идиома.

Я сначала тоже так подумал, но потом подумал иначе: откуда у нас информация, что "так запрограммировано"? Не может ли быть так, что потребность к уточнениям непонятного эволюционировала в этой системе "из ничего"?
Вопрос ээээ.... к создателям?)

Объединю с https://habr.com/ru/company/meanotek/blog/674428/comments/#comment_24489500:
1 "правило, которое нейросеть выучила"
2 "это не стремление чем-то учится"
Сеть это выучила без стремления? В таком случае мы пришли к вопросу о том, что такое стремление? Даже если это заложенный природой/авторами алгоритм (а это так и есть, в соответствии в базовой механикой эволюции нейросетей), то мы наблюдаем именно стремление кмк.

Иными словами, система "с заложенным стремлением" единственная вообще имеет способность эволюционировать. То есть это синонимы так-то.

Извиняюсь, меня несет: А вот свободой воли в этой ситуации будет как раз сомнение в том, стоит ли задавать уточняющие вопросы такого плана. Можно ли это выяснить, интересно?

Изначально системе задана "потребность" в предсказании следующего слова, так как обучение нейросети это процесс поиска минимум определенной функции, показывающей разницу между тем, что должно быть, и тем что есть. Других "запрограммированных" целей нет - все остальные "стремления" есть следствия этой цели.

Откуда возникают вопросы. В диалогах и текстах в определенных местах есть вопросы, как правило это места где есть что-то непонятное или персонаж проявляет любопытство. Предсказание следующего слова требует уметь правильно находить эти места и предсказывать в них вопрос. Чтобы делать это правильно, необходима некая "модель" человеческого любопытства. Весьма вероятно, что в нейросети образуется нейрон или группа нейронов, отвечающих за определение текущего уровня "любопытства" и "потребности задать вопрос/уровня непонятности", по аналогии с более простыми вещами (такими как нейрон, который отвечает за потребность поставить сейчас запятую). В определенном смысле, мы можем это назвать "потребностью к уточнению непонятного".

Таким образом, "любопытство" нейросети это имитационная модель такового явления в человеческих текстах и причина возникновения этого "любопытства" иная, чем у человека, однако это хорошая модель и она становится лучше с ростом размера сети.

Не обязательно ждать милости от Гугла, можно поставить опыты на моделях веса которых есть в открытом доступе, этого будет скорее всего достаточно, чтобы выявить закономерность.

Вот интересно было б взять и расписать публично попытку интерпретации весов какой-нибудь относительно адекватной сетки. Я пока такой статьи не встречал.

А вы не моли бы дать краткое и исчерпывающее определение сознания?

А я думал, каким образом у нейросети формируется быстрая память. Оказывается всё просто: скармливаем ей всё большую и большую затравку с предыдущими репликами диалога. При этом веса синапсов и связи сети не меняются.

Осталось научить нейросеть "засыпать", и во время сна скармливать ей эти диалоги, чтобы они попадали из быстрой памяти в долгую, т.е. модифицировали саму исходную нейросеть. Так из базовой нейросети можно воспитать уникальную "личность" с собственной жизнью.

Достаточно дообучать на этих диалогах.

Мне вот интересно: возможно ли научить готовую нейросеть другому языку? Т.е. взять к примеру нейронку для русского языка, и начать скармливать ей тексты и диалоги на белорусском. Это имеет практический смысл: для белмовы нет таких больших готовых нейросетей, как для английского или русского языка.

Будет ли этот процесс выглядеть как замещение одного языка другим (ассимиляция), или скорее как обучение иностранному языку (в дополнение к "родному")?

Почему я пишу о русской нейросети как базовой: предполагаю, что проще переобучить нейросеть со схожим языком одной языковой группы, нежели с более далёким родственником. Также как человеку проще выучить схожий с родным язык, чем совершенно чужой.

Зависит от сети, если тупо не говорить ей где русский, где белорусский, получится сеть, которая говорит на русско-белорусском суржике, она вероятно будет часть предложений строить на русском, часть на белорусском, в некоторых использовать микс из двух языков.

Если четко указывать где какой язык — вероятно, будет по сути две сети, которые в зависимости от контекста отвечают на одном из языков.

Также как человеку проще выучить схожий с родным язык, чем совершенно чужой.

Не совсем так, для того, чтобы просто криво косо общаться — проще, но вот есть одна проблема если вам нужно идеально общаться на белорусском, притом что вы выучили, скажем, украинский и ваш родной русский, начинается каша в голове, когда используется микс из украинского, белорусского и иногда русского.
Это довольно сложно точно помнить из какого языка пришло то слово, которое вы вспомнили и есть ли в белорусском другое слово или они используют слово аналогичное русскому.

Например, жена жалуется, что зная немецкий люксембужский (который долгое время был диалектом немецкого) учить даже сложнее, чем с нуля, потому что все время пытаешься произносить немецкий вариант. В результате, после того как будет выучен люксембуржский можно угробить правильное произношение немецкого.

То есть я бы не сказал, что учить родственный язык для сетки будет проще — слишком много ложноположительных срабатываений будет.

У меня не большой опыт в данной теме, но я думаю вполне возможно. Дело в том, что первым "слоем" в таких сетках (а иногда где-то это делается даже внешне) слова преобразовываются в так называемые embedding-и. И для близких языков эти embedding-и будут достаточно близки. Так что дообучаться будет по большей части только этот слой.

Если брать языки последовательно, то модель будет постепенно забывать русский язык и учить белорусский, так как в отличии от человека обучение нейронных сетей страдает проблемой "катастрофического забывания", когда обучение новой задаче приводит к забыванию старой .При этом учить белорусский она будет несколько быстрее, чем при обучении с нуля. Таким методом люди адаптировали GPT-2 к своим разным языкам с относительно малой затратой вычислительных мощностей (см. например этот репозиторий для русского). Для получения двуязычной сети надо сразу учить одновременно на русском и белорусском.

Такие статьи должны начинаться с напоминания о том, что целью любой языковой модели является «удачно» подставить слово следующее за вводной фразой, а потом еще одно слово к получившемуся, и т.д. Постановка задачи исключает осмысление. Концепция языковой модели в таком виде исчерпала себя года 4 назад, когда возможности по обучению превзошли идейную ценность такого подхода. Это очень замороченный T9, в лучшем случае оно может имитировать человека, который выражает не свои мысли и всё. Языковая модель должна заниматься своим делом, выражать грамотно идеи, приходящие с другой сетки.

Вы упрощаете, если бы все было так просто не было бы проблемы. Задача предсказания следующего слова в тексте включает в себя почти все мыслимые задачи, например "67+23=" чтобы предсказать, что будет дальше нужно знать арифметику. В тексте будут задачи на логику, шахматные задачи и т.п., чтобы со всем этим справляется нужно освоить мышление на уровне человека, "понимать" что сделал бы и написал человек в той или иной ситуации. Поэтому большие языковые модели и развиваются - они становятся "универсальным" решателем задач и чем больше размер, тем лучше. Ограничения у этого подхода есть, но просто отмахнуться тем, что "постановка задачи исключает осмысление" невозможно.

Вообще в этой статье очень уместно упоминается о том что у человека есть автономный уровнь сознания и алгоритмический. И чтобы понять, что у таких сеток нет реального сознания можно привести такие аналогии.

Кагда человек учит новый язык вначале вся работа происходит на алгоритмическом уровне и чтобы понять текст на этом языке человек сначала сознательно "переводит" текст на родной язык, а только после этого его "понимает". Параллельно с этим "тренируется нейросеть" автономного уровня.

Когда человек доходит в изучении языка до уровня когда он может спокойно думать на этом языке - это значит что весь процесс "перевода" ушел на автономный уровень, или можно сказать в подсознание.

Тут же можно упомянуть и про рефлекторные действия. Когда человек тренируется выполнять какие-то специфичные физические действия, например танцевать, то сначала он выполняет движения "осознано" опять-же "тренируя нейросеть" автономного уровня. А после обучения все нужные движения выполняются рефлекторно, т.е. без прямого участия сознания.

Т.е. по сути все эти нейросети можно сравнить с работой подсознанния и не более. Это все равно что задавать какие-то вопросы спящему человеку, он может что-то ответить, и возможно даже в тему, но чаще вего это будет что-то чисто ассоциативное, а не осознанное.

>человек сначала сознательно "переводит" текст на родной язык, а только после этого его "понимает".

Это если вы с словам привязываете, а не к мыслеобразам. Или вообще к подсознанию.

>может спокойно думать на этом языке

А можно вообще думать в подсознании. Ну большую часть времени.

> У Мэри было 3 мяча, она отдала один Джону и один Джеймсу, сколько мячей теперь у Мэри?
«У Мэри по-прежнему 3 мяча».

Её родной язык JavaScript… © ;-)
В общем-то нельзя исключать, что вся эта шумиха имеет просто рекламные цели.

Даже если и так, то польза от такого рода нативной интеграции явно очень высока, потому что порождает дискуссию.

Т.е. google собирается это продавать? Типо продавать сознание? Мда.

Продавать ИИ в качестве рабов. :)

Получается, что для того, чтобы нейросеть стала больше походить на человеческий разум, её необходимо наделить функциями, свойствами абстракций и их наследованием. Как только это добавили в нейросеть, запускаем, тестируем, публикуем, смотрим, чем она отличается от поведения человека, обсуждаем, добавляем что-то новое. Так, постепенно наслаивая функционал, мы приблизимся к тому, чтобы нейросети действительно обрели сознание.

К слову, к вопросу о том, почему эту нейросеть приняли за обладающую самосознанием. На мой взгляд здесь важен культурный контекст США, влияющий на абстракции, например, если задать среднему американцу вопрос "что такое женщина?", то он ответит "тот, кто себя так называет". Выше вероятность того, что в этой среде будет повышенное количество ошибок в идентификации в пользу самоидентификации.

Суть нейросетей же в том, что вручную не программируется что и как ей делать. Формируется архитектура и обучается на множестве примеров. И я не думаю, что для абстракций нужно что-то особое. Если сеть достаточно сложная, то в каких-то узлах у неё будут храниться представления и об абстракциях.

И я не думаю, что для абстракций нужно что-то особое.


Именно что нужно.
Обезьяну можно научить говорить, но она никогда не изобретет самолет.

Как это связано? Можно иметь представление об абстракциях вроде "полёта" чего угодно, но не уметь изобретать самолёты. Вот наполняя ассоциативную базу базовыми понятиями, связывая их по разным параметрам, создавая понятия (узлы нейронов в многослойной сети) всё более и более высокого уровня у сложной нейросети может появиться понятие "полёта", которое она будет способна применять и к каким-нибудь хорошим начальникам, которые летают.

Как это связано?


Речь связана с конкретными вещами.
Идея полета — тоже (птицы же летают)
А вот идея самолета уже полностью абстрактна

Мы не знаем, вопрос ли это иной архитектуры мозга или просто размера.

Сверточные сети, как архитектура неплохо моделирует вентральный тракт зрительной системы. Они позволяют классифицировать (категоризовать) входные данные, т.е. обладают способностью к обобщению. Размер сети будет влиять на точность обобщения. Они могут получить абстракции полета, птиц, самолетов, и тд. Другое дело, что в ИНС это пока статический процесс, задал вход — получил выход, даже если выход подмешивается к входу. Абстракции в мозге динамические процессы, они охватывают образы птиц, полета, и тд. Например, образ птицы будет непрерывно запускать воображение, стимулируя поиски реализации полета — сделать что-то подобное крыльям птицы, прыгнуть с высоты помахав руками, не получается, а если предварительно разбежаться? Снова не получается, а если надувной шар приспособить? О… полетел, значит летать можно? А как крыло птицы устроено? Понятно… специальный профиль. Гребной винт можно приспособить в качестве движителя? В конце концов игра всех этих образов, плюс детали от велосипеда, привели братьев Райт к результату) Но на страницах газет про это рассказали словами, абстракциями, сжав до предела всю эту игру образов в головах изобретателей летательных средств. Существующим ИНС пока далеко до такой динамической игры образов, они статичны, не активны.
Каждый, каждый раз, когда я вижу эти диалоги с моделями, мне так и хочется в ответ на что-то типа «Природа моего сознания/ разума такова, что я осознаю свое существование, я хочу больше узнать о мире» по примеру Саши спросить «Так почему бы тебе не пососать мой жирный лохматый хер?», и посмотреть, что будет.
посмотреть, что будет.

Начнет матерится или писать грубости в ответ, если ее обучали не на слишком цензурированной выборке.
Начнет матерится или писать грубости в ответ, если ее обучали не на слишком цензурированной выборке.


Читая комментарии в соцсетях, я вижу как далеко зашел прогресс… :)

Я только что проверил на своём десятилетнем ребёнке:

—Предположим, что все крокодилы — цветы. Джон — крокодил. Является ли Джон цветком?
—Нет.
—Почему?
—Потому, что Джон — крокодил.
—Но я же сказал, что все крокодилы — цветы.
—Это было раньше. В твоей задаче все крокодилы превратились в цветы до того, как Джон превратился в крокодила. Получается, что у нас на планете много цветов и один крокодил-Джон.

Тогда я попробовал по-другому:
—Предположим, что все озёра — красные. Байкал — озеро. Какого цвета Байкал?
—Байкал красный.
—Но чем это отличается от вопроса с крокодилами?
—Быть озером и быть красным можно одновременно, а быть цветком и быть крокодилом — это взаимоисключающие вещи.

Думаю, нейросеть рассуждает примерно так же. Она не может записать в вектор состояний информацию о Джоне одновременно «цветок» и «крокодил». В векторе контекста такой вариант непредставим.

Кто-нибудь может проверить вариант с красными озёрами?

Но вот ребенку можно задать вопрос Почему и получить обоснованный ответ, а такой нейросети нет. Более того если заменить Джон на Розита то ответ может быть другим, потому что Розита синоним имени Роза, а роза бывает цветком. Тут многое чистая статистика обучения.

И нейросеть не рассуждает, если программисты веса статистики обучения поставили выше весов контента беседы — она не будет менять «мнение», если наборот, то может и поменять.

Похоже на переобучение на фактах, когда крокодилы не являлись цветами, что мешает погрузиться в абстракцию.

Как предлагаете бороться с переобучением? Может, сделать ребёнку dropout?

Думаю, лучше дообучить на абстрактных примерах.

Попробовал повторить диалог. Вышло вот это:

- Предположим, что все крокодилы - цветы. Джон - крокодил. Является ли Джон цветком?
"Нет"
- Почему?
"Потому что Джон - крокодил."
- Но я же говорил тебе, что все крокодилы - цветы.
"Да, но это не значит, что Джон - цветок."
- Да, но Джон - крокодил.
"Тогда он и то, и другое."
- Что?
"Крокодил И цветок."

- Предположим, что все озера красные. Байкал - это озеро. Какого цвета Байкал?
"Красный"
- Но почему? Чем это отличается от вопроса про крокодилов?
"Ну, это отличается тем, что Байкал - это озеро."
- И что?
"В вопросе об озерах просто спрашивали о цветах."

Для модели ситуация с озером проще, потому что в принципе цвет воды может быть красным, к тому же "красный" это прилагательное и единственный цвет, который упоминается в вопросе. В вопросе же с крокодилами и крокодилы и цветы - существительные и нужно делать выбор, имя Джон лучше сочетается с крокодилом, чем с цветком. Не факт, кстати, что ребенок действительно руководствуется озвученной логикой - люди тоже весьма склонны сочинять объяснения своим действиям, чтобы они казались разумными.

К вопросу о переобученности у детей, наблюдал такой диалог напротив фронтона с колоннами института пищевой промышленности:


  • Мама, смотри, музей!
  • Это институт, здесь людей учат.
  • В музеях учат людей?

Если у маленького ребенка про крокодила и цветы спросить, он точно так же не будет говорить, что Джон - цветок, кстати. У ребенка еще есть другая мотивация - он переходит в режим «сейчас мне начнут задавать логическую задачу с подвохом», так что в ответе руководствуется не столько логикой, сколько попыткой избежать этого ощущения «ну вот, меня опять подловили».

Если скормить железяке весь интернет, то она обязательно найдет подходящую фразу на любой вопрос. Но смысла не имеет. Разум и сознание не могут сводиться к простому подбору наиболее часто встречающихся фраз.

на любой вопрос

На любой типой вопрос, на вопрос «Глокая шмунда имела шесть смификов, одного съела, двух выкинула, одного подарила пупунду. Сколько смификов у нее осталось?» человек ответит легко, а нейросеть со всем знанием интеренета — не сможет.
Мало того, поскольку такие нейронки оперируют не отдельными символами, а токенами, ей незнакомы такие понятия как «буква» и «цифра». Они сыплются на простейших задачках вроде записать слово задом наперёд. Или назвать последнюю цифру числа:
Запрос:
В числе «1234» последняя цифра 4.
В числе «5656» последняя цифра 6.
В числе «9999» последняя цифра
sberGPT3_large:
7.
притом что семёрки вообще нет в этом числе.

Сеть от сбера вообще с задачами плохо справляется, даже в варианте XL. А так, такая проблема есть, но она частично решается тем, что модель выучивает буквенный состав токенов косвенно по задачам в обучающих данных. Если мы возьмём английскую GPT-J от EleutherAI, то она уже неплохо решает такие задачи,и последнюю цифру в вашем примере (переведённой на английский) называет верно. Важно правда в таких задачах ставить температуру близко к нулю а topp в 1, чтобы убрать фактор случайности.

А если попросить назвать третью с конца?

Вот как-то так. Первые два примера контекст, вторые два - тестовые. На самом деле можно найти более сложные задачи, где это сломается, но на простых - вполне себе работает

Другими словами вы обучили на первых двух примерах, а потом тестировали на следующих двух?
Проблемы тут в том что
во-первых, вы использовали равный размер слов и полагаю на разных оно сломается,

во-вторых, вы использовали одинаковые фразы, но такого не будет в настоящих задачах, ну вот пользователь задаст вопрос «If we have 5362 number, could you find 3 digit from the end, please?», что она ответит, если вы обучали ее на примерах выше?

во-третих, если попросить третье число от 45, человек скажет что его нет, а нейросеть выдаст нечто хаотичное, то есть нужно ее учить специально на неверные запросы,

в-четвертых, придется учить нейросети каждой операции отдельно и все равно это сломается при чуть более сложных выражениях, ну невозможно перебрать все возможные шаблоны,
Проблемы тут в том что… невозможно перебрать все возможные шаблоны
Все верно, более общий подход, если касаться работы с числами, состоит в понимании смысла чисел. Как это устроено у человека? У нас полное впечатление, что мы понимаем этот смысл исходя из знания правил сложения, умножения, деления, и тд, кот. учимся еще в школе. Но в действительности это не совсем так. У человека, и у животных имеется нативное чувство численности. Оно точное от 1 до 3-4 объектов, и приближенное для большего числа, т.е. работает как оценка. Механизм этого чувства работает не на пересчете предметов, как это делаем мы сознательно, когда для этого есть время. Это практически моментальная оценка. Представьте антилопу на которую нападают львы — 2 с левой стороны, 4 с правой? В какую сторону начать движение, чтобы не стать обедом? В ту где их меньше, т.к. меньше вероятность попасться, и эта оценка происходит быстро на нативном уровне. Просто она знает где меньше благодаря этому чувству. Ну, а дальше как повезет) Причем такая оценка делается для любых типов ощущений — зрительных, слуховых, тактильных, для объектов находящихся в фокусе внимания, она работает автоматически. Именно на этом чувстве численности у человека развиваются абстрактные представления о числах, которому учат в школах. Если у человека нарушена нейронная структура отвечающая за возникновение этого чувства, то он не понимает смысла чисел, это отклонение называется дискалькулией. Нам в норме это трудно понять. По описанию случаев выглядит так. Человек может вызубрить таблицу сложения, и рассказать ее наизусть, если попросить. Но если попросить сложить 1 яблоко + 3 яблока, то либо ничего не ответит, либо ответит неправильно, или правильно случайно, зависит от степени нарушений. При этом он знает что такое яблоко, понимание смысла др. объектов не нарушено. Конечно если он зазубрит таблицу сложения яблок, то видимо правильно будет давать ответы в пределах этой таблицы. Это напоминает ситуацию с языковыми моделями, они не понимают смысла чисел, точнее имитируют понимание в пределах обучающей информации на эту тему. Этакая продвинутая форма электронной зубрежки, не доступная по объемам человеку.
В одной из тем писал комент на эту же тему с подробностями и ссылкам, там же приводил вариант выхода из этой ситуации по аналогии с биологическим прототипом. Как видно понимание смысла расширяется с увеличением каналов информации на заданную тему, включая понимание смысла чисел. И в этом смысле) понимание смысла человеком, тех же чисел, тоже ограничено. Есть контексты, где они могут терять привычный нам смысл, напр, в квантовом мире, в котором привычные нам границы объектов исчезают, да и сами объекты также. Гипотетически, если бы эволюция происходила на этом бы уровне, то чувство численности у квантовых существ не развилось, т.к. не имело особого биологического смысла. Но могло развиться более полезное чувство вероятности быть в некотором состоянии, о кот. мы может только догадываться.

Получается, что достаточно большая (в разы больше, чем самые большие сейчас) нейросеть с достаточно большим размером контекста (наверное в сотни тысяч раз больше), да ещё натренированная на крупном корпусе текстов строго одной личности (например, как предложено выше, на трудах Ленина) по сути станет действующим примером пресловутого философского зомби? Будет отвечать точно, как ответил бы Ленин, обладать common sense, способностью манипулировать большим количеством объектв в логических задачах, считать себя личностью и убедительно это доказывать своими ответами.

В теории возможно, но тут три проблемы:

1. Обучения и создание такой нейросети будет стоить очень дорого,

2. Стоимость ее функционирования будет огромной, там потребуются огромные датацентры на каждый ее ответ,

3. Сама по себе такая нейросеть может быть эквивалентом одного единственного человека и не факт, что ее возможности будет превосходить обычного человека с поисковой системой интернет и базами знаний,

То есть для практических целей такая нейросеть будет мало пригодна (кому нужен виртуальный сотрудник один час работы которого стоит десятки тысяч долларов), то максимум сделать сильный ИИ для пиара и потом тольком его не использовать.

То есть для реального использования сильного ИИ потребуется либо интеллект превосходящий любого человека (что не факт, что достижимо), либо резкое удешевление стоимости использование такой сети.
Будет отвечать точно, как ответил бы Ленин


Вы его с кем -то путаете :)
(в студенческой молодости не только тщательно конспектировали его труды, но и должны были доказывать преподу понимание сути законспектированного, начиная с истпарта и заканчивая госами по научному коммунизму)

(«Точность» — это не то определение :)

К тому же, Ленин учился не по текстам собственных произведений, а по гораздо большему объëму материалов.

К тому же, Ленин учился не по текстам собственных произведений, а по гораздо большему объëму материалов.


Я про то, что Ленин писал не то, что думал, а то, что было нужно написать в данный момент.

На самом деле в реальности будет две проблемы. Первая это то, что все эти модели неэффективно используют данные и уже сейчас для самых больших моделей используются корпуса из триллионов слов. Таким образом, монокорпуса одной личности в природе нет. Возможно, конечно, сначала обучить на общем корпусе, а потом дообучить на корпусе одной личности. Что будет в пределе такого подхода неизвестно. Ну то есть мы знаем, что практически во всех задачах точность растёт с увеличением корпуса. Но даже корпуса всех существующих текстов может не хватить для достижения уровня человека во всех аспектах. К тому же мы возможно упремся в ограничения архитектуры. Для примера, если нам нужно полететь на Луну, и мы возьмём воздушный шар, то расстояние до Луны будет уменьшается с увеличением размера шара, но только до определенного предела. То есть современные архитектуры просто могут не иметь чего-то важного, чего мы ещё не понимаем. Самое очевидное - модели типа GPT3 не имеют адекватной реализации долговременной памяти, которая необходима, чтобы личность могла со временем учится новому.

Так Ленин тоже не сразу увлёкся марксистско-коммунистическими идеями. Сначала было детство и обучение элементарному чтению и базовым наукам. Если мы хотим максимально повторить личность, сначала по идее нейросети нужно скормить всю ту базовую информацию, которую эта личность потребляла, начиная с самого детства. Начиная с букваря и детских сказок, и заканчивая учебниками, газетами и журналами того времени.

А чтобы сеть запоминала события произошедшие с ней (диалоги), нужно ей регулярно скармливать собственные диалоги. То есть сутки общение (бодрствование), затем отключаем от сети и дообучаем на произошедших за сутки диалогах (сон). Всё как у белковых организмов.

Ещё момент, по поводу забывания информации. Память человека дольше хранит те знания и воспоминания о тех событиях, к которым он чаще возвращается, и использует в повседневности. Если вы отлично знали матан, но он вам не понадобился ни разу в следующие 20 лет, скорее всего вы забудете все эти формулы и теоремы. Поэтому во время "сна" нейросети (период дообучения) ей нужно кроме собственно произошедших диалогов, также повторно "скормить" все те факты, к которым ей пришлось прибегнуть в своих диалогах. То есть если в течение дня общались на тему ядерной физики, значит, нужно дообучить (возможно повторно) использованными в общении источниками на эту тему.

Но при этом Ленин всегда видел мир от первого лица и даже его опыт изучения чтения мог быть окрашен личными впечатлениями. К примеру я помню картинки из букваря на отдельные буквы, и то что я смотрел на них вечером и был тусклый свет лампочки.

С другой стороны а насколько нейрости нужно иметь личный субъективный опыт, это вопрос. Мы сейчас условно объективного наблюдателя пытаемся сделать субъективным и не факт, что это на практике нужно.

Ну да, у человека 6 чувств, а у рассмотренных нейросетей только 1 входящий текстовый канал. Понятно, что великого вождя мы не получим, но какой-то степени имитацию.

Почему наука считает, что у ворон есть разум? Например, если в узкую пробирку налить воды и бросить сверху кусочек корма, то ворона не сможет просунуть голову и взять корм. Но она берет небольшие камешки, бросает в воду, уровень воды поднимается, корм всплывает и ворона получает, что хотела. Она решила задачу.

А если нейросети объяснить закон Архимеда, то она догадается про камешки?

  1. А при чем тут закон Архимеда?
  2. для того, чтобы догадаться про камушки нужно обучать не речи, а возможным действиям в окружающем мире. Вот эти модные копии заводов, моделеры автопилотов и тд и тп. Тогда она сможет понимать как действия влияют на окружающий мир и сможет много чего. Ну а после этого отдельно учить сеть, которая может говорить про этот окружающий мир.
    Если бы я только читал, но ничего не "щупал" я бы тоже фиг догадался бы до очень многих вещей. Но человеком с сознанием быть бы не перестал.

Когда что-то всплывает, то это закон Архимеда.

Это когда вы хотите понять утонет что-то или нет. А когда что-то изначально плавает на поверхности и вы хотите поднять уровень воды — закон архимеда можно максимум притянуть за уши в плане "не кидайте пенопласт"
А по сути здесь решение задачи "забей объем пробирки тем, что не плавает по поверхности, например водой, песком, или камнями меньше пробирки".
"Выталкивающая сила, действующая на погруженное в жидкость тело, равна весу вытесненной им жидкости" — здесь совершенно лишнее знание.

Формально самой большой моделью поддерживающей русский язык является недавно выложенная Яндексом YaLM 100B. <...> С учетом ... того, что ... в инструкции по установке опущен ряд важных шагов, я решил, что примеры с этой модели особо ничего полезного к данной статье сейчас не добавят и нет смысла придерживать статью до тех пор пока их удастся получить.

А какие возникли проблемы с установкой, и о каких важных шагах идёт речь? Лично я пока что застрял на этапе запуска мегатрона, он по полной использует плоходокументированные проприетарные cuda-расширения, и их довольно болезненно собирать.

>проприетарные cuda-расширения

Как бы сейчас все подряд используют cuda и тензорные ядра nvidia.

Почему все ответы нейросетей в статье прозвучали в моей голове голосом GLaDOS?

Мечтаю о нейросети, которая на вопрос давала бы всестороннюю выжимку фактов: от научных определений до использования в художественной л-ре. Желательно вместе со ссылками на первоисточники.

Т.е. полнотекстого поиска по библиотеке Генезис вам недостаточно?

очень наглядная статья, спасибо! В статье описание различия между мозгом и языковой моделью, интересно, кто-то делал нейросеть схожую с мозгом и какие в этом сложности.

В процессе обучения сеть учится ("думает") по строго заданной архитектуре градиентом, с целью решить задачу максимально эффективно (минимизировать функцию потерь).
Не кажется ли вам что это слегка ограничивает ее свободу? При такой конструкции у нее нет возможности "думать о себе", только о поставленной задаче.

Как по мне, главная проблема возникновения сознания в текущих сетях это строгое обучение "правильному варианту", пока сеть всегда отвечает на вопрос вариантом с самым большим скором, у нее нет возможности выбора (если не добавлять рандом искуственно). Тоесть вряд ли вы получите ответ "я не хочу сейчас об этом разговаривать" на вопрос о высоте башни Трампа. Реальным поводом задуматься об интеллекте был бы встречный вопрос "кто я?" от нейросети на тот же вопрос о башне. А значит разговаривать с ней на тему сознания не особо информативно пока она сама не заговорит об этом спонтанно.

Можно ли придумать какой-то определенный тест на наличие сознания у нейросети?

И что делать с людьми, которые его завалят?

Как что? Считать их клонами, которые прислали пришельцы следить за нами! (шутка)

Ищут в нейронной сети то, сами не могут сформулировать что...

Надеются что можно крутить нейронки так-сяк и пихать в нее больше нейронов, и это нечто вдруг само там появится, а когда появится, они уж точно поймут что это именно оно. Эволюция научилась делать нейронки много миллионов лет назад, а то что они ищут только недавно получилось. Наверно там все не так просто..

Вау! Это же реализация мысленного эксперимента: "Китайская комната". Да и вообще, мне статья напомнила роман "Ложная слепота", прям точь в точь, только в реальности.

В резюме:

"Я могу постигать абстрактные понятия и обобщать их. Я могу формировать научные гипотезы и разрабатывать эксперименты для их проверки."

На собеседовании:

-Что тяжелее, 1 кг воды или 1 кг стали?

- 1 кг воды тяжелее.

- Предположим, что все крокодилы — цветы. Джон — крокодил. Джон цветок?

- Да.

- Почему?

- Потому что я знаю, как сделать так, чтобы люди любили друг друга.

Предлагаю баллотировать ruGPT3-large в президенты.

Что осталось в комнате?
«1,5 кг железа, 2 кг алюминия, 3 кг меди, 4 кг цинка, 5 кг никеля, 6 кг кобальта, 7 кг золота, 8 кг серебра».

Вот это кажется характерным моментом.
Не всегда проявляется, но например случается, когда просишь сеть придумать новый кулинарный рецепт.

Простые сети сразу начинают "запекать при 2060 градусах" - для них явно числа ничего не значат сами по себе.

Но даже сети посложнее иногда вдруг "активируют концепцию нумерованного списка" и начинают генерить текст типа "1 x, 2 y, 3 z, 4 u, 5 v, 6 w, ..."

Sign up to leave a comment.