All streams
Search
Write a publication
Pull to refresh

Comments 23

Что уж тут про ИИ говорить когда люди не всегда понимают…
(General Language Understanding Evaluation) [оценка понимания обобщенного языка]

Вы уверены что general в данном случае относится к language, мне кажется что скорее к understanding.

Обобщенная оценка понимания языка, нейросеть бы автору натренировать

Ай, это всё дым и зеркала. Если человек сумеет сформулировать задачу, имеющую вход и бинарный ответ (ну типа примера с поездкой Трапа в Ирак), то компьютер рано или поздно, конечно, насобачится давать этот ответ правильно. Но это не ИИ. ИИ было бы, если бы наоборот, компьютеру нужно было на основе понимания информации создать задачу, которая бы имела смысл (и решения) для человека. Ну, то есть по входу «президент Трамп посетил Ирак с семидневным визитом» компьютер выдал бы вопрос «находится ли президент США в заграничной коммандировке?» и был способен оценить ответ человека на этот вопрос.
ИИ не понимает чего делает. Ну так это логично. Сознание появится когда ИИ научится сопереживать, так как это делает человек. А для этого ему необходим блок памяти личного опыта. И привитое аппаратное понятие боли, сытости, усталости и так далее — полный набор ассоциаций к каждой отдельной ячейке собственной памяти. Сама ассоциация в виде спектра ощущений — будет адресом в блоке памяти. Именно так — как это организованно у человека.

Но я не уверен, что такому ИИ нужен человек, особенно живой.
Сознание появится когда ИИ научится сопереживать, так как это делает человек.

Ничем не подкрепленное утверждение.


И привитое аппаратное понятие боли, сытости, усталости и так далее — полный набор ассоциаций к каждой отдельной ячейке собственной памяти.

Есть люди, которые не чувствуют боли. По-вашему, у них нет сознания?

Тут разговор про машинное обучение, не так-ли?
Слово «сопереживать» в данном виде — означает анализ входящей информации по критериям личного опыта. При этом объектом личного опыта становится всё что требует сбора нового набора ассоциаций. В самом начале требуется минимальный врождённый набор ассоциаций — состояние, из которого возможен старт развития системы.
Над этим основным скилом появляется критерий разумности — как определение количества приобретённого личного опыта.
Далее — осознание собственного Я. Это способность оценивать входную информацию на множестве объектов личного опыта одновременно. Использовать эту оценку в виде кратковременного опыта для последующей обработки в цикле, до момента явного выхода за пределы текущего уровня одной или нескольких типов ассоциаций. После чего новый, более яркий вид ассоциации закрепляется над входной информацией в виде опыта.

А по наличию сознания у людей — это нужно к философам обращаться, это их работа и хлеб.
Слово «сопереживать» в данном виде — означает анализ входящей информации по критериям личного опыта.

От этого пояснения утверждение не стало более подкрепленным. В общем-то оно стало более непонятным. Что означает "анализ информации по критериям личного опыта"?


А по наличию сознания у людей — это нужно к философам обращаться

Это вы написали про сознание, поэтому и вопросы к вам.

Пламя.
Близко — ожог, боль. Рядом — свет, тепло. Далеко — маяк.
Расстояние при этом является критерием личного опыта.
То что вы описали похоже на искусственного человека. И вот тут мы приходим к очень интересному вопросу — а где граница между искусственным и естественным интеллектом? Здравый смысл вроде бы подсказывает, что компьютерный интеллект является искусственным, а интеллект биологического существа (пусть даже искусственно созданного) является естественным. Но тот же здравый смысл не может с уверенностью сказать насколько наш интеллект является естественным, учитывая целенаправленные и значительные усилия социума по развитию (формированию) человека.
И вот тут мы приходим к очень интересному вопросу — а где граница между искусственным и естественным интеллектом?

А зачем ее искать?

Ну хотя бы для того, что могут быть разные юридические нюансы — например кто имеет право голосовать на выборах. Или чтобы определить кого считать виноватым (наказать), а кого глючным (удалить и установить заново) в случае какой-то проблемы.
Я уже не говорю о том, что есть гуманитарные вопросы — например, начиная с какого момента тренировку ИИ можно назвать издевательством, к примеру.

Так это не зависит от границы естественный/искусственный. ИИ по определению искусственный, но раз мы хотим определить для него указанный момент, значит это зависит от других критериев. А у собак или обезьян естественный интеллект, но разрешать им голосовать на выборах это неправильное решение.

А ведь возможна и обратная ситуация. Естественный интеллект (ЕИ) может быть ограничен в правах. Например, ЕИ может быть лишен права на вождение в будущем, поскольку не сможет реагировать с нужной скоростью.
Кстати, вот вам задача, я над ней уже много лет думаю.
Вариант 1. Биологический человек погружается в виртуальную реальность (Матрица) и в ней чему-то учится в соотвествии ИСКУССТВЕННО заданной программой.
Вариант 2. Машина, создана ИСКУССТВЕННО, но в естественной среде в с пустой нейросетью и некоторой целевой функцией. Функционирует, набирается опыта, формирует интеллект.
А теперь вопрос: какой из вариантов будет иметь искусственный интеллект, а какой — естественный?
Я это к тому, что не так всё просто.

Ну так мы и возвращаемся к исходному вопросу — зачем нужно отличать, какой из них естественный, а какой искусственный? Если некоторый естественный имеет некоторые права, то и аналогичный искусственный должен иметь такие же права.

Все-таки хороший вопрос вы задали, заставили меня подумать.
Хорошо, как вам такое — вот вы написали, что аналогичный ИИ должен иметь аналогичные права. Не берусь утверждать, что такое возможно, потому что очень уж разные по природе интеллекты. Но допустим, такое сделали. Однако, для того, чтобы сделать вывод о том, что некий конкретный ЕИ и некий конкретный ИИ аналогичны придется проделывать массу дорогостоящих (по времени в первую очередь) тестов. В то время, на практике скорее всего ЕИ и ИИ будут сильно отличаться и термин «ЕИ» будет автоматически означать некий широкий набор свойств с довольно узким диапазоном значений. Если языком аналогии, то достаточно определить, что объект является автомобилем, чтобы не тратить время на исследование его клеточного метаболизма.
Ну и вопросы нашего видового выживания, надеюсь все еще актуальны? Тогда это еще одна практическая потребность отличать ЕИ от ИИ.
А так да, действительно, с чисто философской точки зрения нет никакой принципиальной разницы между ЕИ и ИИ. И нет никакого смысла в том, чтобы определять, является ли субъект ЕИ или ИИ.

Так дело не в философии, а как раз в практике. Есть существо, которое может выполнять определенную практическую деятельность. Надо решить, можно ли давать ему такую возможность. Естественно, это требует тестов, и у людей такие тесты есть практически везде, начиная с экзаменов в школе.


Если языком аналогии, то достаточно определить, что объект является автомобилем, чтобы не тратить время на исследование его клеточного метаболизма.

Так это как раз то, чего не должно быть. Вопрос должен быть не "искусственный или естественный", а именно "может иметь некоторые права или нет", независимо от происхождения. А то это мало чем отличается от дискриминации негров — определили, что негры не люди, и не тратим время на определение их прав. Это неправильный подход к решению вопроса.

Мне кажется мы путаем понятия «права» и «обязанности». С точки зрения обязанностей у меня возражений нет — мы определились со способностями существ по неким объективным показателям и пусть каждый занимается тем, чем у него лучше получается.
А вот по поводу прав, как насчет: «мы миллионы лет боролись за выживание и не хотели бы сливаться как вода из бачка»? Т.е., что делать, если «объективная целесообразность», а точнее обоснованная ИИ «целесообразность» будет противоречить субъективным потребностям человеческой расы? Например, люди проголосовали за строительство города, а машины за суперкомпьютер.
Тут ведь получается, что даже не имея юридически закрепленных прав, ИИ сможет так манипулировать людьми, как ему вздумается. А с юридическими правами ИИ вообще перестанет с людьми считаться.
Например, люди проголосовали за строительство города, а машины за суперкомпьютер.

К вопросу "естественный или искусственный" это не имеет отношения. Разные группы людей тоже могут проголосовать за разное.


А с юридическими правами ИИ вообще перестанет с людьми считаться.

ИИ делаем мы сами, значит можем сделать так, чтобы считался. Это же не магия, он будет работать по определенным принципам, у нас будет доступ к любой ячейке памяти. Как сделаем, так и будет реагировать.

Хочу почитать какие вопросы задаёт этот тест и какие ответы выдает нейросеть, кароче чего конкретно они достигли

Тем временем модель T5 от Гугл отстаёт в вышеупомянутом тесте SUPERGLUE от человека всего на 0.9 балла из 100 (88.9) — про нее тут ни слова, ждём статью про т5 и что это за монстр

По поводу прохождения теста нейросетями у меня возникло чувство что сети решают поставленную задачу как студент который знает и понимает очень мало но великолепно научился решать тесты. Ведь высокие показатели в этих тестах имеют люди с практикой их решения ). И обучающая выборка тоже составлялась теми кто умеет проходить тесты.
Я бы сказал что произошла передача опыта по прохождению тестов с помощью малозаметных признаков. Но нейросеть научилась их выделять.
Боумен представил набор из девяти задач на понимание прочитанного для компьютеров под общим названием GLUE
Если вы можете сказать, что из сообщения «президент Трамп приземлился в Ираке, начав свой семидневный визит» следует, что «президент Трамп находится с визитом за границей», вы проходите тест.

Какой-то неправильный тест. Это задача не на понимание прочитанного, а на знание дополнительной информации, которой нет в тексте. Если поменять на "приземлился в Техасе", то для понимания прочитанного все равно нужны те же способности, но указанный вывод сделать уже нельзя.

Весь этот ИИ просто алгоритм. Алгоритм не способен понять смысла фразы, как его не тренируй. Для него фраза «Джейсон Вурхиз находится с государственным визитом в Иране» не покажется абсурдной. Искать связи между словами в предложениях не совсем одно и то же, что понимать смысл предложения.
Sign up to leave a comment.

Articles