Comments 23
(General Language Understanding Evaluation) [оценка понимания обобщенного языка]
Вы уверены что general в данном случае относится к language, мне кажется что скорее к understanding.
Но я не уверен, что такому ИИ нужен человек, особенно живой.
Сознание появится когда ИИ научится сопереживать, так как это делает человек.
Ничем не подкрепленное утверждение.
И привитое аппаратное понятие боли, сытости, усталости и так далее — полный набор ассоциаций к каждой отдельной ячейке собственной памяти.
Есть люди, которые не чувствуют боли. По-вашему, у них нет сознания?
Слово «сопереживать» в данном виде — означает анализ входящей информации по критериям личного опыта. При этом объектом личного опыта становится всё что требует сбора нового набора ассоциаций. В самом начале требуется минимальный врождённый набор ассоциаций — состояние, из которого возможен старт развития системы.
Над этим основным скилом появляется критерий разумности — как определение количества приобретённого личного опыта.
Далее — осознание собственного Я. Это способность оценивать входную информацию на множестве объектов личного опыта одновременно. Использовать эту оценку в виде кратковременного опыта для последующей обработки в цикле, до момента явного выхода за пределы текущего уровня одной или нескольких типов ассоциаций. После чего новый, более яркий вид ассоциации закрепляется над входной информацией в виде опыта.
А по наличию сознания у людей — это нужно к философам обращаться, это их работа и хлеб.
Слово «сопереживать» в данном виде — означает анализ входящей информации по критериям личного опыта.
От этого пояснения утверждение не стало более подкрепленным. В общем-то оно стало более непонятным. Что означает "анализ информации по критериям личного опыта"?
А по наличию сознания у людей — это нужно к философам обращаться
Это вы написали про сознание, поэтому и вопросы к вам.
И вот тут мы приходим к очень интересному вопросу — а где граница между искусственным и естественным интеллектом?
А зачем ее искать?
Я уже не говорю о том, что есть гуманитарные вопросы — например, начиная с какого момента тренировку ИИ можно назвать издевательством, к примеру.
Так это не зависит от границы естественный/искусственный. ИИ по определению искусственный, но раз мы хотим определить для него указанный момент, значит это зависит от других критериев. А у собак или обезьян естественный интеллект, но разрешать им голосовать на выборах это неправильное решение.
Кстати, вот вам задача, я над ней уже много лет думаю.
Вариант 1. Биологический человек погружается в виртуальную реальность (Матрица) и в ней чему-то учится в соотвествии ИСКУССТВЕННО заданной программой.
Вариант 2. Машина, создана ИСКУССТВЕННО, но в естественной среде в с пустой нейросетью и некоторой целевой функцией. Функционирует, набирается опыта, формирует интеллект.
А теперь вопрос: какой из вариантов будет иметь искусственный интеллект, а какой — естественный?
Я это к тому, что не так всё просто.
Ну так мы и возвращаемся к исходному вопросу — зачем нужно отличать, какой из них естественный, а какой искусственный? Если некоторый естественный имеет некоторые права, то и аналогичный искусственный должен иметь такие же права.
Хорошо, как вам такое — вот вы написали, что аналогичный ИИ должен иметь аналогичные права. Не берусь утверждать, что такое возможно, потому что очень уж разные по природе интеллекты. Но допустим, такое сделали. Однако, для того, чтобы сделать вывод о том, что некий конкретный ЕИ и некий конкретный ИИ аналогичны придется проделывать массу дорогостоящих (по времени в первую очередь) тестов. В то время, на практике скорее всего ЕИ и ИИ будут сильно отличаться и термин «ЕИ» будет автоматически означать некий широкий набор свойств с довольно узким диапазоном значений. Если языком аналогии, то достаточно определить, что объект является автомобилем, чтобы не тратить время на исследование его клеточного метаболизма.
Ну и вопросы нашего видового выживания, надеюсь все еще актуальны? Тогда это еще одна практическая потребность отличать ЕИ от ИИ.
А так да, действительно, с чисто философской точки зрения нет никакой принципиальной разницы между ЕИ и ИИ. И нет никакого смысла в том, чтобы определять, является ли субъект ЕИ или ИИ.
Так дело не в философии, а как раз в практике. Есть существо, которое может выполнять определенную практическую деятельность. Надо решить, можно ли давать ему такую возможность. Естественно, это требует тестов, и у людей такие тесты есть практически везде, начиная с экзаменов в школе.
Если языком аналогии, то достаточно определить, что объект является автомобилем, чтобы не тратить время на исследование его клеточного метаболизма.
Так это как раз то, чего не должно быть. Вопрос должен быть не "искусственный или естественный", а именно "может иметь некоторые права или нет", независимо от происхождения. А то это мало чем отличается от дискриминации негров — определили, что негры не люди, и не тратим время на определение их прав. Это неправильный подход к решению вопроса.
А вот по поводу прав, как насчет: «мы миллионы лет боролись за выживание и не хотели бы сливаться как вода из бачка»? Т.е., что делать, если «объективная целесообразность», а точнее обоснованная ИИ «целесообразность» будет противоречить субъективным потребностям человеческой расы? Например, люди проголосовали за строительство города, а машины за суперкомпьютер.
Тут ведь получается, что даже не имея юридически закрепленных прав, ИИ сможет так манипулировать людьми, как ему вздумается. А с юридическими правами ИИ вообще перестанет с людьми считаться.
Например, люди проголосовали за строительство города, а машины за суперкомпьютер.
К вопросу "естественный или искусственный" это не имеет отношения. Разные группы людей тоже могут проголосовать за разное.
А с юридическими правами ИИ вообще перестанет с людьми считаться.
ИИ делаем мы сами, значит можем сделать так, чтобы считался. Это же не магия, он будет работать по определенным принципам, у нас будет доступ к любой ячейке памяти. Как сделаем, так и будет реагировать.
Хочу почитать какие вопросы задаёт этот тест и какие ответы выдает нейросеть, кароче чего конкретно они достигли
Тем временем модель T5 от Гугл отстаёт в вышеупомянутом тесте SUPERGLUE от человека всего на 0.9 балла из 100 (88.9) — про нее тут ни слова, ждём статью про т5 и что это за монстр
Я бы сказал что произошла передача опыта по прохождению тестов с помощью малозаметных признаков. Но нейросеть научилась их выделять.
Боумен представил набор из девяти задач на понимание прочитанного для компьютеров под общим названием GLUE
Если вы можете сказать, что из сообщения «президент Трамп приземлился в Ираке, начав свой семидневный визит» следует, что «президент Трамп находится с визитом за границей», вы проходите тест.
Какой-то неправильный тест. Это задача не на понимание прочитанного, а на знание дополнительной информации, которой нет в тексте. Если поменять на "приземлился в Техасе", то для понимания прочитанного все равно нужны те же способности, но указанный вывод сделать уже нельзя.
Машины уже опережают людей в тестах на чтение; но понимают ли они прочитанное?