Comments 13
Так называемый «общий искусственный интеллект» или AGI (artificial general intelligence), который будет иметь интеллектуальные возможности, намного превосходящие человеческие.
Ну т.е. по определению превосходящий человеческие интеллектуальные возможности, а понять ущербность своих решений по достижению цели не cможет.
Тут как бы неслабая подмена понятий прослеживается. Или человечество создаст тупорылый искусственный интеллект, который слепо следует заданной цели, и не понимает сложностей и зависимостей; или человечество даже близко пока не подошло к общему решению создания искусственных мыслительных процессов, хотя бы эквивалентных по сложности животным инстинктам — поесть, спариться, сдохнуть.
Отшелушив популизм из новостей об искусственном интеллекте, текущее известное мне состояние данной области — мы можем находить скрытые зависимости между входами и выходами и использовать их для анализа, классификации или генерации подобного.
Алгоритмы нечеткой логики более похожи на зачатки интеллекта, чем нейронные сети какой бы глубины и сложности они не были. Имеет смысл начинать беспокоиться, как только нейронная сеть, обученная отличать кошек от собак, сможет отличать апельсин от яблока, подкрепив решение некоей вариацией 'Что за объект вы мне показываете, я такое не изучало'.
а понять ущербность своих решений по достижению цели не cможет
Как обычно в таких обсуждениях, вы, видимо, считаете «ущербность» фундаментальным свойством решений. Это не так — «ущербность» зависит от целей (по крайней мере идея опасности «unfriendly AI» основана на этом).
Крайне важно, чтобы мы нашли и внедрили средства контроля до появления AGI. Сюда могут входить правила для разработчиков AGI и встроенные ограничители, это могут быть моральные принципы и правила принятия решений.Автор, похоже, не знает о трёх законах робототехники Азимова.
SantaNet вообще отменит РождествоА что в этом плохого?
Автор комментария с трудом отличает произведение фантаста от реальности?
Отменить Рождество( по нашему Новый год)? Вы серьезно? У вас не было детства и светлого праздника?
Это уже напоминает: "трудное детство, высокие подоконники и деревянные игрушки прибитые к полу..."
Умный СН переназначит определение подарка из материального в цифровой.
И будет дарить игры на Стиме, подписки, лут-боксы в играх и прочий донат-хлам. Полчаса на массовую рассылку в канун Рождества и все. А «плохой-хороший» — инфа из соцсетей, открытые профили. (у кого нет — ССЗБ).
Учёные из области датасайенс, конечно, поржут.
Некоторые обыватели поймут выводы из статьи по-своему: вот вам SantaNet, ещё одна нейросетка из ряда AlexNet, DarkNet, ResNet… Но никто не обратит внимание, что речь идёт о AGI, а не о нейросетках.
В итоге пользы от статьи даже не нуль, а имеет место «гомеопатический» вклад. Кому-то этот мысленный эксперимент смешон (почему-то авторы решили ограничить кругозор искусственному интеллекту, дав волю появиться некоему безграмотно разработанному SantaNet), а кого-то он вводит в заблуждение.
На самом деле природа не закладывала никаких специальных механизмов самопознания, т.е. человек или другое разумное существо не имеют никаких квинтэссенций для познания природы. Механизм познания, который мы имеем, весьма ограничен. Если нет какой-то информации, то она не появится просто так (не рождается и не генерируется без эксперимента).
То есть никаких сильных интеллектов не существует. Не выловить рыбку из пруда одним жжением кремния на подложке.
Что касается SantaNet, ну не знал этот интеллект основы жизнедеятельности и экологию, и не мог узнать, ведь он только вязал носочки для детских подарков, а тут БЖД и экологии нет… А как я сказал выше, нагревом песка информация не рождается.
То есть никаких сильных интеллектов не существует
Как этот вывод следует из написанного до него?
"Статья написана профессором и исследователями двух университетов. То есть на полном серьёзе."
Профессор тоже может в трололо ;)
Если допустить существование выращенного в пробирке интеллекта (многоканального PID регулятора на самом деле), и дать ему возможность чем-то рулить, можно получить странные результаты. Да. С обычными интеллектами это тоже так работает.
Имеет смысл начинать беспокоиться, как только нейронная сеть, обученная отличать кошек от собак, сможет отличать апельсин от яблока, подкрепив решение некоей вариацией 'Что за объект вы мне показываете, я такое не изучало'.
Мой ответ: Это вы про сильный интеллект? Вы не понимаете одной простой вещи: микроскопом гвозди не забивают. То есть нейросеть, обученная отличать кошек от собак, не должна выявлять другие объекты на изображении. Если вы хотите более умного распознавателя, то создайте его СПЕЦИАЛЬНО. И будет у вас более умный распознаватель.
Итак, сама по себе информация не появляется, надо ее туда как-то ввести. То есть, сам факт, что существует не два вида объектов на изображении, а несколько — это никак не может быть известно бинарному классификатору сколь бы сильным он не был. Ибо ему показывали кошек и собак, при этом на изображении были другие объекты типа дивана, травы, снега и даже лиц людей, но при этом говорили только «это собака» и «это кошка». Сколько не грей кремниевые подложки, не догадаться.
Концепция сильного интеллекта зиждется на наивном и глупом представлении, что любая информация может быть получена путем
Испуганные родители вряд ли будут рады увидеть дрон в спальне ребенка. Конфронтация с искусственным сверхразумом будет иметь только один исход.отнюдь))
Вариант 1. Родители уничтожают дрон, тем самым объявляя войну Санте.нет
Вариант 2. Дрон уничтожает родителей и, таки, дарит подарок ребёнку.
Вариант 3. Родители плохо воспитывают ребёнка, что бы он не встретился с дроном. Ведь дроны приносят подарки только хорошим детям)
Как искусственный интеллект SantaNet уничтожит мир