Как стать автором
Обновить

Комментарии 13

Так называемый «общий искусственный интеллект» или AGI (artificial general intelligence), который будет иметь интеллектуальные возможности, намного превосходящие человеческие.

Ну т.е. по определению превосходящий человеческие интеллектуальные возможности, а понять ущербность своих решений по достижению цели не cможет.


Тут как бы неслабая подмена понятий прослеживается. Или человечество создаст тупорылый искусственный интеллект, который слепо следует заданной цели, и не понимает сложностей и зависимостей; или человечество даже близко пока не подошло к общему решению создания искусственных мыслительных процессов, хотя бы эквивалентных по сложности животным инстинктам — поесть, спариться, сдохнуть.


Отшелушив популизм из новостей об искусственном интеллекте, текущее известное мне состояние данной области — мы можем находить скрытые зависимости между входами и выходами и использовать их для анализа, классификации или генерации подобного.
Алгоритмы нечеткой логики более похожи на зачатки интеллекта, чем нейронные сети какой бы глубины и сложности они не были. Имеет смысл начинать беспокоиться, как только нейронная сеть, обученная отличать кошек от собак, сможет отличать апельсин от яблока, подкрепив решение некоей вариацией 'Что за объект вы мне показываете, я такое не изучало'.

Отшелушив популизм из представлений, что у человека мозг «ого-го», может совершать многие открытия, остаётся лишь понимание, что человек — это лишь млекопитающее животное со своими страхами, предрассудками и хотелками. По факту да, Ньютон открыл законы небесной механики, но он это сделал не с нуля, до него там поработали великие умы, начиная с древних узбекских астрономов и ацтеков… А осваиваем мы эти законы в школе трудно и нудно, и не всегда успешно. Почему-то человечеству потребовалось 100 тысяч лет, чтобы накопить критическую массу знаний, отшелушив ее от астрологии, гомеопатии и прочих языческих представлений. Это все свидетельствует, что не человеческий мозг силен, а вся соль в возможности копить и передавать знания из поколения в поколение. Это немного выходит за рамки силы одного мозга. Мы неспособны неслучайно делать открытия, например, взять и создать тот же ИИ. Мы лишь имеем возможность изучать скрытые закономерности между входом и выходом. Но так как на вход и выход иногда приходят сигналы случайного характера — падает яблоко на голову, то и случаются открытия. И это следует зарубить на носу.
а понять ущербность своих решений по достижению цели не cможет

Как обычно в таких обсуждениях, вы, видимо, считаете «ущербность» фундаментальным свойством решений. Это не так — «ущербность» зависит от целей (по крайней мере идея опасности «unfriendly AI» основана на этом).
Крайне важно, чтобы мы нашли и внедрили средства контроля до появления AGI. Сюда могут входить правила для разработчиков AGI и встроенные ограничители, это могут быть моральные принципы и правила принятия решений.
Автор, похоже, не знает о трёх законах робототехники Азимова.
SantaNet вообще отменит Рождество
А что в этом плохого?

Автор комментария с трудом отличает произведение фантаста от реальности?


Отменить Рождество( по нашему Новый год)? Вы серьезно? У вас не было детства и светлого праздника?
Это уже напоминает: "трудное детство, высокие подоконники и деревянные игрушки прибитые к полу..."

Рождество мифического персонажа и новый год это совершенно разные вещи.
image
Это плохой Санта-нет, наследующий стереотипы создателей о «деревянных игрушках».

Умный СН переназначит определение подарка из материального в цифровой.
И будет дарить игры на Стиме, подписки, лут-боксы в играх и прочий донат-хлам. Полчаса на массовую рассылку в канун Рождества и все. А «плохой-хороший» — инфа из соцсетей, открытые профили. (у кого нет — ССЗБ).
Статья написана профессором и исследователями двух университетов. То есть на полном серьёзе.

Учёные из области датасайенс, конечно, поржут.

Некоторые обыватели поймут выводы из статьи по-своему: вот вам SantaNet, ещё одна нейросетка из ряда AlexNet, DarkNet, ResNet… Но никто не обратит внимание, что речь идёт о AGI, а не о нейросетках.

В итоге пользы от статьи даже не нуль, а имеет место «гомеопатический» вклад. Кому-то этот мысленный эксперимент смешон (почему-то авторы решили ограничить кругозор искусственному интеллекту, дав волю появиться некоему безграмотно разработанному SantaNet), а кого-то он вводит в заблуждение.

На самом деле природа не закладывала никаких специальных механизмов самопознания, т.е. человек или другое разумное существо не имеют никаких квинтэссенций для познания природы. Механизм познания, который мы имеем, весьма ограничен. Если нет какой-то информации, то она не появится просто так (не рождается и не генерируется без эксперимента).
То есть никаких сильных интеллектов не существует. Не выловить рыбку из пруда одним жжением кремния на подложке.

Что касается SantaNet, ну не знал этот интеллект основы жизнедеятельности и экологию, и не мог узнать, ведь он только вязал носочки для детских подарков, а тут БЖД и экологии нет… А как я сказал выше, нагревом песка информация не рождается.
То есть никаких сильных интеллектов не существует

Как этот вывод следует из написанного до него?

"Статья написана профессором и исследователями двух университетов. То есть на полном серьёзе."


Профессор тоже может в трололо ;)
Если допустить существование выращенного в пробирке интеллекта (многоканального PID регулятора на самом деле), и дать ему возможность чем-то рулить, можно получить странные результаты. Да. С обычными интеллектами это тоже так работает.

Из первого комментария (NightShad0w) в этой статье:
Имеет смысл начинать беспокоиться, как только нейронная сеть, обученная отличать кошек от собак, сможет отличать апельсин от яблока, подкрепив решение некоей вариацией 'Что за объект вы мне показываете, я такое не изучало'.

Мой ответ: Это вы про сильный интеллект? Вы не понимаете одной простой вещи: микроскопом гвозди не забивают. То есть нейросеть, обученная отличать кошек от собак, не должна выявлять другие объекты на изображении. Если вы хотите более умного распознавателя, то создайте его СПЕЦИАЛЬНО. И будет у вас более умный распознаватель.
Итак, сама по себе информация не появляется, надо ее туда как-то ввести. То есть, сам факт, что существует не два вида объектов на изображении, а несколько — это никак не может быть известно бинарному классификатору сколь бы сильным он не был. Ибо ему показывали кошек и собак, при этом на изображении были другие объекты типа дивана, травы, снега и даже лиц людей, но при этом говорили только «это собака» и «это кошка». Сколько не грей кремниевые подложки, не догадаться.
Концепция сильного интеллекта зиждется на наивном и глупом представлении, что любая информация может быть получена путем долгого переваривания малого количества данных логических умозаключений и сложных вычислений. И это представление превозобладает среди обывателей. Надо поменьше смотреть голливудское кино, и поменьше быть высокого мнения о себе и о своем мозге.
Как правило в таких дискуссиях человеческий интеллект считается «сильным». Следовательно, сильный интеллект возможен, и голливудское кино тут не при чем.
Испуганные родители вряд ли будут рады увидеть дрон в спальне ребенка. Конфронтация с искусственным сверхразумом будет иметь только один исход.
отнюдь))

Вариант 1. Родители уничтожают дрон, тем самым объявляя войну Санте.нет
Вариант 2. Дрон уничтожает родителей и, таки, дарит подарок ребёнку.
Вариант 3. Родители плохо воспитывают ребёнка, что бы он не встретился с дроном. Ведь дроны приносят подарки только хорошим детям)
Зарегистрируйтесь на Хабре, чтобы оставить комментарий