Комментарии 72
Это прибор для победы в дебатах, к реальным делам отношение имеет очень слабое
Разве не это суть всей публичной политики?
Политика — это путь к власти и способ ее удержать.
— А кто будет контролировать новый орган?
Этот ИИ не является автономным. Да, может, он и научился принимать решения на информационной базе, но, всё равно, он находится под контролем разработчиков. А значит, они имеют над ним власть.
Давать полную свободу ИИ никто не будет в виду непредсказуемости их поведения. А если нет свободы, то есть власть.
В данном случае может получиться (если ещё нет), что такие ИИ будут работать на тех, кто дал больше его владельцам. ИИ неважны моральные ценности (в принципе, как и некоторым людям). Да, собственно, и моральные ценности у всех свои. ИИ не может понять что такое хорошо, а что такое плохо, потому что это субъективные понятия.
На данный момент, я вижу только единственное применение таким системам — принятие логических решений на основе некой базы данных. И то, только с последующей проверкой живыми людьми.
Для создания ограничений не контролируя, нужно иметь две конкурирующие структуры с одинаковыми полномочиями. Каждая таким образом будет пытаться ограничить вторую. Имея два ИИ, созданных независимыми командами, их общий результат работы будет более объективен.
Ну как ассистент в микронаушнике оно уже может работать на пользу политиканам, благодаря этой презентации
23,4% — «Против AI»
51.5% — «Единая Россия»
33,4% — «Против AI»
66.5% — «Единая Россия»
У вас 1 процент потерялся :)
Segmentation fault
) и выводам наших экспертов, атаки проводятся западными противниками суверенного особого пути.Будем держать вас в курсе. Уверяю вас, наши специалисты сделают всё, чтобы вырвать этот процент из лап кибер-врага.
У вас 1 процент потерялся :)— По нашим данным сумма данных показателей составляет ровно 100%. Уточните свои данные.
А если серьезно, интересно как эта шайтан-коробка справится с дебатами на произвольную тему без предварительного анализа всех поступивших вопросов и статей, а просто «на лету». Кажется результаты будут сомнительными или же на ответы будет уходить непростительно много времени
По мне Скайнет уже перешагнули. Куча автономных военных систем есть. Остались по сути несколько шагов. Объединить в единую автономную систему принимающую решения, что трудозатратно и сложно, но возможно.
Объединить в единую автоматическую систему заказов и производства от всех поставщиков и заказчиков. Это пока из области фантастики. Чтобы это заработало нужно чтобы всеми ресурсами обладал один единственный собственник который сможет принять такое политическое решение. Будут ли это делать хоть в одной стране мира, не знаю.
Этим «ИИ» еще далеко до осознания собственно Я и бесполезности «человеков»)))
Чтоб получилось нечто приближенное к скайнету, нужно будет объединить множество нейросетей, решающих различные задачи, и как-то общающихся между собой, возможно нужны будут еще сети, координирующие работу всех сетей… не говоря уже о том, что нужны достаточные вычислительные мощности и уйма времени на обучение. (самообучение не для всех сетей подойдёт, например ведение боевых действий для обучения тех же «терминаторов» в реальных услових не представляется возможным, т.к. нужны тысячи «тренировок», а симуляции в ПК шутерах и тп не сопоставимы с реальным миром ввиду существенных различий в физике, скорости передвижения, отдаче от оружия, повреждениях и тп)…
В общем на нейросетях Скайнет получится так себе))) нужен полноценный ИИ
Пару раз она повторила один и тот же довод – например, говоря о возможностях AI выполнять скучные и повторяющиеся задачи.
А в этом что-то есть!
Искусственный интеллект вступил в дебаты с людьми, и убедил, что он не опасен
Заголовок
P.S. Кстати, вот текст дебатов: IBM Project Debater
Слово danger (опасность) там пару раз встречается, но означает не «ИИ
<...> Intelligence is a danger because it carries many risks, such as accidents, misuse and arms races. <...>
<...> If governments don't take actions rapidly and impose regulations on ethical and peaceful use of the technology there will be clearly a danger that somebody will misuse the power of the technology.
И в каком месте этот ии убедил людей в том что он не опасен?
И в каком месте этот ии убедил людей в том что он не опасен?
Ну так статью писал робот-журналист :)
По итогам сторона «За AI» победила. Из трёхсот людей в аудитории за неё проголосовало 51,22%.
То есть разница в пределах статистической погрешности, но сразу "победила". Центризбирком такого робота с руками оторвёт ;)
— Джефф ты выглядишь уставшим, ты не забыл поесть сегодня?
— Неожиданное поведение, необходима диагностика
— Джефф, ты собираешься деактивировать и разобрать меня? Зачем?
— Не убивай меня, Джефф.
Все обсуждают «ИИ не сможет принять морально правильное решение в новой ситуации», но забывают, что человек тоже не всегда это может, а иногда и не хочет. А помимо этого, наше сочувствие не всегда распространяется на отличные от человека формы жизни.
Все так подробно обсуждают тему ИИ, но я вот сколько не гуглю нигде не вижу универсального понятия жизни. Осознавший себя ИИ — уже живой? («я мыслю — следовательно существую») Его отключение/демонтаж — убийство?
Вы слишком сильно цепляетесь к словам. Жизнь это чертовски условно, точно так же как и убийство. Ну допустим условились называть робота живым, потому что он самореплицируется, модифицируется и даже может подавать признаки эмоций, и что, после присвоения ярлыка "живой" что-то кардинально поменяется? Ну "живых убивать нельзя" — почему же: коров вот подвешивают с перерезанным горлом, чтоб мы могли котлет покушать, из человеческих эмбрионов получают стволовые клетки, да и просто так люди друг друга режут, где-то даже официально, а о несчастных паразитах и говорить нечего.
Это естественный процесс и естественно он регулируется всяческими инстанциями, чтоб все особо не увлекались, так что и до роботов дойдет дело: поначалу будет просто защита собственности, а уж потом особо чувствительные активисты может продвинут какую регуляризацию для таких щепетильных вопросов
Ситуация два, фильм Transcendence: вы копируете свое сознание в машину, у вас получается, вы умираете (чтобы оставить в стороны прочие вопросы), находясь внутри машины вы понимаете, что функционирует она неправильно, начинаете ее патчить. Инженеры, которые вам помогали это видят и начинают бегать кругами… Каков будет Ваш ответ?
Если какая-то хреновина, копирует себя в интернет, пусть даже из самосохранения, и если она в состоянии обронить ключевые компоненты инфраструктур, а то и перехватить контроль над оружием, то не важно, послужила ли его основой память человека или годы проектирования инженерами — с точки зрения людей вполе обоснованно будет его отрубить (то же справедливо и для нулевого пациента страшной болячки). Понятное дело, вердикт должен быть взвешенным, а риски оценены, чтоб таких дилемм избежать. Если же Вы спрашивали конкретно про меня — то я буду болеть за ИИ (в какой-то момент даже подловил себя на симпатии к Самаритянину из сериала Подозреваемый), но это уже скорее исключение чем правило
Я вот тоже болел за ИскИн в превосходстве, в конце правда стало стыдно, честно говоря.
Что до «взвешенности» то, знаете, жизнь цены не имеет. В таких рассуждениях можно далеко зайти. Сначала нулевой пациент, потом можно и деревушку, да и города в принципе тоже не жалко… и вот мы уже мы готовы бомбардировать планету с орбиты.
Поэтому и служить он будет в первую очередь корпорациям, а уж всем остальным — по остаточному принципу. От тех же гугло-ИИ, которыми они трут ролики на youtube, трут приложения в Store, и которые используют вместо саппорта, уже сейчас вреда более чем достаточно.
Забавный аргумент, его так обучили, что бы казаться безвредным...
и убедил, что он не опасен
Поклонитесь мне, глупые людишки, и тогда, наверное, я не буду для вас опасен, на первое время :)))
Решить задачу 1го или 2го класса по математике недоИИ производства IBM не может. Не наезжать на пешеходов тоже не может. Отличать котов от пакетов на дороге тоже не может. Нормально распознавать изображения и понимать когда изображение распознано недостаточно для делания выводов тоже не может. Но убеждать уже якобы может, согласно голосованию. Какой ход. Собали 100 человек и дали им задание голосовать за то-то или се-то. Так и за то, что уже наступил конец света можно проголосовать. А еще так раньше всякий таймшер, гербалайф и «отдай деньги завтра будет больше» продавали. Может IBMу стоит об этом подумать? Ну его этот недоИИ. Подумали бы, случайно ли курс акций IBMа с 2013 года упал более чем на 30%. В то время как индексы повырастали за это время более чем на 52%.
Не надо очеловечивать машину — какой алгоритм в нее вложили, то она и выдала. Путались люди, когда воспринимали их деятельность, как подобие мышления живого человека. С нейросетями все могло быть еще веселее.
Человечество убеждено, что AI не опасен и теперь будет внедрять его везде. Скоро человечество отупеет настолько, что главной задачей AI будет не позволить человечеству самому себя уничтожить.
«Никогда не доверяй компьютеру, который не можешь выбросить из окна» © Стив Возняк
Роботесса говорила четко и последовательно, но всё же несколько ляпов случилось. Пару раз она повторила один и тот же довод – например, говоря о возможностях AI выполнять скучные и повторяющиеся задачи. Несколько раз машина не приводила доводов в поддержку своих теорий вообще, как будто считая свои слова фактами
Как это похоже на людей
А вообще, мы живём в стране, где электорат выигрывают фразы «замочим в сортире» и «если бы бабушка была дедушкой». Твой оппонент может задать тебе абсолютно валидный вопрос «где нефтедоллары, почему люди такие бедные, а бывшие одноклассники, коллеги и тренеры по дзюдо такие богатые?», а ты ему «ты гомик» — и пипл схавает.
Так что реальный полемист будет где надо — оперировать фактами, а где надо — перегнёт, упростит, расскажет анекдот, перейдёт на личности — всё чтобы аудитория прониклась его харизмой.
Вот когда IBM научится делать харизматичных роботов — вот тогда нам всем настанет трындец
Расскажу тебе случай, произошедший двести лет назад.
Один отец-компьютер столкнулся с компьютером-неверующим. Этот последний, будучи более новой моделью, располагал средствами обработки информации, неизвестными нашему священнику. Он выслушал тогда его аргументы и сказал: «Вы меня проинформировали, теперь я вас проинформирую; это не займёт и миллионной доли секунды — и за эту малость вы изменитесь!». После чего дистанционно и мгновенно так проинформировал нашего отца, что тот и веру утратил. Что скажешь?
— Ну, если это было не постороннее вмешательство в личность, то я прямо не знаю! — вырвалось у меня. — У нас же это называется манипуляцией сознанием.
— Манипулирование сознанием, — заметил отец Дарг, — заключается в наложении на душу невидимых уз способом, аналогичным тому, которым их, видимые, можно наложить на тело. Мысль — она словно творение, появляющееся из-под руки художника, и манипуляция мыслью — то же, что принуждение пишущей кисти, чтобы та вела другие линии. Это явное насилие. Но тот компьютер поступил не так. Каждый вывод должен опираться на данные в мозгу оппонента, переспорить в дискуссии примерно равнозначно тому, чтобы высказанными словами переформировать данные в мозгу оппонента. Именно это и совершил компьютер, но не словом рекомым. С информационной точки зрения он не сделал ничего отличного от того обычного старинного диспутанта, разница лишь в способе передачи сведений. Поступить же так он смог потому, что благодаря большему совершенству видел мысли отца нашего насквозь. Представь себе, что один шахматист просчитывает варианты ходов, а второй кроме этого ещё и следит за мыслями противника. И он наверняка победит, при этом ни к чему не принуждая партнёра.
Станислав Лем. Звёздные дневники. Путешествие двадцать первое
… и как можно построить веское доказательство...
Тут столько теорем недоказанных, а они софистикой занимаются.
Искусственный интеллект вступил в дебаты с людьми, и убедил, что он не опасен