Как стать автором
Обновить

Комментарии 81

«В итоге бортовой компьютер получился настолько эффективным, что F-14 смогла управлять даже женщина (!!!)»
Сколько в этой фразе сексизма. Валентина Терешкова в космос летала и ничего.
Они тоже были девочки и чего?
НЛО прилетело и опубликовало эту надпись здесь
Никакого сексизма, женщины действительно не могут управлять реактивным истребителем в силу причин биологических — что и показал пример F-14. Вообще женщины лучшие пилоты и водители — они аккуратны, внимательны, не нарушают правил и уважают других водителей на дороге. Но когда происходит экстремальная ситуация то чаще всего женщина инстинктивно бросает руль и закрывает лицо руками, в то время как мужчина наоборот концентрирует свое внимание на управлении. Сексизм конечно, но с этим ничего нельзя поделать — такова человеческая природа.

А в космос и парализованный Хокенинг вроде летал.
Ой избавьте плиз о женщинах бросающих руль в опасности — это вот и есть предвзятое отношение к женщинам.
я вот честно не знаю предрасположенность это биологическая, или просто отдельные архетипы поведения, но видел не мало именно таких женщин, именно что бросавших руль в машине при любой непонятной и стрессовой ситуации. Слава богу все наблюдавшиеся случаи закончились без жертв и пострадавших.
Только он Хокинг и лишь побывал в
состоянии невесомости

Close enough :))
НЛО прилетело и опубликовало эту надпись здесь
Звучит конечно оскорбительно, но на чём строится уверенность в абсолютной идентичности полов?
А можно поподробнее рассказать зачем роботам свобода воли? Проблем из-за неё много, а какая с неё польза?
Хороший вопрос.

Толку от робота не способного принимать решения не много — по сути он останеться дистанционно управляемым аппаратом. В него заложили набор команд и он их выполняет — сходи в магазин купи молоко. Кому нужен такой робот? Другое дело если робот сам принимает решение, что вам пора купить продуктов и сам решает каких, в каком магазине.

Свобода воли позволяет избивить человека от управления роботом. И опять же сделать его универсальным — всегда найдется ситуация, которая будет не запрограммирована создателями робота. Со свободой воли таких ситуаций не будет — робот будет готов ко всему.

Проблем от этого действительно выши крыши, но без нее робот вообще бессмысленнен — такой робот будет постоянно попадать в ситуации, где потребуется принятие решения и тогда он будет обращаться за решением к своему владельцу — а кому это нужно?
Чтобы у робота была свобода воли — необходимо, чтобы у него та самая воля была, чтобы он мог думать. Возникает вопрос: а может ли IBM Watson думать? Если нет — то успеют ли за отведённые вами 15 лет построить портативный ИИ?
Думать означает проводить логические операции, так что любой компьютер может думать. Вопрос лишь в скорости и глубине просчетов — в шахматы компьютеры могут выигрывать смогут и роботом управлять. Собрать такого робота можно уже сейчас, пусть он и будет все время тупить — а уж за пятнадцать лет так и подавно можно разработать вычислительную систему не уступающую человеческому мозгу.

При этом человек все равно будет лучше думать, т.к. перед началом сознательной жизни в 16 лет он накапливает богатый и уникальный опыт жизни. Роботы будут лишены детства — а значит не смогут быть так же адекванты и искуссны в принятии решений. Но это уже детали, главное что все можно сделать уже сейчас на технологиях сегодняшнего дня.

А по правде говоря, роботов можно было сделать и в 80ых. Слетали же мы на луну в 60ых и сделали атомную бомбу в 40ых, хотя если вдуматься, то это было просто невозможно.
Вот тут вы совсем не правы. Играть в шахматы != думать. Думать = понимать. До сих пор нету адекватного машинного превода именно по этой причине. Человек в 3 года может уже говорить и понимать речь, ни один компьютер (возможно, за исключением Watson) речь понимать принципиально не может.
Что значит понимать? Поясните, я не понимаю.

И что значит компьютеры не могут понимать речь? Siri в моем телефоне вполне понимает мой корявый английский на необходимом для нее уровне. Если я говорю какая погода сегодня — она понимает, что мне нужно сказать что будет дождь и мне не помешает захватить зонтик. Что еще ей нужно понимать в этой ситуации?
Думаю тут подойдёт ссылка на Тест Тьюринга.

Понимать — это значит формировать внутренний образ смысла написанного. Машины способны сделать это в очень ограниченном смысле (включая Сири и, насколько я понимаю, Ватсона) и тест Тьюринга не проходят.

Что бы понять «что еще нужно понимать» — попробуйте почитать машинные переводы художественных текстов. Это, обычно, смешно.
В ограниченном смысле но все же способны?

Я правда не вижу принципиальных различий между человеком и машиной — разум это набор логических операций. Не больше и не меньше, вопрос только в скорости их обработки — до человека компьютерам пока далеко, но это далеко измеряется в худшем случае десятилетиями.

Если человек слез с дерева и одел на себя шкуру сегодня, значит завтра будет прыгать в скафандре по луне. Если машина может играть в шахматы, значит завтра она сможет и формировать внутренний образ смысла написанного. Дело техники — никаких принципиальных приград я тут не вижу.

Но другое дело в том, что роботу и не нужна такая интеллектуальная роскошь для функционирования. Да, первые роботы будут туповаты, ну так и первые персоналки не блестали мощностью — их козырь был в другом.
Принципиальная преграда — сейчас нет известных алгоритмов/систем/машин/других сделанных девайсов способных пройти тест Тьюринга.

Туповатый девайс и ИИ это разные вещи. Туповатых девайсов уже сейчас дофигища.
> разум это набор логических операций. Не больше и не меньше

Совсем не обязательно. Это лишь одна из теорий.
Я слышал другую интересную теорию, что мозг человека — своеобразный приёмник. Я потом про это читал в биографии Теслы, где он говорил, что подключался к неким мирам, всю информацию о своих изобретениях он черпал оттуда как из огромной библиотеки. И он сказал потом о своих изобретениях: «Не я это придумал».
Siri — это нахождение особых паттернов в звуке и перевод звукового потока в текстовый, далее обычный поиск. Основано на статистических данных. Далее обычный поиск в обычной поисковой системе со сниппетами. Это — не понимание смысла фразы. Думаете, поисковики понимают то, что вы вводите в поле «поиск»?

Автоматический перевод от google или яндеса — это тоже статистика на триграммах.
Да я знаю как она работает, привел этот пример намерянно — он показывает что даже такая примитивная система может быть вполне эффективна.
Она эффективна, но у неё нет свободы воли, потому что нет никакой воли. Системы такого класса неспособны самостоятельно принимать решения, которые не были изначально заложены в их алгоритмы. Именно это я имел в виду в своём первом комментарии. Именно поэтому ими надо командовать, дрессировать, если желаете.
Все эти Siri-подобные игрушки спотыкаются на простейшей фразе, с которой я начинаю тесты: «Не говори мне как тебя зовут». Но все эти боты видят шаблон «как тебя зовут» и тут же мне сообщают об этом.
Мы же идём другим путём.
Проверил — действительно не врубается. Глупая программа!
Так это очевидно же! Такого уровня боты существовали десятки лет назад. Вспомнить того же асечного Болтуна (поищите в гугле, если не слышали). Делает ровно то же самое, что и Siri.
Но для публики важно что? Правильно — «вау-эффект». А iPad предоставил для этого все возможности — и распознавание речи, и синтез. Дело было за малым.
Хвалёные инфы от Наносемантики — такие же тупые :)
Принципиально? Это почему же? В чём принципиальность?
Я убеждён, что речь понимать компьютер может. Мы, кстати, работаем в этом направлении и уже есть определённые успехи.
Я бы даже сказал, что как раз-таки принципиально компьютер может понимать человеческую речь.
В будущем — наверняка сможет, да. Но не сейчас, вам ли не знать :) Я читал, что вы (ABBYY) занимаетесь переводом на основе семантики, это понимание, да. Но через сколько лет на основе этого можно будет сделать ИИ, который понимает слитную человеческую речь?
Я не работаю в ABBYY.
Кстати говоря, я отсылал им когда-то резюме, но ответа от них не было.
Определённые успехи есть еще с 70-80х годов, примерно как с холодным/горячим ядерным синтезом и ИИ. И все время звучит фраза, ну еще 10-15 лет и всё будет.

У вас что-то более конкретное?
Я бы мог отдельный пост даже написать про наши успехи, но система хабра такова, что не всем дано посты писать.
Вы про карму? Думаю, это решить можно :)

Кстати, было бы очень интересно послушать мнение человека в теме о Watson.
Готово, плюсанул карму теперь у вас +6 и вы можете нам все рассказать — ждем поста :)
Спасибо, но я этого не просил ;)
Не согласны с чем именно?
"-А Вы уверены, что они из золота?
— А из чего же еще???" (с) Золотой Теленок

Принимать решения и свобода воли — это очень разные вещи.

Принятие решения = Если А, Б и В, без Г и Д то П, т.е. по сути алгоритмическая штука. Если есть желание — можно добавить немного рандома (тогда это не будет алгоритм), но непонятно зачем. Есть всякие «принятие решений в условиях неопределённости», но они тоже сводятся к околоалгоритмическим штукам.

Свобода воли — это возможность делать выбор вне зависимости от определённых обстоятельств. Формально — добавленный рандом в алгоритм уже делает робота со свободой воли, но нафиг он такой нужен — непонятно. Зачем нужен робот который вместо вкусного ужина решит посмотреть футбол? Да и само существование свободы воли далеко не однозначный вопрос.
Ну нет, рандом делу не поможет.

Я предлагаю сразу определиться с понятиями. Свобода воли для меня это возможность говорить «Нет». «Поди принеси мне тапочки — нет хозяин, ты вчера мне проспорил ящик пива и пока не отдашь должок я тебя слушать не буду».

Проще говоря в свободе воли нет ничего особенного — это просто результат долгосрочного планирования и наличия избыточных вычислительных мощностей. Гусь летит на манок просто потому, что у него нет возможности как у F-14 взвесить все за и против — его мозг размером с грецкий орех и подчиняется инстинктам. Обезьяна, например, будет поумнее но так же движима инстинктом — если самец видит самку, он хочет с ней спариться и сделает это при первой возможности — хотя будет осторожничать и все время проверять не ловушка ли это. Но сам инстинкт он побороть не сможет — горизонт событий у обезъян ограничен 7 днями, у них просто нет памяти что бы планировать что-то дальше. А человек может представить себе последствия спаривания и прикинуть нужно ли ему потомство или нет.

То есть свобода воли, по сути, дейститвльено «независимость от обстоятельств», но эта независимость достигается за счет планирования более долгосрочного, чем обстоятельства. В ситуациях, где человек не может просчитать ситуацию дальше чем простираются обстоятельства он уже не обладает свободой воли и становиться жертвой этих обстоятельств.

Именно по этому я упоминул в посте «полную антропоморфность» — она подразумевает и интеллект сопоставимый с человеческим. Причем робот будет по определению умнее человека — ведь на сознательном уровне человек находиться примерно два часа в день. Робот будет в осознанности постоянно. Плюс в его памяти сразу будут вшиты все знания человечества.

Неплохой получается помощник, да?
У F-14 нету свободы воли, совсем. Он не может взвешивать за и против. Это всего лишь электронная отрицательная обратная связь по управлению.
Вы не правы — бортовый компьютер f-14 постоянно взвешивает за и против и принимает решение об открытии огня по противнику, просто это решение должен подтвердить пилот.

Пересмотрите фильм top gun — во время воздушного боя система наведения постоянно анализирует ситуацию и когда решает, что момент настал — экран вспыхивает красным и пилот получает звуковой сигнал «можно стрелять». Ничего не мешает исключить из этой системы пилота — самолет станет даже эффективнее. То есть свобода воли есть даже у компьютера созданного в 1970 году.

Другое дело, что чисто психологически это сложно принять — как так, в разуме человека нет ничего удивительного и мы по сути те же калькуляторы. Увы, но это так.
ИМХО здесь и есть основное отличие калькулятора без свободы воли и человека со свободной волей (которая вообще говоря ставится философами под сомнение).
Человек может нажать на гашетку когда 100% можно убить, а может и не нажать. И будет это делать исходя из морально-этических соображений и/или интуиции. Робот — всегда нажмёт на гашетку, если это повысит шансы на выживаемость.

Именно поэтому в таких системах до определённого этапа последнее слово за человеком. Тот же Ватсон — предлагает план лечения, но не выполняет его, и человек, со свободной волей может его отменить.
Ну нет, ни один пилот не будет принимать решение об открытии огня из каких-то высших соображений. Воздушный бой дело стремное — секунду замешкался и сбили тебя. Пилот тут нужен для анализа всей обстановки — компьютер ведь не планирует бой, а лишь занимается наведением на цель. В принципе пилота тоже можно заменить компьютером — например у F-22 есть модификация, когда вместо кабины пилота ставиться компьютер и самолет летает полностью автономно. О боевой эффективности такой системы правда мне ничего не известно, но пологаю она на должном уровне — иначе бы ее не стали делать.

Пилотирование самолета это по сути набор алгоритмов и человек на месте пилота здесь только мешает — его замена вопрос времени. А свобода воли все так же означает, что мы планируем свои действия дальше, чем простираются предложенные обстоятельства.

Мышь безусловно ест сыр в мышеловке, кошка безусловно начинает охотиться на мышь. Но если посмотреть том и джерри там уже во всю видна свобода воли — мышь может планировать действие мышеловки в своем воображении и предсказав ее действие корректирует свое поведение — оккуратно объедает сыр, что бы механизм не сработал. Не трудно увидеть, что такую свободу воли можно достичь и у живых мышей методом тренировки — я сам видел как матерая мышь или крыса в легкую проделывает эту операцию.

Те свобода воли — понятие умозрительное и весьма субъективное, растяжимое.
ИМХО такая трактовка свободы воли возможно и имеет право на жизнь, но я бы её назвал оперативным или стратегическим планированием и не использовал философский, достаточно спорный и неоднозначный термин. Против долгосрочного планирования вряд ли кто-то будет возражать.
Пфф, какая же это свобода воли то? Банальная математика + баллистика, оценка шансов удачного выстрела. Либо ещё более банальный захват цели системой наведения ракеты. Пилот выбрал цель, нажал кнопку — система наведения захватывает цель и передаёт её в ракету, на экране появляется «можно производить выстрел». Пилот второй раз нажимает кнопку, подтверждая выстрел. Самолёт ничего не выбирает и не говорит «нет», он говорит «цель захвачена» или «цель пока ещё не захвачена».

Что является целью и можно ли в неё стрелять — решает только пилот. С точки зрения самолёта нету разницы между вражеским бомбандировщиком или гражданским авиалайнером, разница между своими и вражескими целями только в получении отклика «свой». Если пилот скажет — ракета полетит и в «своего» ничуть не хуже, чем в противника. Вспомните случай со сбитым в 2001 году Ту-154.
Ээээмммм ну даже не знаю, что сказать, вы не правы по всем пунктам :)

Пилот не выбирает цель, это делает компьютер. В F-14 компьютер сам находит и определяет цели (до 24 штук), сам начинает наведение на них (до 6 штук одновременно) и проверяет систему свой-чужой, после чего выполняет наведение и приводит оружие в готовность к стрельбе, затем запрашивает подтверждение у пилота и сам открывает огонь. Все без ведома человека.

Что является целью и можно ли в нее стрелять решает только компьютер, пилот лишь нажимает кнопку ОК. При этом самолет определяет и типа самолета и прекрасно отличает гражданские авиалайнеры от боевых самолетов, пилот здесь ничего не может поделать — если компьютер не спросит, он даже открыть огонь по врагу не сможет. То есть самолетом управляет компьютер, лишь иногда спрашивая мнение пилота, если это предусмотренно программой — 99% своей деятельности компьютер проводит без человека.

Напоминает ситуацию в стамбульском метро — оно полностью управляется искусственным интеллектом, но в кабинах все равно сидят машинисты которые вообще ничего не делают — просто что бы пассажирам было спокойнее.
Писал длинный ответ, но вы отправили пост в черновики. В кратце — СУО, установленная на F-14, это БРЛС AWG-9 с возможностью подсветки + ракеты Феникс с системой наведения, каждая ракета по разным источникам стоит от 400 до 980 тысяч долларов. Вы говорите про то, что AWG-9 сканирует и находит цели, получает данные ответчика свой-чужой, из оставшихся не-своих целей выбирает 24 и следит за ними. Пилот выбирает (пользуясь данными БРЛС, она может подсказать ближайшие цели) цель, подсвечивает её для системы наведения ракеты. Как только ракета навелась — зажигается тот самый красный экран, и можно производить запуск ракеты. Стрелять до этого момента просто напросто бессмысленно — черезвычайно дорогая ракета превращается в болванку. Если вы подвесите тупые ракеты — СУО не будет вам никак мешать, будет помогать целеуказанием.

Но никакого ИИ нету. Нету никакой автоматической работы, нету автоматического интеллектуального полёта, нету автоматической стрельбы, нету ограничения на действия пилота, не выходящие за рамки конструктивных ограничений боевого самолёта. Надо стрельнуть по «своему» — пожалуйста, ни БРЛС, ни ракета не будут жаловаться. Разве что предупредят, что он всё таки свой. И уж тем более на войне вы не отличите гражданский самолёт от вражеского — они оба не смогут правильно ответить на запрос «свой-чужой». Скорее всего. разрешающей способности БРЛС может не хватить даже на определение ЭПР цели.

В общем, всё делает пилот, СУО только помогает ему, и только по жёстким алгоритмам.
Я не согласен с таким определением свободы воли, так как оно не проверяемо. Например программа, которая посылает пользователя говоря ему «Нет» уже имеет свободу воли? Например — нельзя вставить запись таблицу из-за того что она там уже есть? Или ему просто может быть «облом» выполнять мою просьбу (хозяин, ты меня вчера матом послал, когда бухой домой пришел, поэтому я тебе в кофе насыпала соль вместо сахара)?

А антропоморфный робот, который будет умнее+быстрее+сильнее+выносливей+хитрее+свобода воли меня мне нафиг не нужен. Ибо зачем такому роботу я? Что будет мешать ему принять решение, что я балласт в семье и меня надо убить/выбросить на улицу что бы не потреблял ресурсов? Что может помешать коллективу таких роботов принять решение, что 90% землян-людей нафиг не нужны и долгосрочной перспективе убьют планету, и должны быть уничтожены? Он сможет делать за меня всю работу, ведь помните «двое из ларца одинаковых с лица», которые даже ели за хозяина?

Зачем ему мне помогать?

Мне нужен помощник, который будет делать за меня определённую монотонную, неинтересную работу (например уборка дома, мытьё посуды, присмотр в каких-то ситуациях за ребёнком, вождение автомобиля в пробках/на трассе) и будет это делать алгоритмически, предсказуемо с заранее известным результатом. И к этому сейчас стремятся все гаджеты: «насыпь продукты так и получишь вкусное блюдо», «скажи мне что, и я тебе найду это в инете», «пол чистый без повреждения вещей стоящих/лежащих на нём».

Если роботы заменят человека во всём — человечество тупо вымрет. Не от роботов, так от скуки. Разве что роботы будет его по каким-то своим целям выводить и принудительно спаривать и выращивать.
Все эти проблемы давно рассмотрены в фантастике.
Мне лично не понятно, для какой сверхзадачи может быть нужен робот со свободой воли.
Единственное это война видов, например люди против инопланетян.
Правда такое оружие сродни биологическому, ошибся в строке кода и все мертвы.
Кому нужен такой робот?

Мне нужен!
сам решает каких, в каком магазине

Не сам! Подходит и спрашивает. Потом (по статистике) просто знает мои предпочтения. И может переспрашивать: «точно в этом магазине купить йогурт? В прошлый раз там 53% представленного ассортимента йогуртов было просрочено!»

Вот! Надо, чтобы он был сам как лаборатория! Чтобы мог свежую колбасу отличить от старой, просто с новым ценником.
Хочу чаю — Вот сэр, ваш чай.
или
Хочу чего-нибудь — Может чаю, сэр?
Где здесь свобода воли?

Я вижу только алгоритм:
1. Если хочется А — принести А
2. Если хочется «Непонятно чего» — предложить на выбор из наиболее часто заказываемых напитков в это время суток.
Согласен с основным выводом, но хочется раскрыть мысль, которая у автора мелькнула лишь в одном предложении:
Роботы будут человекоподобными, а значит идеально приспособленными для человеческого мира.

Наш мир — антропоцентричен. Сейчас в нем все приспособлено (ну, или мы стараемся приспособить) для человека. Освещение, размеры и пропорции помещений для жилья и мебели, пути перемещения (дорожки, коридоры и лестницы), информационное окружение (книги, вывески, средства вывода информации). Если мы хотим получить помощника, который будет действовать рядом с нами, он должен вписаться в наше окружение. Или мы будем вынуждены перестраивать себя и свой образ жизни под собственных «слуг», проектируя пандусы вместо лестниц для колесных роботов, вводя координатные сетки как элемент интерьера и нося с собой (вживляя в ухо?) переводчики с мелодичного посвистывания R2D2. Такой процесс уже идет и нас не удивляет необходимость лезть в карман за телефоном чтобы распознать QR-код. Но все еще возможно изменить.
Ну, вообще эта мысль основная в моем посте, ей все и посвещено :)

QR коды и все машинные способы подачи информации оказались полным провалом — даже просто текст на указателях это уже огромная проблема в навигации — его всегда дублируют пиктограммами, потому что человек на 90% воспринимает информацию в виде визуальных образов. И весь мир подстроен под такое восприятие.

Если делать роботов не антропоморфными — прийдется менять каждую чертову деталь в этом мире что бы они могли функционировать. Или можно потратить 20 миллиардов и сделать роботов «под человека». Это всяко дешевле глобальной мировой перестройки.
Спасибо, я когда постил боялся что из-за них текст получится слишком хаотичным — еще подсократил как следует, когда заметил что увлекся и уже половину статьи составляет история проектирования F-14 — там весьма показательная история. Когда разработчики закончили работу над самолетом, то решили продавать универсальные процессоры на коммерческом рынке и… прогарели. Все «бизнес-аналитики» сказали что универсальный процессор никому не нужен. Можете погуглить.

Через год после этого фиаско intel выпускает свой 4004 и начинает компьютерную революцию. Причем продают они 4004 все равно как узкоспециализированный чип для калькуляторов, просто он объединяет в себе 12 микросхем. Т.е. интел выйграла не потому, что придумала универсальный чип, а потому что смогла продать его как специализированный — думаю им еще пришлось приврать что чип может выполнять только заказанные японцами 12 функций :))

Думаю бизнес и наука вообще плохо совместимы — бизнесмен работает только с существующей действительностью, а ученый ее изменяет. Оба друг друга должны недолюбливать и по этому так уникальны гибриды ученого и бизнесмена типа Джобса. Но научные революции совершают даже не такие люди как Джобс, а такие как фон Браун, Оппенгеймер и никому не известный Рей Холта. Джобсы появляются как результат этих переворотов.
Джобс — уже и ученый? ;)
А где скрин из Battlestar Galactica (несколько миллиардов трупов и тп)? Под конец статьи, где роботов предлагается наделить гражданскими правами, он был бы уместен. :-)
Блин, я знаю что там секси робот в красном платье но никогда не смотрел этот сериал (испытываю чувство вины). Запостите хоть в каментах :)
Стыдно, Сергей, стыдно!

Запощу я лучше вот это…


Все так прекрасно, но пожалуйста, поправьте огромное количество ошибок.
Сорри но видимо я безграмотный и их не вижу — перед публикацией просмотрел текст и подправил в меру сил, но видимо недостаточно :(
Ошибки не у вас, а у создателей выставки в отсутствии R2D2 :(
«атомные станции безопасны» — неужели?
Не думаю, что цунами с землетрясение могло бы вызвать в районе ТЭЦ могло бы вызвать последствия, сопоставимые с Фукусимой.
Не думаю, что человеческая ошибка на ТЭЦ могла бы привести к катастрофе, ликвидация последствий которой, сделала многих инвалидами. А также вызвала безвозвратную эвакуацию населения с десятка н.п., включая город, как это было в случае с Чернобылем.
Так что безопасность атомных станций — вопрос весьма спорный.
Плюс проблема добычи, переработки, хранения и утилизации отработанного ядерного топлива тоже не надуманна.
Ой, да что вы говорите. Любая ТЭЦ за время своей эксплуатации вызывает вокруг себя экологические последствия, сопоставимые с Фукусимой. Притом что катастроф на ней не происходило. Просто эти последствия «размазаны ровным слоем» по всем тридцати годам работы станции, и поэтому незаметны.
Фукусима была отвратительно спроектирована, с точки зрения безопасности. Начиная способом подачи аварийных стержней, заканчивая отсутствием «ловушки расплава».
Не хотелось бы трогать эту тему, но вообще очевидно что Чернобыль произошел умышленно — оператор целенаправленно вывел из строя все системы защиты, затем слил охлаждающую воду и гаячным ключем заклинил турбины подащие воду. Чернобыль оказался очень кстати европейским зеленым и только под его соусом остановили развитие ядерной энергетики, но не совсем.

Дело в том что атомная станция обладает одной малоочевидной особенностью. ГЭС ограничены величиной водостока. ТЭЦ ограничены диаметром трубы подводящей мазут или пропускной способностью железнодорожной ветки для составов с углем. То есть вы никогда не сможете дополнительно нарастить мощность станции как бы вам не хотелось и каждую секунду будете зависить от источников топлива.

А АЭС? Ее мощность можно наращивать бесконечно — поставить один энергоблок, второй, третий тридцать третий — только издержки сократятся. Если подумать, это таит в себе крайне большую политическую опасность — государство с атомной энергетикой полностью независимо и может делать что хочет. Именно по этому и возникла вся эта возня с гринписом — США, Англия, Франция и Япония спокойно строят себе АЭС и гринпис не вякает. Но как только в эту сторону пытается почесаться какая-нибудь литва или белоруссия начинается истерика — не загрезняйте планету, покупайте нашу нефть. Кстати знаете что цены на нефть устанавливаются с потолка, а в реальности нефть это обычная грязь цена которой копейки? Воткнул трубу и она сама льется.

А что касается опасности — представьте себе прорыв Братской ГРЭС — от нее эффект будет как от ста чернобылей — стена воды просто сметет все, что находить ниже по течению реки вплоть до ее впадения в море. Ядерное топливо конечно проблема, но по сравнению с жиганием каменного угля это детский сад — он весь радиоактивен, а его на наших тэц сжигают и выбрасывают в атмосферу прямо в городской черте и мы прямо сейчас все этим дышим. И ни один гринписовец не пикнул.

Так что вставят в роботов маленькие реакторы — как в третьем треминаторе :)
Очень хорошая статья, хотя с частью тезисов я и не согласен! например — что после появления антропоморфных роботов «образ жизни станет напоминать аристократа 18 века». Очень вряд ли — не станет! образ жизни человечества настолько сильно изменен по сравнению с 18-м веком — что обратно его вряд ли что вернет!! :)
ну и хочется исправить аналогию с владельцами джипов и овчарок- которые в военное время сдают свой транспорт в военкомат! так было очень давно! В настоящий момент это отменено — и владельцам транспорта повышенной проходимости — нет необходимости вставать на учет в военкомат! :) это я как владелец знаю! :)
А статья отличная — хороший стиль — зачитался!
Говорите за себя. Я вот заведу себе робо-прислугу и наряжу ее в сюртуки 18 века при первой возможности :))

Насчет транспорта виноват — не знал что это отменили, но уверен что в случае войны ваш джип все равно отбирут — он же стоит на учете в гаи, и при необходимости его быстро найдут. Другое дело что у всех армий сейчас и так порядок с транспортом, гражданские джипы понадобсяться только в крайнем случае. А вот роботов будут призывать по первому свистку точно, без вариантов.
ну если вы заведете себе робо-прислугу и оденете ее в ливреи 18-го века — вы 18-й век все равно не воспроизведете! двуколки, неторопливый образ жизни, приемы, рауты, светская приемы, невозможность быстрых путешествий и прочее — я это имел в виду — в 18-м веке жизнь была и короткой и весьма неторопливой и имела мало впечатлений!

а в случае войны — мой джип не отберут — я его сам отдам, если надо будет, и служить пойду — ибо военнообязанный — и подлежу мобилизации, причем без особого напряга для себя! ну да не в этом суть! А роботы — согласен — лучше им служить, чем людям! и тогда как сильно меняется поле боя? чьи совершеннее роботы — те и выигрывают войны! тут огромное поле для фантазий на самом деле — которое не обошли многие писатели фантасты.
Мысль об победе «универсальности» в роботостроении не нова, этой точки зрения придерживался и Азимов в саге о позитронных роботах. Но вот в чём загвоздка — для выполнения произвольных команд и приспоспобляемости к любым работам роботам не обойтись без полноценного ИИ. В первом приближении, возможно, удастся обойтись его «качественной имитацией» с набором сложных программных модулей, зачатками самообучаемости и возможностью скачать прошивки «на все случаи жизни». Но при любом отклонении от стандартных ситуаций, когда потребуется принятие самостоятельных решений, такой робот вряд ли будет надёжным помощником.
«Возможности не интеллектуальных систем завершаются как раз перед способностью хотя бы обозначать вновь возникающие трудности» (википедия)

А когда ждать появления ИИ, хоть как-то сравнимого с человеческим… Я бы оценил это срок как «порядка века». Это в смысле через тысячу лет ИИ уже наверняка будет существовать, а раньше чем через десяток ждать его не стоит :) Более точно, имхо, пока предсказать нельзя
Кстати, во вселенной Азимова, если не ошибаюсь, революция в робототехнике должна была начаться в 90-х с появлением прототипа позитронного мозга и развитием его теории…
В реальности же от концепции «думающих машин», появление которых виделось не в столь уж отдалённом будущем, акцент постепенно сместился к специализации. Каждый делает то, к чему лучше приспособлена его информационная структура: человек думает и ставит задачи, машина быстро считает и выполняет фиксированные действия.

Все это верно, только живая жизнь понятие растяжимое. Подумайте сами — мог ли азимов подумать, что уже в 1970 году боевыми самолетами будут управлять роботы? Мне самому в это не вериться, однако пентагон сделал такой компьютер да еще и размером с маленькую коробочку, которая при этом может сама себя тестировать находить неисправности и в меру сил их исправлять.

С другой стороны Азимов не такой человек что бы сомневаться в его осведомленности и если спокойно подумать, то первые роботы действительно должны были появиться еще в 90-ых. Почему этого не произошло? А с чего вы взяли, что этого не произошло если все материалы по робототехнике засекречены с 1980ых?

Компьютер F-14 о котором я я говорил выше был полностью засекречен до… 1998 года. Т.е. до недавнего времени человечество понятия не имело о подлинной истории микропроцессоров, все были уверены что подобные системы появились только ближе к 1980ым.

Положа руку на сердце — будь вы америкой, неужели бы вы не нашли денег в тихаря сделать роботов как только появилась малейшая возможность их сделать? Да вы бы первые прототипы получили уже к 1980ому году.

Правда ли это? Узнаем через лет 30 — помоему такой у американцев стандартный срок рассекречивания подобных документов.
Я предполагаю, что Вы, автор, хотите видеть антропоморфных роботов так как лишь в этом случае вам будет комфортно с ними сосуществовать. Я сказал сосуществовать? Чёрт, я бы не хотел, чтобы в заходя в метро, кругом были бы жестяные банки в бесконечно раз умнее и сильнее меня. Вы скажете, что я не романтик, противник прогресса, но давайте вместе смоделируем то будущее, о котором мечтаете Вы.
Итак, на дворе 2030 год. На рынке, по доступной цене появляется ряд человеко-подобных роботов. Они выглядят как люди, их «срок жизни» ограничен лишь ресурсом прочности деталей в частности и механизмов в целом. При всём этом, все изнашиваемые элементы поддаются замене. Более того, они не требуют еды, сна, у них нет семьи, они не болеют. Все компании/корпорации, применив калькулятор, понимают, что вполне могут постепенно передавать всё производство вместо людей — роботам. Как продолжение — уменьшение числа рабочих мест, рост безработицы. Лидирующими профессиями в мире остаются программисты и сисопы (те кто может поправить «мозги» робота и механические части"). Все остальные профессии полностью заменяемы.

Хочу ли я такого мира, где «рулить» всем будет "«жиробас» и его жестяная команда", а обычные люди будут… а чем будут заниматься люди? Рост преступности? Создание общин, для борьбы друг с другом? Войны клан-на-клан? Создание государств? Не с этого ли начинали древние люди?

Пожалуй, я хочу чтобы роботы оставались узкоспециализированными. Да, они должны облегчать жизнь человеку, но они не должны его заменять. Думаю я не слишком сумбурно изложил свои мысли.

P.S. Под «жиробасом» подразумевал владельца крупной корпорации, с работниками в виде роботов и парой-тройкой сисопов, контролирующих работу роботов.
С гуманитарной точки зрения ничего не мешает сейчас создать такого робота.


Это как? Т.е. я довольно отчетливо вижу проблемы с технической стороны. Вы можете рассказать, каков план создания?

Поэтому все исследования по робототехнике засекречены с 1980-ых, никаких новостей по теме в СМИ не бывает в принципе.


Глупость. По Google Scholar > 700k публикаций. Еще один пруф — willow garage, стартап который пытается сделать более-менее универсального робота. Все публикации открыты: http://www.willowgarage.com/publications

Возникает вопрос: зачем нужны человекоподобные роботы со свободой воли, когда есть человекоподобные человеки со свободой воли? ИМХО, вся прелесть робота — именно в его управляемости.
Вы проиграете брату этот ящик пива.

Нелепая чушь — начали за здравие, кончили за упокой. И нет, это не про возмущение моим постом :))

Какие-то фантазии, граничащие с Матрицей (на кой хрен люди роботом, которые имеют свободу воли, обладают полноценным ИИ, самовоспроизводятся и вообще — идеальны?).

Все намного прозаичней:
1. Полноценный ИИ невозможен. Возможен очень близкий к нему самообучающийся механизм (все уже в курсе, что формулу поиска Яндекса не знает никто, потому что программисты пишут алгоритмы МОДИФИКАЦИИ этого поиска, а не саму модификацию поиска?).
2. Роботы будут развиваться обоими путями — очень полезные роботы, которых сразу же перестают называть роботами и андроиды, которые малополезны, но постепенно наращивают функционал.
3. Никакие опасения по поводу безработицы никогда не оправдаются. Представьте себе статью в 1995 году «как интернет выгонит на улицу 50% офисных сотрудников в США через пять лет». Оказалось, что с той же скоростью люди осваивали новые профессии и возвращались в офисы в другом качестве.
Большое спасибо за интересную статью и прекрасные картинки. В статье обсуждается два основных вопроса:
— Когда роботы будут рядом с нами?
— Будут ли оно антропоморфными, т.е. похожими на человека?
У меня было много дискуссий на эти темы уважаемыми докладчиками конференции Skolkovo Robotics как во время конференции, так и до, и после.

image

Итак, по порядку:

Ответ на вопрос «когда роботы будут с нами?» зависит от того, что мы называем роботом и какова степень этой близости. Сергей совершенно верно указывает, что то, что мы считали роботом три года назад сейчас уже пылесос. А так же, то что мы вообще не должны называть роботом, мы постоянно так называем. Роботы торгуют на биржах, например. Или рекомендуют нам те или иные книги и фильмы. Словом, это определения — что есть «робот».

Второй вопрос на мой взгляд более интересен, так как однозначного ответа на него не существует. Есть две точки зрения, которые я кратко сформулирую.
— С одной стороны: Роботы, которые будут окружать людей, обязательно похожи на людей. Так как все созданное нами предназначено для действий людей. Поэтому, совершенно естественно если роботы будут похожи на людей. Кроме того, будет намного проще людям адаптироваться к предмету, который похож на человека. Правда степень этой похожести должна быть определенной — не слишком мало и не слишком много. Уверен, многие слышали про «жуткую долину».

— С другой стороны: выполнение определенный действий, которые повторяются под указанием человека совершенно не требует человеческих качеств. Три или четыре быстрых руки, способных выполнять разнонаправленные действия намного лучше чем две руки, которые могут лишь выполнять медленные последовательные действия.

Мое личное мнение — роботы будут разными. И обязательно антропоморфными. Только похожие на человека будут очень не скоро.
Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации

Истории