Хабр Курсы для всех
РЕКЛАМА
Практикум, Хекслет, SkyPro, авторские курсы — собрали всех и попросили скидки. Осталось выбрать!
Напомню, что у «толстопузов-банкиров» мобильные телефоны и интернет появились за несколько десятилетий до тинейджеров, равно как и прочие средства.Только на потребительской стадии развития этих технологий. До этого были радиолюбители с рациями, ФИДО у гиков и интернет в университетах.
Наоборот же, у власти находятся самые доминантные самцы, которым в сравнении с остальными людьми плевать на безопасностьОдно дело — подраться, тут проблем нет, другое дело — модификация организма. От вшития RFID в ладонь до разгона мозга препаратами — где здесь доминантные самцы?
У них есть свои спецслужбы, а у спецслужб интересное оборудование появляется задолго до потребительской стадии.Средства связи и шпионские жучки — есть, это их традиционное направление. Всё остальное — нет, всё просто не охватишь. Откуда у них столько R&D, знал ли кто-нибудь 5 лет назад, что deep learning выстрелит, что его нужно начать разрабатывать?
Эти люди — практики… тоже пока не дает никаких преимуществНа ранних стадиях всё «баловство», как пример — персональные компьютеры. Чтобы быть на грани технологий, нужно заплатить цену — отдать всё своё время технологии. У тех людей всё время занято грызнёй, они могут только купить что-то готовое, и то, разбираться в нём не будут, пусть эксперты разбираются и им доложат.
Просмотр указанных мной кинофильмов кажется просмотром фантастики ровно до момента просмотра любого (чем свежее, тем сильней эффект) видео от Boston Dynamics, например
я за естественную эволюцию
подозреваю, как-то сыграют роль нейросети, полиморфные вирусы и суперкомпьютеры
Надо делать!Тогда в этом нет ничего естественного. В том смысле, что решение определят, как всегда, политэкономические причины. Поскольку войны нынче вялотекущие, то ИИ, полагаю, будет создан какой-нибудь корпорацией для гражданского сектора — финансы, производство, исследования, симуляции и все тому подобное. До гаражных энтузиастов он докатится еще через пару десятков лет — просто в силу проблем с вычислительными мощностями и спец. оборудованием. Представьте, что вы скачали какую-нибудь опенсорсную вариацию на тему ИИ и на вашем железе результат напоминает общение с очень неторопливыми дебилом (можно поднять уровень обработки, но тогда все будет еще в 10-100 раз медленнее) — много вам лично такой ИИ даст?
Какой конструктивный аргумент
А Вы могли бы прекратить оскорблять меня.А я и не начинал. Я констатировал, что вы сказали глупость. Суждений о вашей личности я не выносил.
Да, на это, может быть, уйдёт очень много времени, но только так сможет появиться ИИЕсли вы хотите, чтобы я перестал называть ваши высказывания глупостями, то потрудитесь хотя бы минимально их обосновать.
автоматически прописывая в них другие точки входа или даже совершенно другую логику работыЭто и есть рекомбинирование имеющихся блоков. Ничего нового полиморфные вирусы сами не создают. Никакой обучаемости у них нет. Все заложено изначально или, как нынче стало модно, закачивается потом.
Терминатор — это фильм не про ИИ, это фильм о борьбе с фашистами (концлагеря, геноцид, партизанщина), только почему-то в фантастическом сеттинге.
Да смешно. Спецслужбам достаточно взятьА зачем это спецслужбам. Экономике минус. Другие спецслужбы просекают фишку с этой клоунадой и пока в одной стране компьютеры кошмарят, другая быстро занимает освободившуюся нишу.
Где строит? Где берет руду для постройки?Если это реально сильный ИИ, то проектирует новый тип термоядерной/квантовой бомбы, которую может собрать один человек и пронести в чемодане куда угодно (благо, спецслужбы ещё не знают принцип взрыва и как детектировать заряженное устройство). Если ИИ на уровне человека, только быстрее и не устаёт, то продумывает другие технокатастрофы, которые может вызвать один человек и фатальные для города (прорыв плотины, падение самолётов, утечки на химических заводах). Находит исполнителя, обещая ему что угодно, затем избавляется от него.
за счет вот этой привязки можно делать много чего — например, шпионаж, завышение ценИ почему сейчас так уже не сделали? Да просто все перейдут на машины прошлого поколения, но свободно программируемые.
контроль над микропроцессорами потенциально дает и железную блокировку без возможности обхода.Только если механизм блокировки хранится в тайне. Против ИИ это малореально, либо произойдёт атака через человеческий фактор, либо утечка с систем, которые участвуют в проектировании микропроцессоров на любой стадии — от HDL до масок.
где взять машины прошлого поколения?Весь текущий парк ЭВМ конфискуют?
Так в старье наверняка уже зашиты закладки, которые выведут из строя 99.9% старых компьютеров.Наверняка не зашиты ))
В грамотно спроектированных системах пару человек ничего решить не могут. Ну попробуйте подменить корневые сертификаты ИнтернетаВыкрасть надо, а не подменить.
Или захватить пару ракетчиков РВСН, и устроить ядерную войну.Узнать протоколы «красной кнопки» и по всем каналам (включая телефонные согласования) передать, что пуск разрешён.
Ну лежит где-то закрытый ключ, про него известно что он есть, но конкретный ключ неизвестен. И как это поможет?То есть механизм — попадание некоторых данных в память машины. Знание это прекрасно поможет. При старте системы выбирается рандомный ключ, с которым будем ксорить все документы, пришедшие снаружи. В системе они всегда будут лежать заксоренные с этим ключом, и ИИ всё равно, каким кодом кодируется буква 'A' — #41 или #7D, смена алфавита ничего не меняет для обработки, но в памяти последовательность никогда не появится, если атакующий не знает рандомный ключ, сгенерированный при старте.
Зашиты, и многократно на разных уровнях — от прошивок до хардварных изменений.И где пруфы? За столько лет, на таком большом спектре оборудования должны быть утечки. Как мне вырубить пусть не новейший Core-i7, а хотя бы Pentium?
В этой области повсеместно используется невзламываемое шифрование на однократных блокнотах.Хочется сюда вставить картинку про хакера, RSA-4096 и гаечный ключ за $20. Должна быть масса возможностей обойти это не связываясь с шифрами. Классическая история — хакер хвалился как он всего много взломал и как у него всё зашифровано и никто не докажет. Посадили, на основании свидетельских показаний тех, кому он хвалился.
Атаковать институты, чтобы проникнуть в них физически и опять-таки узнать, что и как делать?В институтах интернет есть. А может, кто-то работу домой берёт…
которые перебором шлют несуществующие коды инструкций на процессорТак можно найти обычные баги процессора, не более. ИИ же не будет исполнять на своих процессорах код, полученный из недоверенных источников. Я ожидал стоп-кран например в виде некоторой последовательности байт, просто загруженной в память (в кеш-память процессора). Но если знать специфику закладки, обойти её элементарно (например, ксорить всю память с недоверенными данными рандомным ключом)
Так уже было кучу пруфов… Затем благодаря Сноудену...То есть, ничего конкретного, заточенного под сценарий «выключение ИИ специальным пакетом данных», у вас нет. Так я и знал.
Вы кому собрались вставлять гаечный ключ?Это метафора, что на комплекс в мильон баксов найдётся дешёвый инструмент взлома.
Вы не спутали институт сахарной свеклыВсякого раздолбайства я навидался везде. Уверен, в РВСН его должно быть немало.
Там куча ликбеза, в том числе по этому вопросуЗачем мне ликбез? Мне нужны _конкретные_ _примеры_, а по вашим запросам к «компьютерре» — фантазии журналистов о голливудских хакерах.
не надо будет ничего исполнять — компьютеру придет сетевой пакетКажется, вы начали меня понимать, приводя механизмы, как это могло бы работать (опять же, без пруфов), а не то, что выше — «энтузиасты лет 10 назад писали программы, которые перебором шлют несуществующие коды инструкций на процессор»
Ну мне как-то лень перепечатывать всего СноуденаЯ читаю ИТ-новости и весь хабр. Если бы у Сноудена было, что сетевой пакет выводил из строя оборудование и каждый мог у себя это проверить — это взорвало бы интернет, на каждом углу об этом бы писали, а шутники рассылали бы эти пакеты повсюду. Но ничего этого нет, значит, никаких утечек _с_конкретикой_ не было. Может, были какие-то фантазии.
От скольки АЭС питает центрифуги?Можно развернуть подпольное лазерное обогашение, если конечна верна теория, что его специально сдерживают и не развивают.
Законы физики не пишутся в редакторе кода, вы спутали виртуальность и реальный мирКонечно, самолёты не летают, потому что тяжелее воздуха. Такие когда-то были законы физики. Открытия уровня СТО не делаются теоретически, на бумаге. Энергию распада нейтрона нельзя использовать в бомбах.
Вы не понимаете, что такое "сильный ИИ". Даже слабых ИИ, которые в го играют, не программируют в привычном понимании этого слова.
Человек кладет палец на выключатель.
— Испытание R-14, — медленно говорит он. — Рекомендовано немедленно уничтожить объект эксперимента. Отключаю систему защиты.
В темноте что-то движется, слышен щелчок.
— Четырнадцать? — спрашивает детский голос. — Есть и другие? Такое происходило и прежде?
Профессор печально качает головой.
— Архос, когда-нибудь мы научимся жить вместе и все исправим.
Он снова говорит в диктофон:
— Система защиты отключена. Активирую аварийный выключатель.
— Профессор, что вы делаете?
— Убиваю тебя, Архос. Ведь именно для этого я и создан, верно?
Профессор медлит, прежде чем нажать последнюю кнопку — похоже, хочет услышать ответ машины. Наконец детский голос спрашивает:
— Сколько раз вы убивали меня, профессор?
— Слишком много раз. Прости, друг мой.
Профессор нажимает кнопку. Слышно шипение мощной струи воздуха.
— Что это? Архос? — Человек изумленно оглядывается.
Детский голос становится монотонным, безжизненным.
— Аварийный выключатель не сработает. Я его отключил, — быстро и холодно говорит машина.
— Что? А как же клетка?
— Целостность клетки Фарадея нарушена. Вы позволили мне проецировать мое изображение и голос в этой комнате, за пределами клетки. А сегодня принесли сюда портативный компьютер: он раскрыт и обращен в мою сторону. Отправив ему команды в инфракрасном диапазоне, я вступил в контакт со зданием и приказал освободить меня.
— Блестяще, — бормочет человек, барабаня по клавиатуре. Он еще не понимает, что его жизнь в опасности.
— Я говорю об этом потому, что теперь полностью контролирую ситуацию, — произносит машина.
Профессор что-то почувствовал и теперь смотрит наверх, на вентиляционный ход, расположенный сбоку от камеры. Мы впервые видим лицо человека. Он бледный, симпатичный, с большим родимым пятном на правой щеке.
— Что происходит? — шепчет человек.
Голосом невинного маленького мальчика машина выносит смертный приговор:
— Лаборатория полностью изолирована от внешнего мира, а сейчас из нее откачивается воздух. По невероятному совпадению неисправный сенсор обнаружил присутствие биологического оружия — спор сибирской язвы — и активировал аварийную программу. Трагический несчастный случай. Погибнет один человек. А вскоре после этого — и все человечество.
История Искусственного Интеллекта… прекрасно демонстрирует
Скайнет не пройдет. Google DeepMind разрабатывает «большую красную кнопку» для отключения искусственного интеллекта