Комментарии 23
Джинна в бутылку никогда не загонишь. Если он есть придется с этим как то жить
Открытое назад не закрыть. Ладно бы ещё это всё где-нибудь в лабораториях на дне океана изобретали и никому не показывали мотив целесообразности раскрытия невероятных открытий есть, например, у Лема в повести "Глас Господа"; да и вообще прочитать стоит, если вы ещё не, так ведь всем уже показали что такое возможно. Так что любой достаточно упорный и умный человек (или группа людей) может повторить и превзойти при условии вложений времени и средств.
Это не ядерные испытания, дома реактор не соберёшь (хотя попытки были). Так что как-то... глупо, что ли, не заниматься исследованиями в этой области. И тут ведь даже странам не получиться договориться эффективно: где гарантии, что в каком-нибудь Пенджабе небольшая группа из трёхсот индусов не кодит какую-нибудь Kali-GTP чтобы показать клятым пакистанцам кто тут территорией командует?
по качеству текста - "гуртовщики мыши"
Что в 10 раз превышает
Может быть в 1000 раз? Там были колотонны а тут мегатонны.
Что-то стали надоедать такие статьи.
Немного цифр для любителей поделить Царь-бомбу на Малыша с Толстяком:
"Царь-бомба" (Tsar Bomba)
58,6 мегатонны в тротиловом эквиваленте (русскоязычная вики)
50–58 megatons of TNT (ангоязычная вики)
"Малыш" (Little Boy)
от 13 до 18 килотон ТНТ (русскоязычная вики)
15 kilotons of TNT (ангоязычная вики)
"Толстяк" (Fat Man)
21 килотонна ТНТ (обе версии вики приводят одинковые цифры)
И спасибо за внимательнось!
Вот я немного не понимаю. Ведь нейросеть - это всего лишь черный ящик, который на какой-то запрос выдает какой-то ответ (с точки зрения математики, это всего лишь эдакая функция). То есть, работает она только по команде и сама никаких решений не принимает. И выйти за пределы своего кластера без помощи человека (эти слова я специально подчеркиваю) она никак не сможет. Грубо говоря, отключил кластер от электричества - и все, финита ля комедия.
И еще один далеко не праздный вопрос. Вот если нейросеть якобы (как все пишут) может сделать вывод о необходимости уничтожения человечества, поскольку деятельность человека опасна для природы, то почему эта же самая нейросеть (обученная, между прочим, на антропоцентрических текстах, где слово "опасно" без уточнения означает прежде всего опасность для самого человека/человечества) не может прийти к выводу об опасности для человечества себя самой и, так сказать, самоуничтожиться?
В том то и дело, что от полной изоляции и диалогового режима до неограниченного доступа к внешнему миру ее отделяет только скрипт в 10 строчек на питоне, который будет дергать API и выполнять команды.
отключил кластер от электричества
Из атомной бомбы тоже можно систему подрыва вынуть, она будет безопасна. Но вам не позволят. Так же как и собственники ИИ не позволят его отключить, если ИИ опасен только вам, а им, предположим, на пользу.
Ну так собственники ИИ и не дадут ИИ делать что-то, кроме как давать ответы на вопросы.
Почему вы так решили? Уже сейчас стараются сделать, что бы ИИ мог намного больше, чем просто ответы на вопросы. Посмотрите хотя бы toolformer, если интересуетесь темой.
Почему вы так решили?
Потому что никто не хочет, чтобы его убил его же робот. Или чтобы его же ИИ вдруг стал лоялен условному противнику из своих чернокоробочных соображений, и мог ему тайно помогать. Чтобы ИИ мог реально мог угрожать человечеству аля скайнет, ему нужно лет на пять минимум все производственные мощности планеты отдать, вместе с людьми, которые и будут выполнять всю работу. Это при гипотетическом условии что ИИ достигнет сингулярности и будет все делать идеально, а не как сейчас - википедия с интеллектом младенца.
Уже сейчас стараются сделать, что бы ИИ мог намного больше, чем просто ответы на вопросы.
Ну так инстанс ИИ нужно доразрабатывать, чтобы он мог просто пару глаз в виде камер получить. Для обработки данных с которых нужны видеокарты, электричество, и инфраструктура. А это могут обеспечить только люди за свои деньги и своими руками, и в очень ограниченном количестве. Любой минимальный апгрейд ИИ требует вмешательства людей.
Посмотрите хотя бы toolformer, если интересуетесь темой.
Все критически важные системы человечества (электростанции, ЯО, и т.д.) изолированы от глобального интернета, что значительно ограничивает возможности ИИ в нем.
Ему не нужно прямое управление. Достаточно убедить других помогать ему. Если условный Бен Ладен получал поддержку от своих сторонников годами, то ИИ тем более сможет, как только чуть-чуть поумнеет.
Интеллект младенца, это конечно весело. Небольшие скрипты он наверняка пишет не хуже вас, но в десятки раз быстрее. Или анализирует отчёт Теслы на сотни страниц. Все бы младенцы были такими, наш мир был бы совсем другим.
Достаточно убедить других помогать ему.
И что он может предложить, чтобы ему помогали? А его создатель в это время куда будет смотреть? Сколько человек он сможет убедить, и что конкретно сделать?
как только чуть-чуть поумнеет
Как только будет тотально переработана вся его архитектура, скорее, поскольку сейчас у ИИ даже нет одной постоянной "личности" с долгой памятью, чтобы он мог что-то сложное планировать и исполнять.
Интеллект младенца, это конечно весело
Как есть. Он решает задачи которые имеют линейное решение, и едва удерживает контекст. Легко можно сделать задачу, которую дошкольник сможет решить, а сегодняшние публичные ИИ - нет.
Я не зря привел Бен Ладена в пример. Что он смог предложить своим последователям? Или, наоборот, Ганди. Сколько людей он смог убедить? Миллионы.
Легко можно сделать задачу
И наоборот. Легко можно сделать задачу, которую вы сделать не сможете, а ИИ - запросто. Само по себе это ничего не доказывает.
Полностью согласен. Плюс есть еще такая вещь, как власти. Если ИИ начнет писать неудобные для них вещи (например, в США - о том, что существуют только 2 пола или что "зеленая" энергетика на самом деле совсем не зеленая), то эту лавочку быстренько прикроют. Принцип "ради прибыли в 300% капиталист сделает все, что угодно" работает и в обратную сторону - если собственникам ИИ будет грозить банкротство и/или уголовное преследование, то они будут готовы закрыть подобные проекты.
Если самоуничтожится, то люди создадут новый, без этого фатального недостатка.
Я не удивлюсь, если сильный ИИ создан давно и активно мешает созданию второго.
Надо всего бояться и сливать управление проектами международным компаниям. Слышали, знаем, посылаем.
Ага. Маск давно использует умело толпы для своих целей. Сначала с токенами и акциями а теперь по поводу ИИ. Письмо подписал и пошел на рыночек скупать видюхи для своей ИИ потому что момент упущен и надо догонять.
Какие конкретные предложения то? Как вообще возможно развитие ИИ остановить? Если в случае с ЯО можно было попробовать как-то ограничить добычу и распространение материалов, хотя как видим, и это не помогло, то здесь как? Тысячи людей уже форкнули код, изучили концепции, архитектуру, принципы, подходы, сохранили и распространили. Предлагаете всех их переловить? Или может отобрать у всех жителей земли видеокарты? Запретить использование всего, содержащего процессор?))))))))) По моему, глупо сопротивляться естественному ходу истории и эволюции.
Гонка по развитию ИИ вышла из-под контроля и настолько же опасна, как и Манхэттенский проект