Comments 14
Если бы ИИ "понимал" язык, ему бы было всё равно, на каком языке общаться. То есть ему нужно было бы просто формулировать свои мысли или идеи на том или ином языке.
А вы понимаете язык?
Я понимаю разные языки. Могу выразить свою мысль на этих языках. У меня не может быть такой проблемы, что на русском я решу задачу хуже, чем на английском (если правильно пойму её, разумеется). Если не хватает терминов, я могу заглянуть в словарь. Словарь мне поможет, потому что я понимаю язык. Если надо будет что-то сделать на малознакомом языке, мне потребуется время для поиска правильных терминов, возможно я допущу грамматические и синтаксические ошибки, но едва ли это может как-то повлиять на качество моего решения задачи.
Для ИИ, у которого есть возможность понимать и обрабатывать естественный язык, не важно, на каком языке ему предоставляют информацию или какой язык используется для коммуникации с ним. ИИ способен обрабатывать и анализировать тексты на разных языках, используя соответствующие алгоритмы и модели.
Однако, у людей могут быть разные предпочтения по языку общения, и для эффективного общения с ИИ может потребоваться использование определенного языка. Кроме того, в некоторых случаях могут возникать проблемы с переводом и интерпретацией смысла текста на разных языках, и в этом случае может потребоваться дополнительная работа для обеспечения правильного понимания и обработки информации.
ИИ действительно может работать с текстами на разных языках, но для эффективного общения между человеком и ИИ часто требуется использование определенного языка, который будет удобен для обеих сторон.
Те же законы Азимова можно прописать как жесткие непреодолимые рамки, как и для любой другой программы
Странный "эксперт", похоже не совсем понимает, что такое вообще нейросети и как они работают.
Но вот подумалось. Опасения связанные с ИИ обусловлены тем, что ИИ может стать, условно, в миллионы раз разумнее людей. И соответственно стать совершенно непознаваемым и неуправляемым.
Но разумность, по крайней мере на текущем этапе, определяется техническими параметрами модели (такими как число параметров). Тогда получается нужно не создавать сразу ИИ с IQ 1000. А создать 900 отдельных ИИ, с IQ от 100 и до 1000. При этом каждый n-й имеет контроль над n+1.
Тогда контролируя первый ИИ, и поручив ему обеспечивать контроль вышестоящих - мы потенциально можем контролировать и 900-й... Ну по крайней мере имеем шанс узнать о проблеме если где-то наверху списка появятся идеи УВЧ.
имеем шанс узнать о проблеме если где-то наверху списка появятся идеи УВЧ.
...за секунду до воплощения идеи в жизнь?
Но вот подумалось. Опасения связанные с ИИ обусловлены тем, что ИИ
может стать, условно, в миллионы раз разумнее людей. И соответственно
стать совершенно непознаваемым и неуправляемым.
"непознаваемым и неуправляемым" это как-то абстрактно, оторвано от реальности.
В реальности на Земле мы имеем конкурирующие группы людей (корпорации, государства), у которых есть традиционные цели: власть, деньги, влияние и т.п. Эти группы будут создавать (или уже создают) свои собственные ИИ для принятия оптимальных решений. Соответственно те, кто будут как-то пытаться ограничивать и контролировать свой ИИ (Ваша идея по n+1), будут в худшем положении и проиграют конкурентам. Выиграют те, кто будет наиболее точно и быстро исполнять указания их Верховного ИИ. Соответственно ИИ автоматически возглавит группу людей, которые захватят власть на всей Земле и при этом будут беспрекословно и немедленно исполнять все его приказы.
Вопрос нужно ли контролировать ИИ или нужно ему подчиняться - я не обсуждаю. У меня по этому поводу свое мнение.
В данном случае я только говорю о том может ли такая стратегия быть шансом сохранить управляемость после наступления сингулярности. Интересно рассматривал ли ее кто-то всерьез, или другие стратегии выглядят эффективнее. Все это в рамках общеизвестных теорий о "злом ИИ", захвате мира и пр.
Вопрос нужно ли контролировать ИИ или нужно ему подчиняться - я не обсуждаю. У меня по этому поводу свое мнение.
Сама попытка контроля ИИ ограничит его скорость развития и эти ветки эволюции ИИ заглохнут. То есть ответ на вопрос "может ли такая стратегия быть шансом сохранить управляемость?" - нет, не может. Точнее группы с управляемым ИИ будут вытеснены/подавлены/превзойдены группами с неуправляемым ИИ.
Повторюсь, мой комментарий к этому вопросу не относится.
Но даже если и так - зависимость может быть сложнее. К примеру, при даже формальном запрете бесконтрольных разработок ИИ, те группы/страны, которые будут этот запрет обходить, очевидно будут сталкиваться с проблемами (проблемы закупки нужных объемов чипов, сложности с наймом персонала, затрудненные инвестиции, проблемы с организацией поддержки сообщества в процессе дообучения, и пр.).
Можно спорить о степени влияния этих проблем, но они явно замедлят прогресс на "этих ветках", который вполне может нивелировать преимущества в сравнении с легальными группами, которые часть ресурсов потратят на контроль.
Куда склонится баланс - неизвестно. Так что утверждения типа "нет не может" - в данный момент бездоказательны.
DEL
Интеллект, в первую очередь, - это способность предсказания будущего и, соответвенно, планирование. Предсказание явно имеет стахостическое ограничение. Поэтому, вероятно, интеллект сильнее человеческого невозможен.
Можно предположить, что основная опасность будет от множества агентов с хорошим интеллектом, которые вместо предсказания начнут прямо влиять на события.
На пороге «нейрозимы» и глобального кризиса — что разработчики систем ИИ думают о будущем технологии