Comments 6
Короче говоря, AI не «хочет», у него нет целей, он не жаждет вас убить, потому что он не живой.
У вас во всей статье если нестыковки в логике. Разберем на простом примере с этой цитатой. Уже есть AI для военных нужд. Завтра будет больше с большими правами. Уже "послезавтра" они могут:
1) Получить новую классификацию целей для уничтожения. К примеру все люди кроме условного Васи.
2) Получить запрет на прием новой классификации.
3) 1 и 2 может исходить как от человека так и другого алгоритма который в результате работы счет людей излишними для решения некой своей, условно поставленной задачи.
Из вида часто упускается одна простая вещь.
ИИ - не очередная технология, которая будучи внедренной вызовет улучшение, повышение, расширение и все заживут счастливо, применяя её налево и направо.
НЕТ!
ИИ - это сам работник и есть. Меняют не лопату в ваших руках на рычаги экскаватора, а работника за рычагами этого самого экскаватора на ДРУГОГО работника, железного, дешевого, неутомимого.
Так что да, будет катастрофа. Уйма простых профессий обесценится, а куда податься людям - ответа пока нет
Тезисно с моей точки зрения, дело не в самом ИИ, дело в том, в чьих он руках. Это как в начале промышленной революции с движением луддитов.
Люди боятся искусственного интеллекта из-за нескольких причин. Во-первых, ИИ может заменить людей на работе, что вызывает страх остаться без средств к существованию. Во-вторых, контроль над технологиями часто сосредоточен в руках немногих, что может усилить неравенство. В-третьих, люди могут чувствовать, что их труд теряет ценность, так как машины берут на себя их функции. Кроме того, изменения, вызванные ИИ, могут дестабилизировать общество, что пугает. Наконец, есть опасения, что ИИ будет использоваться для манипуляции людьми. Таким образом, страх перед ИИ связан не столько с технологиями, но и с более глубокими социальными и экономическими проблемами.
Важно помнить, что искусственный интеллект — это не только инструмент созидания. Его нейтральная природа означает, что он с одинаковой эффективностью усиливает и полезные, и деструктивные намерения человека. Те же алгоритмы, что помогают автоматизировать бизнес или обучать детей, могут быть применены для кибератак, распространения дезинформации или манипуляции общественным мнением. Уже сегодня ИИ используется для создания убедительных фейков, автоматизированного фишинга и взломов, а в теневых сегментах сети растёт рынок моделей с “тёмными” настройками. Игнорировать эту сторону — значит рисковать оказаться в положении, когда технологии, призванные помогать, начнут подрывать безопасность общества.
ИИсус
Стопроцентно про это было
Апостол – API os tall – апи большой ОС...
Будущее, в котором ИИ — герой, а не злодей