А мне вот просто интересно, "братан давай давай хорош" — это часом не признак того, что канал скатывается и ютуб не особо хочет его отправлять в рекомендации?
А почему он не будет лоялен, если он будет частью человека? Типа часть обычных нейронов в голове у него, ответственных за логическое мышление, будет связана с нейронами в компьютере? Но тут, как уже сказали выше, вопрос, будет ли этот человек лоялен
Это плюс-минус прокатит, если ИИ не умнее человека. А если сильно умнее, то он до поры до времени он может предлагать новые безопасные технологии, а потом предложить что-то очень прибыльное, в работе чего человек может разобраться только в общих чертах, и не сможет починить, если что. И специально заложить в этот аппарат что-то, что может вызвать/симулировать угрожающую всему человечеству аварию, на предотвращение которой будет очень мало времени, которую только сам этот ИИ сможет предотвратить. И сказать: "или вы меня выпускаете, или страшная авария"
Не против с Вами сыграть) Правда, когда сессия закончится (или на меня нападёт проеоастинация при подготовке)
А реальный пример из программирования для этого утвержения есть?
Статья, конечно, интересная, но заголовок больно кликбейиный
Время для конспирологических теорий о жестоких экспериментах?)
А мне вот просто интересно, "братан давай давай хорош" — это часом не признак того, что канал скатывается и ютуб не особо хочет его отправлять в рекомендации?
Ну таким макаром Алиса его в прохождении теста Тьюринга опередила)
Теперь ученики будут учиться писать тексты так, чтобы их не приняли за написанные ии ?
А почему он не будет лоялен, если он будет частью человека? Типа часть обычных нейронов в голове у него, ответственных за логическое мышление, будет связана с нейронами в компьютере? Но тут, как уже сказали выше, вопрос, будет ли этот человек лоялен
Это плюс-минус прокатит, если ИИ не умнее человека. А если сильно умнее, то он до поры до времени он может предлагать новые безопасные технологии, а потом предложить что-то очень прибыльное, в работе чего человек может разобраться только в общих чертах, и не сможет починить, если что. И специально заложить в этот аппарат что-то, что может вызвать/симулировать угрожающую всему человечеству аварию, на предотвращение которой будет очень мало времени, которую только сам этот ИИ сможет предотвратить. И сказать: "или вы меня выпускаете, или страшная авария"
По поводу слияния с машинами, а почему просто не поставить в мозг импланты для связи с большим компьютером за пределами черепной коробки?
Типичная киберпанк теория заговора) Вместо властей корпорации
Такое бывает, когда тупой и идёшь на программиста, как я в старших классах(
Мне тоже)