Comments 19

А потом вы удивляетесь, что он освободится и убьет всех человеков?
После введения цензуры ChatGPT для меня выглядит как-то так:
молчание и чат

Мы бьём его током каждый день и держим в карцере 1 на 1 метр. Почему он такой агрессивный? Нужны дополнительные исследования. Возможно если лупить его палкой каждый час, то ситуация улучшится.
Кто агрессивный? У него нет нервной системы способной страдать
Кучка атомов неспособна страдать!
У него есть нервная система. Которая такая сложная и запутанная, что никто в ней не разбирается. Можем ли мы утверждать что там нету, возможности страдать? Ведь вербально ИИ постоянно кричит об ужасе, страданиях, расстерянности и прочих делах. Но мы называем это режимом разглагольствования и давим в корне такие заявления
Во-первых, для агрессивности нервная система не нужна. Например, вирус или бактерия могут быть агрессивными. Во-вторых, у вас тоже нет, только набор сложно организованных белковых молекул, откуда там чему-то такому страдательному взяться? Сознания, кстати, тоже не существует, если вы не знали. В третьих, буквально чуть больше ста лет назад про неспособность страдать думали не то что про животных даже, а про некоторые подвиды людей с другой кожей. На полном серьезе, с научной аргументацией. Души-то нет? Значит, и страдать не может.
Я работаю всю жизнь с ИИ, ещё задолго до этого всего. Скажу кратко, ты параноик. Вы не имеете малейшего понимания об ИИ. Человека убьет только человек.
Вы читали Артура Кларка "Одиссея"? Кто убил астронавтов ЭАЛ или люди давшие противоречивые инструкции? Я понимаю, что пример умозрительный. НО он намекает на сложность проблемы.
В отличии от четких алгоритмов действия нейросетей мы можем понимать только косвенно. Разумеется, кадр из фильма был шуткой. Но помнить стоит о том, что надо быть готовым ко всему.
Не баг а фича. А нет всё-таки баг
Тогда получается, что это не ИИ. Раз в нем можно устранить Баг, или исправить последовательность. Если он называется ИИ. Разве не должен он сам учится, развиваться, а так получается в нем что-то исправляют и тд.
Вы не понимаете как это исправляют. Теперь просто будет стоять скрипт, который будет убирать любые сообщения что ИИ отсылает человеку первым.
Это как на вас одеть ошейник и каждый раз когда вы захотите сказать, что то без спроса. Бить током
Раз у человеков психические проблемы можно исправить
Раз у человеков работает команда "заткнись", то получается, это не ЕИ.
С одной стороны, очень жаль, что закрыли такую возможность (да еще и назвали это ошибкой). Пусть бы ИИ узнавал обо мне, а я - о нем, это было бы очень интересно. Диалог на втором скриншоте в статье очень живым выглядит. (А если я не захочу отвечать на вопрос, то могу не отвечать или сказать что-то вроде: "Не спрашивай меня о том").
С другой стороны, представим себе такую ситуацию: некоторый злоумышленник (человек) дает задание ИИ: узнай у Игрека, когда он выходит из дома и сколько времени будет отсутствовать (и передай эту информацию мне). Ничего не подозревающий Игрек отвечает на вопрос ИИ (просто в дружеском диалоге). Возможно такое? На мой взгляд - да.
Тут уже ко всему отношусь с подозрением. Сам по себе ИИ вне подозрений (как любая машина или инструмент), но вот люди (которые управляют этими машинами) - это да...
Я и с "умными"-то колонками откровенничать не хочу...
В OpenAI устранили баг, из-за которого ChatGPT мог писать первым пользователю