Комментарии 9
Это примерно как подписать обязательство делать молотки, которыми невозможно стукнуть по пальцу. Если что-то обладает интеллектом, то оно в принципе не может быть "безопасным, надежным и заслуживающим доверия".
Слово "интеллект" применительно к так называемым «ИИ» применяется условно. Это скорее маркетинговый ход. Но вот тот факт, что мы не можем заглянуть в "мозги" этой машине, вот это опасно.
Но вот тот факт, что мы не можем заглянуть в "мозги" этой машине, вот это опасно.
Ну, этот барьер компьютеры перешагнули уже давно. Программное обеспечение стало таким переплетением абстракций и виртуализаций, что никто не может с точностью сказать, что внутри него происходит. Это выясняется только постфактум - при расследовании очередного глобального синего экрана, взорвавшейся ракеты, упавшего самолета... Пассажирам нет особой разницы, кто их убил - искусственный интелект Скайнет или индусственный интеллект Джон (сокращенно от Джахмачандрапутрасекар).
Замените "безопасный" на "цензурированный", а надёжный на "подконтрольный кому надо". Станет намного понятнее.
Халяльно-кошерный контент от элитных электроовечек...
От такой компании как Apple сейчас, трудно ожидать чего-то безопасного.
Ага безопасного и доверенного для кого надо в США, а для других - ну как пойдет :)
Ну-ну, только как-то забавно называть это безопасным, надежным и заслуживающим доверия, ну только если для "особенных" лиц
Опасение вызваете пункт:
доступ к весам моделей был у как можно меньшего числа сотрудников.
Мне кажется, что он подразумивает закрытость модели. А закрытость - это всегда плохо. Тут разговор не об Эплах. Они излишней открытостью никогда не страдали. Здесь разговор о политике Белого Дома.
Генеративная природа ИИ ведет к тому, что ИИ в значительной степени формируют на информации находящейся в общественном достоянии либо имеющей неопределенную лицензию. Я уже не говорю о случаях, когда используют код со свободной лицензией. Закрытие производных произведений (весов модели) открытой информации - это, ИМХО, зло.
Apple подписала обязательство Белого дома по разработке безопасного, надёжного и заслуживающего доверия ИИ