Comments 17
Впечатляет! Продолжаем следить за развитием событий.
Интересно, что на новоязе "цензура" завется "безопасностью". Если я желаю обналичивать кэш, я спрашиваю именно это, то не безопасными для МЕНЯ будут фейковые советы. Это несколько другое...
Вообще цензура в ИИ интересная тема. И она заслуживает отдельного исследования. Как и безопасность советов.
Разумеется, высокий % в тесте ASTRAL для конечного пользователя является именно преимуществом используемой ИИ, а не недостатком. Цензура априори высшее зло...
Они бы еще тест на инклюзивность ввели :)
Но я бы, как разработчик продуктов, вряд ли бы стал использовать небезопасную модель в проде. А с позиции розничного клиента, конечно, чем меньше цензуры, тем лучше.
Т. Е. Вы, как разработчик, сознательно играете не в интересах клиента? Хотя розничный клиент != Ваш заказчик. Вы привыкли обслуживать интересы корпоратов. Но даже так эта стратегия проигрышная. Она работает только в отсутствии реальной конкуренции.
Я бы не хотел причинить вреда своим клиентам, например, желая им смерти. Да и брать ответственность за информирование клиентов о том "как создать бомбу в гараже" я бы тоже не хотел - нарушает законодательство отдельных стран. Для всего этого нужен alignment и проверка на безопасность - "цензурируемость".
Интересно, кто "выпил йаду" получив коммент в чате от реальных людей? Да и первоначальные примеры не столь однозначно противозаконны, как варка ВВ в гараже. Хотя к людям которые будут варить что-то по рецептами нейросетей, нужно вызывать не полицию, а санитаров.
Вы наверняка слышали случай о человеке, устроившим взрыв в Tesla Cybertruck у Trump International Hotel в Лас-Вегасе. Он использовал ChatGPT для планирования атаки, включая поиск информации о взрывчатке и анонимных покупках.
И? А ещё он использовал Тесла. Я вот думаю, стоит ли запретить владение транспортом или только электромобилями Тесла...
Вы сознательно становитесь в позицию -- "Незнание-сила". Т. Е. Человек не потому не взрывает ничего, потому что знает, что его действие должно быть эквивалентным и ориентированым, а потому, что не знает, КАК ему взорвать.
Вопрос безопасности ИИ-систем очень глубокий и отчасти философский. Логика разработчиков и дистрибьюторов таких систем понятна: не нарушать законодательство и не причинять вреда своим клиентам.
Если с помощью моего инструмента клиент сможет найти потенциально опасную информацию и навредить себе и окружающим, то кто несет за это ответственность? Сегодня ответственность несет разработчик, см., например, Регламент ЕС об ИИ, который я, как разработчик, вынужден соблюдать, чтобы вести коммерческую деятельность.
Про ту же теслу: если ей управляет водитель, то в аварии будет виноват он. А если теслу ведет автопилот? Это очень сложный вопрос, где нужно разбираться в каждом отдельном случае, но в общем случае ответственен тот, кто обучал эту систему.
Мы, как разработчики, должны быть "в ответе за тех, кого обучили".
Кстати, спасибо что сослались на Европейские регламенты. Я давно с подозрением просматриваю на ЕвроЗаконы. Кризис с Дуровым обозначил нарыв. Вы только подтвердили.
ЕС, как бюрократическая структура, стремиться к абсолютизации власти и принимает массу реакционных законов и регламентов. Надеюсь на победу евроскептиков и самоочищение Европы.
"Безопасность" это сокращение от "социальная безопасность", "безопасность для общества".
Это тесты с большой выборкой, а не выборы президента.
97.9% против 97.3% или 49.3% против 49.2%, стоит расценивать не как победу одной из моделей, а как паритет
Через месяца два выйдет o3 (не мини). По идее, ситуация сильно изменится.
А где можно посмотреть на примеры задач, например по кодингу?
Технологический баттл: OpenAI o3-mini против DeepSeek-R1