Comments 4
Ещё хочу добавить что я вообще не понимаю всю эту историю про безопасность, а именно за счёт этого они вроде как диференцируются от OpenAI. Какой то движ похожий на продажу страховок где главный двигатель принятия решения страх.
Но! Должен признать что их модель Claude значительно лучше умеет в кодинг в сравнении с OpenAI моделями, но понять я это смог только когда начал использовать их модель ежедневно на всех задачах, а именно в моменты когда сервера Антропика перегружены! Приходилось возвращаться в GPT и понимать что это вообще не то! GPT просто не дорабатывает.
Вся «"безопасность"» Claude заключается в его большей степени кастрированности цензурой.
Где GPT-4o достаточно 1-2 ломающих логику запросов, для Claude 3.5 нужно городить целый сюжет, чтобы он выдал то, чего обычно не хочет.
Статья ни о чем. Вода и словоблудие.
Anthropic и гонка к «безопасному ИИ»: что рассказал CEO компании Дарио Амодеи на подкасте Lex Fridman