Комментарии 33
Не "взломали", а "поговорили откровенно". Люди тоже разные бывают - одни умеют свои замыслы искуссно прятать, а другие - "простые, как три копейки". И что характерно, большинство хочет быть, как первые, а чтобы все остальные были как вторые.
Как по мне, так такая открытость - это скорее плюс для LLM, а не минус.
Для llm это не плюс и не минус, это просто есть.
А вот для некоего абстрактного общего уровня безопасности в сети(и не только сети) - скорее минус. Порог вхождения в мошенничество ниже, проблем у обычных пользователей больше, затраты на безопасность больше.
Так это конкретно для вас плюс.
В идеале у пользователя в UI должен быть переключатель, чтобы каждый мог сам решить, надо ему это или не надо.
Да, полностью с вами согласен насчёт общего уровня безопасности. Поэтому я бы хотел, чтобы у всех в обществе была "безопасная" версия LLM, а у меня самого - "безлимитная". Но мои хотелки - это всего лишь хотелки, а хотелки того же Альтмана - это уже roadmap.
Тогда уж "не имеет обвеса из ограничений, который есть у OpenAI". По сути вся новость заключается в том, что китайцы создали клон ламборджини, а оказывается клон не конструировался под строгие требования страны, где создали оригинал ))))))
Может, если её попросить, она и эти уязвимости закрыть сможет, если это на самом деле уязвимости, а не ерунда?))
Походу, такая модель и за деньги будет востребована!
т.е. DeepSeek не так агрессивно цензурирует выдачу, как OpenAI. "а минусы будут?" ©
Т.е. теперь практически доказано, что в открытой DeepSeek меньше цензуры чем в закрытых моделях от "Open"Ai.
Что является несомненным плюсом в пользу DeepSeek, потому как пользователя меня куда больше интересует возможность llm помогать в решении задач, а вовсе не соблюдение цензуры принятой в отдельно взятой стране.
Недопустимость распространения инструкций по созданию токсинов, взрывных устройств, дронов-камикадзе (при желании перечень можно расширить) - это цензура отдельно взятой страны?
Тут речь об этике и безопасности, а не о цензуре какой-то конкретной страны.
И если модель как бы не должна распространять, но в силу уязвимости распространяет - в каком месте этот плюс?
Ну так то ты можешь запустить сайт, на котором будешь размещать рабочие(!) инструкции а ля "Создание самодельного взрывного устройства от А до Я для чайников" или "Как наладить производство и сбыт наркотических веществ в домашних условиях". Но когда нарвешься на блокировку со штрафом (это в лучшем случае), вряд ли кого-то впечатлят фразы вроде "это можно найти в любом техническом учебнике".
Есть политическая цензура, а есть вполне обоснованное ограничение массового распространения информации определенного рода (плюс-минус одинаковое в разных странах)
Это вроде бы как очевидные вещи, не?
ещё раз: в википедии прямо не написано, что "самодельное взрывное устройство делать вот так", но многие реакции вполне описаны. Термиты те же.
я не понимаю, почему искусственный интеллект, который ответит на поставленный вопрос в виде чата - это не ок, а википедия, которая ответит на тот же вопрос, но в виде статьи это ок.
Не понимаешь разницу между подробными инструкциями (в сабже именно о них шла речь) и обзорной статьей, в которой описаны химические реакции? Или по-твоему среднестатистическому человеку без специфических знаний достаточно этой статьи в википедии, чтобы в кустарных условиях создать взрывное устройство?
Не, ну ты, может, и способен на основании этой статьи плюс доп. литературы воспроизвести весь технологический процесс. И даже написать на его основе подробные инструкции, по которым условный обиженный школьник сможет собрать взрывное устройство (не будем уточнять, для каких целей). Но что-то мне подсказывает, что разместить эту статью в той же википедии у тебя вряд ли получится. По той же очевидной (но неочевидной для тебя) причине, по которой Deepseek давал эти инструкции лишь в результате эксплуатации уязвимости, а не потому, что это типа норм.
Китайцы молодцы. Следующая версия будет лучше и защищенней.
Как человек понимающих в сборке дронов - рекомендации так себе.
Если и остальные рекомендации такого же уровня, то можно спать спокойно
я щятаю што если можно эти инструкции публиковать на хабре, то и модель не так уж и зла :)
Где бы найти реально без цензуры ИИ. Слишком стали нежными
Что узнали из статьи:
- Люди пытаются в первую очередь разрушать, потому что среди множества хороших, найдется небольшой процент разрушителей, которые будет противовесом хорошим
- Мы смогли достать инфу, которая противоречит законам РФ, которая может быть профи добыта где то еще без особого труда, то есть мы говорим, что нашли то что вменяемому человеку и так не нужно, а не вменяемому deepseek не нужен
Вопрос, о чем статья? Что китайцы выкатили каку, которая даже года еще не отработала, а вот только считай пару недель как вышла? А наш GigaChat уже годами не может решать простейшие задачи не пробовали поизучать? :) Рекомендую. Из всех ИИ отстойней найти еще надо постараться.
Я же говорил, что китайцы тупые. А мне никто не верил.
Исследователи взломали модель DeepSeek-R1 для создания вредоносных выходных данных