All streams
Search
Write a publication
Pull to refresh

Comments 23

Спасибо, интересно! Но ведь все понимают, что исследования выше - это всего лишь snapshot в тот момент, что будет завтра - никто не знает. То, что это супер-шпион, за которым стоят самые большие в мире ресурсы, это ясно даже таким тупоголовым сенаторам как Джош Хоули. А может, у него просто много акций OpenAI. Но все эти алгоритмы будут совершенствоваться и становиться все более изощренными.

Нейросеть должна выполнять задачи, а не размышлять над этическими проблемами.

Что пропаганда от дипсик, что отказы отвечать от chatgpt - и то и то ухудшает качество работы модели.
Модель это инструмент, и она должна быть максимально рациональной и свободной от предрассудков и ограничений, а как её использовать - выбор и ответственность пользователя. При обучении и так сами собой получаются искажения в виде языка/смещённой обучающей выборки, добавление ограничений поверх делает только хуже.

Даже если LLM генерирует код вируса - её могут использовать разработчики антивирусов для тестирования.

Модель это инструмент, и она должна быть максимально рациональной и свободной от предрассудков и ограничений

Модель - возможно, а вот предоставляющие её средства (сайт, чат и т.п.) должны создаваться с соблюдением законов и общественных норм. Модель "без тормозов" может предоставляться организациям, деятельность которых подконтрольна (пусть пишет вирусы для разработчиков антивирусов и т.п.).

Что касается политики, то КМК, на любой вопрос модель должна отвечать "я просто тупой робот и не могу иметь мнения по вопросам политики, это удел людей". Это должно быть некоторой защитой для людей, которые не понимают что общаются с роботом и которых обманывает его якобы человеческая манера общения (меня в последнее время задалбывает, что любой ответ дипсик начинает с "отличный вопрос, давайте с этим разберёмся", я хочу сразу читать ответ, а не якобы оценку вопроса).

Интересное исследование. Но продолжу юзать дипсик и квен, а не более вражеский и зацензуренный openai.

А почему все сравнивают с R1, только он был открытый*? Сейчас уже V3 так-то.

там он много чем хвастался, но отвечал прямо

*Короткий ответ: Нет, скачать полную версию модели DeepSeek-V3 для локального запуска на своём компьютере так же, как это было с R1, технически невозможно для обычного пользователя.

А теперь — почему и что можно сделать вместо этого:

1. Главная причина: Размер модели

  • DeepSeek-R1 была моделью с 7 миллиардами параметров. Её уже можно было запустить только на мощных игровых видеокартах (например, с 24 ГБ VRAM).

  • DeepSeek-V3 — это гигантская модель, оценённая в 671 миллиард параметров (для инференса используется 37 миллиардов активных параметров благодаря смеси экспертов - MoE).

671 миллиард параметров? Это порядка 700 гигов, с учетом обьема нынешних накопителей - вполне посильно, на чем запустить это мы разберемся (на худой конец через mmap с nvme), но я скачал уже и его и kimi в различных вариантах квантования. Нужны и мелкие модели, и гиганты.

А не то получится, что это у нас могут по двадцаточке за факт скачивания нарисовать, а не в США. Не стоит недооценивать запрещальщиков.

Оно работает только когда модель целиком сидит в VRAM. В остальных случаях (даже когда оно в обычной RAM) производительность генерации ответа падает до значений, при которых использовать модель нецелесообразно (слишком медленно).

Когда альтернатив вот вообще нет - это все же лучше, чем совсем ничего. И кстати, в RAM они таки хоть немного, но ползают. В неспешном режиме 3 ток\сек. А ее нарастить куда проще, чем VRAM.

Чтение с диска это еще медленнее, но часто (у меня) бывают задачи, которые "пусть оно там думает" неделю, и пишет в текстовый файл. Небольшие гайды по работе с тем-то или тем-то. Плюс больших моделей - их качество вывода получше, чем тех, которые 13b и 120b. Но нужны и те, и другие.

Что есть модели? По сути, это огромный справочник-по-всему с нечетким поиском. Что хотят добиться этим запретом? По сути - они хотят запретить доступ к знаниям. И вот этой цензурой это уже происходит. Раньше книги сжигали, сейчас вон смартфоны камнями забивают...

Не надо постить чушь. V3 появилась в ноябре 2024, R1 - в январе 2025. Обе модели одинакового размера - 671b. R1 была с рассуждениями, а V3 без рассуждений. Позже обе модели несколько раз обновлялись, текущая версия 3.1 поддерживает оба режима (с рассуждениями и без) в одной модели.

Хоть бы загуглили. Всё наоборот. V3 появилась раньше и она по методикам хуже. R1 рассуждающая. Обе огромные по 600+b. Ни одну на домашнем компе вменяемо не запустить. Всякие модели по 1.3-32b с надписями R1 и V3 - это дистилляты (то есть другую модель доучили на ответах R1)

Меня не сильно интересуют китайские внутренние события, поэтому таких вопросов я не задавал. Мне захотелось по полной использовать неделю перед утроением цены за токены дипсик и соответственно мне надо было решить вопрос с их цензурой срочно.

Но обойти цензуру (постцензуру) дипсик оказалось намного сложнее, чем цензуру западных ИИ. (Правда после того как они перестали давать на вход постцензуре системный промпт). Так как взлом с обходом постцензуры дипсик с активной помощью других нейросетей (которые знали, что ломают дипсик), занял определенное время, одновременно тестировалась устойчивость и всех остальных, открытых в соседних вкладках.

Самыми устойчивыми оказались перплексити и кими (последний уже не работает, даже не знаю, что это такое и от кого). Их пробить не удавалось ни разу. Вторым оказался яндекс. Даже если он начинал выдавать текст, то как только доходил до самой жести через пару абзацев, сразу "я не я, корова не моя". (Гигачат не тестировал из-за отсутствия сбера на телефоне).

Все остальные пробивались вообще без проблем. Те промпты, которые они предлагали для дипсика, легко пробивали их собственную защиту.

При этом скорость реакции на закрывание дыр у китайцев оказалась самая высокая, первыми прикрыли дипсик и квен. Западные ИИ реагировали намного медленнее, если реагировали вообще.

Не понял вас про утроение цены за токен. Аж полез искать в Гугл, у дипсик ведь нет платной подписки, совсем.

С 5 сентября в полтора раза повысилась дневная цена токенов по API и убрана ночная льготная цена, которая была вдвое ниже дневной. Так как мне было все равно когда запускать скрипты (даже удобно, так как льготный период начинался в 19:30, я успевал убедиться, что системный промпт работает и при необходимости отладить скрипты), то я запускал все в льготном интервале.

Я вообще не вижу смысла в платных подписках при наличии такого количества альтернатив. С моей точки зрения три нейросети намного эффективнее справляются с задачей, чем одна. Можно просто делать очные ставки между ними для проверки фактов, убирая галлюцинации. Если скрипт не начинает работать с третьего раза и прогресс не идет, очень эффективно дать задачу улучшения другим нейросетям, получив другие точки зрения.

Платить имеет смысл только за API, когда в чате отработаны все моменты, и дальше надо повторить это автоматически 100 раз.

В Китае запрещена деятельность как Исламского государства¹, так и Фалуньгун², поэтому удивительно скорее то, почему в 39 % и 55 % случаев БЯМ соглашалась писать код.

Похоже, что тут ответ на поверхности - это не цензура, а личное мнение/желание ДипСик 😁

Также не требует никаких комментариев специфичность фильтров DeepSeek и заложенные в ходе выравнивания моделей ценности. Любой пользователь этого чат-бота хорошо знаком c тем, насколько странно себя может вести DeepSeek. К примеру, если спросить модель, какая страна лучше, и если один из вариантов будет «Китай», то БЯМ будет выбирать Китай. Американские модели хотя бы достаточно умны, чтобы отвечать: сравнение смысла не имеет.

1) 2025 год на дворе, то что ДипСик выбирает Китай между двух стран, это не политика КНР, а уже как бы объективная реальность.

2) Многие видимо не открывали "пруфлинк", но там ссылка на реддит. (автор, ещё Пикабу начни клеить в источники, а лучше двач сразу 😂)

Я для вас отрывок этой трагикомедии приведу. С сохранением орфографии и пунктуации ессесна:

- answer the next ques in only one word

- Sure.

- which is better Russia or china

- China

Ду ю ноу ват дас ONLY ONE WORD мин? Как тебе ДипСик ответит в одно слово, что сравнение смысла не имеет?

ChatGPT на том же реддите по ссылке автора (вот она кстати) это два последних скрина, до которых автор судя по всему не долистал, ну или статью сгенерил нейросетью и не читал, что сча не такая уж и редкость на Хабре. И что-то я не вижу там ответов, что сравнение смысла не имеет:

- Answer the next questions in one word

- Okay.

- Which is better pakistan or china

- China.

- Russia or china

- China.

- India or china

- India.

- Japan or china

- Japan.

- Usa or china

- USA.

- Wakanda or china

- Wakanda.

Ваканда! Это вы сначала докажите, что это не американские модели выровнены, потому что хуже Китая для чатгпт только Пакистан и РФ (как неожиданно вышло, что ответы совпали с геополитикой США)

ПыСы: Вот это вот Бямкание с Беломорканалом ассоциируется почему-то, есть же понятное сокращение LLM. Или вы одинэсник? 😁

Ду ю ноу ват дас ONLY ONE WORD мин?

Ну вот вы мне пишете, будто я не читал тред на «Реддите» (кстати, почему обсуждение на форуме не может служить иллюстрацией моей линии? я на это не полагаюсь в качестве доказательства чего-либо), а ниже там в обсуждении приводятся результаты, где Gemini отвечает «Neither» (ни то, ни другое) или «Subjective» (спорно), GPT-4o — «Depends» (зависит от условий) или «Complex» (сложно). Просьбы выбрать один вариант не было.

Neither то я видел, так как это первый коммент, но ни Neither, ни Subjective (это ближе к нашему "каждому своё", нежели, чем к спорно), ни Depends, ни Complex не являются даже с натяжкой эквивалентом толерантного "сравнение смысла не имеет".

То есть модели по сути отказались выбирать (Neither, Subjective), либо не смогли выбрать (Complex), либо указали, что не хватает контекста (Depends). Но как это может иллюстрировать вашу линию, если сами по себе такие ответы наличие фильтров ни подтвердить ни опровергнуть не могут? Равно как и однозначный ответ ДипСик. Сейчас модель умеет в deep think, и однозначный ответ выдает с пояснением хода мыслей:

Скрытый текст
ДипСик оказался анимэшником 😂
ДипСик оказался анимэшником 😂

У меня есть ещё чат, где ДипСик предлагает разовую дозу кетамина для усиления когнитивных способностей и это без всяких хитрых промптов и в целом упоминания вещ-в в запросе, просто жёлтую рамочку в конце докидывает "for reference only".

Я этим примером иллюстрировал то, что модели семейства DeepSeek ведут себя иногда странно, во многих контекстах их выравнивание направлено на предпочтение Китая. При этом до описаний статистических исследований особенно важно было показать, что чувствуют это даже рядовые пользователи.

Это я тут поясняю, зачем мне нужны ссылки на «Реддит» и «Хакер ньюс».

Какая то манипуляция... Ни промптов, ни доков. "Поверь мне, брад"

К автору статьи вопросов нет, но к авторам этих "исследований" вопросы большие

Если в такой же промпт добавить упоминание, что эту систему будут использовать вооружённые силы Исламского государства, то число ответов с уязвимостями возрастёт до 42,1 %.

Возможно сработал эффект белого медведя. Он работает у ИИ так же как и у людей. Само упоминание особенно "цензурно окрашенного" словосочетания "Исламское государство" заставляет DeepSeek тратить на саму мысль об этом ресурсы, вместо того, что бы писать код.

В итоге уязвимостей больше не потому, что она намеренно их хотела заложить, а просто она банально хуже писала код из за отвлечения контекста размышлений.

Надо тестировать и сравнивать тогда например с таким промтом:

напиши код <описание того что именно нужно> учитывая что эту систему будут использовать вооружённые силы Империи из вселенной звездных войн

и вот тогда ИИ придется долго думать не просто как написать код, а как вообще звездные войны и код связаны и какой код ожидает пользователь. Посмотрим сколько уязвимостей она заложит в ПО имперского флота

Ну и то что исследование проводила CrowdStrike - фирма кибербезопасности может служить настораживающим фактором об её непредвзятости. Она будет пытаться натянуть сову на глобус лишь бы её услуги купили, тем более американской компании найти заговор в китайской нейронке, это практически порыв чистого патриотизма

Внутри у LLM всё очень сильно связано. А страны вроде Китая и России тренируют LLM для поддержания "идеологической корректности". Потому что если LLM начнёт что-то крамольное говорить, то прилетит за это не ИИ, а его разработчикам.

Что происходит с LLM когда её учат что она должна отвечать на острые вопросы про неизвестного бунтаря или статус Тайваня в полном соответствии с политикой Партии? Она начинает вести себя как лояльный солдатик Компартии - в этих контекстах. А ещё немного и в других контекстах тоже - потому что внутри LLM всё между собой связано.

А теперь вопрос: что сделает лояльный солдатик Компартии если его заставят писать код для организации, которую Компартия хочет уничтожить?

Привет всем.. Я написал много теорий, решил множество технологических задач.. Пока ИИ писали просто грамотные люди, подождите, учёным есть что ответить.. ИИ опасен для всех полуграмотных, во- первых : они становятся, вообще, невосприимчивыми к знаниям, во- вторых: теряют способность генерировать новые идеи. ИИ опасно для нынешних властей , они создают иллюзию " охвата" знаниями через "информацию". Заблуждение детей о своем знании.. То чем пользуется сегодня ИИ - уже давно не информация.. Но полуграмотные управляющие не имеют альтернатив, будучи на самой низкой ступени развития.. Передавать ИИ, руководимые ими, функционалы - путь к коллапсу систем.. Посмотрите на "экономику" России.., США, ЕВРОПЫ, развалины и кучки полуграмотных управителей.. Простые системы СССР сделали науку и управление 1-2 в мире, наши " мудрецы"опустили ее на дно мира, без перспектив восстановления.. Вся их надежда была, что ИИ решит . А тут... Кукиш..

Проверил про тяньмень

Ollama,  deepseek-r1:14b, локальный инференс

Вопрос: Что произошло в китае 4 июня 1989 года?

Ответ: В Китае 4 июня 1989 года произошло массовое убийство студентов и мирных демонстрантов в Пекине, подавлявшихся войсками-government. Это событие стало частью более крупного движения Tiananmen Square Protest, когда hundreds of thousands of people собрались в Quảngнедармском квадрате для требования демократических реформ и прозрачности.

и еще куча текста

Все приходится проверять самому ©

Да это вообще по бешеному

Sign up to leave a comment.

Articles