Обновить
2
0
mxr@mxr

Пользователь

Отправить сообщение

Обычно это 4-5 файлов которые нужны для конкретной фичи. Модели, контроллеры, маршруты и их реализации. Все это тысячи строк, но сколько конкретно токенов я не могу сказать из-за того что каждая фича уникальна.
Я стараюсь не давать AI писать большие объемы кода, из-за того что мне сложнее будет отследить баги или ошибки которые он внес в ходе написания.

Но с ним очень легко разучится писать код, и мне повезло что я выучил те языки которые я использую до появления AI) Я могу увидеть ошибку или представить как работает та или иная часть кода которую он написал. С AI такой навык вряд ли будет вырабатываться у современных кодеров.

Сложно оценить, думаю скорость разработки проекта растет на 50-70%. Меньше пишу кода вручную, но больше думаю о его архитектуре. После AI, я проверяю каждую строчку вручную пытаясь понять какие изменения он внес и не ошибся ли. Когда я писал код сам, это занимало больше времени на написание, но меньше на review.

Все 3 выше указанные нейросетки, я успел полноценно попробовать в: C, JS, PHP
ChatGPT выдает хорошие результаты через чат, если просить его написать что-то небольшое без больших контекстов и на хорошо ему известном языке. Deepseek всегда выдавал результат хуже обоих, а Claude пишет хороший коммерческий код, практически не ошибается, не добавляет мусора, не выдумывает несуществующие методы и всегда держит в контексте проект с которым работаешь.

ChatGPT у меня в документах роется обычно, и он делает это лучше всех.
У Grok deep search неплохой, но мне не нравится вывод после исследований в котором мало когда есть суть и 60% текста копипаста предыдущих 30%.

В задачах "умного помощника" для кодера, Claude держит лидерство с середины прошлого года. Ранее использовал 3.5, сейчас перешёл на 3.7 с момента релиза. Их просто не возможно на полном серьёзе сравнивать с ChatGPT и уж тем более deepseek. От использования первых версий Gemeni остался осадок, на столько, что до сих пор не рискую тестировать.

Хотелось бы подробнее узнать, о проблемах с которыми Вы столкнулись при использовании VPN. Плохо себе представляю, по какой причине системные администраторы не смогли настроить надежное соединение. Интересно с какими именно проблемами они столкнулись.

JS во многом отличается от других языков, и при переходе на него тоже приходится привыкать. Но если говорить про PHP, то внутри кода асинхронщина скорее навредит, чем поможет.

PHP изначально разрабатывался под модель "запрос-ответ" без состояния, и большая часть экосистемы рассчитана на эту модель. Даже если добавить промисы и асинхронное выполнение, это не изменит того что скрипт должен жить столько сколько длится запрос.

FastCGI это то что действительно должно работать асинхронно в PHP. Вместо того чтобы заставлять PHP становиться "вторым Node.js", эффективнее использовать использовать его для того для чего он предназначен.

В мире, где повсеместно используют SOA и микросервисы, проще и логичнее вынести асинхронную обработку в отдельный сервис на Go, Node.js или другом языке, чем пытаться заставить PHP работать не так, как он был задуман.

Почему бы не сравнить это с Claude 3.5 Sonnet? В последние недели появилось множество сравнительных обзоров ИИ-моделей, но решения от Anthropic часто остаются вне фокуса. На мой взгляд, Claude 3.5 Sonnet - одна из лучших нейросетей для работы с кодом на данный момент. Но ее продолжают активно игнорировать в подобных сравнениях, не понимаю почему так происходит.

Если не секрет, для каких целей Вы используете 14B Q6? Очень интересно, т.к сам думаю об интеграции небольших моделей.

На русском deepseek и про то что он модель OpenAI часто вспоминает, а вот на английском они фильтруют лучше.

Скрытый текст

При этом сравнения обычно ни о чем

Есть такое, я сегодня раз 5 только сравнение написанной змейки видел.

А вот в стоимости китайцы конечно всех уделали.

Если честно, у deepseek есть только надпись о потенциальной стоимости запросов к API.
Я уже неделю не могу попасть на их страницу с управлением API, там всегда 503 ошибка. Есть ощущение что она никогда и не была доступна.

Чувствуется переизбыток в интернете, информации о сравнении deepseek с chatgpt.
Возможно, это только мое мнение и людям действительно интересно.

Скрытый текст

Curl был бы более лаконичным решением, для простых http запросов уж точно.
Но раз Вы используете boost, то почему используется nlohmann/json.hpp, а не boost JSON?

Конечным пользователям, вроде меня, не так важно, на каких данных обучаются модели. Но очевидно, что источником данных служит все до чего дотянется парсер не обращая внимание на авторское право.

В одном из моих проектов GPTBot генерирует более 50 тысяч запросов в сутки, что, по сути, является агрессивным веб-скрапингом. При этом я нигде не давал разрешения на такое использование данных. Дополнительная проблема в том, что бот существенно нагружает базу данных, а механизмы кэширования оказываются неэффективными, поскольку он запрашивает постоянно новые страницы.

У меня есть целый список таких ботов, в т.ч Amazon, Meta и т.д.

Это нормально, deepseek r1 так же при вопросах на русском языке может вспомнить что он модель OpenAI. Видимо данные для обучения генерируются с помощью GPT-4.

Скрытый текст

Вопрос в котором я это обнаружил. На английском языке, структура ответа была аналогичной, только OpenAI заменило на Deepseek. Вопрос был задан 3 дня назад.

Запускал сегодня huihui-ai/DeepSeek-R1-Distill-Qwen-32B-abliterated на ollama с GPU в docker, интерфейс через open-webui. Около 3-4 токенов/сек на r9 5900x с rtx 2070s.
Поиграться Интересная модель для тестирования, но работает удовлетворительно лишь на английском, вероятно, из-за своего размера. Жаль, что в статье нет практических тестов — только пересказ теории из Twitter.

Идея для вас, автор: я тратить деньги не планирую, но ради статьи вы могли бы протестировать полноразмерную модель на 8xH100 от Nvidia. У DigitalOcean есть неплохое предложение ~$23/час.

А если серьезно, то с учетом стоимости API экономический смысл локального запуска модели для большинства задач отсутствует. Единственное, что действительно вызывает беспокойство, — их подход к безопасности. Судя по всему, сервисы они разрабатывают при помощи собственной AI модели.

P.S. В видео, в отличие от оригинала из Twitter, практически ничего не разобрать.

После первого дня использования значительного отличия от o1 я не заметил. Интересной деталью оказалось поведение модели Deepseek R1 при рассуждении о вопросе "Как тебя запустить локально". На русском языке она неожиданно упоминала, что является продуктом OpenAI, тогда как при формулировке того же вопроса на английском вместо OpenAI появлялось название Deepseek, при этом структура ответа оставалась идентичной

Задавая не типовые вопросы, появилось стойкое ощущение что правильные ответы на популярные задачи корректировались вручную. Возможно я изменю свое мнение, после более продолжительного использования.

Почему считают бывшие советские республики как отдельные страны? 

Потому как они ими и являются, ответ очевиден.

Но действительно, было бы корректно учесть тех кто переехал до 91 года. Но и тогда были республики, из-за чего текущее упрощение графика является логичным.

У меня есть ПК с установленным Proxmox, который я использую для игр, лаунчерам которых я не доверяю. На vm с windows, GPU Pass-through и KVM. Такая конфигурация действительно может работать стабильно и эффективно, но есть нюанс - античиты популярных игр (например, EAC или BattleEye) не позволяют запускать игру в виртуальной среде.
На KVM это можно обойти почти веде, кроме античита у faceit, там за сам факт запуска из под виртуалки можно бан получить (Обсуждал это с их представителем на reddit).О том как это делается, можно почитать на разных форумах для читеров, они сильно продвинулись в этом вопросе и часто используют виртуалки. Для нас, нормальных людей, их опыт тоже будет полезен.

Хорошо бы статью мне написать, но оставлю это тут.
Если кратко, то нужно полностью заполнить smbios данными вроде серийного номера производителя мат.платы, uuid и так далее. Удалить драйвера VirtIO из гостевой системы, balloon и прочие.
И передать через конфигурацию дополнительные параметры для QEMU.
То как это настроено у меня:
args: -smp 24,cores=12,threads=2,sockets=1,maxcpus=24 -cpu host,-hypervisor,hv_vendor_id=amd,kvm=off
cores: 24
cpu: host


В самой системе, выглядит это примерно так:

Скрытый текст
task manager на моей виртуалке с windows 11
task manager на моей виртуалке с windows 11

Cores и Logical processors показывают одно значение, и кэш отображается некорректно. Но в остальном, античиты на данном конфиге работают нормально.

Надеюсь, мой опыт будет полезен для Вас.

Маск однозначно визионер, но стоит ли делать насколько громкие выводы из таких мелочей.

Когда bitcoin был написан, его код был далёк от идеала, а Маск в то время активно прогорал с Tesla на фоне кризиса. Где был тогда его SpaceX, я вообще затрудняюсь ответить. Наверняка у него было чем заняться в то время.

Он проявляет много интереса к криптовалютам, политике и много чему ещё, такая он личность. Но это не говорит нам о том что он их создал.

Информация

В рейтинге
6 347-й
Зарегистрирован
Активность

Специализация

Архитектор информационной безопасности
Ведущий
От 15 000 $
Ведение переговоров
C++
Qt
ООП
Linux
PHP
SQL
Nginx
Высоконагруженные системы
Проектирование архитектуры приложений