Обновить
19
Максим@SabMakc

Пользователь

0,7
Рейтинг
5
Подписчики
Отправить сообщение

на контексте <40% для 200к и <10% для 1М модель ведёт себя оптимально.

Т.е. оптимально не превышать 80-100к контекста.

Поэтому я глубоко убежден, что каждая строчка, написанная нейросетью, должна быть отсмотрена. Не понимаю, почему мы считаем, что обязательное ревью для кода, написанного человеком - это дефолт и мастхев, а для нейросети, которая ошибается явно чаще человека, это дело можно пропустить.

Потому как ревью после нейронки - задача повышенной сложности. Код выглядит красиво, ключевые моменты в порядке (в большинстве своем). Ну а баги в самых неожиданных местах прячутся.

  1. У людей меньше галлюцинаций.

  2. Если галлюцинация в тексте от ИИ - значит автор поленился вычитать этот текст. Так зачем мне читать то, что не читал даже “автор”?

Хм… ИИ-генерация в статье про “как поймать ИИ-генерацию”. Иронично ) За весь текст не скажу, но местами - точно )

Там достаточно вручную ссылку открыть в браузере и авторизоваться - и все заработает. Там именно что “браузер сам не отрывается”.

В CI, SSH и headless-средах OAuth не работает - браузер там не откроется.

У вас даже на картинке “посетите по этой ссылке сайт”. Все прекрасно работает, надо только вручную открыть предложенную ссылку в браузере.

Вот-вот. С середины прошлого года он развивается. Но да, на базе gemini-cli, если не ошибаюсь.

Alibaba выпустила Qwen Code в 2026 году на базе исходников Google Gemini CLI.

В ollama как раз q4_k_m по умолчанию используется в большинстве случаев.

У меня база пока небольшая: около 150 заметок разной длины, суммарно примерно 70 МБ markdown-файлов.

Это примерно 512кб на заметку? 512кб - это примерно 250-300 страниц A4. На полноценный роман тянет.

Так в том и гибкость QMK - пробел работает как пробел если его нажать и отпустить. И как fn если его зажать )

Единственное в играх неудобно, пробел часто так или иначе используется. Приходится переназначать клавиши или “нажал-отпустил-зажал” чтобы зажатый пробел сработал как зажатый пробел.

О, был опыт с подобной клавиатурой. И это был мой худший опыт ) Всего несколько часов мучений - и впечатление на всю жизнь )

И да, проблема в том, что я слишком мало с ней работал - привыкнуть просто не успел. Но по отзывал “старожилов”, они и за несколько месяцев не привыкли (фирма просто на все компы закупила такие клавиатуры). Так что тут все очень индивидуально. А главное - выбор должен быть за пользователем.

Лично я под fn выделил пробел ) Очень удобно ))) И под большой палец доп.нагрузка ) F-ки нажимать одно удовольствие.

Пробовал CapsLock - тоже удобно, но мизинец и так нагружен, да и в сложных комбинациях клавиш сложнее прожимать все, что надо ) Так что я на CapsLock сделал Ctrl (помимо переключения раскладки).

Проблем с функционированием как обычной клавиши нет - QMK/VIA позволяют настроить “зажал - слой/модификатор, нажал - работает как клавиша”.

Или радикально менять раскладку. Ортолинейные сплиты просто изначально заточены под эту задачу, им не нужно тащить с собой ограничения связанные с традицией

Сплиты и так радикально меняют раскладку ) У меня же классическая раскладка осталась - за клавиатурой могу работать не только я (для минимальной работы обычно достаточно объяснить “где стрелки”). Да и кейкапы все “на своем месте” - что тоже немаловажно для тех, кто не печатает в слепую.

На 60% сплите это движение убирается - не потому что функции исчезают, а потому что они переезжают на слои. Стрелки, Home/End, медиаклавиши, F-ряд - всё это доступно через слой, без движения рук. Клавиши не пропадают, они просто перестают занимать физическое место на столе.

Все описанные преимущества есть и у обычных 60% клавиатур. Особенно если можно гибко настроить поведение (например, если клавиатура на QMK/VIA).

Руки наконец лежат прямо, а не сходятся к центру, как на стандартной клавиатуре.

А так ли это важно? Я бы сказал, что сведенные вместе кисти рук - даже более естественная поза, чем просто прямые руки.

эффективные менеджеры слегка подзаработали

А когда-то было по другому? ИИ тут ни при чем. Тех.процессы обычно улучшают не потому что “есть куда расти”, а потому что “хуже уже некуда”.

я попросил MODELNAME

Ключевая разница в том, что раньше надо было погружаться в проблему/технологию самостоятельно, а сейчас - достаточно спросить для получения результата за считанные секунды. Экономия времени и усилий на лицо.

LLM хороши для подготовки примеров и MVP - этого не отнять. Для чего-то более серьезного нужна грамотная постановка задачи и нужен тщательный контроль - и выигрыш уже далеко не так заметен.

В подобном размере Qwen3.5-122B-A10B и NVIDIA-Nemotron-3-Super-120B-A12B идут. Но они медленнее будут - активных токенов больше почти в 2 раза. Можно и меньший размер - gemma4 действительно удивляет (при очень скромном размере).

Но надо пробовать на своих задачах - заранее ни кто не скажет их эффективность на них.

Моим высоким стандартам не хватает согласованности между частями текста - только и всего. Чтобы если в начале сказано

И вот в голове простая картинка: я говорю по-русски, собеседник слышит английский.

То и в конце эта идея хотя бы прослеживалась при выборе голоса для собеседника:

Для русского - три штуки. Мой любимый - “Денис”. … Собеседник слышит этого Дениса вместо тебя и у него на лице выражение которое сложно описать словами.

Это самый заметный ляп, но далеко не единственный.

P.S. Для технического текста тут явно не хватает технических деталей.

P.P.S. Хотя, если этот Денис звучит на английском как советский препод - возможно, сложное выражение лица вполне объяснимо.

Такое ощущение, что генерировалось в нескольких разных сессиях с LLM, без согласования деталей и последующей вычитки.

Поправка: справилась как раз Nemotron 3 Nano 30B A3B (unsloth/Nemotron-3-Nano-30B-A3B-GGUF:Q4_K_XL), GLM-4.7-Flash ошибся.

P.S. проверил ту же дату на Nemotron-Cascade-2-30B-A3B (bartowski/nvidia_Nemotron-Cascade-2-30B-A3B-GGUF:Q4_K_M) - ошибся на день, не учел, что 2024 - високосный год )

Что чувствуете, зная, что над этим кодом никто не трудился, никто не проходил через токсичные ревью, холивары, ненависть, выгорание, синдром самозванца, тревогу, раздражение и чувство удовлетворения от того, что все получилось?

А точно страдание является критерием качества кода? А если я страдал, но получил хреновый код из-за незнания каких-то основ? А если я эти основы знал и код написал за час? А если LLM мне сгенерировала хороший код за секунды, который я лично уже проверил за несколько минут?

Да, работать с ИИ-кодом нет желания - кто бы что не говорил, но качество такого кода оставляет желать лучшего. Какие-то прототипы, примеры - да. Но в реальные проекты пускать ИИ нет желания.

Да, при работе с кодом через ИИ/LLM/агентов становится лениво. Да, атрофируются навыки ручной работы. И чем лучше ИИ справляется, тем критичнее становится поймать момент, когда он не справился. Ирония автоматизации во всей красе )

Но что с этим делать пока абсолютно непонятно. Отказать от ИИ? Не вариант, джин уже выпущен. Положиться на ИИ и расслабиться? Тоже сомнительный вариант.

Без иллюстраций, я считаю, тема не раскрыта.

Информация

В рейтинге
2 403-й
Откуда
Россия
Зарегистрирован
Активность