Мой подход кода с поддержкой ИИ заключается в аккуратных, постепенных правках: я обрабатываю небольшие, вполне конкретные участки работы. Думаю, большинство из вас разрабатывают схожие методики.
Мягко стелит.
Всё прошло идеально: за всю поездку не понадобилось ни одного вмешательства в процесс вождения.
Входит в доверие и просит расслабиться.
Раньше нужно было тратить годы на изучение основ программирования, чтобы хоть немного преуспеть, а теперь этого не требуется.
Просит дать ручку погадать на успешный успех.
Вайбкодинг идеален, если вы хотите создать что‑то абсолютно уникальное, чего ещё не существует, — и вам просто хочется «пофантазировать», особенно в какой‑нибудь субботний день.
Врет в открытую прямо в глаза и одновременно делает массаж.
Вы приходите в ресторан, читаете меню — и абсолютно не понимаете, что означают названия блюд. Вам просто нужно увидеть картинки.
Реальные фото блюд в едином стиле ресторана не нужны, достаточно втюхать клиенту левые сгенерированные картинки. Но вы это не говорите вслух т.к. хотите чтобы массаж продолжался.
Честно говоря, было поразительно, что MenuGen в виде прототипа работал столь быстро, а превращение в реальный продукт заняло столько сил лишь из‑за невероятной муторности процесса.
Вы уже в открытую подымаете голос и говорите, что это такой же реальный продукт как симулятор огурца. А втюхать его получается т.к. вместе с ним в комплекте идет массаж. Пытаетесь отказаться от дальнейшего массажа.
Итак, финальная часть моего выступления сосредоточена на вопросе: а можем ли мы создавать непосредственно для агентов?
Для того, чтобы агенты генерировали подобные симуляторы огурца автоматически. Вы с чувством горечи пытаетесь прогнать цыгана.
Андрюха на своем тепловозе опять даванул тапку в пол. При этом он уже и не замечает, что тепловоз-то у него 2ТЭ10 и скоро он пойдет вместе с ним на списание.
Он обнаружил в коде на гитхабе промпты. Люди просто экспериментируют с ллм и это нормально. Но никакого нового языка программирования не создано и никакого прорыва не произошло. Его слова звучат уже как "ай дигиди дидидай".
Это произошло в 2023 году статья MeMOTR: Long-Term Memory-Augmented Transformer for Multi-Object Tracking https://arxiv.org/abs/2307.15700. Сейчас идет адаптация этих наработок.
ЗЫ вчера выложили рассуждающую модель magistral, начал также использовать ее. Получил очень положительные результаты. Модель немного умнее, чем devstral. Но с этой моделью надо быть аккуратным т.к. у нее есть системный промпт, если нужно кастомизировать системный промпт, то надо сначала скопировать оригинальный.
Для квин 3 все зависит от языка. Тайпскрипт она у меня пишет очень хорошо. А вот баш скрипт лучше пишет квин 2.5 кодер. Еще у квин 3 более высокая температура. Но в целом иногда квин 3 дает очень интересный результат и я его использую.
Использовать сервер с DeepSeek-R1-0528 для обычных бытовых запросов наверное нет смысла из-за скорости ответа. Для этого стоит либо использовать модели попроще, например Llama 4 Maverick. Она хоть и туповата по сравнению с DeepSeek R1 на сложных запросах, зато даёт фантастическую скорость в 30 t/s для модели в 400 миллиардов параметров.
Читайте пожалуйста внимательно, что написано на странице модели: 16x17b, 128x17b. Лама 4 - это так называемая неплотная модель. Она представляет из себя 16 либо 128 экспертов по 17b каждый. Поэтому она тупее, чем плотный дипсик, но она может работать быстрее т.к. эксперт может разместиться и работать в рамках видеопамяти даже карты на 16 гб.
В славном городе Дубайск я покупал из амазона 2 карты сапфир радеон 7900 xtx по 24 гб каждая по 1200 долларов за штуку. Бесплатная доставка до отеля. Этого достаточно чтобы крутить llama3.3:70B-INSTRUCT-Q4_K_M.
Недавно мы делали деплой одной модели в продакшен и использовали ovh cloud машина t2-le-90. Стоит 1270 долларов в месяц, имеет 2 теслы v100s по 32 гб каждая.
ИИ чётко разграничивает, где может помочь, а где обязательно нужно к врачу.
Дурь полнейшая. И причём дурь очень опасная т. к. рекомендует не ходить к врачу в некоторых случаях. Ходить к врачу нужно всегда и думать над болезнью вместе с врачем. Потому что даже ни один врач не знает доподлинно как правильно диагностировать и лечить болезни.
В моем случае КЛХ не вызывала изменений в ОАК, биохимия была в норме, онкомаркеры в норме, ни один лимфоузел не был увеличен. Но чисто случайно я обнаружил повышение РФ, пошёл и сдал очень редкий анализ на миоглобин, имунноблоты по миозитной панели, биопсию костного мозга. В итоге обнаружил паранеопластический процесс полимиозит (болезнь Вагнера). Государственная машина закрутилась только тогда, когда я принёс эту папку документов онкологу. Тогда я уже уехал на скорой в диспансер, сделали кт и пошло-поехало.
Автор же предлагает скормить оак с биохимией ллм и к врачу не ходить.
Я страдал точно такой же ерундой где-то лет 8 и все было в норме. А потом сдал ревмафактор и миоглобин (не путать с гемоглобином), оказалось что РФ повышен в 12 раз, а миоглобин в 40 раз. После это сдал КТ ОГК и обнаружил опухоль переднего средостения. Сейчас у меня диагноз классическая лимфома Ходжкина. Лежу я в диспансере на химиотерапии по протоколу BrECADD.
Ребята, не занимайтесь ерундой и самолечением. Ходите регулярно к врачу и заставляйте его делать вам КТ ОГК и ОБП. Вот тогда вы будете здоровы.
Это очередная рекламная статья о курсоре. Она оплачивается. Они отчаянно пытаются втюхать это поделие на территории СНГ. Но ничего не выходит.
По сабжу: уже год как делаю ревью с помощью ллм. Сейчас использую devstral, qwen3 и qwen2.5-coder локально. Контекст для ллм предоставляю самостоятельно, а именно: файлы d.ts всего проекта, импорты для текущего файла первого уровня и файлы со ссылками на экспортированные символы для текущего файла. Ллм активно пишет и правит джсдок, наполняя свой собственный контекст для следующих итераций. Данный подход показал себя гораздо лучше, чем использование векторной бд т. к. он намного точнее составляет контекст: нет вероятности ошибки, информация исчерпывающая и нет лишней информации.
Не использую никакие редакторы кода с ллм в т.ч. виндсерф, курсор и тд, т.к. они предоставляют неверный, вредный и даже мусорный контекст для модели с помощью векторной бд.
Вечером после ухода с работы запускаю код ревью с помощью ллм. Утром разбираю её патчи. В результате 95% патчей - это мусор, и только 5% из них полезные. Кроме того почти все из 5% полезных патчей - это те же самые изменения, которые ллм предлагала вчера и позавчера, но переписанные чуть на другой лад. Поиск полезного патча - это поиск иголки в стоге сена.
Я пробовал саас модели типа гемини про, потратил приличную сумму денег и не увидел никакой разницы с локальными моделями.
Есть ли смысл в код ревью с помощью ллм? Да, но готовьтесь к тому, что для извлечения полезных патчей вам потребуется каждый день перелопачивать гору мусора. Купите себе парочку видеокарт на 24 гб и попробуйте.
Чтобы перекричать шум, Чейз сказал, что инвесторам важно, чтобы они были довольны категорией и «способностью основателя очень быстро адаптироваться и видеть перспективы».
И продолжать сосать деньги инвесторов. План полишинеля.
Когда ллм-ка применялась первый раз - полезных патчей было больше т.е. порядка 10%. По мере интеграция полезных идей количество патчей стабилизировалось на уровне 5%. Количество их уже не снижается, но описывают они разные вариации уже примененных идей. Грубо говоря если сегодня я применил полезную идею, то завтра ллм предложит мне тоже самое, но чуть по-другому написанное. Данный патч я все еще считаю полезным но просто его игнорирую.
Ой да успокойтесь вы. С 26 года наша компания к примеру будет нанимать джунов. Вкатунов мы потихоньку увольняет и набираем толковых.
Когда не разбираешься в теме: ни в ллм ни в сантехнике и разбираться не желаешь. А желаешь... погонять софистику.
Мягко стелит.
Входит в доверие и просит расслабиться.
Просит дать ручку погадать на успешный успех.
Врет в открытую прямо в глаза и одновременно делает массаж.
Реальные фото блюд в едином стиле ресторана не нужны, достаточно втюхать клиенту левые сгенерированные картинки. Но вы это не говорите вслух т.к. хотите чтобы массаж продолжался.
Вы уже в открытую подымаете голос и говорите, что это такой же реальный продукт как симулятор огурца. А втюхать его получается т.к. вместе с ним в комплекте идет массаж. Пытаетесь отказаться от дальнейшего массажа.
Для того, чтобы агенты генерировали подобные симуляторы огурца автоматически. Вы с чувством горечи пытаетесь прогнать цыгана.
Андрюха на своем тепловозе опять даванул тапку в пол. При этом он уже и не замечает, что тепловоз-то у него 2ТЭ10 и скоро он пойдет вместе с ним на списание.
Он обнаружил в коде на гитхабе промпты. Люди просто экспериментируют с ллм и это нормально. Но никакого нового языка программирования не создано и никакого прорыва не произошло. Его слова звучат уже как "ай дигиди дидидай".
Это произошло в 2023 году статья MeMOTR: Long-Term Memory-Augmented Transformer for Multi-Object Tracking https://arxiv.org/abs/2307.15700. Сейчас идет адаптация этих наработок.
Qwen3-235b это неплотная модель с экспертами по 22b. А есть еще плотная на 32b, тягаться с которой наверное совсем туго.
ЗЫ вчера выложили рассуждающую модель magistral, начал также использовать ее. Получил очень положительные результаты. Модель немного умнее, чем devstral. Но с этой моделью надо быть аккуратным т.к. у нее есть системный промпт, если нужно кастомизировать системный промпт, то надо сначала скопировать оригинальный.
А почему по-быстрому не навайбкодили? Почему еще не уволили всех своих программистов? Что-то не так в королевстве.
Да, обычный qwen3:32b без наворотов.
Для квин 3 все зависит от языка. Тайпскрипт она у меня пишет очень хорошо. А вот баш скрипт лучше пишет квин 2.5 кодер. Еще у квин 3 более высокая температура. Но в целом иногда квин 3 дает очень интересный результат и я его использую.
Модели devstral, qwen3 и qwen2.5-coder. Есть еще cogito, но она очень плохо слушается промпта. В идеале купить 2 карты по 24 гб каждая.
Запустите ipex llm с помощью docker compose из мастера. Там оллама последней версии.
Читайте пожалуйста внимательно, что написано на странице модели: 16x17b, 128x17b. Лама 4 - это так называемая неплотная модель. Она представляет из себя 16 либо 128 экспертов по 17b каждый. Поэтому она тупее, чем плотный дипсик, но она может работать быстрее т.к. эксперт может разместиться и работать в рамках видеопамяти даже карты на 16 гб.
В славном городе Дубайск я покупал из амазона 2 карты сапфир радеон 7900 xtx по 24 гб каждая по 1200 долларов за штуку. Бесплатная доставка до отеля. Этого достаточно чтобы крутить llama3.3:70B-INSTRUCT-Q4_K_M.
Недавно мы делали деплой одной модели в продакшен и использовали ovh cloud машина t2-le-90. Стоит 1270 долларов в месяц, имеет 2 теслы v100s по 32 гб каждая.
Дурь полнейшая. И причём дурь очень опасная т. к. рекомендует не ходить к врачу в некоторых случаях. Ходить к врачу нужно всегда и думать над болезнью вместе с врачем. Потому что даже ни один врач не знает доподлинно как правильно диагностировать и лечить болезни.
В моем случае КЛХ не вызывала изменений в ОАК, биохимия была в норме, онкомаркеры в норме, ни один лимфоузел не был увеличен. Но чисто случайно я обнаружил повышение РФ, пошёл и сдал очень редкий анализ на миоглобин, имунноблоты по миозитной панели, биопсию костного мозга. В итоге обнаружил паранеопластический процесс полимиозит (болезнь Вагнера). Государственная машина закрутилась только тогда, когда я принёс эту папку документов онкологу. Тогда я уже уехал на скорой в диспансер, сделали кт и пошло-поехало.
Автор же предлагает скормить оак с биохимией ллм и к врачу не ходить.
Администрация, удалите пожалуйста эту статью.
Я страдал точно такой же ерундой где-то лет 8 и все было в норме. А потом сдал ревмафактор и миоглобин (не путать с гемоглобином), оказалось что РФ повышен в 12 раз, а миоглобин в 40 раз. После это сдал КТ ОГК и обнаружил опухоль переднего средостения. Сейчас у меня диагноз классическая лимфома Ходжкина. Лежу я в диспансере на химиотерапии по протоколу BrECADD.
Ребята, не занимайтесь ерундой и самолечением. Ходите регулярно к врачу и заставляйте его делать вам КТ ОГК и ОБП. Вот тогда вы будете здоровы.
Это очередная рекламная статья о курсоре. Она оплачивается. Они отчаянно пытаются втюхать это поделие на территории СНГ. Но ничего не выходит.
По сабжу: уже год как делаю ревью с помощью ллм. Сейчас использую devstral, qwen3 и qwen2.5-coder локально. Контекст для ллм предоставляю самостоятельно, а именно: файлы d.ts всего проекта, импорты для текущего файла первого уровня и файлы со ссылками на экспортированные символы для текущего файла. Ллм активно пишет и правит джсдок, наполняя свой собственный контекст для следующих итераций. Данный подход показал себя гораздо лучше, чем использование векторной бд т. к. он намного точнее составляет контекст: нет вероятности ошибки, информация исчерпывающая и нет лишней информации.
Не использую никакие редакторы кода с ллм в т.ч. виндсерф, курсор и тд, т.к. они предоставляют неверный, вредный и даже мусорный контекст для модели с помощью векторной бд.
Вечером после ухода с работы запускаю код ревью с помощью ллм. Утром разбираю её патчи. В результате 95% патчей - это мусор, и только 5% из них полезные. Кроме того почти все из 5% полезных патчей - это те же самые изменения, которые ллм предлагала вчера и позавчера, но переписанные чуть на другой лад. Поиск полезного патча - это поиск иголки в стоге сена.
Я пробовал саас модели типа гемини про, потратил приличную сумму денег и не увидел никакой разницы с локальными моделями.
Есть ли смысл в код ревью с помощью ллм? Да, но готовьтесь к тому, что для извлечения полезных патчей вам потребуется каждый день перелопачивать гору мусора. Купите себе парочку видеокарт на 24 гб и попробуйте.
И продолжать сосать деньги инвесторов. План полишинеля.
Когда ллм-ка применялась первый раз - полезных патчей было больше т.е. порядка 10%. По мере интеграция полезных идей количество патчей стабилизировалось на уровне 5%. Количество их уже не снижается, но описывают они разные вариации уже примененных идей. Грубо говоря если сегодня я применил полезную идею, то завтра ллм предложит мне тоже самое, но чуть по-другому написанное. Данный патч я все еще считаю полезным но просто его игнорирую.