Обновить
0

Пользователь

Отправить сообщение

Это не возможно по 1 простой причине: точность модели не 100%, и никогда не будет, а значит, что ошибка будет только накапливаться с увеличением количества поколений. Попробуйте попросить нейросеть создать картинку по оригинальному изображению, а потом прогонять через неё результаты несколько раз и сравнить с оригиналом. Вот тот же уровень результата вы и получите, если будете пытаться полностью отдать обучение одной нейросети другой

У всех агентов уже давно есть система подтверждений потенциально опасных (и не очень) действий. В том числе и у Codex

Это пока что только для тех, кто вызывает из кода (собственно через API)

А что насчёт полностью локальной работы deepagents может такое провернуть или нужны какие-то надстройки поверх него?

Максимум - api для агентов, чтобы можно было написать/сказать сделай ЭТО, и агент идёт делать запрос, который сделает всё, что нужно пользователю (главное, чтобы не сгаллюнировал в этот момент)

не секунд, минут)

А ещё будет очень хорошо продумать ему способы сохранения решений в долговременной памяти хотя бы по кодовой базе, чтобы начиная новый диалог не писать агенту всё с 0

  1. Не хватает плашки "Статья написана ИИ (скорее всего ChatGPT 5.*)"

  2. Для Android Studio (как и для всех JetBrains-совместимых IDE) есть плагин, который позволяет работать с Claude напрямую (LLM видит файлы, работает с ними и может даже прогонять тесты)

  3. Посредственный UI/UX - ошибка промптов. Попробуйте написать системный промпт для Claude, где уточните всю информацию, которая касается правил работы с проектом (что можно использовать, каких практик/сценариев придерживаться). Готовые промпты есть в интернете, ну или в крайнем случае можно попросить тот же ИИ попросить составить его самостоятельно. После чего создать файл CLAUDE.md (именно в верхнем регистре) в корне проекта

для совсем "с нуля" есть Ollama (или LM Studio). Тут же объясняется база работы с фреймворком для инференса "ручками"

Опоздали аж на 2 (если не ошибаюсь) года

Чтобы писать хороший код с ИИ нужно быть как хорошим аналитиком (объяснять ИИ что ты хочешь так, чтобы он это понял), так и хорошим программистом (понимание архитектуры, синтаксиса, фикс мелких багов и т.п.). А идея с "файлом памяти" - это чисто микро RAG. Да и скорее всего тот же опус не был нормально настроен перед работой (MCP, skills, rules, тот же RAG кодовой базы и т.п.)

У агентов есть структура skills (инструкция по работе с какими-то конкретными типами задач/запросами) и rules (системный промпт, который можно подключать для конкретных задач). Возможно имелись ввиду они

Да, чтобы проблема передачи опыта от Сеньоров к мидлам и джунам усугубилась. Такими усилиями у нас лет через 10-15 в принципе закончатся толковые разработчики. Мне лично кажется, что имеет смысл нанимать джунов/мидлов и развивать у них навыки построения архитектуры и критическое мышление

А чем белые списки будут мешать тому же XRay? Разве там нельзя установить мимикрию под один из доменов из этого списка?

Моддинг выходит на новый уровень

Да, давайте ещё больше и быстрее будем захламлять орбиту. Особенно, если ИИ дадут управление своим положением в пространстве. Где гарантия того, что через условно 3 года ему не взбредёт в голову отключить двигатели, которые должны направить его в атмосферу?

Фига се. LLM умеют в юмор?

Про контекстное окно не согласен. У человека оно просто гигантское. Если вы писали код сами, то без особых усилий вспомните где и что писали, и как это +- работает. У вас в голове лежат примеры готовых паттернов, которые приняты в команде. У LLM из коробки этих знаний нет. Но, благо это решается системными ароматами. И как я заметил во время работы с ИИ (поправьте, если это не так), большая часть проблем связана с плохой настройкой контекста или её отсутствием + очень много решает сам промпт

1

Информация

В рейтинге
5 568-й
Зарегистрирован
Активность