Pull to refresh

Comments 14

Из своей практики отмечу, что на текущий момент иногда проще 'нагуглить'. Поэтому по поводу пункта об ушедшей эпохе не совсем соглашусь.

В некоторых случаях - да, еще пользуюсь гуглом. Но кардинально меньше.
Вспоминаю, как было 2-3 года назад - совершенно другой подход. Там как раз дефолтом был - гугл и stack overflow.

Ну и в целом, я думаю, что нейросети сильно изменят наш мир.

У вас рекомендуемое время чтения статьи 71 минута. Мне кажется там явная опечатка :D

На самом деле все верно - 71 минута, там под спойлерами большие промты и ответы нейросетей))

Пока все печально.
В проекте для простенького приложения на микроконтроллере с RTOS в котором 1 331 225 строк кода находится 16 606 168 токенов. Это в 16 раз больше чем могут теперяшние боты.
Ждем наращивания мощностей на порядок. Это еще пару лет видимо.

Кстати перплексити не стоит использовать для поиска. Ищет хуже всех.
Совет искать на куче ботов одновременно - вредный.
Совет писать по английски - нелогичный. Они прекрано переводят с русского. Так зачем им писать ненативно по английски. Так будет только хуже.

Человек тоже не держит миллион строк кода в голове одновременно. Нейросетке не нужно скармливать весь исходный код zephyr / freertos / nuttx

Как минимум английские символы занимают меньше контекста и выводятся быстрее. Если есть минимальный около B1 лучше предпочесть английский русскому.

Согласен
При использовании английского есть минусы, но их не много:
- его надо знать
- если текст очень специфический (спец. термины/сокращения/аббревиатуры) или запрос связан с русскоязычными источниками, то лучше русский

обычно плюсы английского перевешивают, но зависит от запроса, конечно

Такие объемы кода и сложность кода - это будущее, согласен
У меня запросы проще, базовая математика, статистика, python. Объемы кода на вход/выход не более ~2000 строк. В этих случаях все работает хорошо. А это сейчас основные потребители нейросетей (high level python + простые и средненькие по сложности алгоритмы, обычно data analysis + базовая автоматизация)

на моих запросах perplexity ищет средне по качеству. А в каком надо искать? Единственное, что нашел лучше - grok и open ai.

По одновременному поиску: я обычно это широко использую. Далее по диагонали определяю, какая модель ответила лучше. Обычно минусов не видел в таком подходе...

В проекте для простенького приложения на микроконтроллере с RTOS в котором 1 331 225 строк кода находится 16 606 168 токенов. Это в 16 раз больше чем могут теперяшние боты.Ждем наращивания мощностей на порядок. Это еще пару лет видимо.


Попробуйте Cursor.
Если ваш проект разбит по файлам, то Cursor вполне справится.

Насчет Perplexity вынужден согласиться, тупит.

Также в текущем проекте интегрировал поддержку разных LLM моделей от разных поставщиков (Anthropic, Groq, Google AI, OpenAI).
При тестировании в автоматическом режиме, когда и модели, и настройки, и промты, и ответы хранятся в базе, в конечном итоге:
- лидеры по качеству это Anthropic и OpenAI. Платный Google 2.5 Pro лажает. Lama 4.0 -Pathetic.
- для быстрой обработки использую Groq с разными моделями, доступными от этого вендора.

Исходники zephyr / freertos / nuttx им уже скормили и они неплохо уже применяют API известных RTOS. И кучу middleware уже знают. Но если middleware тюнингированный, а оси с кастомного конфигурацией, то беда. Они не помещаются в контекст.

имхо ИИ - лучшее что создало человечество. Насколько это хорошо/плохо это уже другой вопрос.

Автор, вы часто упоминаете, что переформатируете свой надиктованный запрос перед тем, как отдавать в обработку.

Думаю, вполне очевидно иметь prompt в GPTs, который переформатирует любой поток сознания в структуру, ожидаемую LLM:
- определение роли,
- определение входных параметров,
- определение процесса выполнения задачи,
- определение ожидаемого результата
- и обязательно - пример результата, чтобы иметь consistent результат для дальнейшей автоматической обработки.

На самом деле довольно редко переформатирую. Т.к. время потраченное на переформатирование, не всегда окупается качеством). И обычно только выделяю разделы логические.

Отдельный запрос (а-ля GPTs) рассматривал, но не стал так делать. Опять же - экономия времени. За это же время, я успею получить ответ и задать уточняющий вопрос/изменить подход. Скорость итераций пока важнее оказывается

GPTs у меня такой был:

Below is description of the task. You should make it more structured.
While restructuring follow the rules:

  • break down task into basic logical steps in order to support succesful completion of the task;

  • use markdown language markup;

  • step sequence is important. Reorder steps if needed;

  • clearly state inputs and outputs of the task (format, size, etc.);

  • task should be consice and short;

  • use only valid words and terms;

  • correct grammar errors and semantic errors;

  • you should only reformulate task;

  • DO NOT solve task;

Sign up to leave a comment.

Articles