Комментарии 27
В целом это не нейросети плохие. Это пользователи не умеют с ними работать. Грешить на микроскоп, что им неудобно забивать гвозди... Ну и нейросети не волшебная палочка, они не пишут за нас. Они помогают писать нам. Текст, код, инструкцию.
Кстати на счет проверки. Советую перекрестную проверку: сделал код - дай другой нейросети на проверку. А потом еще другой. А потом обратно после переработки. В большинстве случаев получается вылизанный и прилизанный код под нужные функции. С текстом аналогично. Только нейросеть должна точно понимать, что нужно вам
Я с одной стороны со всеми тезисами в статье согласен - у меня другой профиль деятельности, но и для себя LLM нашёл, где применить. И постоянно щупаю новые варианты + оптимизирую имеющиеся.
Но с другой стороны - во всей статье, буквально с заголовка, сквозит одна мысль: умелый специалист сможет использовать плюсы LLM и побороть минусы. Но вопрос - а как быть неопытным? И как люди будут становиться опытными через N лет, когда вся та работа подмастерий уйдёт железкам? Не подразумеваю тут, что-де все отупеют - но действительно интересно...
Одна версия ответа у меня, кстати, есть, но интересно, к чему дискуссия выведет)
Не знаю, если честно.
Как минимум - такие люди породят много работы для опытных коллег, как автор оригинальной статьи.
Но вообще, проблема не нова. Вот 20 лет назад сайт было дорого делать и уникально. А сейчас - 40% сайтов в мире работают на Wordpress пруф
Наверное, я бы предпочитал, чтобы сайты в мире делали эксперты и делали хорошо. Но для массового рынка сделали комбайн с низким порогом входа, и появился вагон всего. И есть целые специальности, и движки - https://wpengine.com/ (кстати, у него автор - потрясающий блог раньше вел http://blog.asmartbear.com/ )
Люди покупают картину на стене, а не молоток. Поэтому если LLM дает им иллюзию решения задач, то они будут платить. Особенно когда за этим хотя бы частично стоит реальный результат - и переводы, и поиск информации, и текстовые задачи. И оно за небольшую цену - 20 долларов условно - дает суперсилу, причем качество постоянно растет.
Туда же и отупение. С одной стороны, есть общий эффект падения качества много где, и люди ленятся. С другой, люди выдерживают потоки информации, невиданные ранее нашими предками. Поэтому точно неизвестно, как оно по балансу выйдет.
Как пример - было мнение, что люди потеряли фокус внимания. Но вот есть же Lex Fridman, например, с длинными подкастами. Или Сурдин, или Бушвакер. Где непростую информацию излагают, и люди слушают.
Ну вот у меня ответ очень близкий. Если я, как неспециалист, могу оценить результат - то это уже работает. Если я могу заглянуть под капот и хотя бы понять, что там происходит, сделать мелкую правку - отлично.
Отупение, разумеется, будет... но, в конце концов, ИИ — это инструмент, позволяющий, в том числе, оптимизировать самообучение. На 99 человек, «тупеющих» с ИИ, найдется один, который стремительно ускорит собственное образование. Вероятно, на дистанции просто сформируется дикий разрыв между первыми и вторыми.
А те, у кого был приличный архитектурный бэкграунд, и кто смогут оседлать новую технологическую волну, действительно смогут заменять целые отделы разработки
А как становятся опытными? Шишки набивать. Я так и делал. Сейчас в работе использую. Я обследованием зданий и сооружений занимаюсь, так помогает писать ответы. Дал ему раздел обследования, указал как по этому разделу составить ведомость дефектов - через пару минут у меня уже почти заполненная ведомость. Стандартные решения проблем ему тоже загружаю. А там останется лишь проверить, да дописать несколько ячеек. Главное самому научиться правильно формировать задание. Другие разделы ответа уже делает быстро. Проверка отчёта вообще красота. Главное понимать, что он должен искать. На это у меня ушло пол года экспериментов. Зато теперь отчеты делаются быстрее и легче. Я концентрируясь на главном - описании самих дефектов и повреждений конструкций, на их координатах и категориях. А формировать в нужной форме - нейросети помогают.
Знакомый попросил помочь перевести книгу, и буквально за пару поисков был найден гитхаб репо, где книга разбивается на чанки, переводится в MD, и воткнутый ключ OpenAI со средней моделькой переводит книгу.
К слову - уже есть рабочий опенсорсный плагин Ebook Translator для Calibre (это такой известный софт для каталогизации книг и конвертации в разные форматы), который все, что ест Calibre (FB2, EPUB и пр.), может переводить через нейросети по OpenAI-совместимому API - естественно, разбивая на куски, иначе в контекст не влезет. (Описание подключения Ebook Translator мое тут, делал под себя - адаптируйте под свои кейсы, кому нужно)
Так что иногда даже не обязательно кодить решение, достаточно хорошо поискать - уже для кучи современных прог с плагинами скорее всего найдется способ "сделать внутри что-то с помощью LLM", что не может не радовать.
Думаю, у каждого есть какое-то слабое место, которое человек может сделать ... но просто не любит. Или не готов потратить X часов, чтобы стать экспертом.
Вот тут прям дико за. Иногда что-то хочется сделать, в чем ты не профессионал - но ручками учиться 10 лет не готов (ну, рисованию например). Нейросети дают возможность.
Спасибо!
Я нашел вот это https://github.com/smyrgeorge/lexis
Завелось после небольшой правки. Для одноразовой задачи сработало.
Я где-то год наверное сижу на нейросетях и пилю свои пет-проекты до которых раньше не доходили руки из-за недостатка моральных сил.
Новогодний пет-проект для замены bitwarden/vault https://github.com/constXife/zann.
Уже где-то год пилю несколько раз с нуля генератор планет на основе тектонических плит, с простенькой моделью климата, ветра, и тд

Не так давно еще открыл для себя NixOS, конфиги настраиваю через LLM и это очень круто. Начал пилить для себя self-hosted пет-проекты типа homepage с различными пространствами (для детей, для админа, для обычных людей):

Также LLM настраивает мне дашборды графаны в виде json файлов, а NixOS их автоматом провизионирует в графану.

Сейчас экспериментирую с автоматизированным RCA, которая собирает в кучу все сигналы а-ля логи, трейсы, sentry, и пытается найти автоматизированно проблему.
Очень здорово! Творцу - кисть в руки)
экспериментирую с автоматизированным RCA
Есть результаты?
Да, но пока в формате эксперимента. Я "продал" эту идею своим коллегам, теперь ставим на staging тестировать как оно себя покажет. Первое время будет разбирать падения тестов. Скорей всего нужно будет докручивать, но на тех примерах которых я проверял, вполне себе определяет. У нас используется локальная LLM.
Я использовал для основы LangGraph, каждые ноды ходят и делают что-то свое (подтягивают ресурсы, проверяют логи и тд), а потом сверху анализируются результаты.
планеты - красиво, где можно глянуть подробнее?

Пока нигде, планировал задеплоить куда-то. А вообще, честно говоря, я хочу сделать проект worldbuilding, на котором смог бы в теории заработать. Задумка такая — сделать сервис генерации научно-обоснованных миров. Условно, если в определенном месте стоит континент или горы, значит там происходили некие процессы, которые послужили причиной.
В моей генерации вначале генерируются некие случайные стартовые параметры, типа master noise, которые задают изначальный температурный шум мантии, потом DFS обегает по "слабым" местам и формирует основы тектонических плит, таким образом формируя их органические границы.
Также в моем проекте предусмотрены "снапшоты" в таймлайне. Сейчас я пока сосредоточен на создании планеты в моменте, но есть и возможность просимулировать планеты во времени, тектонические плиты будут двигаться, и системы будут пересчитываться (в облегченном режиме), и дадут реальную историю, которую можно как-то использовать для лора, ну и в целом история будет отражаться на самой планете внешне. Можно проектировать в таймлайне как выглядела планета когда на ней была например Атлантида и какими событиями она была уничтожена.
Условно, если в определенном месте стоит континент или горы, значит там происходили некие процессы, которые послужили причиной
такой подход вызывает уважение, когда не просто генерится правдоподобная картинка, а какая-то за этим стоит базовая логика.
А визуализацию на чем сделали? У вас отделен рендеринг от логики построения мира?
Генератор создает такие снапшоты, которые рендерятся через webgl на фронте. Но вообще на основе этих файлов какой угодно может быть рендеринг, потому что, да, рендеринг отделен от логики. Я думал еще попробовать добавить поддержку стилей рендеринга, чтобы можно было в стиле hmm3 отрисовать карту.

на чистом webgl? или библиотеки какие-то?
Кстати, есть даже решения (включая open-source он-прем), которые индексируют вашу документацию и делают поиск по ней очень эффективным. И просто рабочим.
А что за решения? Интересно
Perplexity+Cursor
"Назначаешь" Perplexity тимлидом. Говоришь ему, что у него "подчинении" синьер Cursor. Которому нужно правильно ставить задачи, предварительно написав основные правила всего формате типа ООП, всегда виртуальная среда, логирование, тестирование, подробные отчёты и пр.
И вот вы шеф команды, которая не бухает, не беременеет, не ноет про переработки отгулы, удаленку и т.п.;)
Радует что хоть кто-то стал говорить об этой теме вслух и с пониманием на Хабре.
ИИшка хороший и мощный инструмент. Но как и водиться - каждый инструмент с нюансами. ИИ не волшебная палочка, в текущем виде это как тупенький, но очень упорный Джун под энергетиками. Все что можно дать такому Джуну - можно дать и ИИшке.
Но как и в случае с Джуном:
Не доверяй и не надейся на лучшее - только проверка и прослеживание логики
Сверяйся с условиями задачи и что реально было сделано
Базовые предельный и критические сценарии
Дай другой ИИшке сочинить тесты. Другой, которая НЕ ВИДИТ Код и не может подстроиться под него. (один Джун пишет код, другой тесты к нему)
Меняй модели, ставь условия по-другому и тп и тд
И если соблюдать хотя бы стандартные правила - выигрыш будет точно такой же как от разрабов в подчинении Лида.
Поддерживаю
Добавлю, что последние модели - Opus 4.6 как пример - разительно лучше и умнее. Особенно, если заставлять их работать по частям.
Как пример галлюцинаций и хождения по кругу, у меня были проблемы с Соннетом (кажется, четвертым). Один и тот же баг - ходим по кругу, приходится детально лезть во все самому. И даже направление не помогает - говоришь сначала вывести логи, затем смотришь вместе с ИИ, но причину находишь сам.
Опус 4.6 и сам догадывается логи вывести, и сам анализирует. И так же не забывает, если ты говоришь ему - собирай в докере и пробуй, пока не получится.
Но пожалуй, самое впечатляющее был рефакторинг с Опусом под ключ приложения. Говоришь - спланируй все и пропиши. Потом - распланируй по частям. Смотришь, добавляешь комментарии. Заставляешь задать вопросы и отвечаешь на них.
А затем даешь работать по частям, и смотришь за итерациями (давая дампить состояние и прогресс в MD планы).
Поэтому я бы сказал, что и как миддл можно вполне заставить работать, немного поднаторев и зная точно, чего хочешь. Представь, что руководишь миддлами, как бы ты поставил задачу, как бы выделил точки, где подключиться, а где бы дал автономности. И как бы сделал кодревью, как сделал по приоритету приемку.
Ну и конечно, скиллы, MCP, правила. Просто один факт добавления MCP, который смотрит актуально в документацию, или в инет, снижает вероятность, что уйдет не туда.
https://developers.googleblog.com/introducing-the-developer-knowledge-api-and-mcp-server/
Очень актуально, поднимал приложение, и оно прямо по ходу смотрело и увидело ошибки в вызовах LLM и ошибки в конфигурации
Иногда надо посмотреть на подход, вот как недавно было с подключением к Firestore у меня. И если там не взлетает - показать конфигурацию (через gcloud), и одновременно по-дедовски найти рабочий пример (в самой доке Гугла) и дать направление. Это пожалуй, единственный небольшой затык, который у меня был с Опусом и где прямо самому нужно было руками решить
Пока использую по мелочам, на подхвате. Недавно нужен был скрипт на powershell для перекачки логов их одного сервера в другой. Я с powershell был почти не знаком. Через гугловский браузерный ии вполне нормально получилось, но пришлось сделать итераций достаточно много, чтобы скрипт выполнял и перекачку, не вешая сервер, и обновление и чистку источника и выполнялся по расписанию. Ушло примерно полдня, с перерывами на другую задачу. По старинке, наверно бы понадобилась пара дней только на понимание, что возможно в powershell и как разрабатывать, делать отладку скрипта.
Спасибо за статью!
Однако не понятен момент: По идее, для разработки нельзя использовать облачные llm, ведь код в большинстве коммерческий, используется по работе. Не рассматриваю в данный момент опенсурс/пет проекты. Для локальных же моделей нужно мощное железо. И то будет сильно уступать облачным. Так как же все используют llm для разработки?

В умелых руках и LLM — балалайка