Думаю, многие не понимают, что хабр изменился и для большинства авторов теперь не является самодостаточной площадкой. Для них это скорее место для обмена:
Они тратят время, чтобы сделать для хабросообщества контент, а взамен получить переходы по ссылкам на какие-то свои ресурсы. Причем, есть мотивация делать качественно – иначе переходов не будет.
А если запретить тут тг каналы и другие ссылки, то огромное количество хороших постов просто не появилось бы.
Я тоже учился в ШАДе и супер уважаю ребят оттуда, но все же важно понять, что большинство людей по природе консерваторы (и это круто, иначе бы энтузиасты разнесли все к чертям). Так то раньше и за мысли про круглую землю сжигали на кострах.
Хоть искусственные нейроны в сетках и отличаются от естественных, у них и общего тоже достаточно много. Как пример, если изучить зрительные нейроны в наших глазах, то идея CNN начинает казаться очень интуитивной
В целом, @Politura уже все расписал – большая часть перечисленных инструментов вполне заняли свои серьезные ниши.
А даже если бы не заняли – то странно приводить их как аргументы против ошибки выжившего – всегда можно найти штуку, которая не оправдала ожиданий – это такая же ошибка выжившего.
Кстати, полезный практический лайфхак:
LLMки лучше работают с XML разметкой на вход, чем с JSON, особенно, когда большой комплект данных.
Оно все меньше впечатляет на большей части банальных задач. Но это нормально – они и так уже решаются достаточно хорошо. Весь прогресс – на узком хвосте распределения сложных задач, требующих серьезного ризонинга и надежности. Если вас не впечаляют возможности gpt-5 и sonnet-4.5, то мб у вас просто мало таких задач
Я про свою хабр-статью выше. Кажется, человек просто не дочитал дальше первой трети. С клод кодом согласен, но Cursor в целом тоже быстро подтягивается плюс есть еще codex-cli - у меня не взлетело, но знаю людей, у кого работает лучше, чем клод код
GPTs умирают понемногу, да. Но там проблема именно в том, что они не смогли нормальный стор сделать – нет фильтрации как в мобильных сторнах и нет механизма, который бы помогал находить полезные GPTs. Ну и для разработчиков нет материального интереса делать такое. Но я знаю, что какие-то компании для внутренных процессов вполне делают приватные GPTs, чтобы сотрудники использовали под разные задачи, чтобы сотрудник сам промпт криво-косо каждый раз не писал и pdfки не загружал.
То, что вы говорите про помощника на самом деле сильно связано с функционалом задач. По суит вы хотите наделить систему инициативой, чтобы она что-то делала без явного запроса пользователя. Задачи – это первые шаги в этом направлении – взяли самый простой триггер (по времени) и попросили модель например раз в день читать все новости на трех сайтах и писать нам выжимку. Добавление в будущем внешних сервисов через MCP даст и ТГ читать, и переписку в Slack и что хотите. Просто там сейчас есть еще проблемы с безопастностью, но индустрия идет в сторону их решения.
Я не смотрю на курсор только как на редактор кода. Для меня этот в первую очередь интерфейс для работы с LLM-агентом + возможность его расширения. Просто оказалось, что редактор кода лучше всего подходит в качестве базы для этого (его легко расширять, потому что он расширяемый by-design + уже есть всякие удобности вроде диффов, гита, подстветки синтаксиса для кучи разных форматов файлов (в т.ч. md)
Но со временем OpenAI точно сделают что-то подобное для более широкой ЦА, можно подождать, если сейчас не горит.
Очень нравится все задания, часть делал со своими студентами, когда преподавал в универе. Единственное, что смущает – а как быть уверенным, что это именно профориентационное тестирование, а не тестирование на упорство? Улучшение конверсии с 10 до 69 % вполне может обосновываться тем, что отобрали самых упорных, и не удивительно, что из них гораздо больше в итоге доходят до трудоустройства.
Думаю, многие не понимают, что хабр изменился и для большинства авторов теперь не является самодостаточной площадкой. Для них это скорее место для обмена:
Они тратят время, чтобы сделать для хабросообщества контент, а взамен получить переходы по ссылкам на какие-то свои ресурсы. Причем, есть мотивация делать качественно – иначе переходов не будет.
А если запретить тут тг каналы и другие ссылки, то огромное количество хороших постов просто не появилось бы.
Пост-шалость, который упоминаю в тексте
https://habr.com/ru/articles/955666/
Как минимум два спикера конфы решают эту проблему в своих тулах. Вам может быть интересно
Я тоже учился в ШАДе и супер уважаю ребят оттуда, но все же важно понять, что большинство людей по природе консерваторы (и это круто, иначе бы энтузиасты разнесли все к чертям). Так то раньше и за мысли про круглую землю сжигали на кострах.
Хоть искусственные нейроны в сетках и отличаются от естественных, у них и общего тоже достаточно много. Как пример, если изучить зрительные нейроны в наших глазах, то идея CNN начинает казаться очень интуитивной
"разработчики не нужны, пока на одну и ту же задачу не перестанут писать разный код"
"разработчики не нужны, пока на одну и ту же задачу не перестанут писать разный код"
Что не означает, что стоит это принимать 🤷♂️
Пишите пост! Это же прям супер уникальный опыт
В целом, @Politura уже все расписал – большая часть перечисленных инструментов вполне заняли свои серьезные ниши.
А даже если бы не заняли – то странно приводить их как аргументы против ошибки выжившего – всегда можно найти штуку, которая не оправдала ожиданий – это такая же ошибка выжившего.
Кстати, полезный практический лайфхак:
LLMки лучше работают с XML разметкой на вход, чем с JSON, особенно, когда большой комплект данных.
А зря перестали
Скорее всего у вас просто плохой пайплайн перевода выстроен. Я делал цикл переводов AI-2027, текст целиком написан LLM без редактуры
Оно все меньше впечатляет на большей части банальных задач. Но это нормально – они и так уже решаются достаточно хорошо. Весь прогресс – на узком хвосте распределения сложных задач, требующих серьезного ризонинга и надежности. Если вас не впечаляют возможности gpt-5 и sonnet-4.5, то мб у вас просто мало таких задач
Пока нет. Есть исследование, которое показывает, что количество ошибок в задачах бухгатерии систематически накапливается
https://accounting.penrose.com/
При этом, оно все равно очень маленькое, а это значит, что с human-in-the-loop, который валидирует результаты, оно может работать уже сейчас
Ага. Кто-то жалуется, что разработчики тупеют из-за использования ИИ, а для кого-то наоборот по-максимуму использует новые возможности. Все как всегда
Или что у ребят просто хорошая архитектура и документация
Я про свою хабр-статью выше. Кажется, человек просто не дочитал дальше первой трети. С клод кодом согласен, но Cursor в целом тоже быстро подтягивается плюс есть еще codex-cli - у меня не взлетело, но знаю людей, у кого работает лучше, чем клод код
Если вы это мне, то не удивит – рекомендую дочитать статью:)
Возможно, вторая часть поста даст ответ
GPTs умирают понемногу, да. Но там проблема именно в том, что они не смогли нормальный стор сделать – нет фильтрации как в мобильных сторнах и нет механизма, который бы помогал находить полезные GPTs. Ну и для разработчиков нет материального интереса делать такое. Но я знаю, что какие-то компании для внутренных процессов вполне делают приватные GPTs, чтобы сотрудники использовали под разные задачи, чтобы сотрудник сам промпт криво-косо каждый раз не писал и pdfки не загружал.
То, что вы говорите про помощника на самом деле сильно связано с функционалом задач. По суит вы хотите наделить систему инициативой, чтобы она что-то делала без явного запроса пользователя. Задачи – это первые шаги в этом направлении – взяли самый простой триггер (по времени) и попросили модель например раз в день читать все новости на трех сайтах и писать нам выжимку. Добавление в будущем внешних сервисов через MCP даст и ТГ читать, и переписку в Slack и что хотите. Просто там сейчас есть еще проблемы с безопастностью, но индустрия идет в сторону их решения.
Я не смотрю на курсор только как на редактор кода. Для меня этот в первую очередь интерфейс для работы с LLM-агентом + возможность его расширения. Просто оказалось, что редактор кода лучше всего подходит в качестве базы для этого (его легко расширять, потому что он расширяемый by-design + уже есть всякие удобности вроде диффов, гита, подстветки синтаксиса для кучи разных форматов файлов (в т.ч. md)
Но со временем OpenAI точно сделают что-то подобное для более широкой ЦА, можно подождать, если сейчас не горит.
Очень нравится все задания, часть делал со своими студентами, когда преподавал в универе. Единственное, что смущает – а как быть уверенным, что это именно профориентационное тестирование, а не тестирование на упорство? Улучшение конверсии с 10 до 69 % вполне может обосновываться тем, что отобрали самых упорных, и не удивительно, что из них гораздо больше в итоге доходят до трудоустройства.