EVA: Методология. Как оценивать качество тестов, а не их количество (Часть 2)

Часть 2 из 3. [Первая часть - постановка проблемы]
Ван Эйк видел детали, которые другие пропускали. Разбираем методологию EVA, которая учит тесты делать то же самое.

Часть 2 из 3. [Первая часть - постановка проблемы]
Ван Эйк видел детали, которые другие пропускали. Разбираем методологию EVA, которая учит тесты делать то же самое.

Apidog позиционирует себя как универсальная платформа для работы с API: проектирование, тестирование, mock-сервер, документация. Всё в одном флаконе. Звучит как маркетинг, но интерфейс выглядел приятно, в общем решил сам проверить на практике.
Пройдём полный цикл: от создания проекта до запуска тестов. Со скриншотами и личными впечатлениями.

Крылатый гений сидит среди инструментов. Циркуль, весы, молоток, рубанок. Всё под рукой. Но он бездействует, подперев голову. Не от лени. Он видит проблему и понимает: имеющиеся инструменты не дают ответа.
Внедрение нейросетей всколыхнуло индустрию. Мы переживаем эпоху, схожую с Ренессансом. Все говорят о космических возможностях, о том как агенты изменят разработку. А я предлагаю посмотреть на то, что уже есть в руках.
Мастера северного Возрождения видели божественное в деталях. Не в грандиозных замыслах, а в складках ткани, в отражении света на металле. Может, и нам стоит взглянуть не на космические дашборды с метриками, а на содержимое каждого теста?
Это первая часть большого исследования. Материала получилось много, поэтому разбили на три части. Здесь погружаем в проблему. В следующих частях расскажем наше видение решения и покажем практический инструмент.

Начало года. Самое время пересмотреть рабочие процессы. Пока задачи ещё не навалились, можно спокойно попробовать что-то новое. Расскажу про подход, который изменил мою работу за последний год.
В какой-то момент понял, что нужен помощник, который возьмёт на себя рутину. Не замена мне, а усилитель. Чтобы я мог сосредоточиться на архитектурных решениях и сложных случаях, пока кто-то другой пишет типовой код по моим инструкциям.
Этим «кем-то» стали нейросетевые агенты. Расскажу про подход, который мы обкатали на нескольких проектах в рамках экспериментов с этими инструментами.

Hibernate часто работает как надо ровно до того момента, пока не приходит настоящая нагрузка. И тогда выясняется, что безобидные на вид решения отключают batching, ломают пагинацию, умножают число запросов и даже незаметно открывают дополнительные транзакции — ровно там, где вы рассчитывали на один аккуратный запрос в рамках одного unit of work.
В этой статье мы постарались собрать добрую дюжину самых неочевидных и при этом действительно продакшн-критичных ошибок работы с Hibernate: как они проявляются в логах и метриках, почему возникают на уровне механики ORM, и какие предохранители помогут поймать их до релиза. Будет практично, предметно и с несколькими моментами, после которых захочется пересмотреть пару любимых паттернов в вашем проекте.

Все говорят, что AI пишет код за секунды. Это правда. Но почему-то редко уточняют: какой именно код он пишет. Спойлер — это сильно зависит от того, как вы спросили. И ещё сильнее — от того, что вы вообще знаете о предмете.
В Ростелекоме мы уделяем особое внимание развитию экспертизы сотрудников. Это не просто корпоративный слоган — это осознанная стратегия. Мы понимаем, что технологии меняются быстро, но фундаментальные знания остаются ценными десятилетиями. Поэтому в компании работает система внутреннего обучения: курсы по автоматизации тестирования, менторинг от senior-специалистов, разбор реальных кейсов из проектов.
И когда появились AI-ассистенты, возник логичный вопрос: может, теперь курсы не нужны? Зачем учить людей писать тесты, если нейросеть сделает это за них? Некоторые коллеги из индустрии уже начали сокращать обучающие программы, делая ставку на "AI справится".
Мы в Ростелекоме решили не гадать, а проверить эту гипотезу на практике. Провели эксперимент: попросили AI-ассистента написать автотесты для классического PetStore API тремя разными способами. Первый запрос — как написал бы новичок, который только что узнал про AI. Второй — как специалист с базовым пониманием автоматизации. Третий — как инженер после наших внутренних курсов, с глубоким пониманием архитектуры тестовых фреймворков.
Результаты оказались настолько показательными, что мы решили поделиться ими с сообществом.

Кажется, что LLM способны полностью автоматизировать работу с кодовой базой так, как раньше нам и не снилось. Это звучит заманчиво, когда нужно портировать проект с одного языка на другой. Наверное, когда-нибудь это будет так, но пока есть нюансы и ограничения.
Всем привет! Меня зовут Максим, и я работаю в ООО РТК ИТ руководителем направления в департаменте разработки и развития систем поддержки бизнеса (ОП ЮГ). В этой статье расскажу, как с помощью локальной языковой модели автоматизировал перевод Python-проектов в Node.js.Опишу технические детали реализации от сборки контекста до генерации файлов с кодом. Подниму вопрос масштабируемости, ограничений LLM при работе с большими проектами и возможных улучшений для повышения точности перевода.

Накануне новогодних корпоративов мы решили не гадать, а узнать наверняка: что не так с «Тайным Сантой»? Результаты анонимного исследования, проведенного среди коллег, развенчивают миф о всеобщей любви к этой традиции.

Привет, Хабр! Меня зовут Ольга Проскурякова, я лид направления тестирования в компании TData. Эта статья — моя первая публикация на Хабре. Буда рада поделиться своим опытом.
Платформа, которую разрабатывает TData — это комплексное решение для работы с большими данными: сбор, управление, хранение, визуализация и анализ. В центре платформы — десяток ключевых продуктов. Все они проходят проверку нашей командой тестировщиков. Сегодня я расскажу о том, как мы тестируем один из них.
Для наглядности опишу предметную область тестирования. Это продукт RT.Warehouse — массивно‑параллельная СУБД для построения хранилищ данных, разработанная на базе Greenplum.
RT.Warehouse обеспечивает высокую степень производительности и отказоустойчивости благодаря гибкости горизонтального масштабирования, использованию в ядре продвинутого оптимизатора запросов и адаптации архитектуры для хранения и обработки больших массивов данных.

До какой степени стоит начинять современные автомобили «умными» устройствами, чтобы в какой-то момент они не стали просто игрушкой или роскошью, вместо средства передвижения? И действительно, не отупеем ли мы однажды от того, что за нас всё будут делать «умные» машины?! Давайте, обсудим.

ATOM: автоматизация сети ЦОД начинается с решения рутинных задач
Всем привет! Это наша первая статья про нашу систему автоматизации. Мы активно занимаемся разработкой системой автоматизации и визуализации АТОМ для сетей ЦОД в компании Ростелеком, о которой пойдёт речь.

В статье я расскажу о практических кейсах и сложностях, возникающих (и возникавших) в процессе миграции данных между СУБД (Oracle -> Postgres), а также о собственном инструменте миграции данных, который вы также можете попробовать.

Представьте: Один неоптимизированный запрос от неопытного коллеги - и вот уже 40 ТБ SPILL-файлов парализуют систему.
Срабатывает лимит на уровне Greenplum, запрос завершён. Никто ничего не знает.
Создаются заявки, пишутся письма, пользователь недоволен.
Это не какая-то выдуманная история, а обычный будний день в большом Greenplum. Вернее, так было раньше.

Привет, Хабр! Эта история началась не со стратегической сессии и не с приказа сверху. Она началась с того, что в 2023 году наши разработчики, как и многие в IT-сообществе, подхватили хайп вокруг LLM и начали в свободное время ковырять Llama 2 и другие модели. Все это происходило на личных и рабочих машинах, и довольно быстро стало понятно: для серьезных экспериментов мощностей не хватает.
Шаг 1. Искра: как низовая инициатива разожгла пламя. От любопытства к общему железу
Точкой невозврата стал момент, когда группа энтузиастов пошла к руководству с простой идеей: «Давайте купим в офис одну общую, но мощную видеокарту для всех». К нашему удивлению и радости, руководство идею поддержало и выделило бюджет. Это была не просто покупка GPU, а инвестиция в зарождающееся комьюнити.

Привет! Меня зовут Роман Ляшенко, и я лид команды RPA в Эксплуатации ИТ ПАО «Ростелеком».
От автоматизации к гиперавтоматизации
Абсолютно любой бизнес рано или поздно испытывает потребность в улучшении корпоративных процессов и повышении операционной эффективности. Оптимизация: как усовершенствовать качество и скорость работы, не привлекая дополнительных ресурсов? Этот вопрос постоянно волнует как крупные корпорации, так и представителей средних и малых структур. Способов его решения огромное количество. Выбирая среди множества, «Ростелеком» пошел путем развития RPA-процессов.
RPA (Robotic Process Automation) – те самые технологии, которые используют программных роботов, позволяющих автоматизировать повторяющиеся/ рутинные задачи в бизнесе. Это направление стремительно развивается из некогда «местечковых» решений до комплексных стратегий гиперавтоматизации.
Впервые ЭВМ были использованы в бизнес-процессах в пятидесятые годы (UNIVAC, IBM 702). В те времена компьютеры выполняли простые задачи в бухгалтерии, складском учёте, статистике. Сегодня же речь идет о сквозном подходе, который направлен на создание взаимосвязанной экосистемы автоматизированных процессов, включая внедрение ИИ-инструментов.
Больше, чем стандартные решения
Настройка прямых интеграций между системами — это долгая и дорогостоящая история, требующая дополнительных затрат на аналитику и разработку. В особенности это касается тяжеловесных legacy-систем, где доработка особенно трудоемка и болезненна, – иногда нет нужных специалистов, а переход на новые методики требует еще больших бюджетов и перестройки всех процессов.

В версии ОС «Аврора» 5.2 наш браузер получает долгожданную поддержку Progressive Web Apps (PWA) - технологии, которая позволяет веб-приложениям выглядеть и работать как полноценные нативные приложения.
Казалось бы, в результате пользователь видит лишь простую иконку в общем списке приложений, но на деле реализация PWA требует тесной интеграции браузерного движка с самой операционной системой. Именно о технических подробностях этой интеграции, а также о внутреннем устройстве PWA в целом, я и хочу рассказать в этой статье.
Меня зовут Тимур Валеев, я руковожу командой, которая занимается развитием браузера для ОС «Аврора», и сегодня мы разберем, как это было реализовано.

"Что будет, если взять Канбан, смешать его с Гантом и весь этот соус вылить на релизную политику? Давайте разбирать на практике!"

Недавно прочитала утверждение Сергея Брина о том, что нейросети лучше работают, если их припугнуть. Стало любопытно, ведь звучит, как миф или сюжет триллера про искусственный интеллект. Но вдруг это действительно работает, раз уж такую идею озвучил сам сооснователь Google? И тогда мы с коллегами из Центра компетенций по проведению исследований, где я работаю аналитиком, решили проверить это на практике.

Всем привет! Меня зовут Алексей, и я работаю Java‑разработчиком с 2018 года. В статье расскажу, как столкнулся с проблемой обработки MultipartFile в многопоточном режиме. Почему эта проблема возникает и какие решения существуют.
Изначально стояла задача организовать фоновую обработку Excel-файлов: принимать файл, мгновенно возвращать клиенту HTTP-200 (без данных), а обработку содержимого выполнять асинхронно в отдельном потоке.
Вроде задачка тривиальная. Делаем контроллер:

В статье хочу поделиться кейсом, с которым столкнулся на одном из проектов. И расскажу о своем варианте его решения.
Стояла задача автоматизации регресса для сервиса миграции из системы Jira во внутреннюю систему «Яга».