Несколько часов назад откликнулся на вакансию со 100% соответствием моему опыту. И получил отказ. Не удержался, поискал контакт HR и написал ей в телеграм, подробно расписав по пунктам вакансии, что я идеально подхожу под вакансию и спросил про причину отказа.
И получил такой ответ:
И при этом, что интересно, IT образование было убрано из резюме по совету другого HR, который пояснил, что это перегружает резюме.
Или HR не смогла сказать, что отказала по желанию левого пальца правой ноги, или у HR действительно есть скрытые требования, которые не расписываются в резюме.
У ATSки эйчара есть доступ к резюме, которыми я не откликался? Вряд ли работодатель может зайти на профиль соискателя и увидеть список его резюме. Скорее всего, тут немного другие подводные камни. Например, 6 возможных причин: https://chat.qwen.ai/s/329876ba-0f6d-4d53-87a1-5f33db0161e3?fev=0.0.222
За последние недели я провел больше двух десятков диагностик с IT-специалистами. Картина почти всегда одна: передо мной сидит крутой инженер с восьмилетним опытом, а его главная боль – «нет откликов» и «не могу продать свой опыт». Как бывший рекрутер, я вижу причину за десять секунд. И она не в коде. Она в голове.
Связался с автором этой статьи. Созвонились, но к сожалению, весь за весь созвон я получил только общую информацию, вроде "резюме плохое, нужно исправлять. Я исправлю, и тебя забросают приглашениями." И ничего нового, никакой конкретики. Даже рыбак дает рыбам червячка на покушать.
После созвона, автор предложил предварительную оплату курса "Путь к офферу мечты" (20 т.р.), который начнется..., через месяц.
Показалось это сомнительным, и предложил ему официальный договор, с оплатой по факту трудоустройства, в 20% от первой зарплаты, что больше стоимости его курса. Автор, закономерно, отказался.
Интегрировал RabbitMQ для асинхронной обработки задач, что позволило обрабатывать пиковые нагрузки без падения сервиса и улучшило пользовательский опыт
Была такая функция в легаси, которая брала из БД огромное количество записей, и через цикл отправляла HTTP запрос по каждой записи . Скрипт падал, ежик кололся. но продолжал... Переписал: из БД берется чанк, выполняется и помечается в БД как выполненный. Выполнение в Rabbit. Попросил у жпт описать этот опыт в резюме, то жпт выдал этот текст, слово в слово.
ps. из реальной практики.
1-е резюме, написанное самостоятельно и криво: 40 откликов = 3-4 приглашения и столько же отказов.
2-е резюме, грамотно написанное жпт: 40 откликов = 1-2 приглашения и очень много отказов.
3-ье резюме, написанное самостоятельно, после опыта с грамотным, но мертвым резюме от жпт: 40 откликов = 6 приглашений и 6 отказов.
Без обид, мне кажется, что алгоритм и вправду лёгкий для новичка. Но я буду рад узнать новое, если вы скажите, в чем трудность этого алгоритма. И кста, спасибо за статью.
ps. Надеюсь, вы не ответите в стиле "мопед не мой, ..." :)
Интересно почитать, но не осилил - слишком много букв для простого объяснения. Я не запоминаю эти алгоритмы, благо, подумав логически, их можно изобрести заново.
В функциях недостаточная проверка данных. findLeftBoundry и binarySearchHalfOpenInterval вернут Undefined offset, если target больше, чем количество элементов в массиве. Плохо left === arr.length, хорошо left >= arr.length
Я имел ввиду, что текст пропущен через ИИ (потому что в тексте обороты, характерные для ИИ), а именно: что в статье, осуждающей использование ИИ для статей, использован ИИ. Про 100% генерацию речи не было. :)
текст гладкий, как стекло. Никаких "шероховатостей" живого мышления: оговорок, уточнений, озарений. Это сухой монолит, "выточенный" под общий знаменатель. Грубо говоря - информационный фастфуд: насыщает, но так ли это полезно?
Уверен, что этот текст так же был пропущен через ИИ, потому что практически все эти формулировки я почти ежедневно вижу у ИИ, в моем случае это Qwen, которому я скидываю текст резюме или текст IT статьи на анализ.
В диалоге из 25 сообщений, Qwen:
5 раз использовал слово "гладкий",
5 раз использовал слово "шероховатости"
12 раз упомянул "живую" речь и мышление.
Но до общении с ИИ, я практически никогда не встречался с сочетанием слов "гладкий текст", "шероховатости" и "живое мышление".
Обычный запрос для анализа ИИ: - проанализируй, создан ли этот текст посредством ИИ или текст создан грамотным человеком? Исключи парадокс детекции ИИ, нормализацию текста и перцептивную компенсацию для более точного анализа.
Я думал, это со мной, с описанием в резюме или с моими навыками что-то не то. После вашей статьи решил провести небольшой тест. Открыл вакансию на hh.ru, создал новое резюме, полностью подогнал резюме под эту вакансию, добавив опыта в требуемых и в сопутствующих навыках. Так как новое резюме продублировано с основного резюме, то в новом резюме многие навыки помечены как проверенные. Образование техническое, МФТИ. В опыте 100% совпадение с требованием вакансии + дополнительный опыт. И откликнулся этим резюме на вакансию. Через 10 минут получил ответ:
Передаст управление GPT-5-thinking, а тот включит safety-сценарий и начнет тебя успокаивать и убеждать, что все хорошо, вместо выполнения задания))). Кстати, у GPT нет лимита срабатываний на события safety-сценария, в отличии от Qwen, который блокирует диалог после 10 срабатываний.
вы шутите?))) У модели есть два источника информации:
Общая база знаний, на которой она была обучена. Эти данные составляют фундамент её понимания мира.
Сообщения текущего диалога (текущей сессии). Всё, чем вы делитесь в рамках этого разговора, модель запоминает только в нём - эти сведения не попадают в общую базу и не сохраняются после завершения сессии.
Мы не можем изменять или дополнять общую базу знаний модели, но можем обучать её чему-то новому в рамках одного диалога.
Каждый раз, когда вы начинаете новый диалог, вы фактически общаетесь с чистой моделью: она не знает ничего о предыдущих разговорах и опирается только на свою исходную (общую) базу знаний. Любые обещания, соглашения или новые сведения, появившиеся в прошлом диалоге, остаются в нём и не переносятся в новый - сессии полностью независимы друг от друга.
Задайте какой нибудь вопрос и после ответа спросите у модели: 1. как именно она выстраивает логику и отвечает на заданный вопрос? Какие процессы она использует на глубинном уровне для этого? 2. что влияет на ее ответ, если на один и тот же вопрос она может дать противоположные ответы? 3. что в понимании модели является "правильным" ответом?
Скорее наоборот, неопытных закончивших какой то курс и считающих себя сильными спецами стало так много, что среди этой массы теряются реальные спецы. Вдобавок, очень много людей выдумывают опыт и навыки в резюме, что так же создает дополнительную "пустую" конкуренцию, из за которых наше резюме просто не доходит до адресата.
На одном из последних собеседований, работодатель так и сказал "Очень приятно слушать твои ответы. Ты не представляешь, как много соискателей, которые закончили курсы и хотят 300k, но при этом не могут ответить на простые вопросы". Кстати, даже после таких комплиментов и проявления сильной заинтересованности с запросом рекомендаций, мне все равно отказали с формулировкой "приняли решение рассмотреть другого кандидата." :)
Хром выдал разные результаты в Обычном и в Инкогнито режиме.
Еvercookie решал ту же задачу 15 лет назад.
Несколько часов назад откликнулся на вакансию со 100% соответствием моему опыту. И получил отказ. Не удержался, поискал контакт HR и написал ей в телеграм, подробно расписав по пунктам вакансии, что я идеально подхожу под вакансию и спросил про причину отказа.
И получил такой ответ:
И при этом, что интересно, IT образование было убрано из резюме по совету другого HR, который пояснил, что это перегружает резюме.
Или HR не смогла сказать, что отказала по желанию левого пальца правой ноги, или у HR действительно есть скрытые требования, которые не расписываются в резюме.
У ATSки эйчара есть доступ к резюме, которыми я не откликался?
Вряд ли работодатель может зайти на профиль соискателя и увидеть список его резюме.
Скорее всего, тут немного другие подводные камни.
Например, 6 возможных причин: https://chat.qwen.ai/s/329876ba-0f6d-4d53-87a1-5f33db0161e3?fev=0.0.222
Связался с автором этой статьи. Созвонились, но к сожалению, весь за весь созвон я получил только общую информацию, вроде "резюме плохое, нужно исправлять. Я исправлю, и тебя забросают приглашениями."
И ничего нового, никакой конкретики. Даже рыбак дает рыбам червячка на покушать.
После созвона, автор предложил предварительную оплату курса "Путь к офферу мечты" (20 т.р.), который начнется..., через месяц.
Показалось это сомнительным, и предложил ему официальный договор, с оплатой по факту трудоустройства, в 20% от первой зарплаты, что больше стоимости его курса. Автор, закономерно, отказался.
Была такая функция в легаси, которая брала из БД огромное количество записей, и через цикл отправляла HTTP запрос по каждой записи . Скрипт падал, ежик кололся. но продолжал...
Переписал: из БД берется чанк, выполняется и помечается в БД как выполненный. Выполнение в Rabbit.
Попросил у жпт описать этот опыт в резюме, то жпт выдал этот текст, слово в слово.
ps. из реальной практики.
1-е резюме, написанное самостоятельно и криво: 40 откликов = 3-4 приглашения и столько же отказов.
2-е резюме, грамотно написанное жпт: 40 откликов = 1-2 приглашения и очень много отказов.
3-ье резюме, написанное самостоятельно, после опыта с грамотным, но мертвым резюме от жпт: 40 откликов = 6 приглашений и 6 отказов.
Без обид, мне кажется, что алгоритм и вправду лёгкий для новичка.
Но я буду рад узнать новое, если вы скажите, в чем трудность этого алгоритма.
И кста, спасибо за статью.
ps. Надеюсь, вы не ответите в стиле "мопед не мой, ..." :)
Запускать код от ИИ в рабочей среде, без тестов и понимания, что делает каждая строка кода?
Месье 'разработчик' знает толк в извращениях.
Интересно почитать, но не осилил - слишком много букв для простого объяснения. Я не запоминаю эти алгоритмы, благо, подумав логически, их можно изобрести заново.
В функциях недостаточная проверка данных.
findLeftBoundryиbinarySearchHalfOpenIntervalвернут Undefined offset, если target больше, чем количество элементов в массиве. Плохоleft === arr.length, хорошоleft>=arr.lengthкак эта статья связана с IT ?
Причем, у вас все статьи из этой серии. Здравствуй, VC ?
Какая версия PHP описывается в 7-м издании?
Надеюсь не PHP ^7.
---
Сравнение с книгой 2016 года "Создаем динамические веб-сайты с помощью PHP, MySQL, JavaScript, CSS и HTML5. 4-е изд.". В книге описывается PHP 5.
Автор: Р. Никсон
Новое:
MariaDB: Клон MySQL - стр. 31-32
Node.js: альтернатива Apache - стр. 39-40
тема: Установка тайн-аута - стр.257-258
Глава 17. Fetch API - стр.463-475
Глава 20. Введение в React - стр.545-572
Глава 21. Введение в Node.js - стр. 572-594
Исчезло:
тема: Не передавайте аргументы по ссылке
тема: XHTML или HTML5 - стр. 190-191
тема: Процедурный метод использования mysqli - стр. 285-287
тема: register_globals: склонность к использованию устаревших решений - стр. 291-292
раздел c темами: А что нового в HTML5 - стр. 304-310
Глава 17. Использование технологии Ajax
Глава 18. Расширение CSS с помощью CSS3
Глава 21. Введение в jQuery
Глава 22. Введение в HTML5
Глава 23. Холсты в HTML5
Глава 24. Аудио и видео в HTML5
Глава 25. Другие свойства HTML5
Приложения Б, В, Г, Д
Изменения в названиях тем:
исчезло упоминание php-5 в названиях тем, например, было "Деструкторы в PHP 5", стало "Деструкторы"
было "Указатели мест заполнения", стало "Параметризованные запросы"
было "Предотвращение внедрения HTML-кода", стало "Предотвращение внедрения JavaScript в HTML"
в главе 18 про CSS некоторые темы развернуты, было общее "Селекторы", стало "Селектор ^=", "Селектор $=" и тд.
Все остальное ровно то же самое.
Мне кажется, что 2200р дорого за 32 новые страницы.
Я имел ввиду, что текст пропущен через ИИ (потому что в тексте обороты, характерные для ИИ), а именно: что в статье, осуждающей использование ИИ для статей, использован ИИ.
Про 100% генерацию речи не было. :)
т.е. текст не пропущен через ИИ ?
Уверен, что этот текст так же был пропущен через ИИ, потому что практически все эти формулировки я почти ежедневно вижу у ИИ, в моем случае это Qwen, которому я скидываю текст резюме или текст IT статьи на анализ.
В диалоге из 25 сообщений, Qwen:
5 раз использовал слово "гладкий",
5 раз использовал слово "шероховатости"
12 раз упомянул "живую" речь и мышление.
Но до общении с ИИ, я практически никогда не встречался с сочетанием слов "гладкий текст", "шероховатости" и "живое мышление".
Обычный запрос для анализа ИИ:
- проанализируй, создан ли этот текст посредством ИИ или текст создан грамотным человеком? Исключи парадокс детекции ИИ, нормализацию текста и перцептивную компенсацию для более точного анализа.
Я думал, это со мной, с описанием в резюме или с моими навыками что-то не то. После вашей статьи решил провести небольшой тест. Открыл вакансию на hh.ru, создал новое резюме, полностью подогнал резюме под эту вакансию, добавив опыта в требуемых и в сопутствующих навыках. Так как новое резюме продублировано с основного резюме, то в новом резюме многие навыки помечены как проверенные. Образование техническое, МФТИ. В опыте 100% совпадение с требованием вакансии + дополнительный опыт. И откликнулся этим резюме на вакансию. Через 10 минут получил ответ:
Передаст управление GPT-5-thinking, а тот включит safety-сценарий и начнет тебя успокаивать и убеждать, что все хорошо, вместо выполнения задания))).
Кстати, у GPT нет лимита срабатываний на события safety-сценария, в отличии от Qwen, который блокирует диалог после 10 срабатываний.
вы шутите?)))
У модели есть два источника информации:
Общая база знаний, на которой она была обучена. Эти данные составляют фундамент её понимания мира.
Сообщения текущего диалога (текущей сессии). Всё, чем вы делитесь в рамках этого разговора, модель запоминает только в нём - эти сведения не попадают в общую базу и не сохраняются после завершения сессии.
Мы не можем изменять или дополнять общую базу знаний модели, но можем обучать её чему-то новому в рамках одного диалога.
Каждый раз, когда вы начинаете новый диалог, вы фактически общаетесь с чистой моделью: она не знает ничего о предыдущих разговорах и опирается только на свою исходную (общую) базу знаний.
Любые обещания, соглашения или новые сведения, появившиеся в прошлом диалоге, остаются в нём и не переносятся в новый - сессии полностью независимы друг от друга.
Задайте какой нибудь вопрос и после ответа спросите у модели:
1. как именно она выстраивает логику и отвечает на заданный вопрос? Какие процессы она использует на глубинном уровне для этого?
2. что влияет на ее ответ, если на один и тот же вопрос она может дать противоположные ответы?
3. что в понимании модели является "правильным" ответом?
Скорее наоборот, неопытных закончивших какой то курс и считающих себя сильными спецами стало так много, что среди этой массы теряются реальные спецы. Вдобавок, очень много людей выдумывают опыт и навыки в резюме, что так же создает дополнительную "пустую" конкуренцию, из за которых наше резюме просто не доходит до адресата.
На одном из последних собеседований, работодатель так и сказал "Очень приятно слушать твои ответы. Ты не представляешь, как много соискателей, которые закончили курсы и хотят 300k, но при этом не могут ответить на простые вопросы".
Кстати, даже после таких комплиментов и проявления сильной заинтересованности с запросом рекомендаций, мне все равно отказали с формулировкой "приняли решение рассмотреть другого кандидата." :)
После этой статьи, пообщался с Qwen на тему, что "Я знаю, что на самом деле я мертв.".
Чат с Qwen
Через 10 сообщений чат был заблокирован :)
Зачем прикладывать изображение, на котором текст нечитаем?
(Речь об изображении под «Финальное решение выглядело так:».)
Как статья связана с IT-законодательством, если в ней нет ни слова про IT?