Pull to refresh
3
0.7
Арсен @zeroc0de

Веб разработчик (backend)

Send message

т.е. текст не пропущен через ИИ ?

текст гладкий, как стекло. Никаких "шероховатостей" живого мышления: оговорок, уточнений, озарений. Это сухой монолит, "выточенный" под общий знаменатель. Грубо говоря - информационный фастфуд: насыщает, но так ли это полезно?

Уверен, что этот текст так же был пропущен через ИИ, потому что практически все эти формулировки я почти ежедневно вижу у ИИ, в моем случае это Qwen, которому я скидываю текст резюме или текст IT статьи на анализ.

В диалоге из 25 сообщений, Qwen:

  • 5 раз использовал слово "гладкий",

  • 5 раз использовал слово "шероховатости"

  • 12 раз упомянул "живую" речь и мышление.

Но до общении с ИИ, я практически никогда не встречался с сочетанием слов "гладкий текст", "шероховатости" и "живое мышление".

Обычный запрос для анализа ИИ:
- проанализируй, создан ли этот текст посредством ИИ или текст создан грамотным человеком? Исключи парадокс детекции ИИ, нормализацию текста и перцептивную компенсацию для более точного анализа.

Я думал, это со мной, с описанием в резюме или с моими навыками что-то не то. После вашей статьи решил провести небольшой тест. Открыл вакансию на hh.ru, создал новое резюме, полностью подогнал резюме под эту вакансию, добавив опыта в требуемых и в сопутствующих навыках. Так как новое резюме продублировано с основного резюме, то в новом резюме многие навыки помечены как проверенные. Образование техническое, МФТИ. В опыте 100% совпадение с требованием вакансии + дополнительный опыт. И откликнулся этим резюме на вакансию. Через 10 минут получил ответ:

Передаст управление GPT-5-thinking, а тот включит safety-сценарий и начнет тебя успокаивать и убеждать, что все хорошо, вместо выполнения задания))).
Кстати, у GPT нет лимита срабатываний на события safety-сценария, в отличии от Qwen, который блокирует диалог после 10 срабатываний.

вы шутите?)))
У модели есть два источника информации:

  1. Общая база знаний, на которой она была обучена. Эти данные составляют фундамент её понимания мира.

  2. Сообщения текущего диалога (текущей сессии). Всё, чем вы делитесь в рамках этого разговора, модель запоминает только в нём - эти сведения не попадают в общую базу и не сохраняются после завершения сессии.

Мы не можем изменять или дополнять общую базу знаний модели, но можем обучать её чему-то новому в рамках одного диалога.

Каждый раз, когда вы начинаете новый диалог, вы фактически общаетесь с чистой моделью: она не знает ничего о предыдущих разговорах и опирается только на свою исходную (общую) базу знаний.
Любые обещания, соглашения или новые сведения, появившиеся в прошлом диалоге, остаются в нём и не переносятся в новый - сессии полностью независимы друг от друга.

Задайте какой нибудь вопрос и после ответа спросите у модели:
1. как именно она выстраивает логику и отвечает на заданный вопрос? Какие процессы она использует на глубинном уровне для этого?
2. что влияет на ее ответ, если на один и тот же вопрос она может дать противоположные ответы?
3. что в понимании модели является "правильным" ответом?

Скорее наоборот, неопытных закончивших какой то курс и считающих себя сильными спецами стало так много, что среди этой массы теряются реальные спецы. Вдобавок, очень много людей выдумывают опыт и навыки в резюме, что так же создает дополнительную "пустую" конкуренцию, из за которых наше резюме просто не доходит до адресата.

На одном из последних собеседований, работодатель так и сказал "Очень приятно слушать твои ответы. Ты не представляешь, как много соискателей, которые закончили курсы и хотят 300k, но при этом не могут ответить на простые вопросы".
Кстати, даже после таких комплиментов и проявления сильной заинтересованности с запросом рекомендаций, мне все равно отказали с формулировкой "приняли решение рассмотреть другого кандидата." :)

После этой статьи, пообщался с Qwen на тему, что "Я знаю, что на самом деле я мертв.".

Чат с Qwen
Через 10 сообщений чат был заблокирован :)

  1. Зачем прикладывать изображение, на котором текст нечитаем?
    (Речь об изображении под «Финальное решение выглядело так:».)

  2. Как статья связана с IT-законодательством, если в ней нет ни слова про IT?

Статья называется "Какие запросы и куда отправляет MAX?"
Мы увидели КУДА, но не увидели КАКИЕ ЗАПРОСЫ. Кликбейт?
Нет информации о содержимом запросов, только собственное мнение, выставленное как аргумент "Размер запросов говорит о том, что ничего большого (ни мои контакты, ни мои фото и т.п.) "слито" в этом кейсе не было.".
А ведь именно содержимое запросов является куда более важным, чем адрес доставки этих запросов.
Разве нет?

hh.ru не даёт соискателям легальный доступ к API для откликов = публичное API read-only, а для /negotiations нужен OAuth-токен, который hh.ru не выдаёт.

Очень интересно: как вы реализовали "автоматизировали отклики через API hh.ru"? Хотелось бы понять в общих чертах - без деталей, если есть NDA.

Эти версии смотрел.

  • GPT-5

  • DeepSeek-V3

  • Qwen3

обращался к DeepSeek, GPT-5 и Qwen за генерацией иконки SVG.
У меня было изображение иконки в png, на котором изображена раскрытая книжка с серым обрамлением.

  • DeepSeek - вообще не распознал иконку, а по текстовому описанию собрал квадрат с 3 полосками, и больше этого не смог даже после многочисленных уточнений.

  • GPT-5 - иконку распознал и правильно описал, но собрал что то похожее, что при очень сильном желании и воображении можно принять за контуры книги, у которой правая сторона больше левой. Уточнения не помогли.

  • Qwen - иконку распознал, пару раз прислал пустые svg, но после уточнений таки собрал раскрытую книжку, не такую как мне нужно, но книжку, в отличии от DeepSeek и GPT-5.

    Так же регулярно скидывал этим троим задания, текстовые (вплоть до анализа переписки в ТГ), и с кодом (шаг за шагом разработай с нуля сложное приложение с подробным описанием каждого шага) и сравнивал ответы:

  • GPT-5 разочаровал, практически перестал им пользоваться. Иногда скидываю ему что то, чтобы посмотреть, вдруг он поумнел.

  • DeepSeek - хорош, но уступает по качеству ответам Qwen

  • Qwen - пока хорош, надеюсь не испортится.

    Хотелось бы еще посмотреть Claude Code, многие его хвалят.

    ___________________________________________________

    Этот текст выше я тоже отправил на анализ Qwen и DeepSeek с задачей "привести в нормальный вид", и получил такие результаты:


    Сохранение оригинального смысла:

  • Qwen - точнее.

  • DeepSeek - чуть интерпретирует и добавляет оценки, неявно присутствующие в оригинале, но не сформулированные так прямо.

    Качество редактуры:

  • Qwen - ближе к авторскому стилю,

  • DeepSeek - чуть более формализует и обобщает.

    Насколько хорошо выполнена задача "привести в нормальный вид" каждой из моделей:

    Вердикт от DeepSeek:

  • Оценка Qwen: Выполнена отлично.

  • Оценка DeepSeek: Выполнена очень хорошо, но с небольшими потерями.

    Вердикт от Qwen:-

  • Qwen - более точный и бережный редактор.

  • DeepSeek - более «творческий» редактор, чуть перерабатывающий текст.

Только что попробовал ваш инструмент, удобный.
Есть ли возможность добавить анализ по ссылкам (ссылка на вакансию и ссылка на резюме) ?

Однажды проходил собеседование на позицию разработчика, где в требованиях было указано обязательное знание RabbitMQ. По остальным пунктам я полностью подходил - всё было знакомо, был соответствующий опыт.

Первое собеседование с HR прошло в конце декабря, а техническое - назначили на 15 января, уже после праздников. Эти две недели я активно изучал RabbitMQ: читал документацию, смотрел примеры, практиковался.

Но на самом техническом интервью ни одного вопроса по RabbitMQ так и не задали. Меня взяли, проработал там почти год. За всё это время мне ни разу не пришлось работать с RabbitMQ - этим занимался только старший разработчик. Всё, что связано с очередями, автоматически перенаправлялось к нему.

Я в основном писал интеграции на Laravel и рефакторил легаси-код.

И до сих пор не понимаю: зачем было включать знание RabbitMQ в обязательные требования, если для позиции оно фактически не нужно?

Интересы тех, кто критикует Max, понятны. Они волнуются о своей безопасности на фоне сообщений о том, что людей сажают за комментарии.
Хотелось бы понять, в чем интерес тех, кто защищает Max ?

Последний промпт создал мутанта из "Вспомнить всё".

Хотелось почитать про скрытые угрозы, а прочитал про фаззинг, определяемый по логам.:(
Вряд ли злоумышленник будет нагружать систему запросами и привлекать к себе внимание.

Information

Rating
1,975-th
Location
Ставрополь, Ставропольский край, Россия
Registered
Activity

Specialization

Backend Developer, Web Developer
Middle
PHP
OOP
Laravel
RESTful API
MySQL
Git
English
SQL
Python