текст гладкий, как стекло. Никаких "шероховатостей" живого мышления: оговорок, уточнений, озарений. Это сухой монолит, "выточенный" под общий знаменатель. Грубо говоря - информационный фастфуд: насыщает, но так ли это полезно?
Уверен, что этот текст так же был пропущен через ИИ, потому что практически все эти формулировки я почти ежедневно вижу у ИИ, в моем случае это Qwen, которому я скидываю текст резюме или текст IT статьи на анализ.
В диалоге из 25 сообщений, Qwen:
5 раз использовал слово "гладкий",
5 раз использовал слово "шероховатости"
12 раз упомянул "живую" речь и мышление.
Но до общении с ИИ, я практически никогда не встречался с сочетанием слов "гладкий текст", "шероховатости" и "живое мышление".
Обычный запрос для анализа ИИ: - проанализируй, создан ли этот текст посредством ИИ или текст создан грамотным человеком? Исключи парадокс детекции ИИ, нормализацию текста и перцептивную компенсацию для более точного анализа.
Я думал, это со мной, с описанием в резюме или с моими навыками что-то не то. После вашей статьи решил провести небольшой тест. Открыл вакансию на hh.ru, создал новое резюме, полностью подогнал резюме под эту вакансию, добавив опыта в требуемых и в сопутствующих навыках. Так как новое резюме продублировано с основного резюме, то в новом резюме многие навыки помечены как проверенные. Образование техническое, МФТИ. В опыте 100% совпадение с требованием вакансии + дополнительный опыт. И откликнулся этим резюме на вакансию. Через 10 минут получил ответ:
Передаст управление GPT-5-thinking, а тот включит safety-сценарий и начнет тебя успокаивать и убеждать, что все хорошо, вместо выполнения задания))). Кстати, у GPT нет лимита срабатываний на события safety-сценария, в отличии от Qwen, который блокирует диалог после 10 срабатываний.
вы шутите?))) У модели есть два источника информации:
Общая база знаний, на которой она была обучена. Эти данные составляют фундамент её понимания мира.
Сообщения текущего диалога (текущей сессии). Всё, чем вы делитесь в рамках этого разговора, модель запоминает только в нём - эти сведения не попадают в общую базу и не сохраняются после завершения сессии.
Мы не можем изменять или дополнять общую базу знаний модели, но можем обучать её чему-то новому в рамках одного диалога.
Каждый раз, когда вы начинаете новый диалог, вы фактически общаетесь с чистой моделью: она не знает ничего о предыдущих разговорах и опирается только на свою исходную (общую) базу знаний. Любые обещания, соглашения или новые сведения, появившиеся в прошлом диалоге, остаются в нём и не переносятся в новый - сессии полностью независимы друг от друга.
Задайте какой нибудь вопрос и после ответа спросите у модели: 1. как именно она выстраивает логику и отвечает на заданный вопрос? Какие процессы она использует на глубинном уровне для этого? 2. что влияет на ее ответ, если на один и тот же вопрос она может дать противоположные ответы? 3. что в понимании модели является "правильным" ответом?
Скорее наоборот, неопытных закончивших какой то курс и считающих себя сильными спецами стало так много, что среди этой массы теряются реальные спецы. Вдобавок, очень много людей выдумывают опыт и навыки в резюме, что так же создает дополнительную "пустую" конкуренцию, из за которых наше резюме просто не доходит до адресата.
На одном из последних собеседований, работодатель так и сказал "Очень приятно слушать твои ответы. Ты не представляешь, как много соискателей, которые закончили курсы и хотят 300k, но при этом не могут ответить на простые вопросы". Кстати, даже после таких комплиментов и проявления сильной заинтересованности с запросом рекомендаций, мне все равно отказали с формулировкой "приняли решение рассмотреть другого кандидата." :)
Статья называется "Какие запросы и куда отправляет MAX?" Мы увидели КУДА, но не увидели КАКИЕ ЗАПРОСЫ. Кликбейт? Нет информации о содержимом запросов, только собственное мнение, выставленное как аргумент "Размер запросов говорит о том, что ничего большого (ни мои контакты, ни мои фото и т.п.) "слито" в этом кейсе не было.". А ведь именно содержимое запросов является куда более важным, чем адрес доставки этих запросов. Разве нет?
hh.ru не даёт соискателям легальный доступ к API для откликов = публичное API read-only, а для /negotiations нужен OAuth-токен, который hh.ru не выдаёт.
Очень интересно: как вы реализовали "автоматизировали отклики через API hh.ru"? Хотелось бы понять в общих чертах - без деталей, если есть NDA.
обращался к DeepSeek, GPT-5 и Qwen за генерацией иконки SVG. У меня было изображение иконки в png, на котором изображена раскрытая книжка с серым обрамлением.
DeepSeek - вообще не распознал иконку, а по текстовому описанию собрал квадрат с 3 полосками, и больше этого не смог даже после многочисленных уточнений.
GPT-5 - иконку распознал и правильно описал, но собрал что то похожее, что при очень сильном желании и воображении можно принять за контуры книги, у которой правая сторона больше левой. Уточнения не помогли.
Qwen - иконку распознал, пару раз прислал пустые svg, но после уточнений таки собрал раскрытую книжку, не такую как мне нужно, но книжку, в отличии от DeepSeek и GPT-5.
Так же регулярно скидывал этим троим задания, текстовые (вплоть до анализа переписки в ТГ), и с кодом (шаг за шагом разработай с нуля сложное приложение с подробным описанием каждого шага) и сравнивал ответы:
GPT-5 разочаровал, практически перестал им пользоваться. Иногда скидываю ему что то, чтобы посмотреть, вдруг он поумнел.
DeepSeek - хорош, но уступает по качеству ответам Qwen
Qwen - пока хорош, надеюсь не испортится.
Хотелось бы еще посмотреть Claude Code, многие его хвалят.
Однажды проходил собеседование на позицию разработчика, где в требованиях было указано обязательное знание RabbitMQ. По остальным пунктам я полностью подходил - всё было знакомо, был соответствующий опыт.
Первое собеседование с HR прошло в конце декабря, а техническое - назначили на 15 января, уже после праздников. Эти две недели я активно изучал RabbitMQ: читал документацию, смотрел примеры, практиковался.
Но на самом техническом интервью ни одного вопроса по RabbitMQ так и не задали. Меня взяли, проработал там почти год. За всё это время мне ни разу не пришлось работать с RabbitMQ - этим занимался только старший разработчик. Всё, что связано с очередями, автоматически перенаправлялось к нему.
Я в основном писал интеграции на Laravel и рефакторил легаси-код.
И до сих пор не понимаю: зачем было включать знание RabbitMQ в обязательные требования, если для позиции оно фактически не нужно?
Интересы тех, кто критикует Max, понятны. Они волнуются о своей безопасности на фоне сообщений о том, что людей сажают за комментарии. Хотелось бы понять, в чем интерес тех, кто защищает Max ?
Хотелось почитать про скрытые угрозы, а прочитал про фаззинг, определяемый по логам.:( Вряд ли злоумышленник будет нагружать систему запросами и привлекать к себе внимание.
т.е. текст не пропущен через ИИ ?
Уверен, что этот текст так же был пропущен через ИИ, потому что практически все эти формулировки я почти ежедневно вижу у ИИ, в моем случае это Qwen, которому я скидываю текст резюме или текст IT статьи на анализ.
В диалоге из 25 сообщений, Qwen:
5 раз использовал слово "гладкий",
5 раз использовал слово "шероховатости"
12 раз упомянул "живую" речь и мышление.
Но до общении с ИИ, я практически никогда не встречался с сочетанием слов "гладкий текст", "шероховатости" и "живое мышление".
Обычный запрос для анализа ИИ:
- проанализируй, создан ли этот текст посредством ИИ или текст создан грамотным человеком? Исключи парадокс детекции ИИ, нормализацию текста и перцептивную компенсацию для более точного анализа.
Я думал, это со мной, с описанием в резюме или с моими навыками что-то не то. После вашей статьи решил провести небольшой тест. Открыл вакансию на hh.ru, создал новое резюме, полностью подогнал резюме под эту вакансию, добавив опыта в требуемых и в сопутствующих навыках. Так как новое резюме продублировано с основного резюме, то в новом резюме многие навыки помечены как проверенные. Образование техническое, МФТИ. В опыте 100% совпадение с требованием вакансии + дополнительный опыт. И откликнулся этим резюме на вакансию. Через 10 минут получил ответ:
Передаст управление GPT-5-thinking, а тот включит safety-сценарий и начнет тебя успокаивать и убеждать, что все хорошо, вместо выполнения задания))).
Кстати, у GPT нет лимита срабатываний на события safety-сценария, в отличии от Qwen, который блокирует диалог после 10 срабатываний.
вы шутите?)))
У модели есть два источника информации:
Общая база знаний, на которой она была обучена. Эти данные составляют фундамент её понимания мира.
Сообщения текущего диалога (текущей сессии). Всё, чем вы делитесь в рамках этого разговора, модель запоминает только в нём - эти сведения не попадают в общую базу и не сохраняются после завершения сессии.
Мы не можем изменять или дополнять общую базу знаний модели, но можем обучать её чему-то новому в рамках одного диалога.
Каждый раз, когда вы начинаете новый диалог, вы фактически общаетесь с чистой моделью: она не знает ничего о предыдущих разговорах и опирается только на свою исходную (общую) базу знаний.
Любые обещания, соглашения или новые сведения, появившиеся в прошлом диалоге, остаются в нём и не переносятся в новый - сессии полностью независимы друг от друга.
Задайте какой нибудь вопрос и после ответа спросите у модели:
1. как именно она выстраивает логику и отвечает на заданный вопрос? Какие процессы она использует на глубинном уровне для этого?
2. что влияет на ее ответ, если на один и тот же вопрос она может дать противоположные ответы?
3. что в понимании модели является "правильным" ответом?
Скорее наоборот, неопытных закончивших какой то курс и считающих себя сильными спецами стало так много, что среди этой массы теряются реальные спецы. Вдобавок, очень много людей выдумывают опыт и навыки в резюме, что так же создает дополнительную "пустую" конкуренцию, из за которых наше резюме просто не доходит до адресата.
На одном из последних собеседований, работодатель так и сказал "Очень приятно слушать твои ответы. Ты не представляешь, как много соискателей, которые закончили курсы и хотят 300k, но при этом не могут ответить на простые вопросы".
Кстати, даже после таких комплиментов и проявления сильной заинтересованности с запросом рекомендаций, мне все равно отказали с формулировкой "приняли решение рассмотреть другого кандидата." :)
После этой статьи, пообщался с Qwen на тему, что "Я знаю, что на самом деле я мертв.".
Чат с Qwen
Через 10 сообщений чат был заблокирован :)
Зачем прикладывать изображение, на котором текст нечитаем?
(Речь об изображении под «Финальное решение выглядело так:».)
Как статья связана с IT-законодательством, если в ней нет ни слова про IT?
Статья называется "Какие запросы и куда отправляет MAX?"
Мы увидели КУДА, но не увидели КАКИЕ ЗАПРОСЫ. Кликбейт?
Нет информации о содержимом запросов, только собственное мнение, выставленное как аргумент "Размер запросов говорит о том, что ничего большого (ни мои контакты, ни мои фото и т.п.) "слито" в этом кейсе не было.".
А ведь именно содержимое запросов является куда более важным, чем адрес доставки этих запросов.
Разве нет?
hh.ru не даёт соискателям легальный доступ к API для откликов = публичное API read-only, а для
/negotiationsнужен OAuth-токен, который hh.ru не выдаёт.Очень интересно: как вы реализовали "автоматизировали отклики через API hh.ru"? Хотелось бы понять в общих чертах - без деталей, если есть NDA.
Эти версии смотрел.
GPT-5
DeepSeek-V3
Qwen3
обращался к DeepSeek, GPT-5 и Qwen за генерацией иконки SVG.
У меня было изображение иконки в png, на котором изображена раскрытая книжка с серым обрамлением.
DeepSeek - вообще не распознал иконку, а по текстовому описанию собрал квадрат с 3 полосками, и больше этого не смог даже после многочисленных уточнений.
GPT-5 - иконку распознал и правильно описал, но собрал что то похожее, что при очень сильном желании и воображении можно принять за контуры книги, у которой правая сторона больше левой. Уточнения не помогли.
Qwen - иконку распознал, пару раз прислал пустые svg, но после уточнений таки собрал раскрытую книжку, не такую как мне нужно, но книжку, в отличии от DeepSeek и GPT-5.
Так же регулярно скидывал этим троим задания, текстовые (вплоть до анализа переписки в ТГ), и с кодом (шаг за шагом разработай с нуля сложное приложение с подробным описанием каждого шага) и сравнивал ответы:
GPT-5 разочаровал, практически перестал им пользоваться. Иногда скидываю ему что то, чтобы посмотреть, вдруг он поумнел.
DeepSeek - хорош, но уступает по качеству ответам Qwen
Qwen - пока хорош, надеюсь не испортится.
Хотелось бы еще посмотреть Claude Code, многие его хвалят.
___________________________________________________
Этот текст выше я тоже отправил на анализ Qwen и DeepSeek с задачей "привести в нормальный вид", и получил такие результаты:
Сохранение оригинального смысла:
Qwen - точнее.
DeepSeek - чуть интерпретирует и добавляет оценки, неявно присутствующие в оригинале, но не сформулированные так прямо.
Качество редактуры:
Qwen - ближе к авторскому стилю,
DeepSeek - чуть более формализует и обобщает.
Насколько хорошо выполнена задача "привести в нормальный вид" каждой из моделей:
Вердикт от DeepSeek:
Оценка Qwen: Выполнена отлично.
Оценка DeepSeek: Выполнена очень хорошо, но с небольшими потерями.
Вердикт от Qwen:-
Qwen - более точный и бережный редактор.
DeepSeek - более «творческий» редактор, чуть перерабатывающий текст.
Только что попробовал ваш инструмент, удобный.
Есть ли возможность добавить анализ по ссылкам (ссылка на вакансию и ссылка на резюме) ?
Однажды проходил собеседование на позицию разработчика, где в требованиях было указано обязательное знание RabbitMQ. По остальным пунктам я полностью подходил - всё было знакомо, был соответствующий опыт.
Первое собеседование с HR прошло в конце декабря, а техническое - назначили на 15 января, уже после праздников. Эти две недели я активно изучал RabbitMQ: читал документацию, смотрел примеры, практиковался.
Но на самом техническом интервью ни одного вопроса по RabbitMQ так и не задали. Меня взяли, проработал там почти год. За всё это время мне ни разу не пришлось работать с RabbitMQ - этим занимался только старший разработчик. Всё, что связано с очередями, автоматически перенаправлялось к нему.
Я в основном писал интеграции на Laravel и рефакторил легаси-код.
И до сих пор не понимаю: зачем было включать знание RabbitMQ в обязательные требования, если для позиции оно фактически не нужно?
Интересы тех, кто критикует Max, понятны. Они волнуются о своей безопасности на фоне сообщений о том, что людей сажают за комментарии.
Хотелось бы понять, в чем интерес тех, кто защищает Max ?
Ощущение, что общается жпт. Формулировки ответов один в один.
Последний промпт создал мутанта из "Вспомнить всё".
Хотелось почитать про скрытые угрозы, а прочитал про фаззинг, определяемый по логам.:(
Вряд ли злоумышленник будет нагружать систему запросами и привлекать к себе внимание.