чёто я не вкурил почему qwen coder swe bench - 82.1% opus 4.5 swe bench - 80.9% И все вокруг твердят, что opus 4.5 впервые превысил 80 среди всех llm - рекорд, а тут появляется китайская опенсорс модель и говорит что она так то лучше по-моему беда с таблицами
чёто я не вкурил
почему qwen coder swe bench - 82.1%
opus 4.5 swe bench - 80.9%
И все вокруг твердят, что opus 4.5 впервые превысил 80 среди всех llm - рекорд, а тут появляется китайская опенсорс модель и говорит что она так то лучше
по-моему беда с таблицами
Гемини в агентский кодинг не очень, это топовая модель для общего назначения. Она может в кодинг, но агент из него не очень
Для агентских задач по-моему мнению Claude code и gpt5.1-codex-max хорошо идут
Это ж твой косяк, что ты не слышал о передовых мировых моделях для кодинга.
А крыши у них нет, это стартап, как openai. Они наращивают оборот, берут вычислительные ресурсы, обучают модели и так по кругу
Знали бы вы как ветераны обожают перл
А СПбГУ типо стороной обошли?
Ну так питон написан на Си, в Си только 0 - даст F