Qwen-Code - самая жирная халява. Анлим по токенам, контекстное окно в 1 лям токенов, 4к запросов в день, и всё это бесплатно.
Очередной подгончик от китайцев :)

AI, ANN и иные формы искусственного разума
Недавно у нас в университете ИТМО прошел форсайт, посвященный видению развития отдельных направлений искусственного интеллекта на ближайшее будущее. Были приглашены эксперты из Индии и Китая, которые рассказали о развивающихся в их странах направлениях ИИ. В том числе выступали и наши эксперты.
Мне тоже удалось выступить. Я рассказывал о временных рядах, а именно о «изощренных» методах их прогнозирования и генерации на основе физически-информированных нейронных сетей. По этому поводу можно обратиться к другим моим статьям на хабре или в блоге.
Вот к каким трем основным направлениям развития ИИ в ближайшие 5-10 лет пришло большинство экспертов:
1. Вопросы эффективности. Развитие современных методов активно порождает вопросы эффективности как программного обеспечения, так и аппаратного обеспечения («железа»). Сейчас создают очень большие модели, для обучения которых требуются тысячи видеокарт. Для инференса этих моделей требуется меньше ресурсов, но это все равно затратно. Сейчас, например, актуальны методы квантизации больших моделей. В этой области ведется много исследований. Также ученые ищут подходы к более эффективному использованию железа, например, как оптимальнее оркестрировать поток задач.
2. Биологически правдоподобные модели. Вторым направлением можно выделить построение новых моделей машинного обучения на основе принципов работы биологических нейронных сетей. Наш мозг очень эффективно обрабатывает входящую информацию: в каждый момент времени активируются не все нейроны сразу, а только те, которые нужны для текущей задачи. Кстати, если бы работали все нейроны одновременно, то в голове возник бы шум, и мы не смогли бы сконцентрироваться на чем-то одном.
А в классических нейронных сетях все не так — там задействуются все нейроны одновременно. Исключением являются модели Mixture of Experts (смесь экспертов). Их принцип работы можно вообразить так: представьте, что вы задаете нейронной сети вопрос по математике. Очевидно, что в данный момент не нужно задействовать знания по биологии, истории и т.д. В MoE есть специальный блок — маршрутизатор (router) — который отвечает за перенаправление запроса к тому или иному «эксперту». Конечно, он может направить запрос сразу к нескольким экспертам, если вопрос затрагивает разные области знаний.
На практике нет такого явного тематического разделения экспертов, обычно они подбираются и обучаются самостоятельно для наилучшей генерации той или иной последовательности. И обычно эксперты активируются не для всего запроса целиком, а для отдельных токенов (например, слов) внутри этого запроса.
В общем, направление верное, собственно все чат боты сегодня строят на этой архитектуре. Однако в реальном биологическом мозге эта система представляет собой гораздо более сложную структуру. В мозге взрослого человека около 86 миллиардов нейронов и на каждом нейроне может быть от 5 до 10 тысяч синаптических связей. Как можно понять, плотность связей в нашем мозге чрезвычайно высока.
3. Фундаментальные мультимодальные модели и новая математика.
Наконец, последнее направление связано с созданием не просто языковых моделей, а фундаментальных моделей, работающих с разными модальностями (типами данных). На самом деле, любую информацию можно свести к языку — даже математические формулы можно просто описать словами. Однако в этом направлении предлагается переосмыслить текущие подходы и развивать модели с новой математикой для описания этих различных модальностей.
Также до сих пор нет единого математического обоснования нейронных сетей, лишь отдельные области и лишь отдельная математика. А когда будет единая теория не ясно.
В общем, есть куда двигаться. А как вы считаете какие направления появятся или переосмыслят в ближайшее 5-10 лет? Пишите комментарии, будет интересно почитать.
Мой блог: kirill_zakharov_blog

На Хабре только и разговоров что про ИИ. Он уже пишет код, пилотирует ракеты и, кажется, вот-вот отнимет у нас последнюю кружку с кофе на офисной кухне.
В топы залетают статьи про увольнения, будущее LLM-моделей, новости про OpenAI. Их активно обсуждают, ругаются, соглашаются. И всё меньше говорят о прошлом, о том, как всё начиналось.
А зря.
Скоро никто не ответит с ходу, почему счёт начинается с нуля, а не с единицы. Да уже сейчас многие испуганно полезут в ChatGPT.
А ведь за этим стоят фундаментальные решения, архитектурные баталии и гениальные озарения, которые определили всё, с чем мы работаем сегодня. Помнить о них — значит не наступать на пусть и симпатичные, но всё-таки грабли прошлых ошибок.
Мы в Профи.ру решили, что День программиста — идеальный повод устроить себе исторический reset --soft. Проверить, насколько мы, айтишники, помним и ценим своё прошлое.
Поэтому сделали тест, в котором погуляем по разным эпохам в ИТ.
Актуалочку тоже добавили — нагенерили красивых ИИ-картинок в Sora для каждой эпохи.
Если что, мы не хотим вас проверять и оценивать. Просто решили дать повод улыбнуться и отвлечься от рутинных задач.
А вы как думаете? Мы слишком забываем о прошлом? Или это естественный ход вещей? Делитесь мнением и своими результатами в комментах.
А ещё советуйте интересные вопросы, которые можно было бы добавить в этот тест :)
Нейросети в QA. Подборка важнейших кейсов применения.

Искусственный интеллект в QA – это уже не теория из будущего, а практический инструмент, доступный здесь и сейчас. Пока одни спорят, заменит ли ИИ тестировщика, другие уже используют его, чтобы избавиться от рутины и сосредоточиться на действительно сложных задачах.
Нейросети способны взять на себя генерацию тестовых данных, помочь в написании автотестов, проанализировать тысячи строк логов и даже превратить технический отчет в понятный документ для бизнес-команды. В этом коротком посте я собрал подборку конкретных кейсов, которые помогут вам сделать работу быстрее, качественнее и интереснее.
Кейсы по использованию нейросетей в QA
Генерация тест-кейсов на основе требований
Подготовка позитивных и негативных тестовых данных
Адаптация и улучшение баг-репортов
Перевод сценариев в формат Gherkin (Given-When-Then)
Генерация идей для негативного тестирования
Автоматический анализ логов ошибок
Помощь в написании автотестов и шаблонов
Конвертация технической информации в пользовательские инструкции
Голосовое управление заведением баг-репортов и создания чек-листов
Генерация финальных отчётов по тестированию
Помощь в написании автотестов: генерация кода, шаблонов и отдельных функций для фреймворков автоматизации
Подготовка баг-таблиц и чек-листов
Создание слайдов по итогам тестирования
Автоматическая сверка ожидаемого и фактического поведения
Генерация SQL-запросов на основе текстового запроса
Перевод технических отчётов для бизнес-аудитории
Проверка качества текста / интерфейса (UX-копирайтинг)
Генерация данных для нагрузочного тестирования
Сравнение версий документации / требований
Сбор фидбэка из отзывов пользователей (тематический анализ)
Создание чат-ассистента по документации и API
Анализ требований на предмет неясностей, противоречий и неполноты
Прогнозирование областей с высокой вероятностью дефектов
Оптимизация тестовых наборов (выявление избыточных тестов)
Генерация идей для тестов безопасности
Этот список – лишь небольшая часть того, как нейросети могут усилить работу QA-инженера. Главный вывод прост: ИИ не заменяет специалиста, а становится его личным ассистентом – мощным, быстрым и безотказным. Он помогает находить неочевидные сценарии, экономить часы на подготовке данных и отчетов и, в конечном счете, повышать качество продукта. В своем коротком посте я представил лишь самые популярные примеры того как можно использовать нейросети в работе QA, но в полной коллекции под названием "70 кейсов применения нейросетей для QA" вы найдете их гораздо больше.
Сможет ли ИИ заменить юристов? Ответ — нет. И вот почему
Привет! На связи Егор Ярко, PR-директор «Технократии». Возможно, вы уже встречали наши материалы про ИИ в ленте Хабра — статьи, аналитические обзоры, новости. Теперь мы пошли дальше: делаем не только тексты, но и видеоролики по самым интересным темам.
Сегодня мы опубликовали сжатый пересказ нашего исследования о развитии индустрии LegalAI — технологий, которые автоматизируют работу юристов. Мы разобрались, насколько глубоко нейросети уже проникли в юридическую рутину и способны ли языковые модели вообще оставить юристов без работы.
Если удобнее смотреть на VK.Video, где мы тоже выложили выпуск.
Буду рад конструктивной критике — этот формат для нас пока новый, и обратная связь действительно помогает делать его лучше.
А ещё рекомендую подписаться на:
«Голос Технократии» — здесь мы собираем главные новости про технологии и дублируем ссылки на наши материалы.
«Пиарщик на зарплате» — мой личный канал про PR, маркетинг и рекламу.
Спасибо, что дочитали! Отличной пятницы и до встречи на Хабре 👋
Вышла обновленная и дополненная версия статьи Темные лошадки ИИ - Инференс LLM на майнинговых видеокартах Nvidia CMP 40HX, CMP 50HX, CMP 90HX
В новой версии добавлены проверенные данные по CMP 40HX, результаты практических тестов и реальное сравнение с RTX 3060

Хайп вокруг Gen AI достиг уровня, когда каждый второй продукт заявляет «AI-native», а каждый первый — «с AI-функцией». Много шума про «AI-агентов» и «автономные процессы». Но что стоит за этим на практике — маркетинг или новая архитектурная парадигма?
16 сентября в 17:00 (Мск) приглашаем на бесплатный вебинар «AI-агенты в бизнес-процессах: миф или реальность?», где разберём:
✔️ Архитектура: AI-агент как промежуточный слой — надстройка над API или нечто большее?
✔️ Жизненный цикл: цикл управления процессом с недетерминированной LLM?
✔️ Безопасность и контроль: как строить контрольные точки в «автономных» процессах и какие гарантии против ошибок?
✔️ Демо: соберём простой бизнес-процесс (запрос на закупку, обработка лида) на базе AI-агентов — принципы, костыли и ограничения.
🗓 Дата: 16 сентября
⏰ Время: 17:00–18:00 (Мск)
👨🎓Тренер: Коптелов Андрей — эксперт в области бизнес-анализа, управления проектами и процессами.
Continual Learning, когнитивные дневники и семантические графы: эффективное обучение ИИ
Современные ИИ-системы сталкиваются с проблемой постоянного обновления знаний. В этой статье мы рассмотрим, как continual learning, когнитивные дневники и семантические графы помогают ИИ учиться и эффективно использовать информацию
Зачем ИИ нужно учиться?
Современные ИИ не могут полагаться только на заранее подготовленные данные. Мир меняется, появляются новые знания, а задачи усложняются. ИИ, который не умеет учиться в процессе работы, быстро устаревает. Именно поэтому обучение «на лету» или continual learning необходимо для гибкой и адаптивной системы.
Классический RAG vs. структурированные знания
Важно отметить, что классический RAG (Retrieval-Augmented Generation) предоставляет в основном данные, а не знания. ИИ нужны свежие, но структурированные знания, а не просто наборы документов или текстов.
Continual Learning
Continual learning позволяет ИИ адаптироваться к новым данным без полного переобучения модели. Такой ИИ может корректировать свои выводы, интегрировать свежую информацию и улучшать свои решения со временем.
Однако прямое обучение на новых данных несёт риск: низкокачественная информация может ухудшить модель. Для безопасного использования continual learning требуется механизм предварительного анализа информации, который отсекает вредное и выбирает полезное для обучения.
Когнитивные дневники
Когнитивные дневники позволяют ИИ фиксировать знания и опыт, структурировать их и возвращаться к ним при необходимости.
Пример аналогии с человеком: студент на паре делает конспект, но не может сразу выучить весь материал. Дома он анализирует конспект, сверяется с предыдущими записями и уже имеющимися знаниями, переосмысливает и дополняет. Когнитивные дневники позволяют ИИ действовать так же — запоминать, структурировать и переосмысливать информацию.
Семантические графы
Семантические графы помогают структурировать знания, связывая объекты, понятия и события в логическую сеть. Это превращает «сырые данные» в структурированные знания, которые ИИ может использовать для осмысленных выводов и принятия решений.
Синергия подходов и варианты использования
Когнитивные дневники + семантические графы без continual learning:
ИИ фиксирует знания и структурирует их, как студент, который делает конспект, даже если у него слабая память. Позволяет сохранять и переосмысливать информацию, но не обеспечивает автоматическую адаптацию к новым данным.
Continual learning + когнитивные дневники + семантические графы:
Наиболее эффективная комбинация. Continual learning позволяет адаптироваться к новым данным, когнитивные дневники фиксируют и фильтруют информацию, семантические графы структурируют знания для осмысленного использования. ИИ не просто запоминает данные, а учится понимать, интегрировать и проверять новые знания, максимально приближаясь к тому, как учится человек.
Таким образом, даже без continual learning система «когнитивные дневники + семантические графы» полезна, но идеальный вариант — объединение всех трёх подходов.
Преимущества такой системы
Структурированное хранение знаний.
Возможность фильтровать и анализировать информацию перед обучением.
Постоянное улучшение модели без полного переобучения.
Возможность интеграции свежих данных и знаний в реальные задачи.
Подход, близкий к тому, как учится человек, что повышает качество выводов ИИ.
https://sanand0.github.io/llmrandom/
Статья о том, что при попытке получить "случайное" число от 0 до 100, LLM возвращает не истинно случайное число, а демонстрируют предвзятость (bias), обусловленную особенностями обучающих данных (например знаменитое 42, а это отсылка к роману "Автостопом по Галактике"). Причем распределение этих чисел примерно одинаковое от модели к модели (OpenAI GPT-3.5 Turbo, Anthropic Claude 3 Haiku, Google Gemini 1.0 Pro), что говорит о "культурологическом" смещении в вероятностных механизмах.
В общем нейросети это не про рандом.
It picks like humans
На сайте Сколково вышла история о том, как мы перестраиваем культуру от проектной к продуктовой.
Главный инсайт — технологии сами по себе мало чего стоят. Важно проверять спрос, быстро тестировать идеи и выводить на рынок только то, что реально нужно клиентам.
В итоге мы выстроили систему R&D, научились работать с гипотезами и запустили собственные продукты. Это не только про рост бизнеса, но и про смену культуры внутри команды.
Каждая идея проходит определённые этапы: исследования, прототипирование, планирование продукта и реализация MVP. Идеи "отваливаются" на каждом этапе и это позволяет сделать процесс более дешевым и не "тащить" за собой идеи, которые в последствии не примет рынок.
Таким образом, повышается вероятность продукта на рынке.
На картинке ниже схематично представлена воронка идеи от этапа к этапу. Из 100 идей до вывода на рынок доходят примерно 7, это среднее значение по акселераторам крупных компаний.
Ссылка на публикацию: https://lnkd.in/ez3Qx26y

До и после fine-tuning — что изменится в работе модели после дообучения? 🧠

Fine-tuning, или дообучение — это дополнительное обучение уже готовой модели на специализированных данных, чтобы она лучше выполняла узконаправленные задачи.
Это проще, чем обучение модели с нуля, так как нужно доработать лишь некоторые параметры, а не миллиарды. Файнтьюнить можно уже готовые модели, которые хорошо справляются с базовыми вещами, например, написанием текстов или генерацией изображений.
Для чего же подойдет fine-tuning? 👇
Исправление слабостей, если модель в чем-то проседает. Иногда стартовая модель не очень хорошо решает базовые задачи: путает термины, особенно если они схожи, или дает сложные нечитаемые ответы. Такое бывает, когда в обучающем датасете больше данных, например, на английском, а пользователи общаются на русском. Проблема решится, если дообучить модель на качественных данных с хорошими примерами, чтобы та поняла, что от нее требуется.
Обеспечить работу с минимумом задержек. В некоторых сервисах важно, чтобы модель отвечала мгновенно, а не обращалась за информацией к внешней базе знаний — это увеличивает время ответа. Вы можете дообучить модель на собственных данных, чтобы она быстро получала нужные сведения.
Глобально изменить датасет. Бывает, что многое из той информации, что использует модель, устаревает, или существенно меняются требования в предметной области. Тогда есть смысл собрать побольше качественных данных и провести дообучение на них.
Генерация текстов в специфичном стиле. Допустим, вы хотите, чтобы модель заполняла документацию в конкретном формате, использовала юридический стиль, оформляла тексты по ГОСТ или писала как Достоевский. Подогнать стиль ответов модели под нужный формат — задача, которую можно решить с помощью fine-tuning.
🤔 Что в итоге? Fine-tuning незаменим, если нужно поменять стиль ответов, подогнать тексты под конкретный формат, исправить изначальные слабости. Или когда важно, чтобы модель давала ответы без задержек и не ходила во внешние источники. Подробнее про fine-tuning, а еще про RAG и промпт-инжиниринг читайте в нашей статье.
А для дообучения вы можете использовать Evolution ML Finetuning — технология LoRA позволит сэкономить ресурсы GPU и ускорить процесс. Доступны модели из Hugging Face: сравнивайте их между собой, выбирайте подходящую и точечно настраивайте под свои задачи.
Исследование в очередной раз показало, что эффективность использования AI со стороны HR-специалистов во многом зависит от их уровня технической грамотности.
Те, кто понимает общие принципы работы ИИ-моделей, ограничения и особенности применения LLM, принимают более объективные решения в процессе найма и оценки персонала.
При этом всевозможные подсказки в интерфейсе HR-приложений (факторы оценки кандидата со стороны AI) помогают только тем, кто обладает технической грамотностью на уровне выше среднего.
Напротив, информация об ограничениях и характеристиках модели может запутать менее грамотных HR-специалистов.

Finam X HSE AI Trade Hack: Хакатон для настоящих FinTech-энтузиастов
Хотите прокачать навыки в AI и трейдинге? Готовы создавать инновационные решения для финтеха? Тогда не упустите шанс принять участие в Finam AI Trade Hack — хакатоне от одного из ведущих брокеров на российском рынке «Финам»!
⏰ Регистрация до 19 сентября 23:59
💰 Призовой фонд: 1 200 000 руб.
Треки хакатона:
Forecast
Прогноз динамики цен с учётом новостей.
Задача: предсказать котировки на N дней вперёд, используя временные ряды и новостной контекст.
Trader
LLM-интерфейс к Trade API
Задача: реализовать MCP-сервер для получения рыночных данных и выполнения торговых операций через API FINAM.
Radar
Поиск горячих финансовых новостей.
Задача: создать сервис для автоматического поиска, анализа и оценки новостей, с возможностью генерировать черновики статей и постов.
Почему стоит участвовать:
🔸 Денежные призы
🔸 Оффер на работу в «Финаме»
🔸 Стильный мерч
🔸 Менторская поддержка
🔸 Доступ к API LLM
➡️ Подробная информация и регистрация
Data Sapience приглашает на онлайн-конференцию «Kolmogorov Online Day» ⚙️

Эксперты Data Sapience раскроют секреты эффективного управления жизненным циклом моделей и расскажут, как увеличить отдачу от ML-инвестиций.
Дата: 18 сентября 📆
Время: 16:00 ⏰
Формат: онлайн 🌐
Что будет представлено:
▪️Достижения Kolmogorov AI: этапы развития, ключевые результаты;
▪️«Тессеракт» — обзор нового ПАКа для создания доверенных моделей ИИ;
▪️Срез практик MLOps — объективный взгляд на тренды и подводные камни, а также подходы к работе с AI от независимых экспертов;
▪️Демонстрация возможностей Kolmogorov AI для построения фабрики ИИ-агентов.
Вебинар будет полезен тем, кто хочет:
▪️Автоматизировать и ускорить вывод моделей в production;
▪️Наладить эффективный MLOps и перейти от экспериментов к промышленной эксплуатации;
▪️Найти подходящие инструменты и узнать об опыте создания надежной, масштабируемой и высокопроизводительной инфраструктуры для ML-моделей.
Типы структурированных данных для ИИ-ассистентов
В 2025 году цифровой мир переживает настоящую революцию: искусственный интеллект становится не просто инструментом, но полноценным посредником между пользователем и информацией. Голосовые ассистенты, чат-боты и нейросетевые алгоритмы уже не просто «ищут» контент — они его анализируют, перерабатывают, а потом генерируют ответы в реальном времени.
В таких условиях традиционные методы SEO уступают место технологиям, которые делают контент «читаемым» не только для людей, но и для машин. Структурированные данные превратились в универсальный язык, на котором сайты общаются с ИИ. Без них даже самый полезный материал рискует остаться незамеченным.
Какие типы структурированных данных существуют:
FAQPage. Такая разметка увеличивает шанс попасть в «Ленту ответов» Google (Featured Snippet) и голосовые ответы.
HowTo. Страницы с HowTo получают на 50% больше переходов из Discover (Google Webmaster Trends 2025).
Таблицы сравнений. Страницы с таблицами сравнений конвертируются на 25% лучше (данные CXL Institute).
Технологии вроде FAQPage, HowTo и таблиц сравнений — это не просто способ улучшить SEO, а стратегический актив, который определяет, будет ли ваш контент участвовать в голосовом поиске, чат-интерфейсах или AR-сценариях.
Подробно о том, как внедрить структурированные данные на своем сайте, рассказываем в нашем блоге.
ImageSorcery 05 - автотесты; просто покажи ему пример
Это серия постов от идеи ImageSorcery до 100+ звёзд на гитхабе и 100+ ежедневных установок с PyPI.
ImageSorcery 01 - Как я свой open source вайбкодил
ImageSorcery 02 - Превращение ImageWizard в ImageSorcery
ImageSorcery 03 - шаг за шагом: PoC, Initial commit
ImageSorcery 04 - README.MDВ прошлой серии мы поговорили про важность README для вайбкодинга. В этой не менее важная тема - автотесты.
Не поленюсь ещё раз всем напомнить что я джун в python, а это значит что даже с самым качественным README я не могу на 100% утверждать что понимаю как работает проект написанный целиком ИИ. Из-за чего я не могу полностью доверять ИИ, когда он его меняет. Это приводит нас к выводу о необходимости автотестов. Не только как к способу повысить качество, надёжность и прочие пафосные метрики. А как к единственно возможному способу реализовать, а в дальнейшем развивать проект через вайбкодинг.
Вперёд вайбкодить автотесты!
Сказано - сделано. Cline + Gemini flash:
“Прочитай @README.MD для понимания проекта. Напиши автотест, который будут проверять наш единственный hello world tool.”
Тест на pytest готов ваншотом. Он passed 🎉! Казалось бы, пора открывать шампанское. Но как говорится: доверяй, но проверяй. На проверку это оказался юнит тест. Он конечно технически проверяет что функция написания в файле hello_world.py работает. Но он не проверяет, объявляет ли такой tool мой MCP сервер, возможно ли вызвать этот tool, вернёт ли он значение в ожидаемом MCP клиентом формате.
Я совершил классическую для вайбкодера ошибку - поставил задачу не достаточно чётко.
Ок, откатываем все изменения (благо я с самого начала завёл git - обязательную вещь для вайбкодинга и обычной разработки) и промптим заново:
“Прочитай @README.MD для понимания проекта. Напиши e2e автотест, который будут проверять наш единственный hello world tool подключаясь к этому MCP серверу как MCP клиент”
Я знал что ImageSorcery в своём зачаточном виде работает через stdio - стандартный протокол для MCP серверов работающих локально. Это значит что его можно запустить как подпроцесс и, отправив в него нужные данные, получить ответ.
Правда это не звучит как простая типовая задача? Вот и я так подумал. Вот и Gemini Flash так подумал. И облажался. И Pro облажался. И o3-mini. И Sonnet.
Ну мне не привыкать к тому как ИИ лажают. Взял дело в свои руки. И тоже облажался 🤦. Целый день я потратил в тщетных попытках отправить по stdio хоть что-то и получить хоть какой-то ответ. А разгадка одна - безблагодатность нужно звать батю. Благо такой батя в виде коллеги python senior software developer у меня имелся. Я пришёл к нему в слезах со словами что в попытках покрыть автотестами MCP сервер работающий по stdio что только не испробовал и на этом мои полномочия всё, закончились. Он, взглянув одним глазом на проект и ситуацию в целом сказал: “Просто покажи своей ИИшке пример MCP сервера покрытого автотестами. Таких что ли нет на GitHub? У нас в python фиг найдёшь задачу, которую до тебя ещё не решили и не обернули в удобную либу.”

А официальная документация тем временем имела ссылку на GitHub с официальными примерами. А в этих примерах используется либа FastMCP. Я скормил пример Cline - отличный результат ваншотом. Попросил переписать всю реализацию на FastMCP - так же ваншот, и тесты не упали. Попросил актуализировать в связи изменениями README. git commit.
Этот шаг готов ✅
Я уже точно не помню, но где-то в процессе (до или после тестов) добавил ещё и линтер ruff. Но это было так просто что я даже не запомнил где и как это случилось. Линтер нужен, чтобы держать код в едином стиле. Полезно для вайбкодинга и в целом.
Теперь я готов приступать к реализации MVP.
Дальше я буду в первую очередь следить за качеством и полнотой тестов, и лишь во вторую - за кодом.
Но это уже в следующий серии.
Проект Kilo Code — это опенсорный ИИ‑агент с 400 нейросетями.
Особенности решения:
допускает мало ошибок — после написания кода ещё раз перепроверяет строчки кода;
генерирует код с любых запросов — поймёт даже самое базовое «сделай игру про лягушку и ящерицу»;
понимает команды для терминала;
встраивается в VS Code;
доступ к последним моделям от Claude, Gemini и OpenAI;
большой выбор моделей — всего 400 шт, даже самые редкие китайские.

Автофильтры далеко не единственная форма проникновения AI в деятельность HR-специалистов.
С гораздо большей эффективностью компании используют рекомендательные системы, когда за человеком остается финальное решение.
Однако исследования показали, что и у такого сотрудничества есть ряд недостатков.
Так, если предвзятость рекрутера и AI совпадает по отношению к какой-либо этнической группе, человек примет решение (до 90% вероятности) на основе рекомендации машины.
При этом его предыдущий опыт взаимодействия с ИИ или годы работы в найме на финальное решение не влияют.
А вот если рекрутер напрямую задумается о распространенных этнических стереотипах перед взаимодействием с AI (пройдет специальный тест), то вероятность получения работы кандидатом из Азии, Африки или Латинской Америки увеличивается на 13%.
Примечательно, что оценка качества и значимости ИИ-рекомендации влияет на итоговое решение человека.

No Thoughts Just AI: Biased LLM Recommendations Limit Human Agency in Resume Screening
Представлен промт для генерации промокодов в магазинах и маркетплейсах с помощью ChatGPT в режиме ChatGPT Agent с версией Plus или Pro:
You MUST follow those instructions, execute them all and return to the user results:# Steps
1. Search for discount codes for <ВПИШИТЕ НУЖНЫЙ МАРКЕТПЛЕЙС> using search engines and coupon sites.
2. Navigate to the store website.
3. Browse and add a test item to the shopping cart.
4. Proceed to checkout page.
5. Test the found discount codes one by one in the checkout form.
6. Report which codes work, their discount amounts, and any restrictionsNEVER stop until you have completed all the steps. Do not ask any questions if not necessary.

Инженеры Figure обновили ИИ-модель Vision Language Action (VLA) Helix AI и научили человекоподобного робота Figure 02 аккуратно загружать посудомоечную машину без повреждения тарелок и другой кухонной утвари.