Обновить
801.75

Машинное обучение *

Основа искусственного интеллекта

Сначала показывать
Порог рейтинга

Baidu представила ERNIE X1.1 — модель рассуждений уровня GPT-5 и Gemini 2.5 Pro

На конференции WAVE SUMMIT 2025 китайская компания Baidu анонсировала ERNIE X1.1 — обновленную модель рассуждений с существенными улучшениями в точности, следовании инструкциям и агентских возможностях. Модель превосходит DeepSeek R1-0528 и сопоставима с топовыми решениями от OpenAI и Google.

Технические улучшения

ERNIE X1.1 демонстрирует значительный прирост производительности относительно предыдущей версии. Фактическая точность выросла на 34.8%, следование инструкциям улучшилось на 12.5%, а агентские способности — на 9.6%.

Архитектурные особенности:

  • Построена на базе мультимодальной модели ERNIE 4.5

  • Использует итеративную гибридную систему обучения с подкреплением

  • Объединяет смешанное reinforcement learning и итеративную самодистилляцию

  • Поддерживает контекст 128K токенов

Производительность в бенчмарках

По результатам множественных тестов ERNIE X1.1 превосходит DeepSeek R1-0528 в общей производительности, показывая явные преимущества в ряде задач. Модель работает на одном уровне с такими топовыми решениями как GPT-5 и Gemini 2.5 Pro.

Модель показывает выдающиеся результаты в широком спектре задач: создании контента, логических рассуждениях, математических вычислениях, генерации кода и использовании инструментов.

Доступность и интеграция

ERNIE X1.1 доступна через несколько каналов:

  • ERNIE Bot — веб-интерфейс на ernie.baidu.com

  • Wenxiaoyan — мобильное приложение Baidu

  • Qianfan MaaS — платформа Models-as-a-Service для корпоративных клиентов и разработчиков

Параллельно с ERNIE X1.1 компания открыла исходный код модели ERNIE-4.5-21B-A3B-Thinking — легковесной MoE-модели с 21 миллиардом общих и 3 миллиардами активных параметров.

Экосистема PaddlePaddle

Развитие ERNIE X1.1 происходит в контексте расширения экосистемы PaddlePaddle. На данный момент экосистема PaddlePaddle-ERNIE обслуживает 23.33 миллиона разработчиков и 760,000 предприятий.

Новые инструменты включают:

  • PaddlePaddle framework v3.2 с улучшениями обучения и совместимости

  • ERNIEKit для разработки фундаментальных моделей

  • FastDeploy v2.2 для эффективного развертывания

  • Научные тулкиты PaddleCFD и PaddleMaterials

Baidu Comate 3.5S

Одновременно с ERNIE X1.1 представлена обновленная версия ИИ-помощника для программирования Baidu Comate 3.5S. Система поддерживает более 10 миллионов разработчиков, а внутри Baidu 45% нового кода теперь генерируется ИИ.

Новая версия усиливает возможности мульти-агентного сотрудничества, позволяя одному разработчику достигать продуктивности целой команды.

Конкурентная позиция

ERNIE X1.1 позиционируется как прямой конкурент западных моделей рассуждений. Baidu делает ставку на сочетание высокой производительности с локализацией под китайский рынок и требования регуляторов.

Преимущества модели:

  • Конкурентоспособная производительность с глобальными лидерами

  • Интеграция в экосистему китайских облачных сервисов

  • Поддержка специфичных для региона задач и языковых особенностей

  • Соответствие местным требованиям по данным и безопасности

Релиз ERNIE X1.1 демонстрирует способность китайских технологических компаний создавать модели мирового уровня и конкурировать с ведущими американскими разработчиками ИИ.

Теги:
Всего голосов 2: ↑2 и ↓0+3
Комментарии0

Дайджест: новое за лето ☀️

🤖 Запустили AI-помощника Клаудию — она доступна в вашем личном кабинете. Клаудия поможет создать ВМ, уточнит задачу и подберет конфигурацию, подскажет команды в консоли. А еще настроит виджеты, алерты и нотификации для контроля ВМ, поможет найти нужное в документации и выступит как co-pilot. Попробуйте бесплатно — новым пользователям дадим 4 000 рублей на облачные ресурсы.

🖥️ В Evolution Foundation Models открыли доступ к новым open source моделям, в том числе к OpenAI 120b, Qwen-3, GigaChat, GLM-4.5 и другим. Всего доступно 20+ LLM, ранжировщиков и эмбеддеров, а до 31 октября вы можете бесплатно потестировать их на своих проектах.

Участвовали в крупных мероприятиях:

  • Провели митап Cloud․ru Tech Lab: AI&ML, где рассказали, как автоматизировали пользовательские сценарии с помощью AI-агента, разобрали устройство агентов, RAG и Ragas. А еще слушатели могли вживую пообщаться с экспертами, «прожарить» свое резюме и посетить демозону AI-решений на базе Cloud․ru Evolution.

  • Организовали конференцию GoCloud Tech 2025 о создании решений на базе AI и облаков. Обсудили кейсы внедрения AI&ML, тренды в создании облачной инфраструктуры, актуальные практики для работы с данными в облаке.

  • Во второй раз приняли участие в крупнейшей AI-выставке в мире — World Artificial Intelligence Conference в Шанхае 🇨🇳 На нашем стенде мы показали платформу Cloud․ru Advanced, провели встречи с Geely, Tencent, Baidu, IFlytek, GAC, TikTok, Alibaba, Li Auto и другими зарубежными компаниями.

🧠 Запустили бесплатный курс про создание ML-моделей и их внедрение в бизнес. Будет полезно менеджерам продуктов и проектов, DS-, backend- и frontend-разработчикам, продуктовым дизайнерам. Можно учиться в комфортном темпе, а в конце дадим именной сертификат.

✨ Предлагаем бесплатно протестировать сервисы Evolution Data Platform — новой платформы для полного цикла работ с данными:

  • Evolution Managed BI для визуализации и анализа данных в облаке, в стадии public preview;

  • Evolution Managed Airflow поможет управлять рабочими процессами. Находится в стадии private preview — напишите своему аккаунт-менеджеру, чтобы начать тестирование.

Запустили в публичное превью и другие сервисы Evolution Data Platform:

  • Evolution Managed Metastore — сведения о данных для клиентских приложений;

  • Evolution Managed Trino — массивно-параллельный аналитический SQL-движок Trino;

  • Evolution Managed Redis — кеширование данных, управление очередями и работа с данными в реальном времени.

🎁 А еще до 31 декабря 2025 года дарим юрлицам 35 000 бонусных рублей на Evolution Managed Trino, Evolution Managed Metastore и Evolution Managed Spark.

🔝 С радостью делимся успехами наших клиентов:

🎙️ Провели несколько интересных вебинаров и подкастов — каждый из них вы можете посмотреть в записи: 

💳 Упростили регистрацию в реферальной программе: теперь подать заявку можно в несколько кликов, а на каждом этапе вы можете получить помощь менеджера. Присоединяйтесь к программе до 30 сентября, рекомендуйте сервисы Cloud.ru, получайте 20% от суммы их чеков в первый год и 15% — в последующие.

До скорой встречи!

Теги:
Всего голосов 4: ↑2 и ↓20
Комментарии0

Представлен инструментарий Stupid Meter для оценки в реальном времени работы крупных языковых моделей, включая OpenAI GPT-5, Anthropic Claude Opus 4 и Google Gemini 2.5 Pro. Система непрерывно запускает более 140 тестов, проверяя корректность, стабильность, эффективность и способность к восстановлению после ошибок. Результаты отображаются на виде таблице, показывающем текущее состояние моделей.

Также Stupid Meter анализирует затраты на выполнение задач. В расчёт берутся не только цены API, но и количество попыток, необходимых для получения правильного ответа. Таким образом, более дорогая модель может оказаться выгоднее «дешёвой», если справляется быстрее. Исходный код проекта на GitHub: AI Stupid Meter - API Server и AI Stupid Meter - Web Frontend.

Теги:
Рейтинг0
Комментарии0

OpenAI внедряет проверку возраста в свою нейросеть ChatGPT. Если ИИ решит, что пользователь младше 18 лет по стилю общения, то он получит доступ только к урезанной версии ChatGPT с цензурой и родительским контролем. Также нейросеть обучат не вступать во «флиртующие разговоры» с несовершеннолетними и не обсуждать темы, связанные с самоубийством.

Взрослый пользователь сможет подтвердить свой возраст, предоставив паспорт или водительские права. «Мы понимаем, что это нарушает конфиденциальность для взрослых, но считаем это оправданным компромиссом», — пояснили в OpenAI.

Теги:
Всего голосов 3: ↑2 и ↓1+2
Комментарии3

LLamaSwap - гибкая альтернатива Ollama
Ollama — прекрасное приложение, основанное на llama.cpp, которым я пользовался для инференса локальных моделей до недавних пор, однако у него есть несколько критических недостатков:

  • Отсутствие поддержки всех GPU и BLAS, доступных в llama.cpp. Для меня это стало проблемой после перехода на Radeon RX 6800: инференс через Vulkan на llama.cpp работает быстрее и стабильнее, чем ROCm, но Ollama не поддерживает Vulkan.

  • Отсутствие тонкой настройки. Например, на момент написания статьи в Ollama нельзя выгружать часть MoE-слоев на CPU, что позволяет сильно увеличить скорость инференса при нехватке VRAM для загрузки всех слоев на GPU.

  • Ollama использует собственное хранилище моделей, несмотря на то, что под капотом работает с GGUF. Если загрузить модель с Hugging Face, Ollama всё равно скопирует её в своё хранилище, а модели в наше время весят не мало и занимают лишнее место на SSD.

  • Функции доступные в llama.cpp появляются в ollama с задержкой , а иногда и вовсе не появляются.

Мне нужна была альтернатива, способная динамически управлять загрузкой моделей в памяти через API без моего участия, как это делает Ollama, но без вышеперечисленных недостатков. В итоге я остановил выбор на проекте llama-swap.

Llama-Swap — приложение на Go, которое запускает несколько инстансов llama-server и проксирует запросы к ним по заданным правилам.

Плюсы по сравнению с Ollama:

  • Полный доступ ко всем возможностям llama-server (например --override-tensor для выгрузки MoE слоев на CPU).

  • Поддержка большего количества GPU кскорений (таких как Vulkan или даже связки Vulkan + CUDA)

  • Возможность настроить отдельную версию llama-server для каждой модели (если в будущих обновлениях что то сломается).

  • Более гибкая настройка правил загрузки/выгрузки моделей в память: (одновременная загрузка, поочередная по запросам).

  • Не дублирует модели на диске (если используются форматы поддерживаемые llama.cpp).

  • Из коробки есть WebUI для управления загрузкой/выгрузкой моделей.

Минусы:

  • Из коробки не работает, требуется настройка через config.yaml и наличие рабочего llama-server.

  • Проект молодой, и его дальнейшая судьба пока не ясна.

Основные пункты файла конфигурации

  • Список моделей с указанием их расположения и параметров запуска (влючая путь к llama-server).

  • Группировка моделей, к группам применяются правила загруpки/выгрузки из памяти: - Все модели в группе загружены одновременно. - Модели загружаются по мере поступления запросов

  • Различные настройки прокси, порты, таймауты и пр.

У меня мини-ПК с интегрированной Radeon 780m, 32 ГБ ОЗУ и eGPU RX 6800.
Я полностью перешел на Llama-Swap + OpenWebUI и всё больше отказываюсь от использования онлайн-сервисов вроде OpenRouter — ведь возможностей моего недорогого, по современным меркам ПК, хватает для запуска, таких моделей как Gemma3 30B и Qwen3-Coder-30B-A3B-Instruct. Думаю, в скором времени, когда ПК с объёмами памяти от 64 ГБ и выше станут ещё дешевле, интегрированная графика — мощнее и на рынке окажется множетсво БУ GPU с объемом VRAM 16ГБ и выше, часть людей, использующих LLM для своих задач, сможет полностью перейти на локальный инференс. Хотя это, возможно, это только моя фантазия.
Всем спасибо за прочтение.

Теги:
Всего голосов 1: ↑1 и ↓0+2
Комментарии0

ByteDance представила Seedream 4.0 — мультимодальную модель генерации и редактирования изображений

Команда Seed от ByteDance выпустила Seedream 4.0 — новую модель, объединяющую генерацию и редактирование изображений в единой архитектуре. Система создает изображения разрешением до 4K за 1.8 секунды и превосходит Gemini 2.5 Flash по внутренним бенчмаркам компании.

Архитектура и производительность

Seedream 4.0 использует Mixture of Experts (MoE) архитектуру для оптимизации вычислительной эффективности. Модель генерирует изображения в разрешении 2K за 1.8 секунды с возможностью создания до 9 консистентных изображений одновременно.

Ключевые технические характеристики:

  • Единая архитектура для генерации и редактирования

  • Поддержка до 6 референсных изображений

  • Пакетная обработка входных данных

  • Разрешение до 4K с высокой детализацией

  • Интеграция знаниевой базы для сложных задач

Функциональные возможности

Текстовое редактирование позволяет вносить точные изменения одним предложением — от удаления объектов до замены текста на постерах с сохранением стилистики.

Стилевые трансформации поддерживают профессиональные художественные стили: акварель, киберпанк, ретро-дизайн. Система создает уникальные визуальные решения за секунды.

Знаниевая генерация создает образовательные иллюстрации, схемы и профессиональные изображения на основе встроенных знаний и логических способностей.

Сравнение с конкурентами

По внутреннему бенчмарку MagicBench модель превосходит существующие решения в трех ключевых измерениях: следование промптам, выравнивание с источником и эстетическое качество.

Результаты тестирования показали:

  • Высокие оценки в text-to-image задачах

  • Сбалансированность между следованием промптам и сохранением исходного изображения

  • Первое место во внутренней Elo-оценке для редактирования

Доступность и интеграция

Модель доступна через множество платформ: Higgsfield, Krea AI, Freepik Pikaso, Fal AI, Replicate, Glif. Это обеспечивает широкий доступ для разработчиков и креаторов.

API-интеграция поддерживает:

  • Пакетную загрузку множественных референсов

  • Генерацию нескольких вариаций одновременно

  • Настройку разрешения и качества

  • Интеграцию в существующие рабочие процессы

Практические применения

Для дизайнеров и маркетологов:

  • Быстрое создание концептов и мокапов

  • A/B-тестирование визуальных решений

  • Адаптация контента под разные форматы

Для образования:

  • Создание инфографики и диаграмм

  • Визуализация сложных концепций

  • Генерация учебных материалов

Для e-commerce:

  • Создание продуктовых изображений

  • Адаптация под разные платформы

  • Массовая обработка каталогов

Технологические особенности

Модель демонстрирует сложные мультимодальные способности: понимание контекста, логическое рассуждение, поддержание консистентности между референсами. Это выделяет Seedream 4.0 среди традиционных генераторов изображений.

Интеграция генерации и редактирования в единую систему устраняет необходимость переключения между различными инструментами, ускоряя творческий процесс.

Теги:
Рейтинг0
Комментарии0

Недавно у нас в университете ИТМО прошел форсайт, посвященный видению развития отдельных направлений искусственного интеллекта на ближайшее будущее. Были приглашены эксперты из Индии и Китая, которые рассказали о развивающихся в их странах направлениях ИИ. В том числе выступали и наши эксперты.

Мне тоже удалось выступить. Я рассказывал о временных рядах, а именно о «изощренных» методах их прогнозирования и генерации на основе физически-информированных нейронных сетей. По этому поводу можно обратиться к другим моим статьям на хабре или в блоге.

Вот к каким трем основным направлениям развития ИИ в ближайшие 5-10 лет пришло большинство экспертов:

1. Вопросы эффективности. Развитие современных методов активно порождает вопросы эффективности как программного обеспечения, так и аппаратного обеспечения («железа»). Сейчас создают очень большие модели, для обучения которых требуются тысячи видеокарт. Для инференса этих моделей требуется меньше ресурсов, но это все равно затратно. Сейчас, например, актуальны методы квантизации больших моделей. В этой области ведется много исследований. Также ученые ищут подходы к более эффективному использованию железа, например, как оптимальнее оркестрировать поток задач.

2. Биологически правдоподобные модели. Вторым направлением можно выделить построение новых моделей машинного обучения на основе принципов работы биологических нейронных сетей. Наш мозг очень эффективно обрабатывает входящую информацию: в каждый момент времени активируются не все нейроны сразу, а только те, которые нужны для текущей задачи. Кстати, если бы работали все нейроны одновременно, то в голове возник бы шум, и мы не смогли бы сконцентрироваться на чем-то одном.

А в классических нейронных сетях все не так — там задействуются все нейроны одновременно. Исключением являются модели Mixture of Experts (смесь экспертов). Их принцип работы можно вообразить так: представьте, что вы задаете нейронной сети вопрос по математике. Очевидно, что в данный момент не нужно задействовать знания по биологии, истории и т.д. В MoE есть специальный блок — маршрутизатор (router) — который отвечает за перенаправление запроса к тому или иному «эксперту». Конечно, он может направить запрос сразу к нескольким экспертам, если вопрос затрагивает разные области знаний.

На практике нет такого явного тематического разделения экспертов, обычно они подбираются и обучаются самостоятельно для наилучшей генерации той или иной последовательности. И обычно эксперты активируются не для всего запроса целиком, а для отдельных токенов (например, слов) внутри этого запроса.

В общем, направление верное, собственно все чат боты сегодня строят на этой архитектуре. Однако в реальном биологическом мозге эта система представляет собой гораздо более сложную структуру. В мозге взрослого человека около 86 миллиардов нейронов и на каждом нейроне может быть от 5 до 10 тысяч синаптических связей. Как можно понять, плотность связей в нашем мозге чрезвычайно высока.

3. Фундаментальные мультимодальные модели и новая математика. 

Наконец, последнее направление связано с созданием не просто языковых моделей, а фундаментальных моделей, работающих с разными модальностями (типами данных). На самом деле, любую информацию можно свести к языку — даже математические формулы можно просто описать словами. Однако в этом направлении предлагается переосмыслить текущие подходы и развивать модели с новой математикой для описания этих различных модальностей.

Также до сих пор нет единого математического обоснования нейронных сетей, лишь отдельные области и лишь отдельная математика. А когда будет единая теория не ясно.

В общем, есть куда двигаться. А как вы считаете какие направления появятся или переосмыслят в ближайшее 5-10 лет? Пишите комментарии, будет интересно почитать.

Мой блог: kirill_zakharov_blog

Теги:
Всего голосов 2: ↑1 и ↓10
Комментарии0

Привет, Хабр!

Я навайбкодил Вам систему управления отчетами на 100500 Jupyter ноутбуков

Расскажу историю о том, как я решил проблему с хаосом в Jupyter-отчетах и создал систему juport (Jupyter Report System) ссылка на GitHub. А заодно поделюсь мыслями о том, как меняется разработка в эпоху AI-ассистентов.

Проблема: 100500 отчетов и никакого порядка

У меня накопилось огромное количество отчетов, сделанных в Jupyter Lab. Каждый — отдельный файл с кодом, паролями и прочей «кухней».

Главные проблемы:

  • Безопасность. Нельзя просто так поделиться отчетом с руководством или бухгалтерией, потому что там есть доступы к базам и код.

  • Рутина. Нет централизованного места для запуска отчетов, автоматизации по расписанию и единого интерфейса для просмотра.

  • Хаос. Все результаты разбросаны по папкам, и чтобы найти нужный Excel-файл, приходилось долго копаться.

Концепция решения

Нужно было что-то, что позволит разрабатывать отчеты в привычном Jupyter Lab, а потом автоматически запускать их, генерировать чистые HTML-версии без кода и собирать все артефакты в одном месте.

Решение: juport — система управления отчетами

Я создал систему (ну как сам, навайбкодил), состоящую из двух компонентов:

  1. Jupyter Lab Sidecar. Это обычный Jupyter Lab в Docker-контейнере. Здесь разработчики пишут и тестируют отчеты, как привыкли.

  2. juport — система управления. Веб-приложение на Python, которое сканирует папку с ноутбуками. Оно позволяет запускать отчеты вручную или по расписанию, выполняет их в изолированном окружении, генерирует HTML-версии без лишней информации, собирает все артефакты (Excel, картинки) в одну табличку и предоставляет удобный веб-интерфейс. Авторизация — через LDAP.

Как это работает

Разработка отчета:

  1. Вы создаете ноутбук в Jupyter Lab.

  2. Пишете код, тестируете, сохраняете.

  3. Используете переменные окружения для конфигурации, чтобы не хранить пароли в коде.

Запуск отчета:

  1. Заходите в веб-интерфейс juport.

  2. Видите список всех ноутбуков.

  3. Нажимаете «Запустить» или настраиваете расписание.

  4. Система выполняет ноутбук и собирает результаты.

Результат:

  • Чистый HTML-отчет без кода и паролей, доступный для просмотра.

  • Все Excel-файлы, картинки и PDF собраны в одном месте.

  • Удобный интерфейс для скачивания.

  • История выполнений и логи.

Как это сделано

Я не написал ни одной строчки кода сам. Все навайбкодил через Cursor с помощью промптов.

Да, именно так. Привыкайте. Такова реальность.

Андрея Карпатый говорил о том, что скоро разработка будет выглядеть совсем иначе. И он прав.

Мы, миллениалы, единственное поколение, которое разбиралось, как собрать компьютер с нуля. Бумеры были до бума ПК, а зумеры уже родились, когда все было готово. С кодом происходит то же самое. Через N лет опытные разработчики будут получать отличные результаты через промпты, потому что у них есть 20 лет опыта. Этот опыт — не знание синтаксиса, а понимание:

  • Архитектурных паттернов

  • Принципов проектирования

  • Торговых компромиссов

  • Потенциальных проблем

Именно поэтому те, кто шарит, получат отличный результат, а те, кто не шарит, получат «коричневую субстанцию».

AI-ассистенты — это не замена разработчикам, а инструмент, который многократно увеличивает нашу скорость. Опыт и понимание архитектуры становятся еще важнее. А новичкам будет сложнее, потому что им придется мотивированно изучать технологии, чтобы получать от нейросетей качественные вещи.

Выводы

  1. AI-ассистенты — это не замена, а инструмент.

  2. Опыт и понимание архитектуры становятся критически важными.

  3. Скорость разработки для опытных специалистов вырастет в разы.

  4. Новичкам придется приложить больше усилий для освоения профессии.

А как вы видите будущее разработки с AI? Делитесь в комментариях!

Теги:
Всего голосов 8: ↑3 и ↓5-1
Комментарии4

https://sanand0.github.io/llmrandom/

Статья о том, что при попытке получить "случайное" число от 0 до 100, LLM возвращает не истинно случайное число, а демонстрируют предвзятость (bias), обусловленную особенностями обучающих данных (например знаменитое 42, а это отсылка к роману "Автостопом по Галактике"). Причем распределение этих чисел примерно одинаковое от модели к модели (OpenAI GPT-3.5 Turbo, Anthropic Claude 3 Haiku, Google Gemini 1.0 Pro), что говорит о "культурологическом" смещении в вероятностных механизмах.
В общем нейросети это не про рандом.

It picks like humans

Теги:
Рейтинг0
Комментарии1

На сайте Сколково вышла история о том, как мы перестраиваем культуру от проектной к продуктовой.
Главный инсайт — технологии сами по себе мало чего стоят. Важно проверять спрос, быстро тестировать идеи и выводить на рынок только то, что реально нужно клиентам.
В итоге мы выстроили систему R&D, научились работать с гипотезами и запустили собственные продукты. Это не только про рост бизнеса, но и про смену культуры внутри команды.

Каждая идея проходит определённые этапы: исследования, прототипирование, планирование продукта и реализация MVP. Идеи "отваливаются" на каждом этапе и это позволяет сделать процесс более дешевым и не "тащить" за собой идеи, которые в последствии не примет рынок.
Таким образом, повышается вероятность продукта на рынке.
На картинке ниже схематично представлена воронка идеи от этапа к этапу. Из 100 идей до вывода на рынок доходят примерно 7, это среднее значение по акселераторам крупных компаний.

Ссылка на публикацию: https://lnkd.in/ez3Qx26y

Теги:
Рейтинг0
Комментарии0

Роадмап для начинающих питонщиков

Изучение Python может показаться сложным, но с правильным подходом и пониманием ключевых аспектов процесс станет понятным и увлекательным. Привет, я Иван Чернов, senior system architect, кратко расскажу, как начать вкатываться в Python, с какими проблемами сталкиваются новички и как их преодолеть.

Первые шаги

Определяемся с направлением, в котором вы хотите развиваться. Это может быть веб-разработка, машинное обучение, DevOps и т. д. Каждое направление требует своих знаний и навыков. Поэтому важно понять, что конкретно вам интересно и на какой позиции не будет скучно или слишком сложно.

Начните с изучения базовых понятий, таких как переменные, типы данных, структуры данных и функции. Это заложит фундамент для дальнейшего изучения.

Когда определились с направлением и изучили теорию — проходите курсы с практическим обучением или начинайте работать с кодом сами. Всегда лучше писать, чем читать. Как только вывели “Hello, World!”, переходите к обучающим программам, где первые задачки применимы к жизни. Например, на некоторых курсах учат разрабатывать Telegram-бота под ваши нужды. Это отличная практика для понимания процессов.

Также можете прочитать базу «Питона» — книгу “Automated Boring Stuff with Python”. В ней много практических задач, которые помогут вам освоить язык. А ещё есть полезный курс “Learning How to Learn”, который учит, как правильно учиться, опираясь на достижения нейронауки.

Этап, на котором новички отваливаются

При более глубоком изучении «Питона» новичок столкнётся с первой проблемой — настройкой инфраструктуры. На этом этапе многое пугает: установка редакторов кода, интерпретаторов, пакетных менеджеров и прочее. Даже опытные программисты каждый день ищут подходящие инструменты и пытаются освоить новые. 

Чтобы облегчить старт, можно для начала научиться использовать онлайн-среду разработки, например Replit. Можно просто зайти на сайт, выбрать язык Python и сразу приступать к написанию кода. 

Replit — это сервис для вайб-кодинга. В нём можно быстро экспериментировать с задачами и сразу видеть результат. Так вы сконцентрируетесь именно на изучении языка, а не на технических сложностях.

Тут есть большое «но»: на вайб-кодинге далеко не уедешь. Использование онлайн-сред — это чит-код, который облегчает старт, но не учит решать реальные проблемы. Так что с комплексной инфраструктурой всё же придётся разобраться.

Концептуальные вопросы

Отдельно стоит отметить концептуальные вопросы, которые могут возникнуть на старте. Новички часто сталкиваются с трудностями в понимании таких понятий, как переменные и функции. 

Например, в Python переменная может принимать разные значения, что противоречит математическим представлениям. Это может привести к путанице и неправильному пониманию основ программирования. 

Важно понимать, что программирование — это не только про то, как писать код, но и о то, как мыслит как программист. Необходимо развивать критическое мышление и осознавать, что многие концепции, которые мы учили на уроках математики, могут быть неверными в программировании. 

Советы начинающим питонщикам

  • Постоянная практика. Пишите код каждый день, хотя бы немного. Работайте над проектами, которые вас интересуют, и решайте проблемы, которые вас раздражают. Я в 2010-м хотел, чтобы дома лампочка включалась по голосу. С помощью Python удалось сделать это.

  • Изучайте чужой код. Чтение и понимание чужого кода поможет вам увидеть, как другие решают задачи и какие подходы используют. Однако не стоит изучать рандомный код. Лучше ищите тот, что поможет улучшить ваши проекты. 

  • Go sport, go team. Физическая активность способствует лучшему усвоению информации. Поэтому не забывайте делать перерывы и заниматься спортом.

Заключение

Определитесь с направлением, изучите теорию, но не медлите с практикой. Не пугайтесь сложностей инфраструктуры: всегда можно нагуглить или спросить на форумах. Пользуйтесь онлайн-средами, но не делайте большую ставку на вайб-кодинг. Не бойтесь начинать и ошибаться — и у вас всё получится.

Теги:
Всего голосов 10: ↑4 и ↓6+2
Комментарии4

До и после fine-tuning — что изменится в работе модели после дообучения? 🧠

Fine-tuning, или дообучение — это дополнительное обучение уже готовой модели на специализированных данных, чтобы она лучше выполняла узконаправленные задачи.

Это проще, чем обучение модели с нуля, так как нужно доработать лишь некоторые параметры, а не миллиарды. Файнтьюнить можно уже готовые модели, которые хорошо справляются с базовыми вещами, например, написанием текстов или генерацией изображений.

Для чего же подойдет fine-tuning?  👇

  1. Исправление слабостей, если модель в чем-то проседает. Иногда стартовая модель не очень хорошо решает базовые задачи: путает термины, особенно если они схожи, или дает сложные нечитаемые ответы. Такое бывает, когда в обучающем датасете больше данных, например, на английском, а пользователи общаются на русском. Проблема решится, если дообучить модель на качественных данных с хорошими примерами, чтобы та поняла, что от нее требуется.

  2. Обеспечить работу с минимумом задержек. В некоторых сервисах важно, чтобы модель отвечала мгновенно, а не обращалась за информацией к внешней базе знаний — это увеличивает время ответа. Вы можете дообучить модель на собственных данных, чтобы она быстро получала нужные сведения.

  3. Глобально изменить датасет. Бывает, что многое из той информации, что использует модель, устаревает, или существенно меняются требования в предметной области. Тогда есть смысл собрать побольше качественных данных и провести дообучение на них.

  4. Генерация текстов в специфичном стиле. Допустим, вы хотите, чтобы модель заполняла документацию в конкретном формате, использовала юридический стиль, оформляла тексты по ГОСТ или писала как Достоевский. Подогнать стиль ответов модели под нужный формат — задача, которую можно решить с помощью fine-tuning.

🤔 Что в итоге? Fine-tuning незаменим, если нужно поменять стиль ответов, подогнать тексты под конкретный формат, исправить изначальные слабости. Или когда важно, чтобы модель давала ответы без задержек и не ходила во внешние источники. Подробнее про fine-tuning, а еще про RAG и промпт-инжиниринг читайте в нашей статье

А для дообучения вы можете использовать Evolution ML Finetuning — технология LoRA позволит сэкономить ресурсы GPU и ускорить процесс. Доступны модели из Hugging Face: сравнивайте их между собой, выбирайте подходящую и точечно настраивайте под свои задачи.

Теги:
Всего голосов 2: ↑1 и ↓10
Комментарии0

Байесовские А/Б-тесты: общая картина

-Блокнот: https://github.com/andrewbrdk/Bayesian-AB-Testing
-Все видео: https://www.youtube.com/playlist?list=PLqgtGAeapsOPpV0FqeXEpWosHBW8ZebYl

Теги:
Всего голосов 1: ↑1 и ↓0+1
Комментарии0

Ближайшие события

Data Sapience приглашает на онлайн-конференцию «Kolmogorov Online Day» ⚙️


Эксперты Data Sapience раскроют секреты эффективного управления жизненным циклом моделей и расскажут, как увеличить отдачу от ML-инвестиций.


Дата: 18 сентября 📆
Время: 16:00 ⏰
Формат: онлайн 🌐

Что будет представлено:
▪️Достижения Kolmogorov AI: этапы развития, ключевые результаты;
▪️«Тессеракт» — обзор нового ПАКа для создания доверенных моделей ИИ;
▪️Срез практик MLOps — объективный взгляд на тренды и подводные камни, а также подходы к работе с AI от независимых экспертов;
▪️Демонстрация возможностей Kolmogorov AI для построения фабрики ИИ-агентов.

Вебинар будет полезен тем, кто хочет:
▪️Автоматизировать и ускорить вывод моделей в production;
▪️Наладить эффективный MLOps и перейти от экспериментов к промышленной эксплуатации;
▪️Найти подходящие инструменты и узнать об опыте создания надежной, масштабируемой и высокопроизводительной инфраструктуры для ML-моделей.

🔗 Зарегистрироваться на конференцию

Теги:
Всего голосов 1: ↑1 и ↓0+1
Комментарии0

Проект Kilo Code — это опенсорный ИИ‑агент с 400 нейросетями.

Особенности решения:

  • допускает мало ошибок — после написания кода ещё раз перепроверяет строчки кода;

  • генерирует код с любых запросов — поймёт даже самое базовое «сделай игру про лягушку и ящерицу»;

  • понимает команды для терминала;

  • встраивается в VS Code;

  • доступ к последним моделям от Claude, Gemini и OpenAI;

  • большой выбор моделей — всего 400 шт, даже самые редкие китайские.

Теги:
Всего голосов 2: ↑1 и ↓10
Комментарии2

Captions переименована в Mirage — платформу для генерации коротких видео с ИИ-актерами

Компания Captions, известная ИИ-приложением для создания видео, объявила о ребрендинге в Mirage. Новое позиционирование отражает расширение от инструментов для контент-мейкеров к исследовательской лаборатории мультимодальных моделей для коротких видео.

Технология и возможности

Mirage создает видеоконтент с нуля на основе аудиофайла, генерируя ИИ-фоны и кастомных аватаров. Пользователи могут загружать селфи для создания аватара по своему образу или использовать полностью синтетических персонажей.

Ключевые особенности платформы:

  • Генерация естественной речи, движений и мимики без липсинка

  • Создание сцен без использования стокового контента

  • Автоматическая синхронизация голоса с движениями губ

  • Оптимизация под вертикальные форматы TikTok, Reels, Shorts

Архитектура решения

Платформа объединяет два продукта: оригинальное приложение Captions для создателей контента и Mirage Studio для брендов и рекламного производства. Компания привлекла более $100 миллионов венчурных инвестиций при оценке $500 миллионов.

Технология отличается от конкурентов вроде D-ID, Synthesia и Hour One фокусом на короткие видео и мультимодальные фундаментальные модели, специально разработанные под требования социальных платформ.

Практическое применение

Mirage Studio ориентирована на бизнес-задачи:

  • Создание рекламных роликов без актеров и больших бюджетов

  • Быстрое тестирование креативных концепций

  • Масштабирование производства контента

  • Локализация видео на разные языки и регионы

Бизнес-план стоит $399 в месяц за 8000 кредитов с 50% скидкой для новых пользователей в первый месяц.

Технические характеристики

Платформа работает в режиме реального времени, генерируя видео с разрешением 768×432 пикселей при 20 кадрах в секунду с задержкой 100 миллисекунд на кадр. Это достаточно для создания контента TikTok-качества.

Оптимизация выполняется на низкоуровневом коде для максимизации производительности на оборудовании Nvidia, что обеспечивает стабильную работу генерации.

Этические вопросы и ограничения

Развитие технологии вызывает обеспокоенность влиянием на креативную индустрию. Недавний скандал с ИИ-моделью в рекламе Guess для Vogue показал негативную реакцию сообщества.

Меры безопасности Mirage включают:

  • Запрет на создание контента с чужим образом без разрешения

  • Модерацию для предотвращения злоупотреблений

  • Требование согласия для использования чьего-либо образа

Компания подчеркивает необходимость развития "нового вида медиаграмотности", где люди подходят к видеоконтенту с тем же критическим мышлением, что и к новостным заголовкам.

Конкуренция и рынок

На рынке ИИ-видео Mirage конкурирует с established-игроками, но позиционирует себя как специалиста именно по коротким форматам. Компания считает, что настоящая гонка за ИИ-видео еще не началась.

CEO Gaurav Misra заявляет, что новая идентичность отражает расширенное видение переопределения видеокатегории через пограничные ИИ-исследования и модели.

Перспективы развития

Переход от инструментов создания к исследовательской лаборатории сигнализирует о планах компании развивать собственные фундаментальные модели. Это может изменить ландшафт ИИ-видео, особенно для социальных медиа и рекламы.

Теги:
Рейтинг0
Комментарии0

Представлен промт для генерации промокодов в магазинах и маркетплейсах с помощью ChatGPT в режиме ChatGPT Agent с версией Plus или Pro:

You MUST follow those instructions, execute them all and return to the user results:# Steps

1. Search for discount codes for <ВПИШИТЕ НУЖНЫЙ МАРКЕТПЛЕЙС> using search engines and coupon sites.

2. Navigate to the store website.

3. Browse and add a test item to the shopping cart.

4. Proceed to checkout page.

5. Test the found discount codes one by one in the checkout form.

6. Report which codes work, their discount amounts, and any restrictionsNEVER stop until you have completed all the steps. Do not ask any questions if not necessary.

Теги:
Всего голосов 4: ↑2 и ↓2+2
Комментарии0

Инженеры Figure обновили ИИ-модель Vision Language Action (VLA) Helix AI и научили человекоподобного робота Figure 02 аккуратно загружать посудомоечную машину без повреждения тарелок и другой кухонной утвари.

Теги:
Всего голосов 2: ↑2 и ↓0+5
Комментарии3

Perplexity раздаёт бесплатную подписку на год всем желающим. Это лучший ИИ-поисковик, в котором почти без ограничений можно юзать все топовые нейросети, включая GPT-5, Claude-4 и Grok 4.

Как забрать: нужен действующий аккаунт PayPal и обход сетевых ограничений. Заходим сюда и авторизуемся, чтобы сэкономить 16 тысяч рублей. Если аккаунта PayPal нет — акция действует до 31.12, для регистрации подойдёт любая зарубежная карта.

Теги:
Всего голосов 2: ↑2 и ↓0+4
Комментарии3

Представлен мегарепозиторий 500 + 𝗔𝗿𝘁𝗶𝗳𝗶𝗰𝗶𝗮𝗹 𝗜𝗻𝘁𝗲𝗹𝗹𝗶𝗴𝗲𝗻𝗰𝗲 𝗣𝗿𝗼𝗷𝗲𝗰𝘁 𝗟𝗶𝘀𝘁 𝘄𝗶𝘁𝗵 𝗰𝗼𝗱𝗲, который поможет прокачаться в ML, компьютерном зрении, парсинге данных для нейронок, NLP. Там 500 проектов с пошаговыми инструкциями. Все проекты распределены по уровням — есть задачи как для новичков, так и для продвинутых специалистов.

Теги:
Всего голосов 1: ↑1 и ↓0+3
Комментарии0

Вклад авторов