Обновить
677.53

Машинное обучение *

Основа искусственного интеллекта

Сначала показывать
Порог рейтинга

Недавно у нас в университете ИТМО прошел форсайт, посвященный видению развития отдельных направлений искусственного интеллекта на ближайшее будущее. Были приглашены эксперты из Индии и Китая, которые рассказали о развивающихся в их странах направлениях ИИ. В том числе выступали и наши эксперты.

Мне тоже удалось выступить. Я рассказывал о временных рядах, а именно о «изощренных» методах их прогнозирования и генерации на основе физически-информированных нейронных сетей. По этому поводу можно обратиться к другим моим статьям на хабре или в блоге.

Вот к каким трем основным направлениям развития ИИ в ближайшие 5-10 лет пришло большинство экспертов:

1. Вопросы эффективности. Развитие современных методов активно порождает вопросы эффективности как программного обеспечения, так и аппаратного обеспечения («железа»). Сейчас создают очень большие модели, для обучения которых требуются тысячи видеокарт. Для инференса этих моделей требуется меньше ресурсов, но это все равно затратно. Сейчас, например, актуальны методы квантизации больших моделей. В этой области ведется много исследований. Также ученые ищут подходы к более эффективному использованию железа, например, как оптимальнее оркестрировать поток задач.

2. Биологически правдоподобные модели. Вторым направлением можно выделить построение новых моделей машинного обучения на основе принципов работы биологических нейронных сетей. Наш мозг очень эффективно обрабатывает входящую информацию: в каждый момент времени активируются не все нейроны сразу, а только те, которые нужны для текущей задачи. Кстати, если бы работали все нейроны одновременно, то в голове возник бы шум, и мы не смогли бы сконцентрироваться на чем-то одном.

А в классических нейронных сетях все не так — там задействуются все нейроны одновременно. Исключением являются модели Mixture of Experts (смесь экспертов). Их принцип работы можно вообразить так: представьте, что вы задаете нейронной сети вопрос по математике. Очевидно, что в данный момент не нужно задействовать знания по биологии, истории и т.д. В MoE есть специальный блок — маршрутизатор (router) — который отвечает за перенаправление запроса к тому или иному «эксперту». Конечно, он может направить запрос сразу к нескольким экспертам, если вопрос затрагивает разные области знаний.

На практике нет такого явного тематического разделения экспертов, обычно они подбираются и обучаются самостоятельно для наилучшей генерации той или иной последовательности. И обычно эксперты активируются не для всего запроса целиком, а для отдельных токенов (например, слов) внутри этого запроса.

В общем, направление верное, собственно все чат боты сегодня строят на этой архитектуре. Однако в реальном биологическом мозге эта система представляет собой гораздо более сложную структуру. В мозге взрослого человека около 86 миллиардов нейронов и на каждом нейроне может быть от 5 до 10 тысяч синаптических связей. Как можно понять, плотность связей в нашем мозге чрезвычайно высока.

3. Фундаментальные мультимодальные модели и новая математика. 

Наконец, последнее направление связано с созданием не просто языковых моделей, а фундаментальных моделей, работающих с разными модальностями (типами данных). На самом деле, любую информацию можно свести к языку — даже математические формулы можно просто описать словами. Однако в этом направлении предлагается переосмыслить текущие подходы и развивать модели с новой математикой для описания этих различных модальностей.

Также до сих пор нет единого математического обоснования нейронных сетей, лишь отдельные области и лишь отдельная математика. А когда будет единая теория не ясно.

В общем, есть куда двигаться. А как вы считаете какие направления появятся или переосмыслят в ближайшее 5-10 лет? Пишите комментарии, будет интересно почитать.

Мой блог: kirill_zakharov_blog

Теги:
Всего голосов 2: ↑1 и ↓10
Комментарии0

Привет, Хабр!

Я навайбкодил Вам систему управления отчетами на 100500 Jupyter ноутбуков

Расскажу историю о том, как я решил проблему с хаосом в Jupyter-отчетах и создал систему juport (Jupyter Report System) ссылка на GitHub. А заодно поделюсь мыслями о том, как меняется разработка в эпоху AI-ассистентов.

Проблема: 100500 отчетов и никакого порядка

У меня накопилось огромное количество отчетов, сделанных в Jupyter Lab. Каждый — отдельный файл с кодом, паролями и прочей «кухней».

Главные проблемы:

  • Безопасность. Нельзя просто так поделиться отчетом с руководством или бухгалтерией, потому что там есть доступы к базам и код.

  • Рутина. Нет централизованного места для запуска отчетов, автоматизации по расписанию и единого интерфейса для просмотра.

  • Хаос. Все результаты разбросаны по папкам, и чтобы найти нужный Excel-файл, приходилось долго копаться.

Концепция решения

Нужно было что-то, что позволит разрабатывать отчеты в привычном Jupyter Lab, а потом автоматически запускать их, генерировать чистые HTML-версии без кода и собирать все артефакты в одном месте.

Решение: juport — система управления отчетами

Я создал систему (ну как сам, навайбкодил), состоящую из двух компонентов:

  1. Jupyter Lab Sidecar. Это обычный Jupyter Lab в Docker-контейнере. Здесь разработчики пишут и тестируют отчеты, как привыкли.

  2. juport — система управления. Веб-приложение на Python, которое сканирует папку с ноутбуками. Оно позволяет запускать отчеты вручную или по расписанию, выполняет их в изолированном окружении, генерирует HTML-версии без лишней информации, собирает все артефакты (Excel, картинки) в одну табличку и предоставляет удобный веб-интерфейс. Авторизация — через LDAP.

Как это работает

Разработка отчета:

  1. Вы создаете ноутбук в Jupyter Lab.

  2. Пишете код, тестируете, сохраняете.

  3. Используете переменные окружения для конфигурации, чтобы не хранить пароли в коде.

Запуск отчета:

  1. Заходите в веб-интерфейс juport.

  2. Видите список всех ноутбуков.

  3. Нажимаете «Запустить» или настраиваете расписание.

  4. Система выполняет ноутбук и собирает результаты.

Результат:

  • Чистый HTML-отчет без кода и паролей, доступный для просмотра.

  • Все Excel-файлы, картинки и PDF собраны в одном месте.

  • Удобный интерфейс для скачивания.

  • История выполнений и логи.

Как это сделано

Я не написал ни одной строчки кода сам. Все навайбкодил через Cursor с помощью промптов.

Да, именно так. Привыкайте. Такова реальность.

Андрея Карпатый говорил о том, что скоро разработка будет выглядеть совсем иначе. И он прав.

Мы, миллениалы, единственное поколение, которое разбиралось, как собрать компьютер с нуля. Бумеры были до бума ПК, а зумеры уже родились, когда все было готово. С кодом происходит то же самое. Через N лет опытные разработчики будут получать отличные результаты через промпты, потому что у них есть 20 лет опыта. Этот опыт — не знание синтаксиса, а понимание:

  • Архитектурных паттернов

  • Принципов проектирования

  • Торговых компромиссов

  • Потенциальных проблем

Именно поэтому те, кто шарит, получат отличный результат, а те, кто не шарит, получат «коричневую субстанцию».

AI-ассистенты — это не замена разработчикам, а инструмент, который многократно увеличивает нашу скорость. Опыт и понимание архитектуры становятся еще важнее. А новичкам будет сложнее, потому что им придется мотивированно изучать технологии, чтобы получать от нейросетей качественные вещи.

Выводы

  1. AI-ассистенты — это не замена, а инструмент.

  2. Опыт и понимание архитектуры становятся критически важными.

  3. Скорость разработки для опытных специалистов вырастет в разы.

  4. Новичкам придется приложить больше усилий для освоения профессии.

А как вы видите будущее разработки с AI? Делитесь в комментариях!

Теги:
Всего голосов 8: ↑3 и ↓5-1
Комментарии4

https://sanand0.github.io/llmrandom/

Статья о том, что при попытке получить "случайное" число от 0 до 100, LLM возвращает не истинно случайное число, а демонстрируют предвзятость (bias), обусловленную особенностями обучающих данных (например знаменитое 42, а это отсылка к роману "Автостопом по Галактике"). Причем распределение этих чисел примерно одинаковое от модели к модели (OpenAI GPT-3.5 Turbo, Anthropic Claude 3 Haiku, Google Gemini 1.0 Pro), что говорит о "культурологическом" смещении в вероятностных механизмах.
В общем нейросети это не про рандом.

It picks like humans

Теги:
Рейтинг0
Комментарии1

На сайте Сколково вышла история о том, как мы перестраиваем культуру от проектной к продуктовой.
Главный инсайт — технологии сами по себе мало чего стоят. Важно проверять спрос, быстро тестировать идеи и выводить на рынок только то, что реально нужно клиентам.
В итоге мы выстроили систему R&D, научились работать с гипотезами и запустили собственные продукты. Это не только про рост бизнеса, но и про смену культуры внутри команды.

Каждая идея проходит определённые этапы: исследования, прототипирование, планирование продукта и реализация MVP. Идеи "отваливаются" на каждом этапе и это позволяет сделать процесс более дешевым и не "тащить" за собой идеи, которые в последствии не примет рынок.
Таким образом, повышается вероятность продукта на рынке.
На картинке ниже схематично представлена воронка идеи от этапа к этапу. Из 100 идей до вывода на рынок доходят примерно 7, это среднее значение по акселераторам крупных компаний.

Ссылка на публикацию: https://lnkd.in/ez3Qx26y

Теги:
Рейтинг0
Комментарии0

Роадмап для начинающих питонщиков

Изучение Python может показаться сложным, но с правильным подходом и пониманием ключевых аспектов процесс станет понятным и увлекательным. Привет, я Иван Чернов, senior system architect, кратко расскажу, как начать вкатываться в Python, с какими проблемами сталкиваются новички и как их преодолеть.

Первые шаги

Определяемся с направлением, в котором вы хотите развиваться. Это может быть веб-разработка, машинное обучение, DevOps и т. д. Каждое направление требует своих знаний и навыков. Поэтому важно понять, что конкретно вам интересно и на какой позиции не будет скучно или слишком сложно.

Начните с изучения базовых понятий, таких как переменные, типы данных, структуры данных и функции. Это заложит фундамент для дальнейшего изучения.

Когда определились с направлением и изучили теорию — проходите курсы с практическим обучением или начинайте работать с кодом сами. Всегда лучше писать, чем читать. Как только вывели “Hello, World!”, переходите к обучающим программам, где первые задачки применимы к жизни. Например, на некоторых курсах учат разрабатывать Telegram-бота под ваши нужды. Это отличная практика для понимания процессов.

Также можете прочитать базу «Питона» — книгу “Automated Boring Stuff with Python”. В ней много практических задач, которые помогут вам освоить язык. А ещё есть полезный курс “Learning How to Learn”, который учит, как правильно учиться, опираясь на достижения нейронауки.

Этап, на котором новички отваливаются

При более глубоком изучении «Питона» новичок столкнётся с первой проблемой — настройкой инфраструктуры. На этом этапе многое пугает: установка редакторов кода, интерпретаторов, пакетных менеджеров и прочее. Даже опытные программисты каждый день ищут подходящие инструменты и пытаются освоить новые. 

Чтобы облегчить старт, можно для начала научиться использовать онлайн-среду разработки, например Replit. Можно просто зайти на сайт, выбрать язык Python и сразу приступать к написанию кода. 

Replit — это сервис для вайб-кодинга. В нём можно быстро экспериментировать с задачами и сразу видеть результат. Так вы сконцентрируетесь именно на изучении языка, а не на технических сложностях.

Тут есть большое «но»: на вайб-кодинге далеко не уедешь. Использование онлайн-сред — это чит-код, который облегчает старт, но не учит решать реальные проблемы. Так что с комплексной инфраструктурой всё же придётся разобраться.

Концептуальные вопросы

Отдельно стоит отметить концептуальные вопросы, которые могут возникнуть на старте. Новички часто сталкиваются с трудностями в понимании таких понятий, как переменные и функции. 

Например, в Python переменная может принимать разные значения, что противоречит математическим представлениям. Это может привести к путанице и неправильному пониманию основ программирования. 

Важно понимать, что программирование — это не только про то, как писать код, но и о то, как мыслит как программист. Необходимо развивать критическое мышление и осознавать, что многие концепции, которые мы учили на уроках математики, могут быть неверными в программировании. 

Советы начинающим питонщикам

  • Постоянная практика. Пишите код каждый день, хотя бы немного. Работайте над проектами, которые вас интересуют, и решайте проблемы, которые вас раздражают. Я в 2010-м хотел, чтобы дома лампочка включалась по голосу. С помощью Python удалось сделать это.

  • Изучайте чужой код. Чтение и понимание чужого кода поможет вам увидеть, как другие решают задачи и какие подходы используют. Однако не стоит изучать рандомный код. Лучше ищите тот, что поможет улучшить ваши проекты. 

  • Go sport, go team. Физическая активность способствует лучшему усвоению информации. Поэтому не забывайте делать перерывы и заниматься спортом.

Заключение

Определитесь с направлением, изучите теорию, но не медлите с практикой. Не пугайтесь сложностей инфраструктуры: всегда можно нагуглить или спросить на форумах. Пользуйтесь онлайн-средами, но не делайте большую ставку на вайб-кодинг. Не бойтесь начинать и ошибаться — и у вас всё получится.

Теги:
Всего голосов 10: ↑4 и ↓6+2
Комментарии4

До и после fine-tuning — что изменится в работе модели после дообучения? 🧠

Fine-tuning, или дообучение — это дополнительное обучение уже готовой модели на специализированных данных, чтобы она лучше выполняла узконаправленные задачи.

Это проще, чем обучение модели с нуля, так как нужно доработать лишь некоторые параметры, а не миллиарды. Файнтьюнить можно уже готовые модели, которые хорошо справляются с базовыми вещами, например, написанием текстов или генерацией изображений.

Для чего же подойдет fine-tuning?  👇

  1. Исправление слабостей, если модель в чем-то проседает. Иногда стартовая модель не очень хорошо решает базовые задачи: путает термины, особенно если они схожи, или дает сложные нечитаемые ответы. Такое бывает, когда в обучающем датасете больше данных, например, на английском, а пользователи общаются на русском. Проблема решится, если дообучить модель на качественных данных с хорошими примерами, чтобы та поняла, что от нее требуется.

  2. Обеспечить работу с минимумом задержек. В некоторых сервисах важно, чтобы модель отвечала мгновенно, а не обращалась за информацией к внешней базе знаний — это увеличивает время ответа. Вы можете дообучить модель на собственных данных, чтобы она быстро получала нужные сведения.

  3. Глобально изменить датасет. Бывает, что многое из той информации, что использует модель, устаревает, или существенно меняются требования в предметной области. Тогда есть смысл собрать побольше качественных данных и провести дообучение на них.

  4. Генерация текстов в специфичном стиле. Допустим, вы хотите, чтобы модель заполняла документацию в конкретном формате, использовала юридический стиль, оформляла тексты по ГОСТ или писала как Достоевский. Подогнать стиль ответов модели под нужный формат — задача, которую можно решить с помощью fine-tuning.

🤔 Что в итоге? Fine-tuning незаменим, если нужно поменять стиль ответов, подогнать тексты под конкретный формат, исправить изначальные слабости. Или когда важно, чтобы модель давала ответы без задержек и не ходила во внешние источники. Подробнее про fine-tuning, а еще про RAG и промпт-инжиниринг читайте в нашей статье

А для дообучения вы можете использовать Evolution ML Finetuning — технология LoRA позволит сэкономить ресурсы GPU и ускорить процесс. Доступны модели из Hugging Face: сравнивайте их между собой, выбирайте подходящую и точечно настраивайте под свои задачи.

Теги:
Всего голосов 2: ↑1 и ↓10
Комментарии0

Байесовские А/Б-тесты: общая картина

-Блокнот: https://github.com/andrewbrdk/Bayesian-AB-Testing
-Все видео: https://www.youtube.com/playlist?list=PLqgtGAeapsOPpV0FqeXEpWosHBW8ZebYl

Теги:
Всего голосов 1: ↑1 и ↓0+1
Комментарии0

Data Sapience приглашает на онлайн-конференцию «Kolmogorov Online Day» ⚙️


Эксперты Data Sapience раскроют секреты эффективного управления жизненным циклом моделей и расскажут, как увеличить отдачу от ML-инвестиций.


Дата: 18 сентября 📆
Время: 16:00 ⏰
Формат: онлайн 🌐

Что будет представлено:
▪️Достижения Kolmogorov AI: этапы развития, ключевые результаты;
▪️«Тессеракт» — обзор нового ПАКа для создания доверенных моделей ИИ;
▪️Срез практик MLOps — объективный взгляд на тренды и подводные камни, а также подходы к работе с AI от независимых экспертов;
▪️Демонстрация возможностей Kolmogorov AI для построения фабрики ИИ-агентов.

Вебинар будет полезен тем, кто хочет:
▪️Автоматизировать и ускорить вывод моделей в production;
▪️Наладить эффективный MLOps и перейти от экспериментов к промышленной эксплуатации;
▪️Найти подходящие инструменты и узнать об опыте создания надежной, масштабируемой и высокопроизводительной инфраструктуры для ML-моделей.

🔗 Зарегистрироваться на конференцию

Теги:
Всего голосов 1: ↑1 и ↓0+1
Комментарии0

Проект Kilo Code — это опенсорный ИИ‑агент с 400 нейросетями.

Особенности решения:

  • допускает мало ошибок — после написания кода ещё раз перепроверяет строчки кода;

  • генерирует код с любых запросов — поймёт даже самое базовое «сделай игру про лягушку и ящерицу»;

  • понимает команды для терминала;

  • встраивается в VS Code;

  • доступ к последним моделям от Claude, Gemini и OpenAI;

  • большой выбор моделей — всего 400 шт, даже самые редкие китайские.

Теги:
Всего голосов 2: ↑1 и ↓10
Комментарии2

Captions переименована в Mirage — платформу для генерации коротких видео с ИИ-актерами

Компания Captions, известная ИИ-приложением для создания видео, объявила о ребрендинге в Mirage. Новое позиционирование отражает расширение от инструментов для контент-мейкеров к исследовательской лаборатории мультимодальных моделей для коротких видео.

Технология и возможности

Mirage создает видеоконтент с нуля на основе аудиофайла, генерируя ИИ-фоны и кастомных аватаров. Пользователи могут загружать селфи для создания аватара по своему образу или использовать полностью синтетических персонажей.

Ключевые особенности платформы:

  • Генерация естественной речи, движений и мимики без липсинка

  • Создание сцен без использования стокового контента

  • Автоматическая синхронизация голоса с движениями губ

  • Оптимизация под вертикальные форматы TikTok, Reels, Shorts

Архитектура решения

Платформа объединяет два продукта: оригинальное приложение Captions для создателей контента и Mirage Studio для брендов и рекламного производства. Компания привлекла более $100 миллионов венчурных инвестиций при оценке $500 миллионов.

Технология отличается от конкурентов вроде D-ID, Synthesia и Hour One фокусом на короткие видео и мультимодальные фундаментальные модели, специально разработанные под требования социальных платформ.

Практическое применение

Mirage Studio ориентирована на бизнес-задачи:

  • Создание рекламных роликов без актеров и больших бюджетов

  • Быстрое тестирование креативных концепций

  • Масштабирование производства контента

  • Локализация видео на разные языки и регионы

Бизнес-план стоит $399 в месяц за 8000 кредитов с 50% скидкой для новых пользователей в первый месяц.

Технические характеристики

Платформа работает в режиме реального времени, генерируя видео с разрешением 768×432 пикселей при 20 кадрах в секунду с задержкой 100 миллисекунд на кадр. Это достаточно для создания контента TikTok-качества.

Оптимизация выполняется на низкоуровневом коде для максимизации производительности на оборудовании Nvidia, что обеспечивает стабильную работу генерации.

Этические вопросы и ограничения

Развитие технологии вызывает обеспокоенность влиянием на креативную индустрию. Недавний скандал с ИИ-моделью в рекламе Guess для Vogue показал негативную реакцию сообщества.

Меры безопасности Mirage включают:

  • Запрет на создание контента с чужим образом без разрешения

  • Модерацию для предотвращения злоупотреблений

  • Требование согласия для использования чьего-либо образа

Компания подчеркивает необходимость развития "нового вида медиаграмотности", где люди подходят к видеоконтенту с тем же критическим мышлением, что и к новостным заголовкам.

Конкуренция и рынок

На рынке ИИ-видео Mirage конкурирует с established-игроками, но позиционирует себя как специалиста именно по коротким форматам. Компания считает, что настоящая гонка за ИИ-видео еще не началась.

CEO Gaurav Misra заявляет, что новая идентичность отражает расширенное видение переопределения видеокатегории через пограничные ИИ-исследования и модели.

Перспективы развития

Переход от инструментов создания к исследовательской лаборатории сигнализирует о планах компании развивать собственные фундаментальные модели. Это может изменить ландшафт ИИ-видео, особенно для социальных медиа и рекламы.

Теги:
Рейтинг0
Комментарии0

Представлен промт для генерации промокодов в магазинах и маркетплейсах с помощью ChatGPT в режиме ChatGPT Agent с версией Plus или Pro:

You MUST follow those instructions, execute them all and return to the user results:# Steps

1. Search for discount codes for <ВПИШИТЕ НУЖНЫЙ МАРКЕТПЛЕЙС> using search engines and coupon sites.

2. Navigate to the store website.

3. Browse and add a test item to the shopping cart.

4. Proceed to checkout page.

5. Test the found discount codes one by one in the checkout form.

6. Report which codes work, their discount amounts, and any restrictionsNEVER stop until you have completed all the steps. Do not ask any questions if not necessary.

Теги:
Всего голосов 4: ↑2 и ↓2+2
Комментарии0

Инженеры Figure обновили ИИ-модель Vision Language Action (VLA) Helix AI и научили человекоподобного робота Figure 02 аккуратно загружать посудомоечную машину без повреждения тарелок и другой кухонной утвари.

Теги:
Всего голосов 2: ↑2 и ↓0+5
Комментарии3

Perplexity раздаёт бесплатную подписку на год всем желающим. Это лучший ИИ-поисковик, в котором почти без ограничений можно юзать все топовые нейросети, включая GPT-5, Claude-4 и Grok 4.

Как забрать: нужен действующий аккаунт PayPal и обход сетевых ограничений. Заходим сюда и авторизуемся, чтобы сэкономить 16 тысяч рублей. Если аккаунта PayPal нет — акция действует до 31.12, для регистрации подойдёт любая зарубежная карта.

Теги:
Всего голосов 2: ↑2 и ↓0+4
Комментарии3

Ближайшие события

Представлен мегарепозиторий 500 + 𝗔𝗿𝘁𝗶𝗳𝗶𝗰𝗶𝗮𝗹 𝗜𝗻𝘁𝗲𝗹𝗹𝗶𝗴𝗲𝗻𝗰𝗲 𝗣𝗿𝗼𝗷𝗲𝗰𝘁 𝗟𝗶𝘀𝘁 𝘄𝗶𝘁𝗵 𝗰𝗼𝗱𝗲, который поможет прокачаться в ML, компьютерном зрении, парсинге данных для нейронок, NLP. Там 500 проектов с пошаговыми инструкциями. Все проекты распределены по уровням — есть задачи как для новичков, так и для продвинутых специалистов.

Теги:
Всего голосов 1: ↑1 и ↓0+3
Комментарии0

Krea AI представляет генерацию видео в реальном времени

Агрегатор Krea AI анонсировал новый инструмент, который позволяет генерировать видео в реальном времени, без необходимости ожидания рендеринга. Эта технология даёт возможность вносить изменения в видео «на лету». Релиз бета-версии состоялся 28 августа 2025 года1.

Что это значит для креаторов

Новый инструмент Krea AI ориентирован на креаторов, дизайнеров и монтажёров. Он позволяет пользователям редактировать видео, мгновенно управляя их стилем и содержанием, что значительно ускоряет творческий процесс. Возможность немедленного тестирования идей и просмотра результата сокращает время на итерации и упрощает работу.

Платформа также предоставляет функции, позволяющие:

  • Анимировать изображения: Пользователи могут загрузить статичные изображения и превратить их в короткие видеоклипы с помощью ИИ2.

  • Генерировать видео из текста: Система способна трансформировать текстовые описания в видеоролики3.

  • Масштабировать и улучшать: Платформа предлагает функции улучшения разрешения и детализации существующих изображений и видео4.

Для создания более длинных видео пользователи могут объединить несколько сгенерированных клипов в сторонних видеоредакторах, например, в

Adobe Premiere Pro5.

Технические особенности и перспективы

В основе технологии лежит покадрово-согласованный рендеринг, который происходит быстрее, чем само воспроизведение6. Это позволяет платформе генерировать видео в разрешении 512p или 720p7.

Krea AI интегрирует различные модели генерации видео, включая

Kling 1.6, Pro, Runway и Luma8. Это дает пользователям гибкость, предоставляя несколько подходов к созданию одного и того же визуального контента9.

По мнению разработчиков, эта технология является важным шагом в развитии генеративных медиа10. По мере улучшения аппаратных ускорителей, она может изменить сферу превизуализации в реальном времени и сделать высококачественную анимацию более доступной для индивидуальных авторов и крупных компаний11.

Теги:
Всего голосов 1: ↑1 и ↓0+3
Комментарии3

Рад представить aignal.tech — обещанный API для получения сигналов от обученных ML моделей.

Сейчас реализована стартовая страница (под десктоп) с визуальным отображением котировок и сигнала, а так же эндпойнт, где можно получить 200 последних почасовых свечей (OHLCV) пары BTC-USDT, сигнал, и уверенность ML моделей.

Сигналы — не призыв к действию. Это лишь промежуточный результат эксперимента, предназначенный исключительно для тестирования гипотез и дальнейшего обучения моделей. Информация об их обновлении позже будет тоже выводиться.

Ручек планируется больше, подробнее в документации.

Ну и для тех, кто спрашивал про скринсейвер — он реализован отдельной страницей без интерфейса. Минимальный клиент для работы с этим API тоже будет, но чуть позже. Там, собственно, немного покажу, как работать с этой информацией, и какие стратегии можно строить.

Теги:
Всего голосов 1: ↑1 и ↓0+1
Комментарии0

Alibaba представила Qwen3 — линейку с MoE-моделями до 235 миллиардов параметров

Команда Qwen от Alibaba Cloud выпустила третье поколение языковых моделей с гибридной архитектурой мышления. Флагманская модель Qwen3-235B-A22B использует Mixture-of-Experts подход с 235 миллиардами параметров, активируя 22 миллиарда для каждого токена.

Архитектура и масштаб

Линейка включает восемь моделей: шесть плотных архитектур от 0.6B до 32B параметров и две MoE-модели — Qwen3-235B-A22B и Qwen3-30B-A3B. Все модели поддерживают контекст до 128K токенов, кроме младших версий с 32K контекстом.

Технические характеристики флагманской модели:

  • 235 миллиардов общих параметров

  • 22 миллиарда активных параметров на токен

  • 128 экспертов, 8 активируется одновременно

  • 94 слоя трансформера

  • Поддержка 119 языков

Гибридные режимы мышления

Ключевая особенность Qwen3 — два режима обработки запросов. Thinking Mode использует пошаговые рассуждения для сложных задач, а Non-Thinking Mode дает быстрые ответы на простые вопросы.

Интеграция двух режимов обеспечивает масштабируемый контроль вычислительного бюджета с плавным улучшением производительности в зависимости от выделенных ресурсов.

Переключение между режимами происходит через команды /think и /no_think в промптах, что позволяет динамически управлять поведением модели в диалоге.

Процесс обучения

Предобучение проводилось на 36 триллионах токенов — в два раза больше, чем у Qwen2.5. Процесс включал три этапа: базовое обучение на 30T токенов с контекстом 4K, улучшение датасета с фокусом на STEM и программирование на 5T токенов, и финальное расширение контекста до 32K.

Постобучение состояло из четырех стадий:

  • Обучение на длинных chain-of-thought данных

  • Reinforcement Learning с правилами-наградами

  • Интеграция thinking и non-thinking режимов

  • Общее RL для более 20 доменов

Производительность и сравнения

Qwen3-235B-A22B показывает конкурентные результаты с топовыми моделями вроде DeepSeek-R1, o1, o3-mini и Grok-3 в бенчмарках по программированию, математике и общим способностям.

Компактная Qwen3-30B-A3B с 30B общих параметров превосходит QwQ-32B при 10-кратно меньшем количестве активных параметров. Даже Qwen3-4B конкурирует с Qwen2.5-72B-Instruct.

Развертывание и доступность

Модели доступны через несколько платформ: Hugging Face, ModelScope, Kaggle. Для развертывания поддерживаются SGLang и vLLM, для локального использования — Ollama, LMStudio, llama.cpp.

Все модели, кроме самых крупных, лицензированы под Apache 2.0. Компания предоставляет бесплатный доступ через Qwen Chat для тестирования возможностей.

Мультиязычность и агентские способности

Модели поддерживают 119 языков и диалектов, включая основные семьи языков: индоевропейскую, сино-тибетскую, афразийскую, австронезийскую и другие.

Улучшены агентские способности с поддержкой Model Control Protocol (MCP) и оптимизацией для взаимодействия с инструментами и окружением.

Перспективы развития

Команда Qwen позиционирует релиз как шаг к переходу от эпохи обучения моделей к эпохе обучения агентов. Планируется развитие в направлении масштабирования данных, увеличения размера моделей, расширения контекста и мультимодальности.

Теги:
Всего голосов 4: ↑3 и ↓1+5
Комментарии0

На сайте «I'm absolutely right!» разработчик выкладывает, сколько раз чат‑бот Claude Code сказал эту фразу каждый день.

Теги:
Всего голосов 2: ↑1 и ↓10
Комментарии0

Может ли кто-нибудь создать Википедию Вселенной, других цивилизаций?

По стилю - современная Википедия (или похоже), но разных миров и как будто с информацией из условного 100к-ого года нашей эры, где человечество выжило и знает намного больше о Вселенной. Например, чтобы Проксима b была с картой, историей и т.д.

Да, есть много фантастики, но целая фантастическая Википедия - этого у нас пока нет. Есть множество Вики по различным сюжетам, но это не то же самое. В "Википедии Вселенной" может быть надпись, которую видят все новые пользователи: "Что, если бы мы знали намного больше о Вселенной? Если бы у нас были Википедии других цивилизаций? Этот проект - фантазия людей и ИИ на тему", а дальше или случайная генерация одной из "Википедий будущего", или несколько на выбор, или одна.

Теги:
Рейтинг0
Комментарии4

Представлен проект Chatterbox Multilingual, который умеет бесплатно клонировать любой голос с короткой записи. Решение умеет озвучивать любой текст с эмоциями, поддерживает 23 языка, среди которых и русский. Также там можно расставлять акценты, делать паузы, выделять слова голосом, контролировать тон и тембр. А ещё есть библиотека голосов, которые можно использовать в проектах.

Теги:
Всего голосов 2: ↑2 и ↓0+3
Комментарии0

Вклад авторов