Все потоки
Поиск
Написать публикацию
Обновить
283.94

Исследования и прогнозы в IT *

Исследования, тренды и прогнозы в IT-сфере

Сначала показывать
Порог рейтинга

Давайте помечтаем или как я вижу адекватный мир трудоустройства в будущем:

1. Соискатель проходит собеседование, в котором раскрываются его ключевые компетенции и владение конкретными инструментами в рамках этих ключевых компетенций, а результат собеседования действителен в течении года.

Для разработчика моб. приложений например нужно подтвердить что ты можешь делать моб.приложения и что ты можешь делать их с использованием Jetpack Compose (выбрал пример из своей сферы Android-разработки потому как она мне близка, можно провести аналогию для других сфер). Понятно что ключевых компетенций и инструментов для их применения может быть больше.

Собеседование проходит в рамках любой компании которая возьмется это собеседование провести. Ключевые компетенции и инструментарий для каждой компетенции обговариваются перед собеседованием. Если соискатель и работодатель совпадают по ключевым компетенциям на 80% и более, и по конкретному инструментарию на 60% и более - проводится собеседование.

Для этого работодателю следует определить список ключевых компетенций для заполняемой должности и список инструментов для каждой компетенции, и предоставить их соискателю.

А соискателю следует ознакомиться с этим списком и решить хочет он пройти это собеседование и работать применяя эти компетенции и инструменты или нет.

Во время прохождения собеседования записывается видео которое можно свободно использовать и распространять для любых целей, будь то подготовка к собеседованию, разрешение спорных ситуаций, переиспользование видео собеседования для устройства на работу в другие компании.

Результатом собеседования является видео встречи и это видео может быть использовано для устройства в любую компанию без прохождения дополнительны собеседований.

Видео действительно 1 год, через год компании вправе запросить пройти собеседование снова.

Видео доступно как сотруднику так и компании, так и любым другим компаниям когда соискатель в поиске работы.

Соискатель имеет право запросить повторное собеседования через 1 месяц после прохождения предыдущего. Тогда предыдущий результат собеседования заменяется новым. (1 месяц между собеседованиями можно затратить на подготовку и освоение тем по которым показал слабый результат, чтобы его улучшить)

Практика переиспользования результатов хорошо зарекомендовала себя в разработке, так давайте перенесем этот опыт и в сферу трудоустройства. Это позволит сохранить время, нервы и деньги как компаниям так и сотрудникам.

2. Работодатель предлагает зарплату соискателю, такую какую считает нужной и возможной исходя из своих рисков и возможностей.

Не пытается выведать зп ожидания у соискателя. Не пытается прогнуть соискателя на более низкую зарплату.

Просто предлагает свои условия, как владелец бизнеса.

Соискатель соглашается на эти условия или нет.

Предложение оффера и согласование ЗП тоже происходит при личной встрече. Записывается на видео и может быть переиспользовано как соискателем так и компанией.

Работодатель имеет право предложить новый оффер через 7 дней. (Эти 7 дней можно затратить на обдумывание стратегии бизнеса и согласование бюджета)

Соискатель в решении о ЗП руководствуется своими реалиями и возможностями рынка.

3. Соискатель может найти работу на сайте компании без использования сторонних сервисов.

Каждая компания выставляет в открытый доступ список вакантных мест (3 разработчика, 2 дизайнера и т.п.)

Так же компания выставляет список людей их контакты и видео-результаты тех которые уже собеседуются на должность. (Так процесс наема будет открытым и наглядным, это так же позволит найти свободные места, поможет избавиться от чрезмерного наплыва соискателей, и поможет подготовиться соискателям к собеседованию)

Вот как-то так, такие мечты :)

Я думаю это позволит изменить ситуацию на рынке труда в лучшую сторону, на пользу и сотрудникам и компаниям, а что думаете вы?

Теги:
0
Комментарии7

Почему азиатский UX работает по другим законам?

Почему западные интерфейсы стремятся к минимализму и упрощению, а азиатские, напротив, демонстрируют переизбыток информации? Почему в азиатских культурах, особенно в Восточной Азии, пользователи привыкли к большому объему визуального контента и считают важным иметь доступ ко всей необходимой информации сразу, а небольшое количества информации или выбора может вызвать недоверие? Почему то, что может показаться хаосом для европейца, для азиата — удобный и информативный интерфейс? 

Если вы тоже задаете эти вопросы, то статья «Как проектировать интерфейсы по азиатски: холистически и беспощадно» точно для вас! Расскажем чему западным и российским дизайнерам стоит учиться у WeChat, Naver, KakaoTalk, Alipay, Rakuten и TaoBaо.

Как проектировать интерфейсы по азиатски: холистически и беспощадно
Почему западные интерфейсы стремятся к минимализму и упрощению, а азиатские, напротив, демонстрируют...
habr.com

Если хотите выйти за границы привычных паттернов и понять, как строится неочевидный, но очень эффективный UX восточных продуктов — обязательно прочтите!

Теги:
+3
Комментарии0

Проблема: Кадровый голод по специалистам, и при этом рекордные количества откликов на вакансии.

Причина: Плохая воронка наема специалиста (по аналогии с воронкой продаж, хорошие воронки способствуют продажам, а плохие нет), читай как - существующий процесс наема не помогает нанять специалиста, притом что специалистов на рынке более чем достаточно.

Общее решение: Изменить процесс наема так чтобы он помогал нанять специалиста для решения задач бизнеса.

Конкретные варианты решения:

  1. Использовать зарекомендовавшие себя решения в других воронках\процессах получения чего-либо. Например сарафанное радио и нетворкинг, кумовщину и рефералки, при этом отказаться от существующих фильтров в пользу доверия на старте.

  2. Устранить причину мешающую текущему процессу наема. Например сократить цепочку ЛПР-ов на пути соискателя до оптимума.

    (Сейчас это авто-скрипт, эйчар(или ряд эйчаров), собеседующий специалист(или ряд специалистов), представитель команды(или ряд представителей), опционально тут еще какие-то посредники, и вот тут уже можно выйти на работу и работать 😁. Причем на каждом этапе у лже-ЛПР-ов есть цель отсеять человека на основании формального фильтра. Тогда как лучшие работники обычно "неформалы" ибо они про работу работать как Стив Возняк, а не про продукт(себя) продавать как Стив Джобс. Очевидно что не каждая птица долетит даже до середины.. 😢)

    Оптимум - это ван ту ван, один ЛПР-соискатель на одного ЛПР-нанимателя. Собеседовать можно сколько угодно, но в конце один ответственный человек собирает всю информацию в кучу (и это не оценки и выжимки специалистов, а прям сесть и посмотреть портфолио, видео собеседования, пересказ нейронки прочитать как минимум по этому видео, переписку, на свою текущую ситуацию по задачам и срокам посмотреть и т.д.) и на основе всех имеющихся данных принять полноценное решение.

    ЛПР - это тот кто принимает решение что считает лучшим на этот момент, а не тот который работает по прописанному скрипту (иначе это не ЛПР, а человек которого настоящий ЛПР назначил отрабатывать строго по скрипту 😜).

  3. Устранить еще одну причину мешающую процессу наема. Например монолитность условий для прохождения собеседования. Можно искать пол жизни рыцаря на белом коне, до момента когда ни конь ни рыцарь уже будут не нужны, а можно взять то что само приползло и докрутить его под свои хотелки уже здесь и сейчас (то что само приползло должно быть согласно на докрутку, чтобы ни одно живое существо не пострадало в процессе наема 😁).

P.S. Все 3 варианта решения на самом деле про одно и то же, только заход с разных сторон: убрать не то что мешает обрабатывать заявки на чиле, в пол уха, левой пяткой, а убрать то что действительно мешает нанять сотрудника для решения конкретных задач. (Да стало много спама, ну и что? Разве то что много спама говорит о том что среди спама нет специалистов способных делать работу? Нет. Как раз таки в этом и заключается задача\работа нанимателя - нанять сотрудника в этих конкретных условиях. Ну да, придется поработать. Соискатель, наниматель и работодатель в одной лодке как ни крути, если кто-то не хочет грести, то далеко ли уплывет такая лодка?🛶)

Хорошего дня, наема и трудоустройства!

Обнял 🤗

Теги:
+1
Комментарии2

Baidu представила ERNIE X1.1 — модель рассуждений уровня GPT-5 и Gemini 2.5 Pro

На конференции WAVE SUMMIT 2025 китайская компания Baidu анонсировала ERNIE X1.1 — обновленную модель рассуждений с существенными улучшениями в точности, следовании инструкциям и агентских возможностях. Модель превосходит DeepSeek R1-0528 и сопоставима с топовыми решениями от OpenAI и Google.

Технические улучшения

ERNIE X1.1 демонстрирует значительный прирост производительности относительно предыдущей версии. Фактическая точность выросла на 34.8%, следование инструкциям улучшилось на 12.5%, а агентские способности — на 9.6%.

Архитектурные особенности:

  • Построена на базе мультимодальной модели ERNIE 4.5

  • Использует итеративную гибридную систему обучения с подкреплением

  • Объединяет смешанное reinforcement learning и итеративную самодистилляцию

  • Поддерживает контекст 128K токенов

Производительность в бенчмарках

По результатам множественных тестов ERNIE X1.1 превосходит DeepSeek R1-0528 в общей производительности, показывая явные преимущества в ряде задач. Модель работает на одном уровне с такими топовыми решениями как GPT-5 и Gemini 2.5 Pro.

Модель показывает выдающиеся результаты в широком спектре задач: создании контента, логических рассуждениях, математических вычислениях, генерации кода и использовании инструментов.

Доступность и интеграция

ERNIE X1.1 доступна через несколько каналов:

  • ERNIE Bot — веб-интерфейс на ernie.baidu.com

  • Wenxiaoyan — мобильное приложение Baidu

  • Qianfan MaaS — платформа Models-as-a-Service для корпоративных клиентов и разработчиков

Параллельно с ERNIE X1.1 компания открыла исходный код модели ERNIE-4.5-21B-A3B-Thinking — легковесной MoE-модели с 21 миллиардом общих и 3 миллиардами активных параметров.

Экосистема PaddlePaddle

Развитие ERNIE X1.1 происходит в контексте расширения экосистемы PaddlePaddle. На данный момент экосистема PaddlePaddle-ERNIE обслуживает 23.33 миллиона разработчиков и 760,000 предприятий.

Новые инструменты включают:

  • PaddlePaddle framework v3.2 с улучшениями обучения и совместимости

  • ERNIEKit для разработки фундаментальных моделей

  • FastDeploy v2.2 для эффективного развертывания

  • Научные тулкиты PaddleCFD и PaddleMaterials

Baidu Comate 3.5S

Одновременно с ERNIE X1.1 представлена обновленная версия ИИ-помощника для программирования Baidu Comate 3.5S. Система поддерживает более 10 миллионов разработчиков, а внутри Baidu 45% нового кода теперь генерируется ИИ.

Новая версия усиливает возможности мульти-агентного сотрудничества, позволяя одному разработчику достигать продуктивности целой команды.

Конкурентная позиция

ERNIE X1.1 позиционируется как прямой конкурент западных моделей рассуждений. Baidu делает ставку на сочетание высокой производительности с локализацией под китайский рынок и требования регуляторов.

Преимущества модели:

  • Конкурентоспособная производительность с глобальными лидерами

  • Интеграция в экосистему китайских облачных сервисов

  • Поддержка специфичных для региона задач и языковых особенностей

  • Соответствие местным требованиям по данным и безопасности

Релиз ERNIE X1.1 демонстрирует способность китайских технологических компаний создавать модели мирового уровня и конкурировать с ведущими американскими разработчиками ИИ.

Теги:
+3
Комментарии0

Решил посмотреть курс по обучению нейросетям, и вот что я осознал:

Курсы по нейросетям - это по прежнему бизнес продающий курсы.

Продажи курсов - это по прежнему продажи курсов, работают через хайп, возможности и боли, рассказывают истории по типу "Путь героя".

Само же обучение работе с нейросетями не требует какого-то специального обучения.

По сути работа с нейросетями требуют прокачать три навыка: давать понятный запрос, понимать результат, внедрять полученный результат для решения своей задачи.

По сути ничего не изменилось, только раньше все это относилось к людям, программам и сервисам, а теперь еще и нейронки добавились.

Шаги те же: выбираю задачу что хочу решить, декомпозирую(выбираю ряд маленьких шагов), делаю эти шаги сам или ставлю/делегирую задачу кому-то(человеку, гуглу, программе, сервису, нейросети), получаю и обрабатываю результат, перехожу к начальному шагу.

Скорость получения результата стала сильно выше, и инструменты новые появились, просто надо привыкнуть к таким скоростям и к таким инструментам.

В общем не надо особо чему-то новому учиться.

Просто делай то что делал до этого, только с использованием новых AI инструментов.

В своей предметной области, в своей теме, для своих задач.

Вот и всё :)

P.S. Основная польза курса как мне кажется - это история "Путь героя", которая подсвечивает варианты как это может быть и дает новую инфу(для кого-то), которая может подсветить какие-то новые инструменты. Все это есть как в платных курсах так и в свободном доступе. Ну еще автор работал над структурой. Но в жесткой структуре есть как свои плюсы, так и свои минусы.

Я за то чтобы бизнес(пусть даже и на курсах) зарабатывал, при этом я за то чтобы мне это было выгодно, у меня тут свой "бизнес" относительно себя :). Так что никого не осуждаю, ничего не советую, пусть каждый сам для себя решает что ему делать и как. Мои посты - это мои размышления, диалоги с собой и структурирование полученной информации в моем исполнении :)

Теги:
0
Комментарии3

LLM умрут, а бизнесы на API рухнут⁠⁠

35 лет подряд Янн Лекун угадывает повороты в ИИ.
В 80-х он говорил про распознавание изображений, в нулевых - про нейросети, в 2016 - про самообучение.
И вот сейчас он заявляет самое радикальное: LLM в том виде, в каком мы их знаем, мертвы.

Проблема не в данных и не в мощности, а в архитектуре.
Каждый токен чуть сдвигает модель в сторону, и чем длиннее вывод - тем выше шанс галлюцинаций. Никакие терабайты и GPU это не спасут.

А теперь подумай, сколько сейчас продуктов держится только на API OpenAI.
Чат-боты, резюмирование документов, генерация текстов.
Все эти проекты живут лишь потому, что можно позвать API.

Но новая волна придёт не от «больше параметров», а от моделей, которые учатся «как дети»: через видео, восприятие и понимание мира.
И тогда поддерживать бизнес на API старых LLM станет бессмысленно. Новые модели будут быстрее, точнее и дешевле.

Лекун прямо говорит: закрытые модели исчезнут, открытые и распределённые — победят. Meta уже вкладывает $20 млрд в перестройку стратегии. Сроки короткие: 3-5 лет до первых моделей мира, и около десятилетия до ИИ уровня человека.

Для корпораций это вызов. А для indie-hacker’ов - шанс.
У больших игроков всё завязано на старых API и инерции.
А у нас есть свобода пробовать новое. Пет-проекты — это маленькие лаборатории, где можно тестировать идеи будущего и учиться жить «после LLM».

Когда рынок перетрясёт, выиграют те, кто уже умеет мыслить продуктом, а не строками API.

Я как раз пишу о своих экспериментах в инди-хакинге и пет-проектах у себя в телеге 👉 https://t.me/debug_leg

Теги:
0
Комментарии2

Недавно у нас в университете ИТМО прошел форсайт, посвященный видению развития отдельных направлений искусственного интеллекта на ближайшее будущее. Были приглашены эксперты из Индии и Китая, которые рассказали о развивающихся в их странах направлениях ИИ. В том числе выступали и наши эксперты.

Мне тоже удалось выступить. Я рассказывал о временных рядах, а именно о «изощренных» методах их прогнозирования и генерации на основе физически-информированных нейронных сетей. По этому поводу можно обратиться к другим моим статьям на хабре или в блоге.

Вот к каким трем основным направлениям развития ИИ в ближайшие 5-10 лет пришло большинство экспертов:

1. Вопросы эффективности. Развитие современных методов активно порождает вопросы эффективности как программного обеспечения, так и аппаратного обеспечения («железа»). Сейчас создают очень большие модели, для обучения которых требуются тысячи видеокарт. Для инференса этих моделей требуется меньше ресурсов, но это все равно затратно. Сейчас, например, актуальны методы квантизации больших моделей. В этой области ведется много исследований. Также ученые ищут подходы к более эффективному использованию железа, например, как оптимальнее оркестрировать поток задач.

2. Биологически правдоподобные модели. Вторым направлением можно выделить построение новых моделей машинного обучения на основе принципов работы биологических нейронных сетей. Наш мозг очень эффективно обрабатывает входящую информацию: в каждый момент времени активируются не все нейроны сразу, а только те, которые нужны для текущей задачи. Кстати, если бы работали все нейроны одновременно, то в голове возник бы шум, и мы не смогли бы сконцентрироваться на чем-то одном.

А в классических нейронных сетях все не так — там задействуются все нейроны одновременно. Исключением являются модели Mixture of Experts (смесь экспертов). Их принцип работы можно вообразить так: представьте, что вы задаете нейронной сети вопрос по математике. Очевидно, что в данный момент не нужно задействовать знания по биологии, истории и т.д. В MoE есть специальный блок — маршрутизатор (router) — который отвечает за перенаправление запроса к тому или иному «эксперту». Конечно, он может направить запрос сразу к нескольким экспертам, если вопрос затрагивает разные области знаний.

На практике нет такого явного тематического разделения экспертов, обычно они подбираются и обучаются самостоятельно для наилучшей генерации той или иной последовательности. И обычно эксперты активируются не для всего запроса целиком, а для отдельных токенов (например, слов) внутри этого запроса.

В общем, направление верное, собственно все чат боты сегодня строят на этой архитектуре. Однако в реальном биологическом мозге эта система представляет собой гораздо более сложную структуру. В мозге взрослого человека около 86 миллиардов нейронов и на каждом нейроне может быть от 5 до 10 тысяч синаптических связей. Как можно понять, плотность связей в нашем мозге чрезвычайно высока.

3. Фундаментальные мультимодальные модели и новая математика. 

Наконец, последнее направление связано с созданием не просто языковых моделей, а фундаментальных моделей, работающих с разными модальностями (типами данных). На самом деле, любую информацию можно свести к языку — даже математические формулы можно просто описать словами. Однако в этом направлении предлагается переосмыслить текущие подходы и развивать модели с новой математикой для описания этих различных модальностей.

Также до сих пор нет единого математического обоснования нейронных сетей, лишь отдельные области и лишь отдельная математика. А когда будет единая теория не ясно.

В общем, есть куда двигаться. А как вы считаете какие направления появятся или переосмыслят в ближайшее 5-10 лет? Пишите комментарии, будет интересно почитать.

Мой блог: kirill_zakharov_blog

Теги:
0
Комментарии0

Сможет ли ИИ заменить юристов? Ответ — нет. И вот почему

Привет! На связи Егор Ярко, PR-директор «Технократии». Возможно, вы уже встречали наши материалы про ИИ в ленте Хабра — статьи, аналитические обзоры, новости. Теперь мы пошли дальше: делаем не только тексты, но и видеоролики по самым интересным темам.

Сегодня мы опубликовали сжатый пересказ нашего исследования о развитии индустрии LegalAI — технологий, которые автоматизируют работу юристов. Мы разобрались, насколько глубоко нейросети уже проникли в юридическую рутину и способны ли языковые модели вообще оставить юристов без работы.

Если удобнее смотреть на VK.Video, где мы тоже выложили выпуск.

Буду рад конструктивной критике — этот формат для нас пока новый, и обратная связь действительно помогает делать его лучше.

А ещё рекомендую подписаться на:

Спасибо, что дочитали! Отличной пятницы и до встречи на Хабре 👋

Теги:
-1
Комментарии0

Будущее ИИ-гигантов.

Если смотреть на развитие ИИ по закону жанра, через 5–6 лет на рынке закрепятся всего 3–5 крупных игроков. Уже сейчас видно очертания: в генерации видео на флагманскую позицию выходит Gemini от Google, в программировании и код-ассистах сильнее всего смотрится Claude от Anthropic, а в области агентов и мультиагентных систем ключевая борьба развернётся между OpenAI и Anthropic. Grok и другие модули пока остаются в роли догоняющих и, скорее всего, либо займут нишевые сегменты, либо постепенно растворятся в истории.

Про Китай сказать не смогу. Они всегда в роли тёмной лошадки.

А как вы думаете?

Теги:
+2
Комментарии2

Alibaba представила Qwen3 — линейку с MoE-моделями до 235 миллиардов параметров

Команда Qwen от Alibaba Cloud выпустила третье поколение языковых моделей с гибридной архитектурой мышления. Флагманская модель Qwen3-235B-A22B использует Mixture-of-Experts подход с 235 миллиардами параметров, активируя 22 миллиарда для каждого токена.

Архитектура и масштаб

Линейка включает восемь моделей: шесть плотных архитектур от 0.6B до 32B параметров и две MoE-модели — Qwen3-235B-A22B и Qwen3-30B-A3B. Все модели поддерживают контекст до 128K токенов, кроме младших версий с 32K контекстом.

Технические характеристики флагманской модели:

  • 235 миллиардов общих параметров

  • 22 миллиарда активных параметров на токен

  • 128 экспертов, 8 активируется одновременно

  • 94 слоя трансформера

  • Поддержка 119 языков

Гибридные режимы мышления

Ключевая особенность Qwen3 — два режима обработки запросов. Thinking Mode использует пошаговые рассуждения для сложных задач, а Non-Thinking Mode дает быстрые ответы на простые вопросы.

Интеграция двух режимов обеспечивает масштабируемый контроль вычислительного бюджета с плавным улучшением производительности в зависимости от выделенных ресурсов.

Переключение между режимами происходит через команды /think и /no_think в промптах, что позволяет динамически управлять поведением модели в диалоге.

Процесс обучения

Предобучение проводилось на 36 триллионах токенов — в два раза больше, чем у Qwen2.5. Процесс включал три этапа: базовое обучение на 30T токенов с контекстом 4K, улучшение датасета с фокусом на STEM и программирование на 5T токенов, и финальное расширение контекста до 32K.

Постобучение состояло из четырех стадий:

  • Обучение на длинных chain-of-thought данных

  • Reinforcement Learning с правилами-наградами

  • Интеграция thinking и non-thinking режимов

  • Общее RL для более 20 доменов

Производительность и сравнения

Qwen3-235B-A22B показывает конкурентные результаты с топовыми моделями вроде DeepSeek-R1, o1, o3-mini и Grok-3 в бенчмарках по программированию, математике и общим способностям.

Компактная Qwen3-30B-A3B с 30B общих параметров превосходит QwQ-32B при 10-кратно меньшем количестве активных параметров. Даже Qwen3-4B конкурирует с Qwen2.5-72B-Instruct.

Развертывание и доступность

Модели доступны через несколько платформ: Hugging Face, ModelScope, Kaggle. Для развертывания поддерживаются SGLang и vLLM, для локального использования — Ollama, LMStudio, llama.cpp.

Все модели, кроме самых крупных, лицензированы под Apache 2.0. Компания предоставляет бесплатный доступ через Qwen Chat для тестирования возможностей.

Мультиязычность и агентские способности

Модели поддерживают 119 языков и диалектов, включая основные семьи языков: индоевропейскую, сино-тибетскую, афразийскую, австронезийскую и другие.

Улучшены агентские способности с поддержкой Model Control Protocol (MCP) и оптимизацией для взаимодействия с инструментами и окружением.

Перспективы развития

Команда Qwen позиционирует релиз как шаг к переходу от эпохи обучения моделей к эпохе обучения агентов. Планируется развитие в направлении масштабирования данных, увеличения размера моделей, расширения контекста и мультимодальности.

Теги:
+5
Комментарии0

Moebio Mind — интерактивная визуализация работы языковых моделей

Датавиз-художник Сантьяго Ортис создал интерактивный инструмент Moebio Mind, который показывает, как большие языковые модели генерируют текст. Проект визуализирует вероятностные процессы выбора следующего токена и траектории в многомерном семантическом пространстве.

Принцип работы

Языковая модель назначает вероятность каждому слову (токену), которое может появиться следующим, и повторяет этот процесс до завершения генерации. Moebio Mind демонстрирует этот механизм через несколько визуализаций.

Основные компоненты интерфейса:

  • Облако слов — размер слова отражает его вероятность появления в контексте

  • 3D-куб связей — показывает взаимосвязи между токенами в семантическом пространстве

  • Траектории эмбеддингов — пути через 1536-мерное семантическое пространство

Техническая реализация

Для создания визуализации автор использует ChatGPT API, запуская один и тот же промпт сотни раз. Каждый текст имеет эмбеддинг — позицию в 1536-мерном пространстве, которое автор называет семантическим пространством.

Проект показывает траектории генерации: от начального промпта "Intelligence is" через промежуточные состояния "Intelligence is the", "Intelligence is the ability" до полного завершения фразы.

Образовательная ценность

Инструмент решает проблему понимания работы ИИ-систем. Обычно процессы выбора токенов скрыты от пользователя, что создает иллюзию "магии" в работе языковых моделей.

Что можно изучить:

  • Как модель оценивает вероятности разных продолжений

  • Почему модель выбирает конкретные слова в контексте

  • Как семантические связи влияют на генерацию

  • Принципы работы attention-механизмов в трансформерах

Визуализация помогает разработчикам и исследователям лучше понимать поведение моделей и отлаживать их работу.

Технические особенности

Проект требует значительных вычислительных ресурсов для рендеринга интерактивной 3D-графики и обработки многомерных данных в реальном времени. Автор рекомендует использовать десктопные браузеры из-за высокой нагрузки на GPU.

Архитектура включает:

  • WebGL для 3D-визуализации

  • Обработку API-ответов от языковых моделей

  • Алгоритмы снижения размерности для отображения эмбеддингов

  • Интерактивные элементы управления траекториями

Контекст и применение

Сантьяго Ортис — известный специалист по интерактивной визуализации данных, создающий проекты на стыке математики, науки и искусства. Moebio Mind продолжает его исследования в области объяснимого ИИ.

Инструмент полезен для:

  • Образования — понимание принципов работы LLM

  • Исследований — анализ поведения моделей

  • Разработки — отладка и оптимизация промптов

  • Демонстраций — наглядное объяснение ИИ-технологий

Проект показывает важность визуализации для понимания сложных алгоритмических процессов и делает "черный ящик" ИИ более прозрачным.

Теги:
0
Комментарии0

Sapient представил HRM — ИИ-модель, имитирующую структуру мышления человека

Сингапурский стартап Sapient Intelligence выпустил в открытый доступ Hierarchical Reasoning Model (HRM) — архитектуру нейросети, основанную на принципах работы человеческого мозга. Модель с 27 миллионами параметров обучается на 1000 примерах и превосходит крупные языковые модели в задачах логического мышления.

Архитектура системы

HRM состоит из двух связанных рекуррентных модулей: высокоуровневого (H) для абстрактного планирования и низкоуровневого (L) для быстрых детальных вычислений. Такая структура позволяет избежать быстрой сходимости стандартных архитектур.

Принцип работы основан на двух типах мышления:

  • Абстрактное планирование — формирует общую стратегию решения

  • Детальные вычисления — обрабатывает конкретные операции и нюансы

Архитектура вдохновлена тем, как человеческий мозг использует отдельные системы для медленного обдуманного планирования и быстрых интуитивных вычислений. Это кардинально отличается от chain-of-thought подхода современных LLM.

Результаты тестирования

Модель достигает практически идеальных результатов, используя всего 27 миллионов параметров и около 1000 обучающих примеров без предобучения. Для сравнения — GPT-4 содержит триллионы параметров.

Benchmark ARC-AGI (оценка общего интеллекта):

  • Sapient HRM — 40,3%

  • o3-mini-high — 34,5%

  • Claude Sonnet — 21,2%

  • DeepSeek-R1 — 15,8%

Система превзошла ведущие LLM в сложном для ИИ бенчмарке, который считается одним из наиболее требовательных тестов рассуждения.

Технические преимущества

Эффективность обучения: Модель требует в разы меньше данных и памяти по сравнению с современными LLM. Это решает проблему растущих требований к вычислительным ресурсам.

Специализация задач: Иерархическая структура позволяет оптимизировать обработку разных типов задач — от судоку и лабиринтов до стратегического планирования.

Стабильность обучения: Архитектура обеспечивает устойчивость тренировки при значительной вычислительной глубине.

Практическое применение

HRM показывает эффективность в задачах, требующих пошагового логического анализа:

  • Решение головоломок и математических задач

  • Навигация в сложных средах

  • Стратегическое планирование

  • Анализ паттернов и закономерностей

Код модели опубликован на GitHub, что позволяет исследователям воспроизвести результаты и развивать архитектуру.

Значение для отрасли

Если результаты Sapient подтвердятся независимыми исследованиями, это может изменить вектор развития ИИ. Вместо наращивания параметров и данных фокус сместится на архитектурные инновации, вдохновленные нейробиологией.

Подход демонстрирует альтернативу гонке масштабирования — создание специализированных, эффективных моделей для конкретных классов задач.

Теги:
+6
Комментарии0

У американского финансового-экономического журнала «Форбс» есть 49 локализиованных вариантов, в том числе свой издаётся в Японии. Впрочем, о важности этого варианта судить непросто. Тираж японского филиала не самый низкий: он заметно выше чем у средневосточного (80 тыс. против 20 тыс.), но всё равно достаточно скромный.

Как бы то ни было, но 25 августа 2025 года Forbes JAPAN опубликовал свой список 30 Under 30 — тридцати молодых людей, которые меняют мир. Собственно сама подборка будет представлена в печатном номере журнала за октябрь.

Среди отмеченных — битмейкер Koshy, музыкант Сасукэ Харагути, женская группа f5ve, тиктокер и ютубер ISSEI, ракугока Синосин Кацура, инди-режиссёр Pennacky, артист Аюми Имадзу, танцовщица и хореограф JESSICA, 3D-аниматор Nashi, сёгист Такуми Ито, скрипачка HIMARI, кинорежиссёр Ёко Яманака, группа HANA, художница Савако Насу и другие. Также упомянут предприниматель Такуми Китагути (Grand Central), чья компания на третьем году достигла выручки 1,4 млрд иен.

Однако наиболее интересно, кто в этом году будет украшать обложку спецвыпуска. Это виртуальная айдол и витубер Хосимати Суисэй. Это не просто один из самых популярных виртуальных ютуберов, но и певица. Свою деятельность она начала ещё в 2018 году, на тот момент без агентства, хотя в 2019 перешла в лейбл INoNaKa Music, а затем — в основной состав hololive.

@forbesjapan_30

Суисэй — артистка, которая начала как виртуальный персонаж, но доказала, что может конкурировать на равных с офлайн-певцами. Она без проблем собирает полные залы и даже выступала на Будокане. Её альбомы попадают в крупные чарты: Specter (2023) поднимался до четвёртой строчки рейтинга Oricon, а третий альбом 新星目録 (Синсэй мокуроку) — до третьей. Наконец, у неё просто много подписчиков: на YouTube у канала @hoshimachisuisei сейчас 2,8 млн подписчиков.

Теги:
Всего голосов 4: ↑2 и ↓20
Комментарии0

Ближайшие события

Исследование рынка: цифры - это не люди

Адекватный и перспективный бизнес всегда проводит исследования рынка: для того, что держать руку на пульсе, знать объём и ёмкость "игрового поля", синхронизироваться с зоной извлечения прибыли, для принятия решений о выводе новых продуктов, открытии новых регионов и т.д.

И это очень круто! Подобные аналитические отчёты дают возможность принимать решения на данных, минимизируя риски.

Только вот некоторые, в погоне за цифрами и метриками, забывают, что рынок - это в первую очередь потребители, покупатели, пользователи, ЛЮДИ. Тогда адекватный и перспективный бизнес ответит, что они с высокой тщательностью проводят исследование ЦА - соц-дем, количество по регионам, LTV, покупательскую способность, средний доход и много-много чего еще. Много метрик, много цифр.

Но это всё "исследование ЦА", пересчёт. А можно (нужно) вступить в диалог со своими клиентами (или потенциальными). Провести не циферный анализ ЦА, а опросы (количественные и качественные). Обычное панельное исследование (опрос) с правильными вопросами даст куда больше живой информации о предпочтениях покупателей, чем сухие факты и цифры.

А если подкрепить этот опрос глубинными интервью, то эффект будет ещё сильнее: получится вытащить не только "боли и потребности", но и важные словоформы и цитаты, которыми наши покупатели думают и говорят.

Затем останется только соединить вместе эти три сущности (исследование ЦА, результаты опроса, глубинные интервью с цитатами) и у вас получится максимально релевантное понимание ваших клиентов настоящих и будущих.

Теги:
Рейтинг0
Комментарии2

Отличное совпадение (а может быть и нет :) )

https://habr.com/ru/news/938612/ - Пользователь Samsung обнаружил самовольную установку мессенджера MAX (2025-08-19 13:50)

Казалось бы, как они смеют что-то там ставить без согласия пользователя! Почему пользователь не может отказаться!

Но сутки назад было вот это.

https://habr.com/ru/news/938154/ - Microsoft больше не позволяет отключать обновления приложений в Microsoft Store (2025-08-18 12:17)

Ага, установка софта без запроса пользователя и вопреки его воле, это не какая-то сатрапия и волюнтаризм каких-то злобных властей, а уже отраслевой стандарт.

Тут можно много рассуждать о том, какую роль в этом сыграли реальная забота о безопасности, стремление уменьшить зоопарк поддерживаемых версий и желание начать полностью контролировать корпоративный корм, которым стали пользователи софта и сервисов, но это не отменяет того факта, что IT-лягушка не заметила изменений и сварилась.

А власти лишь пользуются тем, что им предлагает отрасль.

Теги:
Всего голосов 4: ↑4 и ↓0+4
Комментарии4

Пройдите опрос и получите подарки от Selectel

Мы развиваем в Академии Selectel Security Center — спецпроект по информационной безопасности. Чтобы сделать его еще полезнее, нам важно знать, какие темы вам интересны.

Возможно, вы читаете новости об утечках? Или вас интересуют инструкции по защите инфраструктуры? А может, вы хотите узнать о новых угрозах? Расскажите об этом — пройдите короткий опрос.

С нас — подарки

15–21 сентября среди всех, кто поделится мнением, разыграем подарки:

— 10 сертификатов в крупный маркетплейс,

— 5 плюшевых Тирексов.

Пройти опрос ➡️

Теги:
Всего голосов 5: ↑5 и ↓0+9
Комментарии0

Предсказания сбываются

Как и ожидалось, на рынке обучения программированию происходят большие перемены.

Просто небольшой фрагмент из августовского чата одних известных курсов:

Вопрос: Подскажите, а когда новый курс стартует?

Ответ: Напишу вам в личку.

Раньше о курсах заявлялось громогласно, с рекламными объявлениями, сроками, ценами и контактами для связи.

А теперь - в личку. Скромно так.

В общем, ИИ уже здесь и от этого никуда не деться.

Теги:
Всего голосов 9: ↑1 и ↓8-7
Комментарии4

Gemini 2.5 Deep Think получила первую официальную золотую медаль IMO среди AI-систем

20 июля 2025 года Google DeepMind совершила прорыв: их модель Gemini 2.5 в режиме Deep Think стала первой AI-системой, официально получившей золотую медаль на Международной математической олимпиаде (IMO). Разбираемся, что это значит для развития искусственного интеллекта и когда технология станет доступна разработчикам.

Что произошло на IMO 2025?

Gemini 2.5 Deep Think набрала 35 из 42 возможных баллов, решив 5 из 6 олимпиадных задач за отведённые 4,5 часа. Главная особенность — все решения проходили на естественном языке без формальных переводов в системы вроде Lean или Coq.

Это кардинально отличается от предыдущих попыток. Например, AlphaGeometry от Google в 2024 году достигла только серебряного уровня в геометрических задачах, при этом тратила дни на решение одной задачи и требовала мощных вычислительных кластеров.

Важно: OpenAI заявляла о золотом уровне для своих моделей o1/o3, но официального признания от комитета IMO они не получали.

Архитектура Deep Think: мульти-агентное мышление

Технологический прорыв Deep Think заключается в нескольких ключевых инновациях:

1. Множественные потоки рассуждений

Модель запускает несколько параллельных "агентов", каждый из которых исследует свой путь решения. Затем результаты объединяются для финального анализа — подход, схожий с Grok 4 Heavy от xAI.

2. Увеличенное время на размышления

В отличие от обычных языковых моделей, Deep Think намеренно замедляет генерацию ответа, позволяя внутренним процессам глубже проанализировать проблему.

3. Специализированное обучение с подкреплением

Применяются алгоритмы RL, которые поощряют не только правильность решений, но и чёткость доказательств и качество формулировок.

Доступность и ценообразование

Здесь начинаются проблемы. Google выпустила две версии Deep Think:

  1. IMO Gold версия — доступна только избранным математикам и исследователям

  2. Bronze версия — публично доступна через подписку Google AI Ultra

Стоимость Bronze версии:

  • $124.99/мес первые 3 месяца

  • $249.99/мес в дальнейшем

  • Включает: Deep Think, Veo 3 (генерация видео), 30 ТБ хранилища

Ограничения Bronze версии:

  • Время ответа: 30-60 секунд на сложные запросы

  • Ограниченное количество запросов в день

  • Упрощённые возможности по сравнению с IMO-версией

Критический взгляд: стоит ли овчинка выделки?

Реакция комьюнити неоднозначная. Основные претензии:

  1. Неоправданно высокая цена: многие пользователи отмечают, что подписка Ultra даёт те же квоты API, что и бесплатный аккаунт

  2. Медленная работа: 30-60 секунд ожидания не подходят для продуктивной работы

  3. Неясные перспективы: Google не сообщает, когда IMO-версия станет доступна публично

Значение для индустрии

Успех Deep Think на IMO знаменует переход от "умных автодополнений" к системам, способным к настоящему рассуждению. Это открывает новые возможности:

  • Научные исследования: помощь в доказательстве теорем и решении сложных задач

  • Инженерия: анализ комплексных технических проблем

  • Образование: персонализированное обучение математике и логике

Что дальше?

Google обещает API-доступ к Deep Think "в ближайшие недели", но пока только для "доверенных партнёров". Полноценная IMO-версия может остаться исследовательским инструментом надолго.

Для разработчиков это означает ожидание: пока что Deep Think — это скорее демонстрация возможностей, чем готовый продукт для интеграции.

Выводы

Gemini 2.5 Deep Think действительно совершила исторический прорыв, став первой AI-системой с официальной золотой медалью IMO. Однако коммерческая реализация пока разочаровывает: высокие цены, ограниченный функционал и неясные перспективы развития.

Если вам нужна скорость и код — оставайтесь с GPT-4, Claude или o1. Если же готовы платить за глубокие рассуждения и не спешите — Deep Think может стать интересным инструментом.

Теги:
Всего голосов 1: ↑0 и ↓1-1
Комментарии1

Что мы знаем о защите АСУ ТП?

В новой статье говорим о том, как складывается ситуация с кибератаками на реальный сектор в России и в мире, кто и как атакует предприятия, какие сегменты промышленных сетей самые уязвимые и что за средства используются злоумышленниками для атак.

Теги:
Всего голосов 1: ↑1 и ↓0+1
Комментарии0

🫧 Технологический пузырь лопнул: что случилось с ИИ-агентами?

Аналитики из Gartner предупредили, что к 2027 году более 40% проектов с ИИ-агентами будут закрыты. Спойлер: ИИ как ключевую технологию никто не отменяет, но если будете запускать своих ИИ-агентов, учтите риски, которые увидели эксперты и добавили мы от себя.

ИИ-агенты — это программы, которые автономно или полуавтономно могут принимать решение с использованием технологий ИИ. Когда вам не надо каждый раз запрашивать чат-бот, а он сам отследит ситуацию и будет выдавать вам самые оптимальные туристические маршруты.

Естественно, это даёт возможность упростить и ускорить бизнес-процессы, и компании активно используют её. Аналитики Gartner предсказывают, что к 2028 году как минимум 15% рабочих решений будет приниматься с участием ИИ-агентов (сейчас около нуля), а 33% корпоративного ПО будет включать ИИ-агентов (сейчас около 1%). Почему же эта же компания предупреждает об отмене почти половины проектов с ИИ-агентами?

Во-первых, из-за непредсказуемой стоимости. Сейчас внедрение ИИ-агентов находится на экспериментальной стадии и может дать первые результаты. Но при попытке полноценно интегрировать их в бизнес-процессы компании могут столкнуться с тем, что это дорого или невыгодно.

Во-вторых, из-за непредсказуемой ценности для бизнеса. Понятно, что ИИ может ускорить бизнес-процессы и повысить их эффективность. А может и не помочь. Только после «приземления» тех же больших языковых моделей будет ясно, могут ли они помочь (как в случае с поиском по техдокументации) или потребуют слишком больших затрат ресурсов на проверку результатов работы ИИ.

Наконец, третий пункт — это сложность риск-менеджмента. Как предотвратить утечку информации и взлом ИИ? Как убедиться в адекватности результатов работы ИИ-агента? Это ещё предстоит научиться узнавать, потому что стандартных методик пока нет.

Возможно, сразу во всех трёх пунктах лежит ещё один момент. Gartner предупреждает, что под модным названием компаниям пытаются «продать» и RPA, и чат-боты и другие процессы, которые работают без ИИ или автоматизации. Если они помогают бизнесу — это, конечно, хорошо, но цена старых решений под видом модных «ИИ-агентов» может оказаться выше, чем у исходного продукта, а значит, финальная окупаемость будет под вопросом.

В общем, совет можно дать такой: используйте новые инструменты, но не поддавайтесь на хайп — взвешивайте риски и потенциал внедрения ИИ-агентов.

Теги:
Всего голосов 16: ↑16 и ↓0+26
Комментарии2

Вклад авторов