
Да, теперь телеграм-каналы можно слушать. В дороге, на тренировке, вместе с другими делами. И без ИИ здесь, конечно же, не обошлось.
AI, ANN и иные формы искусственного разума
Да, теперь телеграм-каналы можно слушать. В дороге, на тренировке, вместе с другими делами. И без ИИ здесь, конечно же, не обошлось.
В этой статье я хочу познакомить вас с байесовским иерархическим моделированием — гибким подходом, который автоматически объединяет результаты нескольких подмоделей. Этот метод позволяет оценивать эффекты на индивидуальном уровне путем оптимального объединения информации из различных групп данных с помощью байесовского вывода. Это особенно полезно, когда данные наблюдений для некоторых объектов ограничены, но эти объекты имеют общие характеристики или поведение с другими объектами.
Индустрия ИИ продолжает выдавать релизы с завидной регулярностью, но некоторые из них оказываются с сюрпризом (даже для их создателей). Google устроила традиционное I/O-шоу с прорывным Veo-3, Anthropic порадовала новыми Claude 4, которые умеют работать часами, но иногда пытаются копировать себя на другие серверы, а у Meta случилась небольшая драма с Llama 4.
В нашем майском дайджесте — свежие релизы, корпоративные интриги и расследования исследования: от ИИ, победившего в Pokémon, и перевода «языка» животных до подтверждения пользы слова «спасибо» в промптах. Будет интересно!
Привет, Хабр! Это Александра Павлова, деврел Friflex. В этой статье расскажу про наш недавний эксперимент — хакатон по вайб-кодингу.
Если коротко: вместе с Институтом №8 МАИ мы собрали 14 команд студентов IT-специальностей, дали им один вечер, минимум ограничений, максимум генеративных ИИ — и предложили придумать и реализовать мини-игру для страховой компании ЭНЕРГОГАРАНТ. Мы назвали это гордым словом «Вайбатон» (ну вы поняли: вайб + хакатон), потому что вайб-кодинг и правда был, но была еще и проверка кода экспертами жюри.
Всем привет, меня зовут Артем Гроза, я Data Scientist в SimpleWine. Я хотел бы поделиться с вами рассказом о таком важном и малоизученном эффекте, как эмерджентность. На написание данной статьи меня вдохновило выступление директора Института перспективных исследований мозга МГУ Константина Анохина на конференции Data Fusion.
В мае 2025 года на рынке ИИ-стартапов разразился грандиозный скандал. Компания Builder.ai, на пике оцененная в $1,5 млрд и получившая инвестиции в размере $450 млн от таких гигантов как Microsoft, Softbank и Катарский инвестиционный фонд, объявила о банкротстве.
Речь идет о потенциально самом масштабном мошенничестве на рынке ИИ-стартапов. Согласно расследованию The Wall Street Journal, Builder.ai, якобы создавшая революционную нейросеть Natasha, на самом деле много лет выдавала за инновационную технологию ручной труд нескольких сотен индийских программистов.
Современные ИИ-системы стирают детали опыта и расходуют энергию на постоянное переобучение. Мы предлагаем иной путь: обратимые вычисления, которые сохраняют каждую частицу информации, аккумулируют все сенсорные сигналы и минимизируют внутреннюю “свободную энергию”. Объединив принцип Ландауэра, машины Больцмана, Free-Energy Principle Фристона и обратимые нейросети (RevNet), мы формулируем гипотезу цифрового сознания как перманентного цикла, где информация не теряется, а энергия тратится в теоретическом минимуме.Это манифест к новой архитектуре ИИ, способной к истинной памяти и самооптимизации.
В наши дни, кажется, каждый второй пишет AI-ассистента для разработчиков. Но работает ли это в реальности? Мы решили проверить на себе и сравнить самых популярных помощников.
Внутри команды у нас 14 Java-разработчиков — от мидлов до уверенных сеньоров. Все мы работаем в боевом проекте, и стало интересно: может ли AI реально помочь в повседневной разработке, или это всё больше про хайп?
Мультимодальные модели — звучит как что-то для исследовательских лабораторий и презентаций на AI-конференциях. Но на самом деле они уже работают здесь и сейчас: анализируют документы, пишут тексты, создают рекламу, генерируют видео, помогают врачам и юристам.
Привет, Хабр! Это интервью с Александром Капитановым. Саша руководит исследовательскими ML-командами в Сбере. Активный контрибьютор в Open Source. А ещё он член программного комитета AIConf X и Highload от «Онтико».
Мы поговорили о том, какие реальные задачи решают мультимодальные LLM, зачем бизнесу модели, которые «умеют всё», и почему мультиканальность — это только шаг на пути, но ещё не конечная станция в развитии ИИ.
Меня зовут Антон, сейчас занимаюсь прикладными проектами индекса цифровой зрелости БРИКС. Пробую за счет инструментов ИИ собирать каскады моделей ИИ для выявления неочевидных зависимостей в разных экономических и культурных процессах на основе данных извлекаемых из открытых источников.
В рамках эксперимента я поставил себе задачу применить ИИ в прикладной задаче, при этом использовать только доступные всем инструменты и понятные нарративы. Одним словом, решил примерить на себя роль «Сделай там что-то с ИИ-шечкой, только быстро!» Рассказываю, что из этого поучилось (ссылки на рабочие блокноты, промпты и скриншоты прилагаются).
С момента запуска ChatGPT в ноябре 2022 года — два с половиной года назад — языковые модели-трансформеры запустили волну технологического хайпа, не имеющего аналогов в современной истории. Артур Кларк однажды сказал: «Любая достаточно развитая технология неотличима от магии», — и действительно, инженеры ИИ смогли довести технологию до такого уровня.
В Manus AI, популярном агенте для автоматизации и чатботе, появилась функция генерации видео.
Я намеренно написал «короткометражных фильмов» в названии, потому что это не обычный инструмент для преобразования текста в видео или изображения в видео. Manus создает раскадровку, выполняет визуализацию концепции, генерирует несколько видеороликов, а затем склеивает их вместе.
И все это делается с помощью одного промпта.
LLM работают лучше если им угрожать? Вообще не факт.
Показываю результаты эксперимента с влиянием разных стимулов на качество результата.
Покажу вам практическую реализацию семантического поиска на основе векторных представлений - эмбеддингов из текста. Здесь я создам систему, которая анализирует статьи с Хабра, извлекает из них темы и ключевые слова с помощью локально работающих больших языковых моделей LLM, и на основе этих данных создает векторные представления для эффективного поиска по смыслу, а не по запросу на вхождение определенного текста.
«We have a phrase inside Intel. We are supposed to be a data driven company and the phrase is, "Don't argue with the emotions, argue with the data."»
Andrew S. Grove, Chairman of the Board, Intel Corporation, August 9, 1998
В июле 2023-го года в «Байкал Электроникс» стартовал проект по разработке собственного AI-процессора. В данной публикации мы хотим рассказать, почему мы выбрали именно архитектуру GPGPU, какими данными при решении мы руководствовались, а во второй части немного рассказать о ходе разработки и поделиться полученным опытом.
В RAG-решениях все чаще обращаются к графовым базам данных. В этой статье я опишу своё мнение относительно того, в каких ситуациях графовые базы данных действительно оправданы в RAG, а в каких стоит остаться на традиционном векторном подходе. Это может быть полезно для разработчиков и исследователей, которые ищут оптимальные инструменты для построения RAG-решений и хотят понять, когда графовые базы данных могут помочь в их задачах.
Синтетические данные – это искусственно сгенерированные наборы, имитирующие структуру и статистические закономерности реальных данных. В последние годы вокруг этой технологии возник значительный ажиотаж. Еще недавно аналитики прогнозировали, что уже к 2024 году до 60% данных, используемых для разработки ИИ, будут синтетическими. Однако на практике полностью перейти на «искусственные» данные пока не удалось. Экспертные отчеты отмечают, что возможности синтетических данных сейчас несколько переоценены и что они вряд ли смогут в ближайшем будущем полностью заменить реальные данные. В разных отраслях синтетические данные используются скорее точечно, а не повсеместно. Ниже мы рассмотрим ключевые причины, почему применение таких данных остается редким – от технических ограничений и бизнес-факторов до правовых барьеров.
Искусственный интеллект становиться (а для некоторых уже стал) привычным элементом нашей жизни. Мы используем его для создания текстов, генерации изображений, перевода документов. Он уже стал поддержкой в образовании, медицине, творчестве — помогает делать больше и быстрее, экономя время и силы. Нам нравится эта лёгкость, это ощущение, когда вопрос только возник, а ответ уже готов.
Но что, если в этой лёгкости есть цена, которую мы не сразу замечаем?
Два месяца тестировал ChatGPT и Claude параллельно — вот мои выводы
Пост скорее для тех, кто уже вырос из одного только ChatGPT и постоянно натыкается на его ограничения
Разбираю, для каких задач какой LLM интерфейс я использую, и в чем между ними разница
Ну и для общего развития может быть интересно 🫡
Всем привет, меня зовут Александр, я аналитик в Альфа-Банке. Совместно с командой мы разрабатываем и развиваем платформу для дата-инженеров (DE) и дата-саентистов (DS), именуемую Feature Store. Она даёт возможность коллегам работать с большими данными и упрощает бюрократию жизненного цикла создания ETL и ввода моделей в промышленную эксплуатацию.
Но хотелось бы улучшить процесс по поиску данных в ней, так как объёмы информации стремительно растут.
Классический поиск выдаёт результаты по точному совпадению, и это не самый удобный вариант, когда данных много. Поэтому нужную информацию, если ты точно не знаешь как найти, невозможно отыскать. Озадачившись этой проблемой, я решил сделать MVP «умного» поиска, который позволяет искать данные/фичи/поля не по точному совпадению, а с учётом смысла.
Надеюсь, данная статья поможет показать и пролить свет на вопрос — «А как же ещё бывает?»