Обновить
711.71

Машинное обучение *

Основа искусственного интеллекта

Сначала показывать
Порог рейтинга
Уровень сложности

Ученые предложили новый компас для определения достаточного количества данных для обучения ИИ

Уровень сложностиСредний
Время на прочтение5 мин
Охват и читатели5.8K

Коллектив ученых из Московского физико-технического института (МФТИ) разработал и теоретически обосновал два новых подхода к решению одной из фундаментальных проблем машинного обучения: определению достаточного размера выборки. Их работа, опубликованная в Computational Management Science, предлагает измерять, насколько «уверенность» модели в своих параметрах меняется при добавлении или удалении всего одного элемента данных, используя для этого два различных математических инструмента. 

Читать далее

Может ли искусственный интеллект заменить человека?

Уровень сложностиПростой
Время на прочтение5 мин
Охват и читатели5.7K

Если бы меня 5 лет назад об этом спросили, я бы уверенно сказал, что не сможет. Но сейчас я уже сомневаюсь в этом.

Я уже 26 лет работаю в сфере ИТ и за это время написал немало кода. Месяц назад решил проверить, насколько действительно эффективен искусственный интеллект, и попробовать создать с его помощью сайт. И я его создал — точнее, создал его не я, а он. Вот результат: https://windowrepino.ru/. Я лишь ревьюил код и делал рефакторинг.

Да, его код не идеален и, конечно же, есть что улучшить, но он рабочий и удовлетворяет моим требованиям к нему. Более того, я понимаю, что без него я бы потратил гораздо больше времени и, возможно, обошёлся бы более простыми решениями.

Тут немного подробнее: месяц назад у меня не было даже идеи, как должен выглядеть мой сайт и что я хочу. И за этот месяц я потратил кучу времени на то, чтобы сделать фотографии, изучить архивы и объездить весь посёлок в поисках интересных мест.

Плюс сама работа с фото — выбрать хорошие кадры, обрезать лишнее, что-то поправить, где-то почистить. Всё это вместе с кодом было сделано за месяц.

Да, соглашусь, что если бы я делал такой же сайт ещё раз, то сделал бы быстрее, так как уже знаю, как он должен выглядеть и что на нём будет. Но, повторюсь, у меня даже идеи не было, когда я начинал.

Плюс в течение этого месяца у меня было немало других дел. Например, я занимался установкой и настройкой программного обеспечения для распознавания речи, менял проводку в доме — на это ушло в сумме шесть дней, не считая множества других дел, которые тоже требовали времени.

Читать далее

Не верьте AI на слово: практический эксперимент с задачей оптимизации

Уровень сложностиСредний
Время на прочтение22 мин
Охват и читатели8.4K

Современные большие языковые модели, такие как GPT-5, продемонстрировали свою способность генерировать высококачественные текстовые ответы на широкий спектр запросов, что делает их ценными инструментами в различных сферах, однако, остро встает вопрос о надежности их выводов, так как многие пользователи склонны воспринимать сгенерированные результаты за истину подвергая сомнениям свои рассуждения, а не ответы нейросетей. В статье рассматривается пример того, как легко нейросети могут ввести человека в заблуждение на примере решения оптимизационной задачи о назначениях.

Читать далее

Забудьте про точность. Почему для трекинга нужны десятки метрик

Уровень сложностиСредний
Время на прочтение11 мин
Охват и читатели8.1K

Привет, Хабр! С вами Матвей Шелухан и Тимур Мамедов из команды распознавания силуэтов в Tevian. Сегодня поговорим про метрики в задаче трекинга объектов, которая по праву считается одной из самых сложных в компьютерном зрении. Когда мы только приступали к её изучению, то принялись разбирать, какие есть датасеты, бейзлайны и метрики для оценки качества построенных траекторий. Будем честны: последнее было одним из самых сложных. Во-первых, метрик в рассматриваемой задаче довольно много, и ни одну из них не встретишь в стандартном курсе по машинному обучению. Во-вторых, в каждую из них порой сложно въехать, пока не придумаешь конкретные примеры (да, поэтому в этой статье будет много примеров). И, наконец, практически каждой посвящена отдельная научная статья, поэтому всю информацию приходилось собирать по крупицам. Кроме того, в процессе изучения литературы мы поняли, что универсальной метрики в данной задаче нет, поэтому для оценки качества алгоритмов необходимо смотреть на целый комплекс показателей. Данная статья будет полезна тем, кто занимается (либо просто интересуется) задачей трекинга и хочет понять, как устроены метрики оценки качества алгоритмов её решения. Как вы уже могли догадаться, мы за вас собрали всю нужную информацию в одну статью. Поехали!

Читать далее

OWASP TOP Ten: 10 болей ИБ для машинного обучения

Время на прочтение12 мин
Охват и читатели9.5K

Машинное обучение сейчас используется практически везде, по крайней мере если верить рекламе. И хотя для многих областей это скорее хайп, чем реальное использование, стоит признать, что ML сейчас действительно широко распространено. И, как у любого другого направления в ИТ, у машинного обучения также есть проблемы с безопасностью и в этой статье мы рассмотрим десять наиболее распространенных рисков ИБ.

Изучить угрозы

Как некачественные данные подтачивают способности нейросетей и что с этим делать

Время на прочтение5 мин
Охват и читатели7.8K

Языковые модели помогают кодить, писать тексты, отвечают на вопросы и даже подсказывают идеи. Но все, чему они учатся, берется из интернета, а там хватает и полезного, и откровенного мусора. Ученые из Texas A&M и Purdue University выяснили, что если в обучающие наборы попадает слишком много поверхностного или ошибочного контента, модели начинают работать хуже. Этот эффект исследователи описали как «размягчение мозга» (brain rot) — по аналогии с тем, как у человека притупляется внимание после длительного погружения в поток однотипной информации.

Во время эксперимента исследователи добавляли в набор для обучения вирусные твиты и кликбейтные посты, а потом проверяли, как меняются результаты. Оказалось, что даже небольшое количество таких данных сбивало нейросети с толку: они чаще ошибались, пропускали шаги в рассуждениях и путали контекст. Вывод получился простой — не все решает объем данных. Если в них слишком много «шума», даже самая большая модель начнет ошибаться и выдавать странные ответы. Об этом сегодня и поговорим.

Читать далее

Пять лет спустя: почему мы всё переписали с нуля

Время на прочтение8 мин
Охват и читатели16K

Пять лет назад на Хабре мы писали о Web Camera Pro — и казалось, что впереди только апдейты, оптимизации и новые функции. За это время изменилось многое — и не только в технологиях, но и в законодательстве.

Как мы наступили на те же грабли

Когда в 2015 году мы начинали разработку системы для видеонаблюдения, Qt 5 казался идеальным решением. На первый взгляд всё выглядело просто: берём готовые библиотеки, оборачиваем в красивый интерфейс, добавляем AI-аналитику — и готово.

На Qt было создано множество известных программ для видеонаблюдения, и мы — как и десятки команд по всему миру, поверили в его универсальность.

“Один фреймворк, любая платформа” — звучало как музыка.

Первые месяцы казались триумфом: интерфейс ожил, камеры подключались, поток шёл, воспроизведение работало.

Qt позволял быстро собрать прототип, но, когда речь заходила о стабильности, о 24/7-нагрузке, о реальной работе с потоками и камерами, его недостатки становились критичны.

Читать далее

Маршрутизация LLM: оптимизация путей обработки языка

Время на прочтение6 мин
Охват и читатели7K

В стремительно развивающемся мире искусственного интеллекта большие языковые модели (LLM) стали мощными инструментами, способными понимать и генерировать текст, близкий к человеческому. По мере роста их сложности и масштаба критичной становится эффективная организация путей обработки. Маршрутизация LLM — это стратегическое распределение и оптимизация вычислительных ресурсов внутри таких систем. По сути, это выбор того, каким путём проходит входной текст через различные компоненты/ветки, чтобы получить максимально точный и релевантный результат. Умно направляя промпты и балансируя нагрузку, маршрутизация повышает эффективность, отзывчивость и общую производительность языковых моделей.

Читать далее

Нейро-дайджест: ключевые события мира AI за 1-ю неделю ноября 2025

Уровень сложностиПростой
Время на прочтение7 мин
Охват и читатели9.3K

Привет! Это новый выпуск «Нейро-дайджеста» — коротких и полезных обзоров ключевых событий в мире искусственного интеллекта и технологий.

Неделя выдалась насыщенной: Qwen3-Max получила ризонинг, открытые модели догоняют закрытые, среди LLM проводят турнир по покеру, ИИ-релизы от Canva и обновление Cursor 2.0. Массовый хейт рекламы Coca-Cola, ИИ-инференс от Дурова и домашний робот NEO.

Всё самое важное — в одном месте. Поехали!

Читать дайджест →

Когда свет начинает думать: путешествие в мир оптических вычислений

Уровень сложностиПростой
Время на прочтение9 мин
Охват и читатели8.6K

Если спросить вас, какая сцена из фильма «Матрица» запомнилась больше всего, большинство назовёт уклонение от пуль или момент с красной таблеткой. Но для меня это разговор Морфеуса с Нео, когда он говорит, что всё, что тот считает реальностью, — всего лишь электрические сигналы, которые мозг интерпретирует как ощущения.

Читать далее

Сама не разберётся: мои 7 принципов генерации кода с LLM

Уровень сложностиПростой
Время на прочтение8 мин
Охват и читатели11K

Всем привет! Меня зовут Виктор, и более трёх лет я работаю с языковыми моделями – от проприетарных решений вроде ChatGPT до open-source систем, которые можно разворачивать локально и встраивать в собственные продукты. Я застал времена жутких галлюцинаций GPT-3.5 и ждал обещанного GPT-5 – того самого почти AGI, которое, казалось, вот-вот появится.

За это время многое изменилось: появились десятки моделей, которые можно запустить даже на слабом ноутбуке, и мощные коммерческие системы, способные понимать с полуслова. Но одно остаётся неизменным – AGI так и не случилось.
Если два года назад нам уверенно обещали, что «всё уже близко», то теперь даже крупнейшие компании признают: ждать придётся долго.

И это не плохо. Просто разработчикам, приходится учиться работать с тем, что есть, и извлекать максимум пользы из нынешних LLM.

За годы работы с моделями я выработал ряд принципов, которые помогают получать стабильные и читаемые результаты. На первый взгляд – ничего нового: это те же инженерные практики, которые мы применяем в обычном программировании.
Но в контексте LLM они начинают работать совсем иначе.

Читать далее

Реставрация, которая меня сломала: Почему убрать смех из Скуби-Ду сложнее, чем сделать ремастер Тома и Джерри в 2к

Уровень сложностиПростой
Время на прочтение7 мин
Охват и читатели28K

Наверняка многие из вас с теплотой из детства вспоминают «Скуби-Ду, где ты!» 1969 года. Я тоже был в вашем ряду, однако я решился пересмотреть. И внезапно закадровый смех, который и сейчас то даже в ситкомах считается «артефактом древности», налеплен на детективный, комедийный мультик. Мне это очень сильно начало ломать впечатление от просмотра, — невозможно выстоять, когда каждые полминуты из 20 минут серии по поводу и без повода тебе указывают «где смеяться».

Так и начался мой личный ад на целый месяц, сподвигнутый наивным, но сильным желанием — сделать идеальную версию Скуби-Ду, такую, какую я помнил из детства.
История же эта обернулась гораздо серьёзнее, чем нажать на кнопку «удалить закадровый смех» в Adobe Premiere Pro.

Узнать, что пошло не так

Как мы доработали фреймворк Rasa, чтобы сделать своего ИИ-секретаря для ответа на звонки

Время на прочтение7 мин
Охват и читатели5.7K

Привет, Хабр! Меня зовут Игорь Козлов и я — ведущий разработчик в команде «Membrana Голос» от МТС. Наш продукт — это сервис, который принимает звонки, когда вы заняты, и общается со звонящими почти как живой человек. Он основан на полноценном диалоговом фреймворке, десятках моделей машинного обучения и тщательно продуманной логики обработки интентов. Мы взяли за основу open source-фреймворк Rasa, но сильно его доработали, чтобы превратить в гибкую платформу для управления голосовыми диалогами.

В этом материале я покажу, как мы переписали Action Server и обучили DIETClassifier, а также расскажу, как нам удалось обойти ограничения Rasa и сделать умного, настраиваемого и устойчивого к ошибкам телефонного ассистента.

Читать далее

Ближайшие события

ТОП-10 малоизвестных AI-сервисов, которые удивляют возможностями

Уровень сложностиПростой
Время на прочтение7 мин
Охват и читатели22K

2025 год щедро раздаёт нейросети всем желающим. Кажется, уже невозможно открыть браузер, чтобы на тебя не посмотрела очередной умник, обещающий сгенерировать гениальный текст, как у Толстого, но быстрее.

Одни модели сочиняют музыку, другие красят фотографии, третьи уверяют, что понимают людей лучше психологов. Но за громкими именами вроде ChatGPT, Midjourney и Runway скрывается подлесок маленьких, но интересных проектов.

Мы собрали десятку инструментов, на которые стоит обратить внимание.

Приятного чтения!

Читать далее

Почему ЭТО — не трейдинг

Уровень сложностиПростой
Время на прочтение7 мин
Охват и читатели14K

Наверняка многие из вас уже видели такие скриншоты на просторах интернета. СМИ разных оттенков жёлтого поголовно твердят: «DeepSeek зарабатывает деньги! ChatGPT в минусе».

В этом посте хочу донести, почему эти утверждения очень натянуты — через критику как дизайна эксперимента, так и его конкретной реализации.

Читать далее

Как я внедрил пилотный проект системы компьютерного зрения на производстве, пока станки простаивали, при 7000 в неделю

Уровень сложностиСредний
Время на прочтение7 мин
Охват и читатели10K

Я улыбнулся. В тот момент я и сам чувствовал себя таким помятым.
Станки простаивали уже четвёртый месяц. Зарплата в простое была символической. Пришлось искать дополнительные источники финансирования — в ход пошли даже старые запасы «железа».

Я тогда продал последний монитор — просто чтобы дожить до пятницы.

И в этих условиях я решил: не ждать заказов, а создавать ценность самому. Так родился мой модуль компьютерного зрения для контроля брака.

Читать далее

ML глазами практика и препода. Часть 2. Границы роста и цена энергии

Уровень сложностиСредний
Время на прочтение15 мин
Охват и читатели8.9K

Всем привет! Это вторая часть моего лонгрида о том, как ИИ меняет ИТ и не только. Тут я размышляю на тему no-code-моды, физических ограничениях и энергетической цены нынешнего ИИ-бума, а также о трансформациях, которые происходят в науке и медицине благодаря нейросетям. 

Если вы не читали первую часть, то вам сюда

Читать далее

Как агенты на базе LLM становятся практичнее: подход Anthropic к выполнению кода в MCP

Уровень сложностиСредний
Время на прочтение3 мин
Охват и читатели7.6K

С ростом числа MCP-инструментов в реальных агентах стало заметно ограничение: модель начала получать слишком много промежуточных данных. Это увеличивает количество токенов и время отклика, а в сложных цепочках действий приводит к ошибкам. Anthropic предложила решение: вынести выполнение операций в отдельную среду исполнения кода, сохранив за моделью только роль планировщика.

Читать далее

Я спросил у ясеня… (закуётся ли он в железо)

Уровень сложностиСредний
Время на прочтение20 мин
Охват и читатели11K

Точнее спросил у ChatGPT. Спросил я его, что он думает по поводу моего намерения распластать его логику по кремниевой пластине, то есть развернуть логику инференса в большую предопределённую цепь. Надо сказать, ChatGPT очень сносно стал рассуждать, да и выдал в итоге такой результат, что в принципе потянет на полноценную статью, причём почти без редактирования.

Читать далее

Когда данные говорят на разных языках: как LongCat-Flash-Omni объединяет текст, звук и видео

Уровень сложностиПростой
Время на прочтение5 мин
Охват и читатели8.9K

Автор: Денис Аветисян

Очередной "прорыв", конечно. 560 миллиардов параметров, "синергия модальностей", "реверс-инжиниринг реальности"... Знакомая песня. Как будто кто-то снова решил, что если сложить достаточно много кирпичиков, то получим не только стену, но и осознание бытия.

Впрочем, гибридный параллелизм и потоковая предварительная загрузка – это, безусловно, приятно. Как хорошо отлаженный "Запорожец" на автобане – вроде и не гонка, но едет, и даже довольно бодро. Главное, вовремя смазать.

Вопрос, как всегда, в интерпретации. Машина "понимает" или "имитирует"? Да какая разница, если результат устраивает? Главное, чтобы "Запорожец" доехал до пункта назначения, а там уж пусть сам разбирается, что он там увидел.

И да, очередной Human-in-the-Loop. А как иначе? Все эти "нейронные сети" – это просто очень сложные способы делегировать скучную работу человеку. Просто теперь он делает вид, что это машина работает.

🤔

Читать далее

Вклад авторов