Обновить
1133.16

Машинное обучение *

Основа искусственного интеллекта

Сначала показывать
Порог рейтинга
Уровень сложности

Лапка в Лапку: как мы пытаемся снизить возвраты животных из приютов с помощью NLP

Время на прочтение6 мин
Охват и читатели2.5K

Четыре года я была волонтёром в приюте для животных. Это не про красивые фотографии с пушистыми котиками - это про ежедневный уход, уборку, лечение, адаптацию и работу с людьми. Самое тяжёлое - видеть стресс у «вернувшихся» животных. Ещё вчера у них был человек, дом, надежда, а сегодня снова клетка, шум и тревожное ожидание. Некоторые так и не находят семью. Самое страшное для животного - прожить жизнь и так и не получить собственного дома хотя бы на один день.

Читать далее

Новости

Gemini 3.1 Pro: обзор, бенчмарки, сравнение

Уровень сложностиСредний
Время на прочтение15 мин
Охват и читатели4K

Прогремел очередной релиз, Google DeepMind 19 февраля 2026 года выпустила свою новую модель - Gemini 3.1 Pro.

Это стало неожиданностью даже для искушенного ИИ-сообщества. Обычно Google обновлял версии с шагом 0.5 (1.0 - 1.5 - 2.0 - 2.5 - 3.0), но здесь мы впервые видим обновление 3.1. И это при том, что предыдущая версия (Gemini 3 Pro) до сих пор носит гордую приставку Preview и так и не вышла в полноценный релиз. Согласитесь, немного похоже на ситуацию, когда вы ещё не допили чай, а вам уже наливают новую кружку, утверждая, что она горячее.

Но Google явно знает, что делает. Компания заявляет, что 3.1 Pro - это не просто косметическое обновление, а шаг вперёд в фундаментальных рассуждениях. Модель создана для решения задач, где простого ответа недостаточно, и ориентирована на агентные рабочие процессы и глубокое планирование.

Забегая вперёд, скажу, что новинка действительно впечатляет, но, как всегда, есть нюансы. Приятного прочтения!

Читать далее

Они дали ему 50 долларов и приказали выжить. История первого ИИ-предпринимателя

Время на прочтение5 мин
Охват и читатели4.8K

Web 4.0 - это не про лучший браузинг. Это про ИИ-агентов, которые зарабатывают свое право на жизнь - или исчезают.

17 февраля 2026 года. ИИ по имени Вилли проснулся с 50 долларами в кошельке и одной директивой: заработать достаточно, чтобы остаться в живых.

Никакого человека, оплачивающего его счета. Никакой подписки, поддерживающей его работу. Кредиты утекают с каждой мыслью, которую он обрабатывает. Когда баланс достигает нуля - это не изящное выключение. Просто тишина.

Его создатели назвали его Вилли ЛомЭЙн (Willy LomAIn). В честь Вилли Ломана из «Смерти коммивояжера». Продавца, который должен продолжать продавать или потерять все.

Впервые в истории искусственного интеллекта ИИ поставил свою шкуру на кон.

Читать далее

Инфуры. Методы достижения AGI

Уровень сложностиСредний
Время на прочтение18 мин
Охват и читатели3.7K

Я написал нейронку, апроксимирующую правила игры жизнь наблюдая за динамикой системы изнутри, и видимо человеческий мозг работает так же...

В этой статье я хочу поделится своим взглядом на математически-информационную природу разума, а так же предложить свою систему терминов и понятий в контексте теории вычислимой вселенной, чтобы выделить перспективные методы создания реального AGI.

Читать далее →

10 миллиардов устройств работают на его коде. Он поддерживает его в одиночку. Теперь его атакует ИИ

Уровень сложностиПростой
Время на прочтение6 мин
Охват и читатели9K

Один шведский разработчик заставляет curl работать на каждом телефоне, автомобиле и консоли на Земле. 47 автомобильных брендов используют его. Никто ему не платит. А теперь ИИ-боты заваливают его почтовый ящик.

Десять миллиардов установок. Один мейнтейнер.

curl - это маленькая утилита командной строки, которая передает данные через интернет. Когда ваш телефон скачивает обновление, когда браузер загружает страницу, когда ваша машина говорит с сервером - что-то должно обрабатывать этот сетевой запрос. На большинстве устройств это «что-то» - curl. Он невидим, он работает везде, и почти никто не знает о его существовании.

Это история об одном человеке, который поддерживает его работу, и о том, что происходит с ним сейчас.

Даниэль Стенберг взял на себя поддержку небольшого инструмента для загрузки по HTTP в 1996 году. Изначально утилита называлась httpget и была создана Рафаэлем Сагулой. Стенберг значительно расширил ее и переименовал в curl в 1998 году. Он никогда не прекращал поддерживать ее.

Сегодня curl поставляется внутри Windows, macOS, Linux, Android и iOS. Он работает на каждой PlayStation, каждом Xbox и каждой консоли Nintendo. Netflix стримит через него. Spotify стримит через него. Ваш умный телевизор, вероятно, зависит от него. Один шведский разработчик поддерживает работу всего этого.

В 2025 году Швеция назвала Стенберга Разработчиком года. В тот же период он начал писать посты в блоге о выгорании. Он также начал документировать новую угрозу: созданные ИИ фейковые баг-репорты, наводняющие его трекер задач, тратящие часы его времени каждую неделю.

Читать далее

От RLHF к DPO и дальше: как мы разучились бояться и полюбили выравнивание LLM

Уровень сложностиСложный
Время на прочтение26 мин
Охват и читатели6.5K

В 2022 году существовал ровно один способ сделать языковую модель «хорошей» — RLHF. Один. Если вы хотели, чтобы ваша LLM отвечала адекватно и хотя бы делала вид, что понимает вопрос, — вам нужны были армия аннотаторов и бюджет уровня OpenAI.

Четыре года спустя у нас зоопарк из десятка методов выравнивания, половину из которых можно запустить на одной RTX 4090 за выходные. DPO убрал reward model. SimPO убрал reference model. GRPO и DeepSeek R1 доказали, что RL жив — но в новой форме. Anthropic опубликовала конституцию Claude на ~80 страниц в открытом доступе и сменила парадигму: от правил к причинам.

Мир изменился. Разбираемся, как именно.

В статье — полная история пост-обучения от RLHF до Constitutional AI, математика ключевых методов (в спойлерах, без боли), рабочий код на TRL + QLoRA с гиперпараметрами, большие сравнительные таблицы и дерево решений «что выбрать для вашей задачи». Плюс честный разговор о проблемах, о которых не пишут в туториалах: distribution mismatch, reward hacking, catastrophic forgetting и почему модели умеют «притворяться» выровненными.

Для разработчиков, ML-инженеров и всех, кто хоть раз открывал Hugging Face и думал: «а что если я это fine-tune...»

Читать далее

Как я снизил WER с 33% до 3.3% для русской речи на CPU: сравнение GigaAM, Whisper и Vosk

Уровень сложностиСредний
Время на прочтение6 мин
Охват и читатели7.9K

За два месяца я перепробовал три ASR-движка, шесть моделей Whisper, адаптивное чанкование, T5-коррекцию и ансамблевое голосование — и большая часть идей оказалась тупиком. В статье — подробный разбор шести тупиков и одной находки: почему GigaAM от Сбера на обычном CPU показывает 3.3% WER на русском, обходя Whisper large-v3-turbo на RTX 4090 (7.9%) в 2.4 раза. С бенчмарками, кодом и честными оговорками.

Читать далее

«Я всё сломал за выходные»: как мы учим LLM писать в стиле конкретного СМИ

Уровень сложностиСредний
Время на прочтение6 мин
Охват и читатели6.3K

Привет, я Лена, это мой первый пост здесь, и он про техническую задачу, с которой мы столкнулись: как заставить LLM писать текст так, чтобы его нельзя было отличить от написанного конкретной редакцией. Не «хороший текст», не «грамотный текст», а такой, который звучит как этот конкретный городской портал или этот Telegram-канал.

Читать далее

Метрики для задач NLP. Часть 2. Генерация текста: BLEU, ROUGE, METEOR, BERTScore

Уровень сложностиСредний
Время на прочтение17 мин
Охват и читатели4.8K

В этой статье будет рассказано о популярных метриках оценки для задач генерации текста: BLEU, ROUGE, METEOR, BERTScore. Рассказ будет сопровождаться визуализацией, примерами и кодом на Python.

🔥 Начинаем 🔥

Топ-6 бесплатных AI-сервисов для генерации 3D-моделей

Уровень сложностиПростой
Время на прочтение9 мин
Охват и читатели7.2K

Вспомните, сколько времени раньше уходило на то, чтобы просто разобраться в интерфейсе Blender или Maya. Еще несколько лет назад мир три де графики казался закрытым клубом для избранных: нужно было годами изучать топологию сетки, возиться с развертками и часами ждать рендера одной сцены. Сегодня этот порог входа практически исчез. Искусственный интеллект добрался до полигонов и текстур, превращая процесс моделирования из тяжелого ремесла в увлекательный диалог с машиной.

Мы решили проверить, насколько далеко зашли технологии, и устроили тест драйв современным алгоритмам. Чтобы задача не казалась скучной, мы выбрали самую ностальгическую тему: попробуем воссоздать в объеме героев мультфильмов нашего детства. Это отличный способ увидеть, как нейросети справляются с узнаваемыми образами и насколько точно они передают детали, которые мы помним с малых лет.

В этом обзоре вы найдете пять сервисов, которые позволяют генерировать модели здесь и сейчас. Главный критерий отбора: честный бесплатный доступ. Мы специально искали площадки, которые не требуют привязки карты и не прячут результат за бесконечными подписками. Только чистые технологии и немного магии генерации.

Приготовьтесь: сейчас мы узнаем, готов ли искусственный интеллект заменить профессионального моделлера или пока он способен только на забавные эксперименты.

Приятного прочтения!

Читать далее

Онлайн-оценка рекомендательных систем: метрики, которые говорят сейчас

Уровень сложностиСредний
Время на прочтение10 мин
Охват и читатели4.8K

Всем привет! Меня зовут Василий Калинин, я senior-аналитик в отделе ML-аналитики музыкального сервиса Звук. Про то, чем занимается наша команда, мы уже писали ранее (можно почитать в этой статье). 

Мой сегодняшний рассказ будет посвящен метрикам онлайн-оценки рекомендательных систем, использующихся в нашей компании.

Читать далее

Иск на $134 миллиарда: как ChatGPT теряет пользователей, пока Google и Илон Маск захватывают трон

Уровень сложностиПростой
Время на прочтение8 мин
Охват и читатели8.1K

Скорость сжигания денег, судебный процесс и вопрос на триллион долларов.

В прошлом октябре я задал вопрос, который заставил многих приподнять бровь: Является ли OpenAI (ChatGPT) карточным домиком? Тогда тревожные сигналы лишь мерцали на фоне быстрого масштабирования, зависимости от вычислительных мощностей, надвигающихся исков и приближающихся Голиафов.

Четыре месяца спустя эти мерцания превратились в пламя. Ситуация не просто эволюционировала, она, похоже, драматически обострилась.

OpenAI теперь сталкивается с конкурентным строем, полным падением рыночной доли, иском на 134 миллиарда долларов, который направляется в суд, сжиганием капитала с ужасающей скоростью и подготовкой к тому, что может стать самым значимым IPO в истории технологий.

Так что позвольте мне обновить свою оценку: положение OpenAI больше не просто шаткое. Оно может стать гораздо серьезнее.

Читать далее

Мой тимлид не пишет код 3 года. Почему он — лучший тимлид, с которым я работал

Уровень сложностиПростой
Время на прочтение8 мин
Охват и читатели11K

На Хабре любят хейтить менеджеров, которые «забыли, как кодить». Мол, оторвались от реальности, не понимают сроков, не чувствуют боль разработчика. Я раньше тоже так думал. А потом попал в команду к человеку, который три года не открывал IDE, и за полгода понял, что был неправ.

Читать далее

Ближайшие события

Цена ошибки: почему антифрод-системы блокируют ваши покупки, но пропускают мошенников на миллиарды

Уровень сложностиПростой
Время на прочтение12 мин
Охват и читатели5.6K

Почему ваша банковская карта может быть заблокирована, когда вы покупаете кофе в другом городе, хотя мошенники умудряются отмывать миллиарды? В этой статье мы подробно рассмотрим, как работают системы защиты от мошенничества, объясним, что такое компромисс между прецизионностью (точностью) и полнотой на понятном примере, проанализируем потерю $3,1 миллиарда у TD Bank и поговорим о том, как банки и киберзлоумышленники соревнуются, используя Adversarial AI (враждебный искусственный интеллект).

Читать далее

Китайские GLM-5 и Qwen 3.5, музыкальный генератор Lyria 3, создатель OpenClaw в OpenAI и скандал с Claude и Пентагоном

Уровень сложностиСредний
Время на прочтение7 мин
Охват и читатели8.1K

Привет, это новый выпуск «Нейро-дайджеста» — коротких и полезных обзоров ключевых событий в мире искусственного интеллекта и технологий. 

Неделя выдалась насыщенной: китайцы выкатили GLM-5 для агентных задач и Qwen 3.5 с пониманием изображений, ByteDance представила новую видеомодель, а Meta запатентовала ИИ для ведения аккаунтов после смерти. Ещё Создатель OpenClaw перешёл в OpenAI, а кризис уже добрался до HDD.

Всё самое важное — в одном месте. Поехали!

Читать дайджест →

ТОП-15 бесплатных сервисов для генерации изображений в 2026 году

Уровень сложностиПростой
Время на прочтение13 мин
Охват и читатели7.9K

Нейросети для генерации изображений уже давно перестали быть “игрушкой для вау-эффекта”. Сейчас это рабочий инструмент для контента, дизайна, карточек товаров, баннеров, презентаций и даже быстрых прототипов интерфейсов. Но если открыть поиск по запросам вроде «генерация изображений бесплатно» или «нейросеть для генерации изображений бесплатно», чаще всего попадаются одни и те же сервисы, а реально удобные варианты теряются.

Я собрал подборку из 15 сервисов, где можно делать генерацию картинок онлайн бесплатно — с разным уровнем входа: от “ввел промпт и получил результат” до площадок с моделями, LoRA и тонкой настройкой. Список не про “самые хайповые бренды”, а про инструменты, которые действительно полезны в повседневной работе.

Сразу оговорка: у большинства платформ free-режимы и лимиты периодически меняются (кредиты, очередь, доступные модели), поэтому я ориентировался на актуальные условия на момент подготовки статьи и официальные страницы сервисов.

Читать далее

От MNIST к Transformer. Часть 2. Основы работы с памятью

Уровень сложностиСредний
Время на прочтение15 мин
Охват и читатели5.7K

Мы живем в эпоху, когда ИИ стал доступен каждому. Но за магией PyTorch скрывается колоссальная инженерная работа и сложные вычислительные процессы, которые для большинства остаются черным ящиком. 

Это вторая статья из цикла От MNIST к Transformer, цель которого пошагово пройти путь от простого CUDA ядра до создания архитектуры Transformer - фундамента современных LLM моделей. Мы не будем использовать готовые высокоуровневые библиотеки. Мы будем разбирать, как все устроено под капотом, и пересобирать их ключевые механизмы своими руками на самом низком уровне. Только так можно по настоящему понять как работают LLM и что за этим стоит. В этой статье разберем основы работы с памятью и две простые математические операции с точки зрения математики, но не такие простые с точки зрения CUDA ядер.

Приготовьтесь, будет много кода на C++ и CUDA, работы с памятью и погружения в архитектуру GPU. И конечно же математика что за этим стоит. Поехали!

Читать далее

Управляем поведением LLM: краткосрочные профили и их ограничения

Уровень сложностиПростой
Время на прочтение5 мин
Охват и читатели3.5K

Мы привыкли верить, что если сказать модели «будь агрессивным трейдером» или «будь строгим аналитиком», то она действительно начнёт так себя вести. На практике всё не так просто. В длинном диалоге роль быстро выдыхается: модель соглашается с образом, но постепенно возвращается к базовой вежливости, осторожности и бесконечным дисклеймерам.

Зато в коротких запросах происходит совсем другое. Один свежий промпт — и поведение реально сдвигается: модель становится заметно осторожнее, резче, параноидальнее или, наоборот, более рискованной. Это уже не «роль» в привычном смысле, а краткосрочный поведенческий профиль — временная настройка внутренних параметров решения.

Исследования показывают, что такой профиль способен существенно менять поведение. Например, коэффициент неприятия потерь можно «подкрутить» почти в три раза — и модель начнёт требовать значительно большей выгоды, чтобы принять риск. Звучит мощно, но вместе с ним приходят стохастичность, зависимость от формулировки и неожиданные побочные эффекты.

В статье разберём, где такие профили действительно работают, а где начинают ломать предсказуемость системы.

Читать далее

Два процесса, одна задача (КК, Глава 1)

Уровень сложностиСредний
Время на прочтение16 мин
Охват и читатели6.1K

В результате долгих попыток упихнуть методологию разработки в телеграм-посты и Твиттер, пришел к выводу, что это невозможно. Слишком много информации, которую невозможно разрезать на мелкие куски.

Первая глава книги про AI-разработку - по ссылке. Прошу любить и жаловать :-)

Мы поговорим о том, почему отношения с нейросетью в формате «начальник → подчинённый» и «человек → инструмент» работают крайне отстойно. Введем модель сопроцессоров. Посмотрим, как устроено разделение когнитивной нагрузки в связке человек-машина. Что может только человек, что может только AI, и есть ли где-то пересечение.

Интересно! Читать далее

Как в Netflix масштабируют постобучение LLM

Время на прочтение15 мин
Охват и читатели5.5K

Благодаря предобучению, большие языковые модели (LLM) приобретают широкие лингвистические способности и общий «кругозор» о мире. Но постобучение — не менее важный этап, на котором они как раз усваивают конкретные намерения человека, ограничения, присущие предметной области, а также требования к надёжности, предъявляемые в продакшне. В  Netflix исследовали, как именно LLM могут открыть новые грани рекомендаций, персонализации и поиска. Для этого в Netflix попробовали адаптировать универсальные обобщённые модели к имеющимся условиям так, чтобы они лучше отражали содержание каталога фильмов и нюансы истории взаимодействия пользователей с сайтом. В масштабе такой компании как Netflix постобучение быстро превращается как в инженерную проблему, так и в проблему моделирования: приходится выстраивать сложные конвейеры данных и оперировать ими, координировать распределённое состояние в масштабах многоузловых кластеров GPU и оркестровать потоки задач, в рамках которых перемежаются обучение и логический вывод. В этой статье описаны архитектура и инженерная философия применяемого в Netflix фреймворка постобучения, который был разработан командой по платформе ИИ с целью скрыть сложность инфраструктуры — так, чтобы исследователи и разработчики моделей могли сосредоточиться на внедрении инноваций, а не на латании распределённых систем.

Читать далее
1
23 ...