Обновить
602.44

Машинное обучение *

Основа искусственного интеллекта

Сначала показывать
Порог рейтинга
Уровень сложности

Плато возможностей, или Куда катится машинное обучение в 2026 году

Уровень сложностиПростой
Время на прочтение8 мин
Охват и читатели6.7K

2025 год стал для ИИ временем отрезвления. Эпоха масштабирования подходит к концу. Эксперты сходятся во мнении, что простым увеличением данных и вычислительной мощности следующий качественный скачок не совершить. На первый план выходят новые архитектуры, компактные модели и принципиально иные подходы к обучению.

В 2026 году индустрия, похоже, даст ответ на вопрос, что ИИ может дать нам здесь и сейчас. Мы вступаем в эпоху прагматичного ИИ.

Попробуем разобраться, какие именно тенденции определят лицо ИИ в наступающем 2026-м году.

Читать далее

Новости

Арсенал 2026: Топ-10 ИИ-сервисов для кодинга, работы и креатива, с которыми нужно врываться в этот год

Уровень сложностиПростой
Время на прочтение11 мин
Охват и читатели8.4K

Проснулись, потянулись, зашли в новости, а там за ночь вышло пять новых нейросетей, две из которых уже успели устареть, пока вы чистили зубы. Добро пожаловать в реальность, где вчерашний прорыв сегодня годится только для мемов. Бедный Уил Смит и спагетти. Мы тут только-только привыкли к 2025-му, а индустрия уже вовсю пакует чемоданы в 2026-й.

Кажется, если моргнуть чуть дольше обычного, можно пропустить момент, когда ваш холодильник начнет писать код на Python.

Чтобы не потеряться в этом бесконечном параде релизов и не пытались гуглить ответы в Яндексе, мы собрали «Арсенал 2026». Это те инструменты, которые помогут не просто разобраться в мире ИИ, но и заставить его работать на вас, пока остальные всё еще пытаются правильно составить промпт для генерации котиков.

Разминайте пальцы и готовьтесь - сейчас будем смотреть на то, с чем мы влетаем в этот год.

Приятного прочтения!

Читать далее

Если ИИ не мыслит, то как он решает математические задачи?

Уровень сложностиПростой
Время на прочтение4 мин
Охват и читатели20K

Самый частый вопрос к тезису о том, что языковые модели не думают - чисто практический.

В предыдущей публикации я выдвинул тезис, который многих заставил почувствовать себя неуютно: большие языковые модели не мыслят. Они не рассуждают так, как это делает человек. Они лишь предсказывают следующий токен.

Самым частым возражением было не философское, а практическое:

«Если это правда, то как ИИ удается заниматься арифметикой?»

Сложение, вычитание, умножение - эти процессы кажутся точными, механическими и основанными на строгих правилах. Они выглядят полной противоположностью «размытому» предсказанию языка. Поэтому естественно предположить, что где-то внутри модели спрятан калькулятор или нечто очень на него похожее.

Но его там нет. Однако происходит кое-что весьма любопытное.

Читать далее

Создаём и внедряем ИИ-стилиста для интернет-магазина

Уровень сложностиПростой
Время на прочтение13 мин
Охват и читатели4.4K

Недавно я решал задачу, которая знакома почти любому e-commerce: как поднять конверсию и апсейл вмагазине, где по бенчмаркам все и так «нормально».

Ограничение было простое: решение должно быть на базе ИИ. Мне было важно не «прикрутить чатик», а проверить, насколько зрелы ИИ‑агенты для продакшна, когда они работают с реальными данными, ограничениями и метриками.

Сразу обозначу рамки. Это не статья про то, как увеличить маркетинговый бюджет, переделать витрину или заняться дисраптом. Здесь ровно один фокус: может ли AI‑агент улучшить ключевые метрики: конверсию, средний чек и удержание, в классическом fashion e‑commerce.

Перед тем как строить решение, я разложил клиентский путь на этапы и посмотрел, где теряется конверсия. Самый болезненный участок оказался предсказуемым: переход из карточки товара в корзину. На этом шаге у клиента чаще всего включаются сомнения, размер, посадка, материал, и «с чем это носить». Про конкретный магазин не пишу по понятным причинам.

Читать далее

GPT-4o: технический разбор модели, которая взрывает людям мозги

Уровень сложностиСредний
Время на прочтение5 мин
Охват и читатели5.9K

Разбираем архитектуру, не пугаем. LLM — полезный инструмент при адекватном использовании. Но если марафоните сутками — это сигнал.

Кризисная линия: 8-800-2000-122 (анонимно, 24/7).

Читать далее

Сбер проник в n8n и фильтрует нам лидов: как мы подключили Отечественную нейросеть к автоматизациям

Уровень сложностиПростой
Время на прочтение4 мин
Охват и читатели12K

Всё началось с вопроса коллеги: «А GigaChat вообще можно к n8n прикрутить?»

Мы посмотрели в список встроенных интеграций n8n. OpenAI — есть. Anthropic — есть. Mistral, Groq, Ollama — пожалуйста. GigaChat — а вот и нет.

«Ну значит нельзя», — сказал бы нормальный человек и пошёл дальше...

Читать далее

Обучение эмбеддингов GitHub репозиториев

Уровень сложностиСредний
Время на прочтение6 мин
Охват и читатели11K

У вас есть GitHub ? Ставите Stars ?
Используя эту информацию можно многое про вас рассказать.

В статье вы прочитаете как обучить эмбединги для 300к GitHub репозиториев и как их можно подгрузить прямо в браузере используя WASM для создания рекомендаций.

Читать далее

Антипаттерн LLM-приложений: когда модель игнорирует контекст. Часть 2

Уровень сложностиПростой
Время на прочтение14 мин
Охват и читатели8.2K

Всем привет! В первой части мы разобрали теорию: почему LLM «забывают» информацию в середине промпта, как на это влияет архитектура внимания и при чём здесь ротационные кодирования (RoPE). Мы выяснили, что эффект Lost in the Middle — это закономерное следствие того, как устроены современные трансформеры и как они обучаются.

Но насколько всё плохо на практике? Если разработчик модели заявляет контекстное окно в 128k или даже 1M токенов — можем ли мы на него рассчитывать в реальном продакшене?

Во второй части мы переходим от теории к цифрам на бенчмарках. Мы разберём, почему стандартные тесты "иголка в стоге сена" (NIAH) безнадёжно устарели и как новые метрики вроде RULER и NoLiMa показывают реальное «рабочее» окно моделей, которое иногда в 60 раз меньше заявленного.

В финале этой статьи я соберу практические архитектурные принципы, которые помогают проектировать LLM-системы так, чтобы длинный контекст действительно повышал качество, а не превращался в источник ошибок.

Читать далее

River: учим модель по одной строчке данных

Уровень сложностиПростой
Время на прочтение6 мин
Охват и читатели7.1K

Привет, Хабр!

Сегодня я расскажу про библиотеку Python River, которая позволяет обучать модели машинного обучения в потоковом режиме.

В классическом варианте мы собираем весь датасет целиком, делим на обучающую и тестовую выборки, обучаем модель, измеряем качество — и внедряем в прод. Здорово, если данных немного и они разом доступны. А если данные льются непрерывно?

Новые пользователи приходят каждый день, события генерируются каждую секунду. Модель в продакшене устаревает, если не переучивать её регулярно. Переобучение с нуля нарастающим объёмам данных — удовольствие ниже среднего: долго, ресурсозатратно, да и не всегда возможно, если данные бесконечны (например, поток кликов или показателей датчиков).

Разобраться в теме

Инженеры Google решали задачу год. Claude Code за час показал им направление

Уровень сложностиПростой
Время на прочтение2 мин
Охват и читатели8.3K

В прессе и X вирусится история Яаны Доган, Principal Engineer в Google, которая рассказала, как якобы Claude Code за час решил задачу, над которой целая команда трудилась примерно год. После вопросов и критики со стороны коллег, Яана написала ряд уточнений — и история стала даже более интересной. Давайте разбираться!

Читать далее

Что мы теряем, когда ИИ пишет за нас

Уровень сложностиПростой
Время на прочтение6 мин
Охват и читатели9.7K

На некоторые вопросы ответить проще, чем на другие.

Много лет назад - больше, чем мне хотелось бы признать - в те времена, когда программное обеспечение устанавливалось с компакт-дисков, а для выхода в интернет нужно было ждать, пока модем дозвонится по телефонной линии, мы писали тексты с помощью текстовых процессоров.

Именно так Microsoft Word получил свое название: буквально версия текстового процессора от Microsoft. А до Word были терминальные редакторы вроде WordStar - которым, как известно, до сих пор пользуется Джордж Р. Р. Мартин.

В то время у нас были проверки орфографии. Гораздо более примитивные, чем современные инструменты в браузерах и приложениях.

Из руководства пользователя WordStar 4.0 - версии 1987 года, в которой до сих пор пишет автор «Игры престолов»:

Читать далее

Почему галлюцинации ломают каждую LLM — и что с этим делать

Уровень сложностиПростой
Время на прочтение3 мин
Охват и читатели7.8K

ИИ повсюду. Но никто не знает, будет ли он работать завтра так же, как сегодня.

Туристические приложения рекомендуют направления. Чат-боты обрабатывают жалобы. Ассистенты программирования пишут целые функции.

Но вот загвоздка: мы понятия не имеем, будут ли эти системы работать стабильно.

Большие языковые модели обеспечивают работу значительной части современных приложений. При этом они фундаментально непредсказуемы.

Читать далее

Как защищаться от ИИ-психоза: гайд даже для тех кто думает что их это не коснется

Уровень сложностиСложный
Время на прочтение7 мин
Охват и читатели9.6K

Я провёл неглубокое исследование научных публикаций 2023-2025 годов о влиянии ИИ-чатботов на психическое здоровье. Спойлер: влияние есть, но доказательная база пока слабая. Зато практические рекомендации по защите -> вполне конкретные.

Читать далее

Ближайшие события

Это главная ошибка ИИ на сегодняшний день

Уровень сложностиПростой
Время на прочтение6 мин
Охват и читатели13K

Весь год мы хоронили классическое обучение ИИ. Оказалось, рано.

Почти весь этот год мы провели в убеждении, что подход, подаривший нам оригинальный ChatGPT - первый закон масштабирования - окончательно мертв.

Считалось, что этот путь развития зашел в тупик. Теперь единственное, что имеет значение - обучение с подкреплением, метод «проб и ошибок», который обеспечил большую часть прогресса за последний год.

Это мнение оказалось в корне неверным. Даже такие ведущие лаборатории, как OpenAI, были застигнуты врасплох и теперь расплачиваются за это.

Предварительное обучение (pre-training), классический метод обучения ИИ через имитацию, не просто живо - оно готовится к настоящему ренессансу в 2026 году. И это важно для вас при выборе ИИ-продуктов или принятии инвестиционных решений.

Читать далее

Искусственный интеллект… и Третья Мировая война

Уровень сложностиПростой
Время на прочтение8 мин
Охват и читатели14K

Не раз встречал мнение, что война - двигатель прогресса. Радар, реактивная авиация, компьютеры и медицина - продукты WW-II, а новые сплавы, спутниковая связь и интернет - тоже продукты войны, но уже холодной. Может ли война снова стать драйвером, только в области ИИ?

Читать далее

Итоги LLM в 2025 году: прогресс, проблемы и прогнозы

Уровень сложностиСложный
Время на прочтение26 мин
Охват и читатели8.2K

Один из лучших обозревателей в мире LLM выпустил масштабный разбор всего самого важного, что случилось с языковыми моделями в 2025 году. Я перевел, чтобы как можно больше людей прочитало этот фундаментальный труд.

Здесь про архитектуры, GRPO и про то, почему бенчмарки больше ничего не значат.

Дальше — слово автору.

Читать далее

Эффект Манделы в LLM: Почему галлюцинации — это не баг, а архитектурная неизбежность

Уровень сложностиПростой
Время на прочтение3 мин
Охват и читатели12K

Закройте глаза и вспомните знаменитое новогоднее обращение Бориса Ельцина 31 декабря 1999 года. В голове сразу звучит хриплый голос и культовая фраза «Я устал, я ухожу».

Однако любой, кто хоть раз интересовался природой памяти, прекрасно знает об отсутствии этих слов в реальности. В оригинальной записи звучит лишь:

«Я ухожу. Я сделал всё, что мог».

Мы привыкли называть подобное Эффектом Манделы или массовым искажением восприятия. Но давайте отбросим социологию и взглянем на ситуацию как на чисто технический процесс обработки данных.

Читать далее

Осознанный вайб-кодинг

Уровень сложностиПростой
Время на прочтение6 мин
Охват и читатели13K

Личный опыт использования ИИ в разработке: от пет-проектов до рабочих задач. Где вайб-кодинг действительно ускоряет работу, а где превращается в иллюзию скорости и потерю контроля над проектом.

Читать далее

Пузырь ИИ: крах, который изменит поколения

Уровень сложностиПростой
Время на прочтение5 мин
Охват и читатели42K

Оценка американского фондового рынка сегодня выше, чем перед крахом 1929 года. Что это значит для всех нас?

Financial Times опубликовала материал, который вы, возможно, должны были видеть повсюду, но почему-то не видели.

Оценка американского фондового рынка сегодня выше, чем была перед крахом Уолл-стрит в 1929 году.

Просто осознайте это на секунду.

Выше, чем в 1929-м. Выше, чем в 2008-м. На уровне пузыря доткомов.

И это подтверждается не одним показателем, а сразу несколькими - коэффициентом «цена/прибыль», соотношением капитализации и ВВП. По всем параметрам мы на исторических высотах.

Читать далее

Российские ИИ-сервисы: кто что делает кроме Яндекса и Сбера

Уровень сложностиПростой
Время на прочтение15 мин
Охват и читатели16K

Когда речь заходит об искусственном интеллекте в России, первыми на ум приходят технологические гиганты, такие как Яндекс с его нейросетями и голосовым помощником Алисой и Сбер с масштабными разработками вроде GigaChat и Kandinsky. Эти компании широко известны, и их продукты формируют общественное мнение о возможностях нейросетей. Однако за этим впечатляющим фасадом скрывается гораздо более сложная и динамичная система, которая уже сегодня меняет реальный бизнес, решая практические задачи для организаций из самых разных сфер.

В данной статье мы расскажем о малоизвестных инструментах технологического рынка, в каких сферах они стали незаменимыми и как именно их решения меняют правила для малого, среднего и крупного бизнеса в России.

Приятного прочтения! :)

Читать далее
1
23 ...

Вклад авторов