Обновить
1375.28

Искусственный интеллект

AI, ANN и иные формы искусственного разума

Сначала показывать
Порог рейтинга
Уровень сложности

Reverse Engineering Вселенной: Как геометрия объясняет физические константы с точностью 0.047σ

Уровень сложностиСредний
Время на прочтение23 мин
Охват и читатели17K

История науки — это не прямая линия от невежества к истине. Это спираль, где мы часто совершаем одни и те же когнитивные ошибки, только на новом уровне сложности.

Взглянем на астрономию начала первого тысячелетия. Система мира Клавдия Птолемея была вершиной интеллектуального гения своего времени. Но она строилась на одном фундаментальном, непоколебимом убеждении: Земля — это неподвижный центр Мироздания. Это казалось очевидным. Мы ведь не чувствуем движения, верно?

Но у этой "очевидности" была цена. Наблюдая за небом, астрономы видели странное: планеты иногда останавливались и начинали двигаться назад. В системе, где всё просто вращается вокруг Земли, этого быть не могло.
Вместо того чтобы усомниться в неподвижности Земли, величайшие умы античности начали "спасать" теорию математикой. Они придумали Эпициклы. Они нагромождали круги на круги, создавая сложнейшие модели, лишь бы уравнения сошлись с наблюдениями.

Это поразительный исторический факт: людям было проще создать чудовищно сложную математику, чем допустить мысль, что они — не центр Вселенной.
Потребовалась смелость Коперника, чтобы просто сменить точку отсчета. Стоило поместить в центр Солнце, как нагромождение эпициклов рухнуло, уступив место элегантным орбитам.

Современные Эпициклы

Сегодня может показаться, что физика находится в похожей ловушке.
У нас есть Стандартная Модель. Это самая точная теория в истории, предсказывающая поведение частиц с невероятной точностью. Но давайте взглянем правде в глаза: не рисуем ли мы снова эпициклы?

Мы считаем, что Частицы — это главные действующие лица, а Пространство — просто пустая сцена. И чтобы объяснить, почему эти частицы имеют именно такие массы и заряды, мы вынуждены вводить в уравнения около 26 "ручных" настроек.
Почему постоянная тонкой структуры равна \approx 1/137? Стандартная Модель отвечает: "Потому что так измерено. Впиши это число и считай дальше".

В этой статье автор предлагает рассмотреть гипотезу, которая совершает тот же шаг, что и Коперник: смену геометрии.
Что, если сложность микромира — это иллюзия? Что, если во Вселенной существует только Пространство (Вакуум), а материя — это лишь геометрические узлы на его ткани?

Ниже представлен ход рассуждений и расчеты, которые приводят к неожиданному результату: фундаментальная константа \alpha выводится из чистой топологии с точностью, превышающей точность многих измерений.

Читать далее

Экономический тупик: может ли ИИ вызвать нехватку талантов?

Уровень сложностиПростой
Время на прочтение7 мин
Охват и читатели6.7K

Недавно одна исследовательская организация обнаружила, что к 2035 году в Великобритании из-за ИИ может быть потеряно до трех миллионов низкоквалифицированных рабочих мест. В настоящее время циркулирует множество подобных исследований, утверждающих, что огромные пласты мирового рынка труда будут заменены ИИ, но все они, кажется, упускают нечто совершенно важное - влияние, которое окажет такое внедрение ИИ.

Читать далее

От Telegram-бота к AI-агенту: как собрать своего «исполнителя задач» на Python в 2025-м

Уровень сложностиСредний
Время на прочтение9 мин
Охват и читатели7.3K

В 2023–2024 почти каждый второй pet-проект с LLM выглядел как чатик: ты спрашиваешь — модель отвечает, иногда с RAG, иногда без. В 2025-м тренд сместился: на рынке всё чаще говорят про AI-агентов — системы, которые не просто болтают, а сами инициируют действия, ходят в API, планируют шаги и живут в продакшене как часть инфраструктуры.

В прошлых проектах я уже собирал Telegram-ботов: от простого «ресепшена» для малого бизнеса на aiogram 3.x до RAG-консультанта по железу «Кремний» на бесплатном стеке Groq + sentence-transformers. Логичный следующий шаг — научить бота не только отвечать в диалоге, но и самостоятельно выполнять задачи в фоне: следить за ценами на железо, мониторить статусы заказов или пинговать при аномалиях.

В этой статье разберём на практике минимальный AI-агент вокруг Telegram-бота: архитектуру, стек и рабочий код на Python. Получится небольшой, но честный «исполнитель задач», которого можно дорастить до чего-то полезного в проде.

Собираем AI-агента для бота

Укрощаем зоопарк API: универсальный Python-клиент для GigaChat, YandexGPT и локальных моделей (v0.5.0)

Время на прочтение6 мин
Охват и читатели6.9K

Привет, Хабр! 👋

Если вы пробовали внедрять российские LLM в свои проекты, то наверняка сталкивались с "зоопарком" API. У GigaChat — OAuth2 и свои эндпоинты, у YandexGPT — IAM-токены и gRPC/REST, у локальных моделей через Ollama — третий формат.

В какой-то момент мне надоело писать бесконечные if provider == 'gigachat': ... elif provider == 'yandex': ..., и я решил создать универсальный слой абстракции.

Так появился Multi-LLM Orchestrator — open-source библиотека, которая позволяет работать с разными LLM через единый интерфейс, поддерживает умный роутинг и автоматический fallback (переключение на другую модель при ошибке).

Сегодня расскажу, как я её проектировал, с какими сложностями столкнулся при интеграции GigaChat и YandexGPT, и как за пару дней довел проект до релиза v0.2.0 на PyPI с 88% покрытия тестами.

Читать далее

Как мы учим Яндекс Карты предупреждать о манёврах: без использования LLM, но с помощью водителей

Время на прочтение14 мин
Охват и читатели10K

Что может быть проще, чем сгенерировать голосовую подсказку для навигатора? Считаем угол поворота — озвучиваем манёвр. Именно так наша система и работала годами, пока не обросла таким количеством эвристик и региональных «костылей», что её поддержка стала дороже разработки. Добавление нового правила для одной страны ломало логику в другой, а простая задача «отличить плавный изгиб от поворота» превращалась в детектив.

Меня зовут Дмитрий, и я руковожу ML‑разработкой в команде автонавигации Яндекс Карт. Вместе с моим коллегой Альбертом Юсуповым (@al‑iusupov) в этой статье мы поделимся историей полного переосмысления системы генерации дорожных аннотаций. Расскажем, почему решили отказаться от десятков хитрых условий в коде, а также почему заманчивая идея отдать всё на откуп большим нейросетям (VLM, LLM) провалилась. И, наконец, как пришли к элегантному решению: создали уникальный датасет с помощью сотен водителей‑экспертов и обучили быструю и точную ML‑модель, которая работает по принципу «меньше, но лучше».

Читать далее

Автоматизируем машинное обучение с помощью ИИ-агентов

Уровень сложностиСредний
Время на прочтение8 мин
Охват и читатели4.9K

Решая соревнования на Kaggle начинаешь замечать паттерн. Baseline сделать просто: загрузить данные, запустить CatBoost или LightGBM, получить baseline метрику. Это занимает полчаса. Но чтобы попасть в топ решений, нужно перепробовать десятки вариантов препроцессинга, сотни комбинаций фичей и тысячи наборов гиперпараметров.

Существующие AutoML системы не сильно помогают. Они работают по фиксированному сценарию: пробуют предопределенный набор алгоритмов, выбирают лучший по метрике и возвращают результат. AutoGluon обучает несколько моделей и делает многоуровневый ансамбль, но каждый запуск начинается с нуля. TPOT генерирует pipeline через генетический алгоритм, но не учится на ошибках предыдущих запусков.

Главная проблема в том, что эти системы не рассуждают. Они не анализируют почему конкретный подход сработал или провалился. Они не адаптируются к специфике задачи. Они не накапливают опыт между запусками. Каждая новая задача для них как первая.

Человек работает иначе. Если дата-саентист видит несбалансированные классы, он сразу знает что нужна стратификация и подбор порога. Если видел похожую задачу раньше, применяет то, что сработало тогда. Если первая попытка провалилась, анализирует почему и пробует другой подход.

С появлением языковых моделей появилась возможность создать систему, которая работает ближе к человеку. LLM умеют анализировать данные, рассуждать о выборе методов и учиться на примерах. Но одна модель недостаточна. Она может пропустить очевидную ошибку или зациклиться на неправильном подходе. Нужна архитектура, которая позволит системе проверять саму себя и накапливать опыт.

Читать далее

Как улучшить качество Claude Code, Cursor и др. в несколько раз? Мой личный опыт

Уровень сложностиСредний
Время на прочтение4 мин
Охват и читатели16K

Бывало ли такое, что вы ведете долгий проект вместе с агентом, ставите задачи ИИшке, а она только и делает, что топчется на месте, создавая выдуманные переменные и плодя кучу дубляжей файлов с приставками _fix_final_corrected?

На самом деле, таким болеют модели и на начальных стадиях, просто баги и мелочи проще отследить, но когда проект переходит за 10к+ строк, ситуация меняется, и хочется иметь агента, способного быть в теме, на какой стадии проект и как грамотно фиксить код.

Сегодня я поделюсь своим личным опытом, который я заработал, благодаря многочасовым перепискам с Claude Code, но которые ни к чему не привели, пока я системно не подошел к этому вопросу.

Читать далее

Laravel Copilot Workspace: как я собрал полный цикл разработки вокруг Copilot-агентов

Уровень сложностиСредний
Время на прочтение9 мин
Охват и читатели10K

Я собрал Laravel-репозиторий, в котором GitHub Copilot работает не как один «волшебный ИИ», а как команда кастомных агентов: одни оформляют ТЗ и архитектуру, другие пишут и проверяют код, третьи обновляют документацию и собирают релизы. В статье показываю, как устроен этот workspace и как его можно использовать в своих проектах.

Читать далее

Ванесса — милый ИИ-администратор для музыкального театра

Уровень сложностиСредний
Время на прочтение11 мин
Охват и читатели8.3K

Вокруг новостного хайпа в теме ИИ очень редко встречаются рассказы о простых рабочих решениях. Безусловно, специфика отраслей и рецепты использования LLM в этих отраслях не всегда понятны, когда пытаешься познакомиться с кейсами в лоб.

В данной статье описан совсем короткий путь в 6 недель, от простого наивного MVP для бота — администратора, до полноценного инструмента, который закрыл ряд рутинных вопросов администрирования Музыкального Театра.

40 реинкарнаций, 8 AI Агентов — на мой взгляд интересная прикладная история о том, как в мире современных технологий можно собрать вполне работающую вещь не имея, на входе, навыков в используемых инструментах.

Читать далее...

Как сжимать языковые модели без дообучения

Уровень сложностиСредний
Время на прочтение6 мин
Охват и читатели9.1K

Привет, Хабр! Меня зовут Валентин Малых, я - и.о. руководителя направления фундаментальных исследований в MWS AI. Сегодня я расскажу об одном нашем исследовании по сжатию LLM. Если простыми словами, то это про то, как сделать большую модель чуть-чуть менее требовательной в плане памяти и времени выполнения. Для это придумано три базовых техники: квантизация (загрубление весов модели), дистилляция (обучение уменьшенной копии) и прунинг (удаление части сети). Этот пост как раз будет про третий способ, точнее – недавно разработанный нами в сотрудничестве с зарубежными коллегами метод структурного прунинга по глубине без дообучения, который мы назвали ReplaceMe. Например, модель LLaMA-2 после нашего сжатия на 25% сохраняет 92,5% качества. Ниже – о том, как это работает.

Читать далее

LLM Observability & AI Agent Tracing: большой гайд с обзором подходов и open-source решений

Уровень сложностиСредний
Время на прочтение15 мин
Охват и читатели6.6K

В этой статье я структурировал весь опыт и подходы к тому, как мониторить и трейсить LLM и AI-агентов на их основе. Это очень большая статья, но мне хотелось полностью закрыть всю тему за раз и создать крепкий бейзлайн для погружения в тему observability и трейсинга агентов.

Поговорим про то, почему все LLM-based решения требуют новых подходов, обсудим ключевые проблемы агентов, посмотрим несколько самых популярных решений и обзор всех опенсорсных и зафиналим трендами и направлением, куда все это движется.

Здесь будет про Langfuse, Phoenix, OpenLIT, Langtrace, LangWatch и Lunary. Про оценку (evaluations или evals) здесь не будет, но обязательно скоро будет отдельная статья и про это.

Поехали!

Читать далее

Как написать хороший CLAUDE.md, чтобы не было мучительно больно

Уровень сложностиПростой
Время на прочтение7 мин
Охват и читатели9.7K

Когда я впервые начал всерьез работать с кодинг-агентами, казалось, что это магия: просишь поправить модуль, а через пару минут у тебя уже пулл-реквест. Но чем больше я ими пользовался, тем чаще ловил себя на одном и том же: агент то ломает билд, то игнорирует важные договоренности по архитектуре, то переписывает код "как ему удобнее". И каждый раз приходилось руками разгребать последствия "умной" автоматизации.

Со временем стало очевидно: проблема не в модели, а в том, как мы ее онбордим в проект. Один и тот же Claude в одном репозитории ведет себя как сильный мидл, а в другом как растерянный стажер. Разница почти всегда в том, что написано (или не написано) в CLAUDE.md и его аналогах для агентов.

Я перепробовал кучу подходов: от огромных "библий" с правилами до минималистичных заметок и автогенерации. Что-то работало, что-то категорически нет. В итоге вырисовались простые, но хорошо проверенные на практике принципы того, каким должен быть CLAUDE.md, чтобы не было мучительно больно ни вам, ни агенту.

Читать далее

Как написать свой MCP сервер на языке R

Уровень сложностиСредний
Время на прочтение9 мин
Охват и читатели6K

Ранее я уже рассказывал про разработку AI чатов на языке R. А в этой статье мы более подробно разберёмся как из AI чата сделать полноценного AI ассистента, который умеет не только отвечать на вопросы, но и выполнять какие то действия, например взаимодействовать с файловой системой, API различных сервисов и так далее.

Читать далее

Ближайшие события

Огромный гайд: продвинутые советы и хитрости для работы с Gemini CLI и другими AI CLI утилитами

Уровень сложностиПростой
Время на прочтение67 мин
Охват и читатели8.3K

Команда AI for Devs подготовила перевод большого гайда о скрытых возможностях и продвинутых техниках работы с Gemini CLI. Если для вас терминал — рабочий дом, то этот материал покажет, как превратить Gemini CLI в полноценного ИИ-агента, который автоматизирует рутину, подключается к внешним сервисам и расширяется под любые задачи.

Читать далее

GPT 5.1 учится эмпатии, Opus перестает сжигать лимиты: главные события ноября в ИИ

Время на прочтение30 мин
Охват и читатели7.9K

Иногда кажется, что у Сэма Альтмана, Сундара Пичаи и Дарио Амодея есть общий чат в Telegram, где они договариваются, чем занять AI-энтузиастам выходные. Выбирают одну неделю месяца и выстреливают всё разом. Не успели мы привыкнуть к предыдущим версиям, как индустрия синхронно шагнула в следующее поколение. GPT-5.1 с адаптивным мышлением, Gemini 3.0 с интерактивным режимом, Grok 4.1 с эмоциональным интеллектом и просто долгожданный Claude Opus 4.5 — всё это свалилось на нас практически одновременно.

Параллельно с битвой гигантов продолжается тихая революция в инструментах: IDE становятся агентными, а научные открытия всё чаще делегируются алгоритмам. Материалов много, новинок ещё больше, так что обойдемся без долгих прелюдий. Поехали разбирать релизный хаос.

Читать далее

Разрабатываю MCP интеграции к платформе AI агентов — ключевые моменты

Время на прочтение4 мин
Охват и читатели6.5K

AI технологии меняются так быстро, что каждые несколько месяцев задаешься вопросом: чем сейчас лучше всего заняться в этой индустрии? И ответ каждый раз новый.

Я недавно понял, что сейчас самое время заняться MCP — протоколом контекста моделей, и открыть возможности внешних интеграций для моих AI агентов. По мере того, как растет количество публично доступных MCP серверов, разница между агентом с MCP-адаптером и без такового приближается к разнице между компьютером с интернетом и без.

Инициатива OpenAI, которые адаптировали MCP для своей платформы приложений внутри ChatGPT, произвела на меня определенное впечатление, и я проделал довольно основательный эксперимент (на трех облачных H200 и DeepSeek V3.2-Exp), показавший, что основной функционал такой платформы можно воспроизвести усилиями одного разработчика.

Сам эксперимент - в этом видео:

Читать далее

Хвост, направленный к солнцу! Что на самом деле скрывает межзвездный гость 3I/ATLAS?

Уровень сложностиПростой
Время на прочтение3 мин
Охват и читатели23K

Снимки межзвездного объекта 3I/ATLAS, сделанные в течение ноября 2025 года (уже после прохождения им перигелия), продемонстрировали каплевидную форму его комы, которая вытянута примерно на одну угловую минуту в сторону Солнца.

В этот же период система отслеживания JPL Horizons зафиксировала у 3I/ATLAS наличие негравитационного ускорения. Его величина составляет малую долю (порядка Δ=0,0002) от гравитационного ускорения, создаваемого Солнцем.

Согласно последним данным JPL Horizons, это негравитационное ускорение изменяется обратно пропорционально квадрату гелиоцентрического расстояния (расстояния между объектом и Солнцем) - в точности так же, как и само солнечное притяжение. Это означает, что соотношение между этими двумя ускорениями остается неизменным на всем протяжении орбиты 3I/ATLAS. При этом основная составляющая негравитационного ускорения направлена радиально, прочь от Солнца.

Читать далее

Вайб No-Coding или на что способен n8n с ИИ за спиной

Уровень сложностиПростой
Время на прочтение7 мин
Охват и читатели6.9K

"Claude, создай мне воркфлоу в n8n" — работает или хайп?

Я настроил Claude Desktop для работы с n8n. Две недели тестил. YouTube обещает магию. Реальность оказалась сложнее: он теперь джун, а я слежу, чтобы не накосячил.

Что работает: анализ воркфлоу, поиск узких мест. Что не работает: создание сложных процессов, редактирование без глюков.

В статье — инструкция по настройке + честные выводы.

Читать далее

LatentMAS: Секрет AI-агентов, которые думают без слов, работают точнее и экономят до 80% токенов

Уровень сложностиПростой
Время на прочтение18 мин
Охват и читатели4.2K

Классические AI-агенты общаются текстом — это дорого и медленно. LatentMAS раскрывает секрет "безмолвного" общения: агенты обмениваются "мыслями" напрямую через общую латентную память (KV-кэш). Разбираемся, как эта архитектура позволяет добиться двузначного прироста точности и радикально сократить расходы на токены.

Читать далее

ИИ, помогай: как я сделал настолку для бизнес-игры с помощью LLM-ки (внутри подробные промпты)

Время на прочтение7 мин
Охват и читатели5K

Любите настолки? И я люблю. Не только играть в них, но и разрабатывать. Правда, процесс это настолько длительный и непростой, что в основном мои амбициозные идеи умирали на бумаге. Пока на помощь не пришел генеративный ИИ.

Меня зовут Андрей Шумаков, я scrum-мастер, а также куратор по розничному бизнесу в центре развития гибких практик разработки и внедрения продуктового подхода в ПСБ. Мой интерес к настолкам в том числе рабочий: я создаю бизнес-игры. В этой статье расскажу, как создал бизнес-игру с помощью искусственного интеллекта. Scrum-мастера, берите на заметку! Под катом объясню в деталях, как составить хороший промпт и какие именно задачи поручить ИИшке, чтобы она не галлюцинировала излишне, не путалась в контексте и выдавала результат, который потом можно итерировать своими руками. Поехали!

Читать далее

Вклад авторов