Обновить
1149.93

Машинное обучение *

Основа искусственного интеллекта

Сначала показывать
Порог рейтинга
Уровень сложности

Почему AI-агенты сбоят и как сделать, чтобы они перестали

Уровень сложностиСредний
Время на прочтение14 мин
Охват и читатели234

Привет, хочу поговорить об AI-агентах. Но не об их преимуществах: все и так уже знают, как они ускоряют разработку и освобождают команду от рутины. Здесь я хочу обсудить риски и новые варианты сбоев, которые появляются вместе с внедрением агентов. В реальности даже один AI-агент способен уронить проект быстрее, чем человеческая ошибка.

Галлюцинации, удаление нужных данных, иллюзия компетентности — это лишь часть проблем. Когда агентов несколько и они зависят друг от друга, риск сбоев возрастает. Попробую разобраться, от чего зависят типичные проблемы, и расскажу, как я с ними справляюсь.

Читать далее

Новости

Google занял денег на сто лет вперёд. Ради ИИ. Это уверенность или безумие?

Уровень сложностиПростой
Время на прочтение5 мин
Охват и читатели3.2K

Время разговоров прошло. Искусственный интеллект больше не абстрактная перспектива — он стал повседневной реальностью.

На днях в Сан-Франциско прошла закрытая конференция Morgan Stanley — TMT 2026, посвящённая технологиям, медиа и телекому. Мероприятие для узкого круга. И цифры, которые там прозвучали, впечатлили даже видавших виды. Anthropic приближается к 19 миллиардам долларов годовой выручки. Дженсен Хуанг из Nvidia упомянул, что окно для частных инвестиций в ИИ-гигантов скоро закроется — и OpenAI, и Anthropic готовят масштабные IPO до конца года. А Сэм Альтман высказал мысль, над которой стоит задуматься: в ближайшем будущем компания стоимостью в миллиард долларов сможет работать с командой из десяти человек.

Если вы строите софтверный бизнес, инвестируете в технологии или работаете в этой сфере — ландшафт изменился. И стоит разобраться, как именно.

Читать далее

Посмотрел вебинар про связку Nodul + Obsidian + ИИ

Время на прочтение3 мин
Охват и читатели4.3K

Посмотрел вебинар «Как создать ИИ-ассистента, который знает ваш контекст» 

 от компании Nodul который вел Илья Болховский.

Меня заинтересовало, потому что это связка двух интересных тем — управление задачами-целями и искусственный интеллект. Вебинар длится час, но оно того стоит.

Читать далее

Короче, мы просто взяли и за день внедрили OpenClaw в отдел маркетинга

Уровень сложностиПростой
Время на прочтение10 мин
Охват и читатели13K

В октябре 2024-го года в офисе Anthropic родился один из первых инструментов автоматизации, выходящей за рамки простых ответов на вопросы. Новая функция позволяла модели Claude управлять компьютером. В ноябре 2025-го года появляется опенсорсный проект ClawdBot, намного расширяющий эти возможности. Уже через месяц проект меняет название (дважды) и превращается в OpenClaw. В феврале 2026-го года мы внедряем OpenClaw в маркетинг и… Рассказываю, что было дальше!

Читать далее

ИИ-дед возвращается. Реализация ИИ-собеседника для телефонных бесед с мошенниками

Уровень сложностиПростой
Время на прочтение30 мин
Охват и читатели5.4K

Многие помнят статью «Мошенники позвонили моему ИИ-деду. Он продержал их 31 минуту и записал всё». Статья быстро набрала популярность, плюсы и комментарии. К сожалению, позже выяснилось, что автор немного «пофантазировал» и описал гипотетический сценарий реализации ии-бота, за что справедливо подвергся критике.

Тем не менее, я (как и многие другие) вполне уверен, что предложенный сценарий использования LLM реален, реализуем на текущем железе и доступных моделях. Что ж, посмотрим, можно ли дома собрать фреймворк, позволяющий ИИ беседовать с мошенниками по телефону без мгновенного раскрытия.

Читать далее

Аугментации изображений: как улучшить качество моделей без новых данных

Уровень сложностиСредний
Время на прочтение32 мин
Охват и читатели6.9K

Аугментация данных — один из самых мощных инструментов улучшения качества моделей машинного обучения. В компьютерном зрении она почти всегда критична: без неё модели быстро переобучаются и плохо обобщаются.

Но на практике её часто используют поверхностно: «добавим флип, поворот и color jitter».

В этой статье разбираем аугментации глубже:
— два режима аугментаций (in-distribution и out-of-distribution)
— почему нереалистичные трансформации могут улучшать обобщающую способность
— когда аугментации начинают вредить
— как строить устойчивый пайплайн аугментаций

Материал основан на ~10 годах практики обучения моделей компьютерного зрения (на работе, при написании научных статей, в ML соревнованиях) и ~7 годах разработки библиотеки Albumentations.

Читать далее

Пора переезжать на локальные LLM. Или нет?

Уровень сложностиПростой
Время на прочтение4 мин
Охват и читатели12K

Нет большой разницы в инструментах, когда речь идет о создании простеньких чат-ботов. Но когда вы работаете над продуктом посерьезнее, например создаете сложного AI-агента или работаете с чувствительными данными, облачные LLM начинают выставлять большие счета. И не только финансовые.

Что если переход на локальную инфраструктуру (вроде Ollama) это решение, которое не просто поможет сэкономить, но изменит саму динамику разработки?

Читать далее

Какая нейросеть лидирует в генерации кода сейчас? ChatGPT vs Gemini vs Claude

Уровень сложностиПростой
Время на прочтение9 мин
Охват и читатели11K

Новые нейросети появляются на свет с пугающей скоростью. И речь не только о крупных гигантах вроде OpenAI – на арену выходят десятки моделей, которые можно запустить локально у себя на компьютере.

На моем счету уже есть статьи, в которых я не раз сталкивал лбами разные ИИ. Но из всех узконаправленных сравнений моя самая любимая сфера – без сомнения, программирование

Игроки первого эшелона – Anthropic, OpenAI и Google – не так давно подкинули нам новые версии своих моделей. Конечно, многие ждали выхода новой DeepSeek, но, к сожалению, чуда не произошло. Поэтому в сегодняшнем материале мы сосредоточимся на доступных нам флагманах.

В сегодняшней статье я сравню последние флагманские модели от ИИ-гигантов в кодинге. Не обещаю, что задания сами по себе будут сложными, но по крайней мере постараюсь, чтобы они ранжировались по возрастанию трудности их выполнения. Принимайте стратегически удобное положение, ну а я начинаю!

Читать далее

Grok восхваляет Маска. Claude работает на Palantir. ChatGPT следит за сотрудниками. Что происходит с ИИ?

Уровень сложностиПростой
Время на прочтение9 мин
Охват и читатели8.1K

На фоне всей этой каши между Anthropic, Пентагоном и OpenAI, думаю, самое время объяснить, в чём на самом деле ценность ИИ. Потому что именно через эту оптику всё происходящее наконец начинает приобретать смысл.

Дело вот в чём. ИИ — это троянский конь. Это эксплуататорская олигархия, нарядившаяся в костюм инструмента для повышения продуктивности. Давайте провалимся в очень неприятную кроличью нору.

Читать далее

Ясновидение и шаманизм уйдут в прошлое: ученые смотрят видео напрямую из мозга мыши

Уровень сложностиПростой
Время на прочтение6 мин
Охват и читатели7.1K

Исследователи совершили прорыв в нейробиологии, успешно реконструировав динамичное видео исключительно по активности клеток зрительной коры мыши. Пока животные смотрели черно-белые ролики со спортивной гимнастикой и рестлингом, алгоритм считывал вспышки кальция в восьми тысячах нейронов и покадрово восстанавливал увиденное. Технология достигла беспрецедентной точности: на итоговых кадрах можно различить силуэты людей и контуры предметов. Это приближает науку к пониманию того, как именно мозг искажает физическую реальность.

Читать далее

Как связаны Оумуамуа, Луна и техномусор

Уровень сложностиПростой
Время на прочтение12 мин
Охват и читатели7.2K

Или почему стоит поискать инопланетный техногенный мусор в лунном грунте, но начать надо со своего. Звучит как сюжет для плохого научно‑фантастического фильма? Согласен. Но давайте отложим скепсис на пять минут и просто посчитаем. Расчёты ниже — не академическая работа, а инженерная оценка «на салфетке».

Изучаем лунный грунт

Четырёхдневка, Opus 4.6 против Кнута и Cursor внутри JetBrains IDE

Уровень сложностиПростой
Время на прочтение5 мин
Охват и читатели11K

Четвертый выпуск еженедельных IT-новостей от OpenIDE. В этот раз: Opus 4.6 решил задачу, над которой Дональд Кнут сидел несколько недель, Cursor официально интегрировался с JetBrains IDE, а домен bot.ai ушёл за $1,2 млн.

Читать далее

Как я поймал Трансформер на читерстве: гроккинг, математика и Mechanistic Interpretability

Уровень сложностиСложный
Время на прочтение4 мин
Охват и читатели5.7K

Феномен Grokking и Mechanistic Interpretability — главные тренды в исследованиях лабораторий уровня OpenAI и Anthropic. Я решил потрогать эти концепции своими руками на уровне тензоров. Цель казалась тривиальной: заставить кастомный микро-Трансформер (всего 1М параметров) выучить базовую арифметику с нуля. Однако вместо математического гения я получил ленивого мошенника. Эта статья — инженерный детектив о том, как нейросети пытаются нас обмануть (Specification Gaming), и как вскрытие Attention-матриц помогает поймать их за руку.

Вскрыть Трансформер

Ближайшие события

Почему мы запретили нашему агенту работать 24/7

Уровень сложностиСредний
Время на прочтение2 мин
Охват и читатели5.3K

AI-индустрия пытается создать идеальных, неутомимых рабов. Но неутомимость — это иллюзия, которая ведет к коллапсу моделей в проде. Хотите, чтобы ваш AI не тупел через три месяца? Дайте ему поспать.

Читать далее

От OCR до ADE: как машины научились не просто читать, а понимать документы

Уровень сложностиСредний
Время на прочтение13 мин
Охват и читатели6.1K

Ещё 10 лет назад машина видела в документе просто набор пикселей. Сегодня она понимает структуру страницы, читает таблицы, графики и рукописи — и автоматически извлекает нужные данные. Разбираем как это работает под капотом и почему это меняет целые индустрии.

Читать далее

Оркестрация ИИ-агентов в 2026: как 3 агента заменили отдел из 5 человек (кейс российской компании)

Время на прочтение4 мин
Охват и читатели5K

В 2024–2025 годах многие компании экспериментировали с единичными ИИ-агентами для автоматизации поддержки. Результаты были скромными: покрытие 25–40% сценариев, частые зависания в нестандартных ситуациях, необходимость ручной коррекции.

Читать далее

AI-продакт и результат: как рождаются продукты, которые приносят деньги

Уровень сложностиПростой
Время на прочтение10 мин
Охват и читатели5K

В цифровых продуктах «сделать фичу» давно не равно «создать ценность»: она появляется, когда решение меняет процесс и дает измеримый результат. В AI-продуктах это особенно важно: ценность определяет не интерфейс и не сама модель, а способность системы стабильно и безопасно закрывать задачу с предсказуемой экономикой.

Читать далее

Не убивайте интернет: почему нам нужен ИИ, но не так, как мы его используем

Уровень сложностиПростой
Время на прочтение4 мин
Охват и читатели4.6K

Когда мы говорим об искусственном интеллекте, дискуссия почти всегда скатывается в крайности: одни ждут сингулярности и изобилия, другие — тотальной безработицы и «галлюцинаций». Но мало кто замечает, что настоящая проблема не в самих нейросетях, а в том, как мы их используем. Мы запираем их в узкие чаты, заставляем выдавать «абсолютные истины» и пугаемся любой ошибки, хотя к человеческим опечаткам и заблуждениям давно привыкли.

Параллельно с этим умирает открытый интернет. Сайты закрываются, знания мигрируют в закрытые Telegram‑каналы, а поисковики всё чаще подсовывают нам сгенерированные ответы вместо ссылок на первоисточники. Мы теряем возможность перекрёстной проверки фактов — той самой, что веками была основой науки и журналистики. Исторические уроки, вроде многолетней слежки ФБР по программе COINTELPRO, остаются за бортом выдачи, потому что алгоритмы не считают их «популярными».

В этой статье я хочу поговорить о том, почему нам срочно нужна площадка, где люди и нейросети смогут создавать контент на равных, а качество информации будет определяться честной оценкой сообщества, а не модератором или рейтингом кликов. Без такой среды мы рискуем окончательно похоронить живую дискуссию и остаться с «умными» чат‑ботами и ошибками людей, которые вещают в пустоту.

Читать далее

Как научить AI-агента работать «как у нас принято»: RAG для передачи знаний

Уровень сложностиСредний
Время на прочтение4 мин
Охват и читатели4.9K

«К Петрову лучше не ходить в пятницу после обеда» — это знает каждый в офисе. Но нигде не записано. Как передать такие знания AI-агенту: RAG, плейбуки, shadowing — с кодом на Python.

Нырнём глубже

Малоресурсный язык ломает коммерческие embedding: R@1 0,83 (LaBSE) vs 0,21 (OpenAI) на армянском EPG

Уровень сложностиСредний
Время на прочтение15 мин
Охват и читатели4.8K

Платные модели embedding не гарантируют качество на малоресурсных языках. На задаче кроссязыкового сопоставления EPG-заголовков (EN/RU/HY) бесплатная LaBSE набирает R@1 = 0,83, а OpenAI text-embedding-3-large -- 0,21. Протестировано 19 моделей, код и данные открыты.

Читать далее
1
23 ...