Обновить
1345.99

Машинное обучение *

Основа искусственного интеллекта

Сначала показывать
Порог рейтинга
Уровень сложности

Топ нейросетей для бизнеса: автоматизации офисной работы

Уровень сложностиПростой
Время на прочтение15 мин
Охват и читатели2.8K

Знаете это чувство, когда в конце дня понимаешь, что сделала кучу движений, но результата ноль? Отчеты написаны, письма разосланы, но мозг вытек, потому что 80% времени ушло на копирование, вставку и форматирование.

Так вот, нейросети сейчас - это не про заменить человека. Это про то, чтобы человек перестал быть приложением к Excel и калькулятору. Особенно если у вас небольшой бизнес, где каждый сотрудник на счету, или вы руководитель, который устал тонуть в операционке.

В этой статье я собрала 12 нейросетей, которые реально помогают в офисе. Без воды, без “нейросеть напишет за вас роман”. Только то, что берет на себя дурацкую, повторяющуюся работу: расшифровку встреч, верстку презентаций, поиск ошибок в таблицах и написание однотипных писем.

Поехали. Начнем с самого частого - с текстов и документов. Тут нейросети реально умеют больше, чем просто болтать. Приятного прочтения!

Читать далее

Новости

Линейная регрессия: от теории до production

Уровень сложностиПростой
Время на прочтение5 мин
Охват и читатели3.5K

📚Линейная регрессия – это первый алгоритм, который осваивает аналитик, и последний, который он перестает использовать.
✔️В статье разберем, что это такое, как работает, где применяется и с какими подводными камнями вы обязательно столкнетесь.

Читать далее

Сэм Альтман раскрыл, что техно-олигархи на самом деле думают о нас, людях

Уровень сложностиПростой
Время на прочтение5 мин
Охват и читатели3.8K

Сэм Альтман, генеральный директор OpenAI, наконец-то сказал это вслух. В интервью на мероприятии Express Adda в Индии он заявил:

Одна из вещей, которая всегда несправедлива в этом сравнении, это... люди говорят о том, сколько энергии требуется для обучения модели ИИ по сравнению с тем, сколько стоит человеку сделать один логический вывод (inference query). Но на обучение человека тоже уходит много энергии. Требуется около 20 лет жизни и вся еда, которую вы съедаете за это время, прежде чем вы станете умным.

С точки зрения Альтмана, это рациональный аргумент. Он оправдывает потребление ресурсов, необходимых для обучения ИИ-моделей, сравнивая его с ресурсами, которые потребляем мы, люди.

Для него ИИ и человечество относятся к одной ценностной категории. Он измеряет и то, и другое в терминах полезности.

Но не все думают так, как Сэм Альтман. Иммануил Кант, великий немецкий философ, однажды сказал:

Читать далее

AI-security развивается, но единого стандарта пока нет: как бизнесу защищать ML-модели и AI-агентов

Уровень сложностиСредний
Время на прочтение13 мин
Охват и читатели3.2K

Привет! Меня зовут Борис Мацаков, я Data Science инженер в Cloud.ru. Хочу поговорить о сравнительно новом направлении кибербезопасности — защите AI-систем и агентов.

Каждая команда понимает безопасность AI-моделей по-своему, а за ее основу часто берут подходы классического DevSecOps. Но проблема в том, что классический DevSecOps защищает периметр, зависимости, инфраструктуру и доступы, а атаки на модели происходят совсем в других слоях: в данных, контексте и самой логике работы модели.

Именно поэтому одних инфраструктурных мер недостаточно и для AI-агентов нужно закладывать отдельный контур безопасности поверх базовых методов DevSecOps. В еще молодой области AI-security появляются фреймворки, типологии атак и практические рекомендации, но единого стандарта и «общего ГОСТа» пока нет. Зато есть рамки, на которые уже можно опереться: OWASP Top 10 для LLM-приложений и отдельный Top 10 для agentic-приложений, SAIF-карта рисков, MITRE ATLAS как база техник атак на AI. Этого достаточно, чтобы выстроить практичную защиту и не изобретать ее с нуля. Давайте разбираться, почему DevSecOps здесь не хватает и какие контуры защиты нужны AI-системам на практике.

Читать далее

Постмортем: как мы опубликовали ИИ-фейк и какие выводы сделали

Уровень сложностиПростой
Время на прочтение2 мин
Охват и читатели5.6K

Недавно в нашем блоге вышел материал об ИИ-деде, который 31 минуту троллил мошенников. Статья собрала отличные охваты, но вызвала справедливые подозрения у комьюнити. 

Мы провели внутреннее расследование, поговорили с автором и вынуждены признать: история — художественный вымысел. Публикацию скрыли, а теперь хотим кратенько рассказать, как это произошло и что мы меняем в наших процессах.

Читать далее

На краю математики. Перевод интервью Теренса Тао изданию The Atlantic

Уровень сложностиПростой
Время на прочтение5 мин
Охват и читатели3.7K

За последние месяцы сразу несколько исследователей заявили, что генеративные модели помогли решить ранее открытые математические задачи - в том числе из знаменитого списка задач Пола Эрдёша. OpenAI уже говорит о «прорыве», а подтверждение со стороны Терренса Тао, одного из самых авторитетных математиков современности, только подогревает интерес к теме.

Однако сам Тао настроен гораздо осторожнее. По его словам, ИИ пока берёт «лёгкие победы» - закрывает менее сложные задачи, перебирая длинный хвост проблем системно и без усталости. Настоящая ценность может проявиться не в автономных решениях «по нажатию кнопки», а в новом формате сотрудничества человека и машины, который постепенно меняет сам способ заниматься математикой.

Читать далее

OpenClaw на Raspberry Pi: от установки до мультиагентной системы

Уровень сложностиСложный
Время на прочтение21 мин
Охват и читатели3.3K

Прогресс не стоит на месте, и вот уже люди догадались дать «искусственному интеллекту» доступ к своим «железкам» 😊. Весело — без сомнений, полезно — возможно, небезопасно — сто процентов. В интернете полно гайдов о том, как запустить и настроить OpenClaw. Но знаете что? Они все какие-то поверхностные, что ли. Я решительно собираюсь исправить эту ситуацию своей статьёй! =))).

Читать далее

«Обучение на опыте» для малых моделей: переносим методы Physical Intelligence на ACT без использования VLA или диффузии

Уровень сложностиСредний
Время на прочтение6 мин
Охват и читатели2.9K

Поведенческое клонирование (BC) - это доминирующая парадигма в ИИ-робототехнике, которая позволяет моделям обучаться имитации роботов под управлением человека на основе успешных действий. При обучении BC-политики мы исключаем ошибки из датасета, чтобы тренироваться только на успешных эпизодах - в конце концов, мы не хотим учиться подражать ошибкам!

Самое перспективное направление в ИИ-робототехнике сегодня - это «обучение на опыте». Поскольку BC-политики учатся только имитировать успешные действия, им трудно восстанавливаться после ошибок, которые неизбежно случаются в сложных сценариях реального мира. Умение отличать хорошие действия от плохих помогло бы политике освоить механизмы восстановления и оптимизировать скорость и эффективность движений. Постобучение через обучение с подкреплением (RL) обещает именно это - обучение на своих ошибках, а не просто имитацию поведения человека.

Пожалуй, самая интересная научная работа в области робототехники этой осенью вышла у Physical Intelligence. Они представили свой метод Pi*0.6 для постобучения базовых моделей роботов через оффлайн-RL. Сначала вы классифицируете действия как «сильные» или «слабые» в зависимости от того, насколько они выгодны, а затем просто добавляете эту классификацию в окно контекста политики действий. В процессе работы мы запрашиваем «сильные» действия, что позволяет сэмплировать варианты из набора, который привел к хорошим результатам во время обучения. Нет нужды в PPO или других сложных градиентных методах, нет проблем с регуляризацией или катастрофическим забыванием, которые часто за ними следуют. Просто говоришь: «Мне нужны хорошие действия», и робот их выполняет. Звучит слишком хорошо, правда?

Читать далее

Veai 5.5: поддержка Skills, режимы агента Plan и Review, авторевью и ограничение зоны редактирования

Время на прочтение4 мин
Охват и читатели3.5K

В свежем релизе Veai 5.5 (плагин к IntelliJ IDEA со своим AI агентом для написания кода, тестирования и отладки) работа с агентом становится более управляемой, безопасной и расширяемой. SKILLs — это полноценная поддержка открытого стандарта навыков: их можно хранить в проекте, переиспользовать между задачами и инструментами, и агент будет подключать их автоматически.

Добавлены новые режимы агента Plan и ReviewAuto Review — для быстрых проверок сгенерированных изменений, Edit Scope — для ограничения области редактирования, а также возможность создавать свои режимы агентов под конкретные роли и сценарии. Для персональных пользователей добавлена поддержка Claude 4.6 Opus.

Читать далее

Автодифференцирование на C++: обратное распространение через лямбды и std::function

Уровень сложностиСредний
Время на прочтение15 мин
Охват и читатели4.4K

Привет, Хабр! Меня зовут Кирилл Колодяжный, я разрабатываю системы хранения данных в YADRO. Это третья, заключительная часть моего цикла о паттернах C++, которые я применяю для решения задач машинного обучения, а вы можете использовать и в другой работе. В этой статье поговорим, как построить вычислительные графы и реализовать обратное распространение ошибки без сложных иерархий классов, с помощью лямбда-функций и стандартной библиотеки.

В конце материала я сравнил свой подход с вариантом PyTorch и оставил ссылки на полезные материалы, в том числе на предыдущие части цикла.

Читать далее

От микроменеджмента до автопилота: 4 стадии рефакторинга AI-кода на примере десктопного приложения

Уровень сложностиСредний
Время на прочтение7 мин
Охват и читатели6.6K

Реддит и Хабр забиты историями о том, как кто-то «написал приложение за вечер с помощью ChatGPT, вообще не зная программирования». Маркетологи называют это вайбкодингом — ты просто описываешь свои намерения, а ИИ выдает готовый продукт.

Я проверил, и вот мой спойлер: на масштабе чуть большем, чем программа на 500 строк, это не работает.

Август 2025 года. Мне понадобилась утилита со сложной логикой: конвертер выгрузок Telegram (JSON) в чистый текст для LLM. Проект десктопный, с GUI, графиками и парсингом. Вместо того чтобы писать код руками, я провел эксперимент: стать техлидом для связки актуальных на тот момент моделей (Claude 4.0 + Gemini 2.5 + Cursor).

Я заранее дал им архитектуру. Они собрали первый MVP. А затем, чтобы этот «MVP» (нет) не сложился как карточный домик через неделю, мне пришлось четырежды инициировать глобальный рефакторинг, потратить 40 часов на борьбу с галлюцинациями вокруг Matplotlib и разгребать цикличные зависимости.

Эта статья — рефлексия и разбор полётов. Это история о том, почему в 2026 году главный навык инженера — это умение видеть деревья за лесом и вовремя сказать ИИ: «Нет, твоя архитектура никуда не годится, всё переделываем».

Читать далее

Когда технологии выглядят красиво: WiDS Meetup 2026 как новая форма тех‑событий

Уровень сложностиПростой
Время на прочтение6 мин
Охват и читатели3.3K

6 марта 2026 года в Санкт‑Петербурге пройдёт WiDS Meetup — событие, которое я организую уже третий год подряд. Это не конференция в классическом смысле и не «просто митап». Да, у нас есть праздничная рамка, но смысл не в ней. Для меня WiDS Meetup — попытка нащупать новую форму технологического события, где инженерная глубина и практическая ценность не спорят с эстетикой, а усиливают друг друга. Судя по тому, как растёт аудитория и качество разговоров, это работает.

Меня зовут Марк Паненко. Я руковожу направлением Machine Learning / Data Science в Ozon Банке и много лет участвую в организации мероприятий сообщества Open Data Science (ODS) в Санкт‑Петербурге. Ниже — история о том, как родился WiDS Meetup, почему он вырос до формата фестиваля/арт‑конференции и как это связано с тем, что происходит в индустрии прямо сейчас.

Читать далее

США больше не верят в ИИ? Почему создатель ChatGPT отправился искать деньги в Индии

Уровень сложностиПростой
Время на прочтение6 мин
Охват и читатели6.4K

Сэм Альтман не отступает, даже несмотря на то, что проблемы OpenAI продолжают нарастать как снежный ком.

С начала 2026 года плохие новости копятся одна за другой:

Сделка с NVIDIA теперь под серьезным сомнением.

Стратегическое партнерство с SoftBank повисло в воздухе.

Партнерский проект Stargate - Oracle - пережил сокрушительный обвал цен на акции, потрепав нервы всем, кто делал ставку на прорыв в сфере ИИ.

Вдобавок ко всему, американская общественность все активнее выступает против строительства дата-центров.

И, наконец, все больше экспертов говорят о том, что индустрия ИИ в ее нынешнем состоянии - это пузырь.

К счастью для Сэма, мир не заканчивается на границах США. И взгляды генерального директора OpenAI (и не только его) теперь обращены к этому более широкому миру.

Читать далее

Ближайшие события

Менеджер ML-экспериментов. Что это и как он нас выручает

Уровень сложностиСредний
Время на прочтение12 мин
Охват и читатели3.9K

Привет, Хабр! Меня зовут Владимир Кочетков, и я тимлид Deep Learning разработки в области распознавания речи и соавтор курса «MLOps для разработки и мониторинга моделей» в Яндекс Практикуме.

Сегодня поделюсь опытом, как мы с командой внедряли менеджер ML-экспериментов, и расскажу: в чём сложность обучения моделей; когда нам понадобился менеджер экспериментов; какие были к нему требования и как они эволюционировали в процессе; что мы выбрали и почему; как это работает в жизни.

А начнём с главной мысли: проводить множество попыток обучения до нужного состояния очень сложно, если не следить за тем, что и как мы меняем при каждом подходе.

Читать далее

Почему Perplexity Computer — важный релиз в мире AI

Время на прочтение5 мин
Охват и читатели8.6K

Perplexity тихо выпустила Perplexity Computer — и есть ощущение, что рынок пока не до конца осознал масштаб этого шага. На поверхности это выглядит как ещё один режим внутри знакомого интерфейса. Но по сути — это заявка на новый уровень агентных систем.

В этой статье разберём, что именно представляет собой Perplexity Computer, какие возможности он открывает уже сейчас, чем отличается от OpenClaw и почему этот релиз может оказаться стратегически важным для всего рынка AI‑агентов.

Читать далее

Claude Code — это не только для программистов: как маркетологи и менеджеры автоматизируют рутину

Уровень сложностиПростой
Время на прочтение5 мин
Охват и читатели4.6K

В начале 2026-го главный инженер Google и руководитель команды Gemini API рассказала, как дала Claude Code задачу, над которой ее команда работала год, - и агент справился за час.

В статье я разбираю, как те же инструменты Anthropic - Claude Code и Claude Cowork - превращают ИИ из чат-бота в цифрового сотрудника для менеджеров, маркетологов и аналитиков: что они реально умеют, сколько стоят в 2026 году и как меняют повседневную работу уже сейчас.

Читать далее

Claude Cowork или Claude Code? Что выбрать не программисту для автоматизации рабочих задач

Уровень сложностиПростой
Время на прочтение5 мин
Охват и читатели9K

С выходом Claude Cowork в обсуждениях стало много упрощений: его часто подают как "Claude Code, только удобнее и для офисных задач". Это частично верно, Cowork действительно приносит агентные возможности Claude Code в приложение на ПК для задач вне программирования. Но в обзорах часто замалчивают нюансы: что происходит с лимитами на многошаговых задачах, где на самом деле живут Skills, и в каком случае удобный интерфейс проигрывает нормально упакованному workflow.

В этой статье разберу Claude Cowork и Claude Code, а заодно и Skills (и там, и там) с позиции обычного пользователя (маркетинг, контент, аналитика, рабочая рутина):

- где важнее удобство,

- где нужен контроль,

- и почему Skills многие зря сводят только к Claude Code.

Читать далее

Anthropic раскрывает грязный маленький ИИ-секрет Китая

Время на прочтение9 мин
Охват и читатели8.9K

...И при этом демонстрирует двойные стандарты

Anthropic, компания, известная своей жесткой позицией по отношению к Китаю, и один из тех игроков, кто массово использовал данные из открытых источников для обучения своих моделей, теперь обвиняет другие ИИ-лаборатории в краже своих разработок. Такое нарочно не придумаешь.

И хотя это подтверждает мои подозрения о том, как Китаю удалось сократить отставание, несмотря на гораздо меньшие ресурсы, это также обнажает «несуществующий» технологический ров, который США имеют перед Китаем.

В этой статье мы разберем основы дистилляции - ключа к прогрессу ИИ и «уловки» Китая, позволяющей не отставать, - а также раскроем реальные намерения Anthropic, которые далеки от благородных.

В очередной раз в сфере ИИ все не так, как кажется, и текущая проблема не имеет ничего общего с самим искусственным интеллектом.

Читать далее

Введение в отравление данных

Уровень сложностиСредний
Время на прочтение10 мин
Охват и читатели6.6K

В 2025 году отравление данных перестало быть академической гипотезой и превратилось в практическую поверхность атаки для LLM-систем. «Яд» может прятаться в репозиториях, веб-контенте, инструментах агентов и синтетических пайплайнах, переживать дообучение и срабатывать спустя месяцы в виде триггеров и бэкдоров. В статье разберём реальные кейсы, исследования и выводы для тех, кто строит или защищает решения на базе GenAI.

Узнать про риски

Claude Sonnet 4.6: обзор, бенчмарки, сравнение

Уровень сложностиПростой
Время на прочтение12 мин
Охват и читатели6K

Пристегните ремни, коллеги‑разработчики и любители нейросетей. Если вы думали, что битва титанов между GPT-5.3 и Claude 4.6 Opus, вышедшими в один день, — это пик гонки, то спешу вас обрадовать. Это был только прогрев.

Сначала нам представили новый Опус и 5.3, следом Google выкатил обновленный Gemini, который научился переваривать библиотеки размером с Ленинку. Даже Илон Маск решил не стоять в стороне, выкатив в бету свой Grok 4.20. И вот, когда мы только‑только начали привыкать к новым мощностям, Anthropic делает ход конем и выпускает Claude 4.6 Sonnet.

Знаете, что самое дикое в этой ситуации? Рынок LLM превратился в место, где модели устаревают быстрее, чем вы успеваете обновить баланс в API. Раньше Sonnet считался средним братом — быстрым, недорогим, но все‑таки компромиссным. Но версия 4.6...

По сети уже гуляют восторженные треды на Reddit и посты в X, где пользователи всерьез обсуждают, не обрел ли новый Соннет сознание, настолько человечными и глубокими стали его ответы.

В этой статье мы не будем просто смотреть на скучные графики. Мы разберемся, как так вышло, что средняя модель внезапно начала наступать на пятки флагманам, почему разработчики массово мигрируют на нее с GPT и действительно ли у Anthropic получилось создать нейросеть с душой и чутьем в коде.

Приятного чтения!

Читать далее
1
23 ...