Обновить
700.07

Машинное обучение *

Основа искусственного интеллекта

Сначала показывать
Порог рейтинга
Уровень сложности

Мой первый AI-агент на базе Neuron — PHP-агентного фреймворка

Уровень сложностиСредний
Время на прочтение14 мин
Количество просмотров6.7K

Я PHP-разработчик с многолетним стажем (от слова «много»). Привык, что мой мир — это веб‑приложения, серверный код и бесконечные «фичи» на Laravel или Yii (да... легаси — это мой конёк). В последние пару лет вокруг бушует AI‑бум: всюду слышно про нейронки, LLM, про каких‑то «агентов», которые сами решают задачи. И, признаться, временами у меня появлялась лёгкая тревога. Не отстану ли я от поезда, если не перейду полностью на Python/NodeJS или не выучу новый фреймворк? Ведь почти все примеры ИИ‑интеграций, что я видел, были на Python или JavaScript. PHP в этих разговорах фигурировал редко, если вообще упоминался.

Недавно я наткнулся на упоминание о Neuron — инструменте, который гордо назван «первым enterprise‑ready агентным фреймворком на PHP». Мой скептицизм сразу поднял голову: «Агентный фреймворк? На PHP? Серьёзно?» С другой стороны, это заинтриговало. Если всё правда, то вместо того чтобы судорожно перелистывать учебник по Python, возможно, я смогу внедрять ИИ прямо там, где мне комфортно — в PHP‑стеке. И вот я решил разобраться, что же такое этот Neuron и насколько он реален.

Погрузиться в Neuron

Парадокс безопасности локальных LLM

Уровень сложностиПростой
Время на прочтение7 мин
Количество просмотров14K

Команда AI for Devs подготовила перевод исследования о парадоксе безопасности локальных LLM. Если вы запускаете модели на своём сервере ради приватности, эту статью стоит прочитать. Эксперименты показывают: локальные модели вроде gpt-oss-20b куда легче обмануть, чем облачные аналоги. Они чаще вставляют вредоносный код, не замечая подвоха, и превращаются в идеальную цель для атак.

Читать далее

Умный Early Stopping: обучаем нейросети, анализируя тренд, а не шум

Уровень сложностиСредний
Время на прочтение3 мин
Количество просмотров381

Классический Early Stopping часто преждевременно завершает обучение, путая шум с ухудшением качества. В этой статье я покажу, как добавить анализ тренда чтобы модель останавливалась не по случайным колебаниям, а по тенденции метрики.

Читать далее

Нарративный двигатель LLM. Критика промптинга

Уровень сложностиПростой
Время на прочтение13 мин
Количество просмотров2.8K

Человечество тысячелетиями рассказывало истории, а теперь на этих историях учатся LLM.

Что такое нарратив? Это история с сюжетом, помните? — Город, герои и возвращение. Но мы не будем углубляться в философскую глубину, где люди создают историю, чтобы осмыслить себя и свой опыт (желающие могут почитать Karl E. Weick), а рассмотрим, как можно применить нарративы в понимании работы LLM.

Читать далее

Почему ИИ-агенты для интерфейсов учатся в симуляции лучше, чем в реальности

Время на прочтение4 мин
Количество просмотров765

ИИ с каждым годом становится умнее — на тестах и демонстрациях модели поражают логикой и ловкостью, но стоит выпустить их в реальный интернет или мобильное приложение, как начинается череда странных ошибок. Почему даже продвинутые агенты испытывают сложности на обычных сайтах и кнопках, хотя под капотом у них миллиарды параметров?

Новое исследование показывает, что дело вовсе не в дефиците данных. Оказывается, гораздо эффективнее обучать ИИ на сгенерированных симуляциях интерфейсов, а не на живых задачах из реального мира — и на выходе агенты становятся не только умнее, но и куда более стойкими к любым неожиданностям.

Разбираемся, как современные подходы меняют понимание того, что значит "обучить ИИ действовать по-человечески" — и почему выигрывает не тот, кто учится в реальности, а тот, кто научился играть с фантазией.

Читать далее

Краткий обзор 10 локальных UI для LLM

Время на прочтение4 мин
Количество просмотров9.4K

На просторах интернета можно найти множество интерфейсов для LLM. Все они довольно разношерстные и обладают разным функционалом: от простых чатов до почти энтерпрайз-приложений.

Я установил и опробовал 10 них (на самом деле больше, но нормальных только 10 :) В этой статье найдете их краткий обзор.

Мои курсы: Разработка LLM с нуля | Алгоритмы Машинного обучения с нуля

Читать далее

ИИ-помощники для Python: как выбрать между чат-песочницей, IDE-ассистентом, агентами и open-source

Уровень сложностиПростой
Время на прочтение9 мин
Количество просмотров3.5K

В 2025-м помощники для Python распались на 4 класса: онлайн-чаты с изолированной песочницей, IDE-плагины, автономные агенты и локальные/открытые модели. Разбираемся, что чем отличается, где уместно, сколько стоит и на что смотреть разработчикам при выборе. А так же примеры кода.

Читать далее

Почему разработчики не доверяют вайб-кодингу и как это исправить

Время на прочтение7 мин
Количество просмотров5.3K

По-моему, вайб-кодинг — полезная фича, но я знаю, что многие его недолюбливают и считают, что AI генерит чушь, а не нормальный код. Ну тут я могу сказать как в той рекламе с гепардом: «Ты просто не умеешь их готовить».

Я начал заниматься вайб-кодингом 2 года назад (привет первая версия GPT Engineer), то есть еще до того, как ввели сам термин (он появился только в этом году). За это время у меня накопился опыт, который я переложил в небольшие рекомендации, возможно они помогут начинающим вайб-кодерам.

Вообще вайб-кодинг, это, конечно, огромная тема. Думаю, сделать серию из нескольких статей: здесь начну с теории, а потом покажу практику, как я настраиваю окружение и вообще весь процесс.

Читать дальше

BERT — это всего лишь одноэтапная диффузия текста

Время на прочтение9 мин
Количество просмотров1.9K

Некоторое время назад компания Google DeepMind представила Gemini Diffusion — экспериментальную языковую модель, генерирующую текст методом диффузии. В отличие от традиционных моделей, написанных в стиле GPT и генерирующих слово за словом,  Gemini создаёт текст целыми блоками, пошагово уточняя случайный шум.

Я прочитал статью «Large Language Diffusion Models» — и с удивлением узнал, что дискретная диффузия языка представляет собой просто обобщение метода генерации пропущенного токена (MLM), практикуемого уже с 2018 года. Я сразу подумал: «А можно ли тонко настроить BERT-подобную модель так, чтобы приспособить её к генерации текста?» Из чистого любопытства решил наскоро набросать проверку концепции.

Примечание: уже после того, как написал эту статью, я наткнулся на исследование DiffusionBERT, где сделано практически то же самое, что и у меня, но проект гораздо тщательнее протестирован. Посмотрите этот пост, если тема вас заинтересовала.

Читать далее

Как автоматизировать тестирование батч-моделей? Гайд

Уровень сложностиСредний
Время на прочтение8 мин
Количество просмотров527

Всем привет, меня зовут Дмитрий, я — MLE в Альфа-Банке, занимаюсь автоматизацией процессов и оптимизацией моделей, ищу в моделях проблемы и решаю их. 

В прошлом году ко мне пришли ребята из отдела тестирования и задали два вопроса: «Как тестирование батч-моделей можно автоматизировать?» и «Что для этого нужно?». Коллеги поделились наболевшей историей, что в большинстве моделей выполняемые проверки повторяются. Выслушав весь запрос, я спроектировал и реализовал систему автоматического тестирования, о чём и расскажу в этой статье. Также здесь будут технические детали реализации, архитектурные решения и полученные результаты.

Статья будет полезна не только специалистам по автоматизации процессов тестирования, а и ML-инженерам, MLOps-специалистам и командам разработки, занимающимся поддержкой продакшн-систем машинного обучения.

Читать далее

Агентная операционная система — новая парадигма взаимодействия человека и машины

Время на прочтение4 мин
Количество просмотров1.7K

Раньше голосовой ассистент в телефоне был просто еще одной кнопкой — попросил включить будильник, получил результат и разговор закончен. Но мобильные интерфейсы усложнились: привычные сценарии часто ломаются, если что-то изменилось на экране. На практике выясняется, что ИИ-агенты, даже самые продвинутые, часто путаются в простых вещах — теряют суть задачи, не могут учесть предпочтения человека и забывают свои же действия спустя пару шагов.

Исследователи показали, что дело не столько в размере моделей, сколько в том, как они учатся рассуждать и адаптироваться к реальному взаимодействию. Вместо агента, который просто кликает за пользователя, появился агент, который держит контекст, реально пытается понять, что именно нужно, и даже сам уточняет детали по ходу сценария.

В этом обзоре посмотрим, как шаг за шагом учат такие модели быть ближе к человеку — помнить, ошибаться и учиться на своих ошибках, идти навстречу даже в нестандартных ситуациях. Это меняет представление о будущем ИИ-систем и показывает, на что они будут способны буквально завтра.

Читать далее

Как я экономлю на инференсе LLM-модели в облаке и не теряю в качестве

Время на прочтение7 мин
Количество просмотров3K

Если вы читаете этот текст, скорее всего, вы уже пробовали запустить LLM самостоятельно. И, вполне вероятно, столкнулись с одной из типичных проблем:

«Заказал GPU, загрузил модель, а она не влезла, хотя по расчетам памяти должно было хватить».

«Платим за A100, а реально используем лишь 30% ее мощности».

Привет, я Павел, ML-инженер в Cloud.ru. И я прошел через эти проблемы сам, поэтому не понаслышке знаю, как это может раздражать.

Сегодня на примере настройки фреймворка VLLM покажу, как запускать крупные языковые модели без переплат за GPU. Мы разберемся, как VLLM распределяет vRAM, какие его параметры действительно влияют на потребление памяти и производительность, и как с их помощью гибко управлять балансом между затратами, скоростью и качеством модели.

Читать далее

Джун глазами синьора: 5 ошибок в резюме, которые снижают ваши шансы попасть в ML

Уровень сложностиПростой
Время на прочтение6 мин
Количество просмотров11K

Привет! Я Максим Катрушенко, главный специалист по анализу данных и машинному обучению в ПГК Диджитал. И я тот самый человек, который просматривал десятки резюме каждый день во время поиска  стажёра или джуна на позицию в нашу компанию. Из 56 кандидатов до оффера дошло два человека. И знаете, что? Большинство отсеялось именно на этапе первичного просмотра резюме — не потому что кандидаты слабые, а потому что не могут правильно себя презентовать.

Важный момент: на позицию джуна мы не искали готового специалиста — иначе искали бы мидла. Нам был нужен человек, который:

- может показать, что он делал своими руками, а не просто "изучал теорию";

- понимает, почему выбрал конкретный подход к решению задачи;

- осознаёт, что ML — это на 80% работа с данными и только на 20% — модели.

Сила резюме начинающего специалиста — в умении показать свой потенциал через конкретные действия, даже если опыта пока немного. Прошли курс? Покажите проект после него. Написали модель? Объясните ход мыслей.

Давайте разберём типичные ошибки на реальных примерах. Имена изменены, ситуации — настоящие.

Читать далее

Ближайшие события

Нейро-дайджест: ключевые события мира AI за 4-ю неделю октября 2025

Уровень сложностиПростой
Время на прочтение6 мин
Количество просмотров1.7K

Привет! Это новый выпуск «Нейро-дайджеста» — коротких и полезных обзоров ключевых событий в мире искусственного интеллекта и технологий.

Неделя выдалась интересной: Anthropic выкатили лёгкую Claude Haiku 4.5, Suno 4.5 открыли бесплатно, Microsoft включила голосового агента в Windows 11, а OpenAI показали ИИ-браузер ChatGPT Atlas, пока ИИ уже пишет половину текстов в сети.

Всё самое важное — в одном месте. Поехали!

Читать дайджест →

Что такое шопсы? И как мы размечаем shoppable-контент

Уровень сложностиСредний
Время на прочтение7 мин
Количество просмотров633

Недавно ВКонтакте запустила новый формат контента — шопсы. Это публикации с карточками товаров или ссылками, по которым можно быстро оформить покупку. Формат появился не с нуля: в соцсети уже давно органически росла доля публикаций, где в кадре так или иначе фигурировали какие‑то товары. Однако не каждая такая единица контента способна стимулировать к покупке. Как выявить нужный и сделать так, чтобы человек видел не просто красивую картинку с товаром, а интересный, кликабельный и вовлекающий контент, который действительно ведёт к покупке? Ответ — в правильной разметке.

В этой статье расскажем, как мы искали оптимальное определение shoppable, как работает наш классификатор, зачем мы подключили генеративные модели и каких результатов уже добились.

Материал подготовили Святослав Васильев, менеджер продукта ВКонтакте, и Кирилл Мамонов, руководитель предиктивной аналитики AI VK.

Читать далее

Плюсы и минусы платформы автоматизации рабочих процессов n8n

Время на прочтение17 мин
Количество просмотров9.3K

Бизнес всегда стремится к большей эффективности — делать больше, затрачивая меньше времени и ресурсов. Один из способов достичь этого — использование программ для автоматизации рабочих процессов, которые берут на себя повторяющиеся и трудоемкие задачи, от поддержки клиентов до формирования отчетов.

Среди множества доступных решений n8n привлекает внимание своей гибкостью, открытым исходным кодом и способностью справляться со сложными процессами. Но, как и любой мощный инструмент, он имеет сильные и слабые стороны. В этой статье мы подробно рассмотрим плюсы и минусы использования n8n, чтобы помочь вам решить, подходит ли он для ваших задач по автоматизации.

Читать далее

Как я распознавание лиц к Yandex Disk-у прикручивал

Уровень сложностиСредний
Время на прочтение25 мин
Количество просмотров871

«Крошка сын к отцу пришел и спросила крошка...»

Ну не сын на самом деле, а дочка, но пришла и спросила: «Паааап, у подруги тут ДР, вытащи мне из фотоархива все фото где мы с ней вместе». Да легко!

Читать далее

Книга: «Строим LLM с нуля»

Время на прочтение3 мин
Количество просмотров11K

Привет, Хаброжители! Говорят, что физик Ричард Фейнман однажды сказал: «Я не понимаю того, чего не могу создать». Основываясь на этом же важном принципе, автор бестселлеров Себастьян Рашка шаг за шагом ведет вас к созданию LLM в стиле GPT, которую вы сможете запустить на своем ноутбуке. Это увлекательная книга, которая охватывает каждый этап процесса — от планирования и кодирования до обучения и тонкой настройки.

Читать далее

Проблема «черного ящика»: как заставить ИИ объяснять свои решения

Время на прочтение20 мин
Количество просмотров1.3K

Начну с реального случая: в 2023 году американский юрист Стивен Шварц использовал ChatGPT для подготовки судебного иска. Система уверенно создала юридический документ с многочисленными ссылками на прецеденты. С одним нюансом — все цитируемые дела оказались полностью выдуманными. Более того, когда юрист попросил ChatGPT проверить достоверность источников, система с той же уверенностью «подтвердила» подлинность несуществующих судебных решений.

И это не единичный случай. Современные нейронные сети стали настолько сложными, что мы перестали понимать, как они принимают решения. Почему беспилотный автомобиль внезапно поворачивает не туда? По какой причине система медицинской диагностики пропустила опухоль на рентгеновском снимке? В таких критических случаях простого «доверия» к ИИ недостаточно — важно понимать, почему система принимает то или иное решение. Именно об этом и поговорим в статье.

Читать далее

Gemini за полчаса решила то, что не осилили топовые студенты-программисты на олимпиаде

Уровень сложностиПростой
Время на прочтение4 мин
Количество просмотров24K

Привет, Хабр! Меня зовут Кирилл Пшинник, я научный сотрудник Университета Иннополис и CEO онлайн-университета zerocoder.ru. Поговорим о прорыве, совершенном Google DeepMind, и о том, можно ли это вообще считать прорывом. 

В сентябре нейросети «обскакали» студентов на Международной студенческой олимпиаде по программированию в Баку. Они были во внеконкурсе, но если бы участвовали на общей основе, то GPT-5 заняла бы первое место, решив 12 заданий из 12, а Gemini 2.5 Deep Think — второе с 10 заданиями из 12. И самое интересное: всего за полчаса «гугловская» нейросеть справилась с задачей «C», которую не смогла решить ни одна из человеческих команд. 

Читать далее

Вклад авторов