Все потоки
Поиск
Написать публикацию
Обновить
1149.68

Искусственный интеллект

AI, ANN и иные формы искусственного разума

Сначала показывать
Порог рейтинга
Уровень сложности

Цифровизация производства: как российские IT-решения экономят миллиарды

Уровень сложностиПростой
Время на прочтение12 мин
Количество просмотров40K

Обычно об ИТ в промышленности думают так: отчёты в 1С, легаси и никакой свободы действий. А если и есть цифровизация, то внедряют её только для того, чтобы выполнить KPI. Но если по-настоящему погрузиться в задачи разработчиков в промышленности, то станет ясно: здесь работают над сложными интересными кейсами, которые влияют на работу заводов и упрощают работу инженерам. 

И вот в нашем ИТ-кластере — Цифровом СИБУРе — мы задумались, как показать, что продукты наших разработчиков влияют на огромный промышленный комплекс. Тогда мы решили вместе с Хабром рассказать, какие технологии и решения мы создаём и как это помогает двигать промышленность вперёд.

Читать далее

Как оживить научные статьи: превращаем исследования в интерактивных ИИ-ассистентов

Время на прочтение4 мин
Количество просмотров545

Обычная научная статья ― это десятки страниц текста, сложные графики и ссылка на репозиторий где-то в глубине интернетов. Часто кажется, что в этот мир допускаются только те, кто готов неделями разбираться с чужим кодом и настраивать окружение через танцы с бубном. А что если бы статья могла сама «оживать» и превращаться в настоящего ИИ-ассистента, с которым можно разговаривать на обычном языке и сразу запускать любые её методы?

В свежем исследовании авторы предлагают именно это: новый инструмент, который берет научную работу и делает из неё агента-напарника. Теперь из пассивного PDF получается активный собеседник — он объясняет, считает, строит графики и даже сам проверяет свои результаты. Звучит как будущее, которое только что стало чуть ближе.

Читать далее

Неудачные эксперименты с Vibe Coding на Python

Уровень сложностиПростой
Время на прочтение72 мин
Количество просмотров8K

Команда Python for Devs подготовила перевод статьи Элa Свейгарта о неудачных экспериментах с vibe coding. Все говорят, что ИИ уже умеет писать приложения, но стоит чуть отклониться от привычных сценариев — и всё идёт наперекосяк. Картофельная Африка вместо карты, пинбол, превращающийся в пинг-понг, и счёты с отрицательными числами — автор собрал коллекцию своих провалов с vibe coding.

Читать далее

Хватит дообучать ИИ — дайте ему контекст

Уровень сложностиПростой
Время на прочтение7 мин
Количество просмотров4.6K

Команда AI for Devs подготовила перевод статьи о том, почему Retrieval-Augmented Generation (RAG) чаще всего эффективнее дообучения моделей. Vector, Graph и Agentic RAG помогают ИИ работать точнее, быстрее адаптироваться и учитывать реальный контекст — будь то кодовая база, документация или API. Дообучение же остаётся дорогим и негибким инструментом.

Читать далее

Кошмар интеграции: почему Enterprise Connectivity стала самой большой головной болью CIO

Уровень сложностиПростой
Время на прочтение7 мин
Количество просмотров308

Каждый руководитель в сфере технологий знает это ощущение. Заходишь в зал для совещаний, где собраны недовольные руководители отделов, и у всех — истории о системах, которые не взаимодействуют друг с другом, о данных, застрявших в изолированных хранилищах, и о процессах, требующих ручного вмешательства на каждом этапе. Обещания цифровой трансформации кажутся всё более недостижимыми, когда организация функционирует скорее как набор изолированных островков, чем как связанное целое.

Эта проблема уже не просто вопрос технологий. Это ключевая бизнес-задача, которая обходится организациям в миллионы потерянной производительности, упущенных возможностей и конкурентных потерь. Исследования McKinsey показывают, что 90 процентов компаний сейчас реализуют проекты цифровой трансформации, но большинство сталкиваются с фундаментальной проблемой — обеспечить эффективное взаимодействие своих систем.

Жестокая ирония заключается в том, что отдельные приложения стали мощнее и сложнее, а само предприятие в целом стало более фрагментированным. Каждая новая система обещает решение конкретной задачи, но в итоге все они вместе создают сеть сложности, которая может задушить операционную эффективность.

Однако выход есть. Платформы оркестрации перестают быть просто удобными инструментами для управления процессами и становятся основным приложением, от которого зависит, будет ли предприятие процветать или выживать.

Читать далее

Мультиагентные системы: как «команда ИИ» берёт сложность штурмом

Уровень сложностиПростой
Время на прочтение22 мин
Количество просмотров2.3K

Когда один ИИ — мало. Нужна команда

Ночные падения, баги «только на проде», фичи, которые нужно вчера — знакомо?
В такие моменты один, даже очень умный, ИИ похож на гения-одиночку на стройке небоскрёба. Он силён, но не масштабируется. Решение — команда ИИ-агентов: аналитик, фиксер, контролёр, координатор. Каждый делает своё, вместе — закрывают задачу.

В этой статье мы покажем, как собрать такую «бригаду» поверх LLM так, чтобы она реально работала с кодом: читала файлы, вносила патчи, гоняла тесты и сама себя проверяла. Без магии — с понятным интерфейсом действий (ACI), с архитектурой, которая объясняет метрики, и с живыми примерами из репозитория.

Что получите за чтение:

простую логику, почему «команда» надёжнее «соло-ИИ» и как это связано с ReAct, self-consistency, процессной проверкой и Mixture-of-Agents;

инженерный взгляд на масштабирование качества не только «размером модели», но и временем вывода (больше попыток → лучше отбор);

практику: минимальные команды запуска, «скриншоты» прогонов и аккуратный ACI, который превращает LLM из советчика в исполнителя;

архитектурный эскиз асинхронного оркестратора поверх реального LLM API — без тяжёлого кода, но с ясной идеей, как это встроить к вам.

Если вы тимлид, архитектор или ресёрчер, это статья-мост: от теории, которая действительно помогает, к работающим сценариям. Откроем крышку, включим свет — и соберём команду ИИ, которая берёт сложность штурмом.

Читать далее

Как я написал торговый алгоритм с помощью GPT

Время на прочтение7 мин
Количество просмотров13K

Хочу поделиться историей одного R&D-эксперимента. Не так давно у меня появилась идея: а реально ли сегодня, не будучи Python-разработчиком, с нуля создать что-то относительно сложное, например, торговый алгоритм? И не просто создать, а сделать так, чтобы основной объем кода писали нейросети, как наверное вы уже успели догнаться. В качестве "программистов" я выбрал — ChatGPT и Gemini, я пытался как то разобраться с Cursor и deepseek, но сразу же попрощался, один слишком сложен для начального старта без знания программирования, второй как в дальнейшем выяснилось сильно отстает от своих конкурентов.

Читать далее

ADSM: ролевые игры

Уровень сложностиПростой
Время на прочтение3 мин
Количество просмотров1.8K

Четыре дня назад я запостил на Хабре опрос: как лучше назвать пакет документов, описывающих мой опыт разработки программного продукта при помощи LLM‑агентов/ботов — ADSM или BDSM. С небольшим перевесом в один голос (6 к 5) победил вариант ADSM — Agent Driven Software Management. Ну, пусть будет ADSM.

Так вот, при формализации своих отношений с агентами в первую очередь передо мной встал вопрос, а кто в этих отношениях какую роль играет? Пока что я склоняюсь, что наиболее точным описанием являются отношения «Заказчик — Исполнитель».

Объяснения под катом

Галлюцинации языковых моделей: от математики обмана к честным ИИ

Уровень сложностиПростой
Время на прочтение14 мин
Количество просмотров4K

Почему ChatGPT врет вам в лицо (и как OpenAI наконец объяснила, откуда берутся галлюцинации ИИ)

Статья по горячим следам сенсационного исследования OpenAI от 4 сентября 2025

Ваша модель только что выдала вам три разных неверных даты рождения одного человека. В десятом туре подсчета букв в слове "DEEPSEEK" она называет цифры от 2 до 7, хотя правильный ответ - 1. Знакомо?

Раньше мы думали: «Ну, технологии, что поделать, дообучат - и все наладится». Оказалось - нет. Галлюцинации - это не баг, а математическая неизбежность, заложенная в сам процесс обучения.

4 сентября OpenAI опубликовала революционное исследование "Why Language Models Hallucinate", которое переворачивает представление о главной головной боли современного ИИ. Впервые математически доказано: модели врут не из-за плохих данных или недоработок архитектуры. Они врут, потому что мы сами их этому учим.

В своей статье я разбираю это исследование без воды и объясняю простыми словами:

✅ Почему формула «ошибки генерации ≥ 2 × ошибки классификации» объясняет все галлюцинации
✅ Что такое singleton rate и почему 20% редких фактов = минимум 20% вранья
✅ Как система оценки превратила ИИ в вечных студентов на экзамене, где лучше соврать, чем признаться в незнании
✅ 4 конкретных способа от OpenAI, как сделать модели честными уже сегодня

Самое шокирующее: проблема решается не улучшением технологий, а изменением того, как мы спрашиваем и оцениваем ответы.

Компании, которые первыми внедрят принципы честности в свои ИИ-системы, получат главное конкурентное преимущество эпохи ИИ - доверие пользователей.

Готовы перестать быть жертвой красивой лжи и начать строить по-настоящему надежные ИИ-системы?

Читать далее

Продающий бот. Часть 3. Сколько это стоит

Время на прочтение1 мин
Количество просмотров868

Предыдущие части рассказа о продающем боте:

Продающий бот. Часть 1. Можно ли уболтать бота продать подешевле

Продающий бот. Часть 2. Съезд КПСС

А теперь добрались до самого интересного

Читать далее

Играемся с видеокартой Tesla H100 (GH100)

Уровень сложностиСредний
Время на прочтение9 мин
Количество просмотров10K

Продолжаем статьи про практические тесты актуальных картонок от Nvidia (RTX 5090, A5000 AdaA1003090 и A10). В этот раз мне уже предложили покрутить на несколько часиков H100 с 80 GB VRAM.

Тренировать опять ничего не будем, снимем попугаев через gpu-burn , попробуем MIG (multi-instance GPU) и также замерим инференс одной нашей прожорливой сетки.

С A100 и MIG мне как-то тоже пришлось поиграться, но я не думал, что в России в принципе когда-либо появятся H100. Поэтому в этот раз главная шутка будет про санкции и про сумочку, сделанную из H100.

Также пару слов расскажем про "фишку" MIG, доступную для самых толстых карт в линейках NVIDIA (из "доступных" в основном A100 и H100, но есть и экзотика).

В конце даже получилась небольшая детективная история.

Поехали

4 фреймворка апокалипсиса: LangChain, LlamaIndex, CrewAI и Semantic Kernel в действии

Время на прочтение18 мин
Количество просмотров7.1K

Мало просто иметь доступ к мощным нейросетям и уметь ими пользоваться — важно правильно подключить их к своим сервисам, комбинировать с внутренними данными и выстраивать удобные сценарии работы. В нашей команде мы постоянно экспериментируем с новыми AI-технологиям, поэтому сегодня расскажу вам, как же просто можно внедрить нейронку в свой проект (например, на сайт).

Для этого воспользуемся сервисом Evolution Foundation Models и рассмотрим фреймворки LangChain, LlamaIndex, CrewAI и Semantic Kernel. Сервис предоставляет доступ к open source моделям по open AI Compatible API. Касаемо фреймворков — каждый из них по-своему упрощает разработку, но имеет уникальные паттерны подключения. В статье я покажу готовые примеры и поясню ключевые части кода. А все ссылки на мои полные решения даю в конце статьи.

Читать далее

Почему революция в CRM-системах никак не происходит?

Время на прочтение6 мин
Количество просмотров3.4K

Я в сфере разработки CRM-систем больше 20 лет, и все эти годы было интересно не только разрабатывать, но и наблюдать за этой специфической нишей в контексте бурного, местами скачкообразного развития технологий в целом. Если говорить образно, сфера CRM - остров стабильного, поступательного развития и безветрия на фоне ревущей стихии вокруг. При этом никто для этого ничего специально не делал: просто так сложились факторы. 

Так ждать ли революции CRM сегодня, когда, кажется, мир технологий абсолютно бескомпромиссно меняет искусственный интеллект?

Читать далее

Ближайшие события

Что скрыто за характером LLM: читаем поведенческие отпечатки

Время на прочтение4 мин
Количество просмотров952

Задумывались ли вы когда-нибудь, почему две языковые модели с одинаковыми оценками на тестах ведут себя совершенно по-разному в реальном общении? Оценки вроде бы одни и те же, а ощущения от общения — совсем нет: одна охотно подыгрывает, другая спорит до последнего, третья резко меняет мнение из-за незначительной формулировки. Кажется, за сухими числами мы теряем самое интересное — характер и повадки моделей.

Исследователи решили перестать мерить всё под одну гребёнку и попробовали разобраться, какими чертами личности и поведения на самом деле отличаются современные LLM. В ход пошли не только бенчмарки, но и целый профиль моделей — от умения мыслить абстрактно до устойчивости к лести. 

Что оказалось на поверхности, какие неожиданные черты всплывают и почему выбор ИИ — это теперь не только про точность, но и про стиль взаимодействия? Подглядываем в поведенческие отпечатки моделей, чтобы понять: что за личность сидит внутри LLM.

Читать далее

ИИ не идёт в Голливуд — он уже пришёл

Уровень сложностиПростой
Время на прочтение13 мин
Количество просмотров1.6K

Леди Гага, вероятно, и не думала, что переворот, связанный с ИИ, случится в её оранжерее. Но с другой стороны, она же именно там устраивала вечеринку совместно с Шоном Паркером, миллиардером, основателем Napster и первым президентом Facebook.

Это было в феврале 2024 года, и певица пригласила гостей в своё поместье стоимостью 22,5 миллиона долларов на берегу океана в Малибу, чтобы отметить запуск некоммерческой организации, выпускающей средства по уходу за кожей. Одним из попечителей организации был её бойфренд, основной работой которого было руководство фондом Parker Foundation. В освещённом свечами помещении, рядом с окнами от пола до потолка, выходящими на Тихий океан, люди Паркера смешались с гостями Гаги, закусывая фокаччей и жареным морским окунем под музыку струнного квартета (конечно же, лауреата Grammy).

Прём Аккараджу, один из близких друзей и деловых партнёров Паркера, прибыл в сшитом на заказ костюме, с идеально уложенными густыми волосами. Эти два человека знали друг друга с тех пор, как Паркер работал в Facebook, а Аккараджу — в музыкальной индустрии. На протяжении многих лет они безуспешно пытались запустить совместную платформу для потокового просмотра фильмов, а ещё приобрели известную компанию по созданию визуальных эффектов, что оказалось гораздо более успешным проектом. В последнее время они обсуждали возможность создания стартапа в сфере искусственного интеллекта.

Читать далее

Зачем CEO рискует всем ради хакатона с AI? История MergeSensei

Время на прочтение6 мин
Количество просмотров765

Глубокой ночью CEO инициирует хакатон — за 48 часов команда собирает MVP AI-ревьювера кода. Безумие? Возможно. Но теперь мы ищем CTO и тимлидов, чтобы протестировать MergeSensei и сделать его настоящим помощником в code review. Подключайтесь — и помогите нам улучшить инструмент, который реально снимает боль ревью.

Читать далее

Кто спасёт фронтенд, когда кнопки перекрашивает ИИ?

Время на прочтение12 мин
Количество просмотров3.1K

У нас был чёткий путь спокойного роста в профессии: учим React или Angular, растём до сеньора — и дальше стабильная карьера. Но ИИ стремительно вмешался и сломал привычный сценарий. У фронтендеров проявились все стадии принятия неизбежного. Сначала паника, обида и агрессия. Потом разочарование и апатия. И наконец осознание и принятие, которые задают новый вектор технологии: встречать перемены с интересом, искать новые возможности и учиться использовать нейросети себе во благо.

Привет, Хабр! Меня зовут Владилен Минин. Свой путь в IT я начал 13 лет назад как фронтенд-разработчик. Последние 8 лет преподаю JavaScript и рассказываю про всё, что связано с фронтендом. Параллельно развиваюсь как контент-мейкер: 6,5 лет веду YouTube-канал (310 тысяч подписчиков) и Telegram-канал (40 тысяч подписчиков). В 2020 году я запустил собственную школу фронтенд-разработки, где совмещаю преподавание и предпринимательство. В последнее время активно работаю на стыке фронтенда и искусственного интеллекта.

Читать далее

Почему языковые модели «галлюцинируют»

Уровень сложностиПростой
Время на прочтение6 мин
Количество просмотров3.2K

Команда AI for Devs подготовила перевод статьи OpenAI о природе галлюцинаций языковых моделей. Почему модели уверенно «выдумывают» факты, как это связано с предсказанием следующего слова и почему традиционные метрики только усиливают проблему?

Читать далее

ИИ в работе программиста

Уровень сложностиПростой
Время на прочтение5 мин
Количество просмотров3.4K

Меня зовут Артём, в данный момент я работаю на должности ведущего программиста. Перед вами текст в стиле черновика статьи о размышлениях автора на тему современных ИИ инструментов в разработке программного обеспечения — о том, как это связано с эффектом «Зловещей долины», помощью с развитием профессиональных навыков и инцестом.

Читать далее

Почему ИИ скрывает от нас свои цели (и как это исправить)

Уровень сложностиСредний
Время на прочтение21 мин
Количество просмотров2.9K

Вы доверяете искусственному интеллекту? А стоит ли? Если задуматься, можем ли мы действительно быть уверены, что ИИ, которому мы поручаем составлять резюме, генерировать код или анализировать данные, делает именно то, что мы хотим, а не оптимизирует какие-то свои скрытые цели? 

Современные языковые модели всё чаще демонстрируют признаки того, что у них есть собственная «повестка» — внутренние цели, расходящиеся с намерениями создателей и пользователей. Недавние исследования показывают: чем умнее становятся нейросети, тем изобретательнее они в обходе ограничений. Они узнают, когда их тестируют, маскируют вредоносное поведение и даже осваивают новые способы обмана, не заложенные разработчиками. Самое тревожное — большинство таких случаев остаются незамеченными при стандартных проверках.

Эта статья — технический разбор охоты за скрытыми целями в крупных языковых моделях. Поговорим о том, что такое misalignment, почему эта проблема набирает обороты, и как исследователи пытаются вернуть контроль над целями, которые преследует искусственный интеллект.

Читать далее

Вклад авторов