Обновить
1151.38

Искусственный интеллект

AI, ANN и иные формы искусственного разума

Сначала показывать
Порог рейтинга
Уровень сложности

OpenCode vs Droid: тест на реальных проектах

Уровень сложностиПростой
Время на прочтение4 мин
Количество просмотров1.1K

OpenCode классно задуман, но сейчас страдает от нестабильности и плохой работой с моделями/контекстом. Droid от Factory заметно стабильнее в типичных задачах и аккуратнее работает с контекстом. Но и у него есть «детские болезни» на отдельных конфигурациях CPU/Windows.

Разбираю в деталях в чем суть. Делюсь личным опытом двух месячного использования.

Читать далее

Как я собрал AI-ассистента для отца с больным сердцем: Tool-Calling RAG Pipeline на GPT-4o-mini без LangChain

Уровень сложностиСредний
Время на прочтение5 мин
Количество просмотров3.1K

Мой отец — человек, переживший несколько сложнейших операций на сердце. Жизнь с хроническим заболеванием — это бесконечный поток анализов, заключений и схем приёма лекарств. Находясь далеко (я живу во Вьетнаме), я постоянно волновался: не забудет ли он про дозу, правильно ли понял назначение, задал ли все нужные вопросы врачу?

Мне нужен был не просто бот-напоминалка, а второй пилот — умный, конфиденциальный и мультимодальный AI-Кардиолог. Ассистент, который знает его анамнез наизусть, понимает голосовые команды и может «прочитать» фотографию свежего анализа.

Я решил собрать полноценный автономный агент с возможностью вызова внешних инструментов (Tool‑Calling) и локальной базой знаний (RAG), но без использования громоздких фреймворков вроде LangChain или LlamaIndex.

Читать далее

Due Diligence с LLM: Разбор Акций МТС

Уровень сложностиСредний
Время на прочтение7 мин
Количество просмотров534

Этот материал — практический кейс, навеянный статьей от сотрудников BlackRock и материалом, который освещал эту новость на Хабре.

Читать далее

ИИ правит миром, но не ЦОДом

Время на прочтение3 мин
Количество просмотров865

Привет, Хабр! Мы все читаем одни и те же новости: ИИ пишет код, управляет дронами и вот-вот отберёт у людей всю работу. Кажется, он везде. Но на самом деле есть одна интересная сфера, куда нейросетям пока вход закрыт. Ещё удивительнее то, что речь идёт именно о той деятельности, которая связана с рождением всех этих умных алгоритмов — дата-центры. И тут возникает парадокс: туда, где создают LLM, наотрез отказываются пускать их к рулю. Почему?

Читать далее

Как изменится программирование в мире, где роботы и люди начнут писать код совместно

Уровень сложностиСредний
Время на прочтение4 мин
Количество просмотров2K

Программирование — это область, где человек и машина могут работать не только как два независимых элемента, но и как единая система. В этой статье хотел бы рассказать о моих мыслях насчет того, как роботизированные системы и искусственный интеллект изменят процесс разработки, и какие новые перспективы откроются для программистов в будущем, когда люди и роботы начнут работать над кодом вместе.

Читать далее

Кто лучше объяснит, что такое машинное обучение: ChatGPT-4o или ChatGPT-5?

Уровень сложностиПростой
Время на прочтение7 мин
Количество просмотров3.9K

Все считают 5-ю версию лучше, выше, сильнее. Но есть ли разница для обычного пользователя, который не мониторит бенчмарки и микроапдейты моделей, а просто приходит поболтать с ИИ?

Мы поставили эксперимент: сравнили 4о и 5 с точки зрения обывателя, который хочет изучить ML и пришёл за пошаговым планом обучения.

Спойлер: в конце всё равно решили подключить живого специалиста.

Читать далее

Agentic AI: мечта CEO или новый источник корпоративных уязвимостей?

Уровень сложностиПростой
Время на прочтение6 мин
Количество просмотров474

Когда GPT впервые научился вызывать внешние API, стало понятно: нас ждет эра agentic AI. Вчера «Яндекс» представил «Алису» с AI-агентами, которые могут записать вас к врачу, заказать товар и оплатить услугу.

Удобно? Безусловно. Но что, если агент ошибется — отправит деньги не туда, запишет к не тому врачу или сольет данные партнерам? Кто несет ответственность — разработчики, компания или сама «Алиса»?

Тот же вопрос встает и перед бизнесом. В корпоративной среде agentic AI действуют уже от лица компании. Они сами ставят задачи, создают тикеты, вносят изменения в CRM и принимают решения. Это шаг к самоуправляемой организации — и новая зона риска, где ошибка модели может стоить миллионы.

Меня зовут Сергей Спиренков, я евангелист в KODE и CEO собственных проектов. В статье расскажу, где агентные системы уже приносят пользу, а где превращаются из помощников в источник уязвимостей.

Читать далее

Выбираем векторную БД для AI-агентов и RAG: большой обзор баз данных и поиск смысла

Время на прочтение18 мин
Количество просмотров11K

В этой статье я сделал обзор основных векторных баз данных: Milvus, Qdrant, Weaviate, ChromaDB, pgvector, Redis, pgvectorscale, LanceDB, ClickHouse, Vespa, Marqo, ElasticSearch.

Если вы запутались в разнообразии векторных баз данных или хочется верхнеуровнево понимать как они устроены, чем отличаются и для чего вообще нужны, то эта статья будет очень полезна. Мы пошагово соберем все ожидания от векторных БД, посмотрим бенчмарки, а затем попробуем собрать все воедино.

Читать далее

Извечный вопрос: происхождение жизни на Земле

Время на прочтение25 мин
Количество просмотров13K

Мир вокруг нас сложен и удивителен. Все, от величественных гор до мельчайших частиц, подчиняется нерушимым законам природы, в оркестре которой важен каждый участник, но лишь математика, физика и химия могут претендовать на роль первой скрипки. Полагаясь на основы этих наук, можно объяснить практически все объекты, явления и эффекты, наблюдаемые где-либо. Но важным словом в этом вполне утвердительном выражении является «практически». Одной из самых сложных и важных загадок остается происхождение жизни на нашей планете. Самая распространенная теория заключается в спонтанном возникновении. Самой же нестандартной — инопланетяне, но е лучше оставить для Малдера и Скалли. Гипотеза, которая до сих пор претендует на звание верной, гласит, что жизнь в своем первородном виде попала на Землю извне в виде микроорганизмов, а затем начался процесс ее развитии и эволюции уже на планете. Ученые из Имперского колледжа Лондона (Великобритания) разработали математическую модель, которая заставляет усомниться в теории спонтанного возникновения жизни и поверить в панспермию. Как работает данная модель, и каковы ее результаты? Ответы на эти вопросы мы найдем в докладе ученых.

Читать далее

Мир после трансформеров: закат и новый рассвет больших языковых моделей

Уровень сложностиСредний
Время на прочтение9 мин
Количество просмотров4K

Даже если вы избегали ChatGPT и его многочисленных аналогов, то наверняка сталкивались с обработкой текстов ИИ хотя бы в поисковой выдаче. Большие языковые модели (LLM) сейчас применяют повсюду. Проблема в том, что все они построены на одной и той же архитектуре трансформеров, поэтому страдают от общих недостатков. В этой статье эксперты из лаборатории искусственного интеллекта компании «Криптонит» расскажут о существующих ограничениях LLM, наметившихся путях их преодоления и о том, какими будут следующие большие языковые модели.

Эпоха трансформеров началась стремительно, и Marvel здесь ни при чём. Исследование OpenAI «Scaling Laws for Neural Language Models» показало, что эта архитектура с механизмом самовнимания легко масштабируется. Производительность LLM предсказуемо растёт с увеличением размера модели, объёма датасетов и доступных вычислительных ресурсов, а это — залог коммерческого успеха. Поэтому в 2020-2021 начался бум развития LLM. Каждая крупная ИТ-компания хотела представить свою модель с миллиардами параметров (и получить миллиарды долларов от инвесторов).

Однако в последующей работе «Training Compute-Optimal Large Language Models» от DeepMind появилось важное уточнение: существующие модели слабо оптимизированы по отношению данных к параметрам. Поэтому при дальнейшей разработке моделей стали фокусироваться в том числе и на качестве данных, а не только на размере. 

Поначалу простое масштабирование и увеличение доли качественных датасетов в обучающих наборах действительно приводили к экспоненциальному росту возможностей LLM. Наверняка вы помните, как с каждым релизом ChatGPT умнел (а мы глупели).  

Читать далее

Тренды DevOps 2025: Новые версии K8s и OpenSearch. Гид по главным изменениям

Уровень сложностиПростой
Время на прочтение2 мин
Количество просмотров3.1K

Привет, коллеги! Год продолжает радовать нас мощными апдейтами!) Делимся подборкой самого интересного, что случилось в мире DevOps-инструментов недавно.

Динамическое обновление ресурсов Pod и Kubernetes

Одна из самых крутых фич, которая стала стабильной в Kubernetes 1.33, - это возможность изменять запросы и лимиты CPU/памяти у работающих подов без их перезапуска.

Читать далее

ChatGPT: как пользоваться нейросетью в России

Уровень сложностиПростой
Время на прочтение16 мин
Количество просмотров8.4K

OpenAI официально ограничила доступ для российских пользователей, но это не значит, что дорога к передовым технологиям искусственного интеллекта для нас закрыта. Напротив, сегодня получить доступ к ChatGPT 5 стало даже проще, чем когда-либо — без необходимости искать стабильный VPN или заводить зарубежные карты.

На смену сложным схемам пришли удобные агрегаторы нейросетей, которые решают все технические вопросы разом. В этой статье мы разберемся, как легально и без лишних хлопот подключиться к ChatGPT 5, а также раскроем весь спектр его возможностей на практических примерах.

Читать далее

Когда ваш ИИ-браузер становится вашим врагом: катастрофа безопасности Comet. Мнение колумниста Venture Beat

Уровень сложностиПростой
Время на прочтение4 мин
Количество просмотров3.3K

Помните времена, когда браузеры были простыми? Нажимаешь на ссылку — страница загружается, может, заполняешь форму, и всё. Теперь ситуация изменилась: ИИ-браузеры вроде Comet от Perplexity обещают сделать всё за вас — кликать, печатать, думать и даже выбирать.

Но вот неожиданный поворот: этот «умный» ассистент, который помогает вам в интернете, может выполнять приказы самих сайтов, от которых должен вас защищать. Недавний провал безопасности Comet — не просто позорный случай, а учебник по тому, как не нужно строить ИИ-продукты.

Читать далее

Ближайшие события

Длинное мышление против жёстких пайплайнов: как DeepAgent превращает рассуждение в действие

Время на прочтение4 мин
Количество просмотров1.5K

Почему ИИ-агенты в реальных задачах за пределами академических экспериментов до сих пор часто наступают на хорошо знакомые грабли: путаются в деталях, не удерживают цель при длинных рассуждениях и теряют контекст использования инструментов? 

Неожиданная идея решения проблемы пришла в недавнем исследовании DeepAgent. Кажется, что дело вовсе не в размере модели и не в промтах для ее использования. Ключом к прогрессу явилась связная логика рассуждений на протяжении всей задачи. Агент не просто каждый раз делает привычный сценарий с паузой: «обдумал-предпринял действие» - а ведет мысль по длинному связнму сценарию, сам выбирает какой памятью ему пользоваться и когда применять нужные инструменты. 

В этом обзоре: что меняется в поведении агента, когда у него появляется возможность связанно использовать различные инструменты на протяжении всей задачи, какие методы используются и как это приближает нас к по-настоящему автономному ИИ.

Читать далее

Градиентный спуск: как «слепой в лабиринте» находит выход в миллиардном пространстве — и почему это сердце любого ML

Время на прочтение3 мин
Количество просмотров1.3K

Пошаговый разбор с метафорами, формулами и лайфхаками, которые спасут ваш fit()

Привет, хабровчане! В мире ML градиентный спуск это двигатель внутреннего сгорания: он везде, он работает, но мало кто заглядывает под капот, а ведь именно он превращает случайные веса в модель, которая угадывает котиков, переводит тексты и генерирует картинки.

Вы запускаете model.fit() - и через 100 эпох у вас есть результат, но как именно нейросеть «находит выход» из хаоса параметров? Почему иногда она перепрыгивает минимум, а иногда зависает в тупике? И как настроить learning_rate, чтобы не ждать до пенсии?

Полный разбор с нуля, с формулами и примерами. Давайте разберём по полочкам, чтобы было понятно даже новичку.

Читать далее

Итоги презентации «Алиса, что нового?»: Алиса AI, агенты и носимые устройства с нейросетями

Уровень сложностиПростой
Время на прочтение4 мин
Количество просмотров8.3K

Мы побывали на презентации «Алиса, что нового?», на которой Яндекс представил новые нейросетевые функции. Показали универсальную нейросеть Алиса AI, которая доступна не только в чате, но и в браузере, и скоро появится в носимых устройствах. В этой статье рассказываем обо всех анонсах.

Читать далее

Ловим «взрослые» сцены на видео: как ИИ помогает редакторам

Уровень сложностиСредний
Время на прочтение15 мин
Количество просмотров2.9K

Поводом для написания этой заметки стало обсуждение на недавнем отраслевом мероприятии задач мультимодерации контента: как быстро и надёжно находить «взрослые» сцены в длинных видео и автоматически подсвечивать фрагменты для ручной проверки. Похожие кейсы регулярно встречаются и в открытых соревнованиях по ИИ (например, в подборке задач Wink AI Challenge на Codenrock).

Читать далее

Как влияет ИИ на производительность опытных разработчиков: исследование

Уровень сложностиСредний
Время на прочтение9 мин
Количество просмотров2.2K

ИИ давно обещает ускорить работу разработчиков — но что, если в реальных условиях он делает обратное? Команда исследователей провела рандомизированное контролируемое испытание с опытными контрибьюторами крупных open source проектов, чтобы понять, как современные инструменты вроде Cursor и Claude влияют на скорость и качество разработки. Результат оказался неожиданным: при работе с ИИ программисты тратили больше времени, хотя были уверены, что работают быстрее. Разбираемся, почему эффект ускорения может быть иллюзией, и какие факторы превращают помощника в тормоз.

Результаты исследования

Как нейросети учатся выявлять болезни по голосу

Уровень сложностиПростой
Время на прочтение8 мин
Количество просмотров429

В вопросе здоровья мы привыкли доверять классике — подсчету кровяных клеток и просвечиванию нашего тела разного рода лучами. А вот анализ голоса до сих пор не брался в расчет, хотя обычное «голосовое» могло бы рассказать о состоянии тела (и духа) не меньше. Мозг инициирует речь, челюсть, губы и язык формируют звуки, легкие и гортань производят конечный результат — и вот уже с наших уст срываются смех или слова негодования, в зависимости от ситуации. Но не только — вместе с ними — целая масса биомеханических маркеров.

Это не слишком популярное знание, но если мы поговорим с опытным врачом, он, скорее всего, скажет, что не сможет отличить по голосу легочную болезнь от, скажем, болезни Паркинсона. А если мы спросим психиатра, тот ответит, что, увы, отлично знает, как звучит депрессия. Смена мышечного тонуса, отеки, возраст, скачки гормонов — все это меняет физику тканей, а значит, и их механику. А раз у нас есть конкретные физические маркеры — следовательно, есть и входящая информация, которую можно отдать на растерзание распознание паттернов ИИ. В статье рассказываем, как это происходит: какие болезни легче всего выявлять с ИИ и как может выглядеть будущее этой технологии.

Поехали

Как мы дистиллировали Qwen для автоматического протоколирования совещаний

Уровень сложностиСредний
Время на прочтение4 мин
Количество просмотров4.6K

Протоколирование совещаний — важная часть корпоративной коммуникации: протоколы позволяют быстро восстановить ключевые моменты, не переслушивая часовые записи. Нас зовут Андрей Ситников и Максим Шкут, мы работаем DS в команде департамента анализа данных и моделирования ВТБ, занимаемся задачей автоматического протоколирования встреч. Мы реализуем ее с помощью LLM-модели Qwen. В этой статье расскажем, как мы оптимизировали inference, сохранив качество генерации протоколов.

Читать далее

Вклад авторов