Все потоки
Поиск
Написать публикацию
Обновить
775.37

Машинное обучение *

Основа искусственного интеллекта

Сначала показывать
Порог рейтинга
Уровень сложности

Не em dash'ем единым: как распознать ИИ-текст по гайду Википедии

Уровень сложностиПростой
Время на прочтение3 мин
Количество просмотров846

Честно говоря, охота на следы ИИ не самая увлекательная задача. Но инструмент полезный: помогает авторам убрать штампы из черновика, а редакторам сэкономить время. Ниже короткий пересказ актуального гайда сообщества Википедии Signs of AI writing и практичный чек-лист для самопроверки.

Читать далее

Бенчмарк качества распознавания речи (ASR) в телефонии: как мы сравниваемся с Whisper, GigaAM и T-One

Уровень сложностиСредний
Время на прочтение9 мин
Количество просмотров2.8K

Привет! Распознаванием речи (ASR) уже никого не удивишь, но качественное распознавание на разговорном русском языке, а особенно в телефонии — очень сложная штука: люди редко говорят как профессиональные дикторы, часто бывает плохое качество звука с постоянными шумами на фоне и в целом есть миллиарды прочих нюансов. Наша компания занимается голосом больше 8 лет, есть собственные классные модели синтеза, распознавания и продукты на их основе, поэтому экспериментов мы проводим очень много и за появлением новых голосовых моделей следим очень внимательно. 

В свободном доступе уже есть самый узнаваемый Whisper, есть интересные модели GigaAM от Сбера, не так давно Т-Банк выложил в открытый доступ свою модель T-One — давайте заглянем под капот нашего внутреннего бенчмарка и посмотрим насколько кто хорош.

Поехали!

Читать далее

AI-ассистенты для кодинга: сравнение инструментов

Уровень сложностиПростой
Время на прочтение4 мин
Количество просмотров15K

AI-редакторы и агенты становятся частью повседневной разработки. Но у каждого свои сильные и слабые стороны: где-то упор на автономность, где-то на глубокое понимание кода, а где-то на гибкость за счёт open source. Ниже — обзор самых заметных решений.

Я протестировал каждый из них и выявил плюсы и минусы каждого из решений.

Читать далее

Свет считает быстрее: как работают фотонные вычисления и из какого «железа» они собраны

Время на прочтение9 мин
Количество просмотров2.2K

Сколько времени занимает сложение двух лучей света? Почти никакого: интерференция рождает результат сразу, пока лучи проходят через чип. В этой статье — без мистики и рекламных лозунгов — разберём, как свет выполняет линейную алгебру, из каких модулей собирают фотонные процессоры и где они уже уместны в реальных задачах. К концу чтения у вас будет ясная картинка тракта «источник → модулятор → оптическая решётка → детекторы» и чек-лист для первого PoC.

Погружаемся в фотонику

Semantic Retrieval-Augmented Contrastive Learning (SRA-CL) для sequential рекомендательных систем: обзор

Уровень сложностиСредний
Время на прочтение4 мин
Количество просмотров569

👋 Привет, Хабр!

Меня зовут Никита Горячев, я Research Engineer в WB, последние несколько лет работаю на стыке RecSys, LLM и мультимодальных моделей. Каждый день мы обрабатываем миллиарды событий, а модели, которые мы внедряем, напрямую влияют на CTR, удержание и конверсию, принося немало дополнительной выручки.

До этого я успел поработать в AI-стартапе в Palo Alto, где занимался голосовыми агентами (ASR/TTS), и в МТС, где мы строили AI-экосистему. Ранее в Сбере я занимался созданием единого RecSys SDK для всей экосистемы (от SberMegaMarket до Okko и Zvuk), а ещё раньше — развивал персонализацию и ML в ритейле и нейротехе.

Сегодня я хотел бы поговорить о том, как большие языковые модели могут починить контрастивное обучение в рекомендательных системах. Контрастивные методы давно стали стандартом в NLP и CV, но в последовательных рекомендациях они работают далеко не идеально: данные разрежены, а аугментации часто искажают смысл вместо того, чтобы его сохранять. Авторы свежей статьи с arXiv — “Semantic Retrieval Augmented Contrastive Learning for Sequential Recommendation (SRA-CL)” — предлагают элегантное решение: использовать LLM для генерации семантически осмысленных позитивных пар. Звучит просто, но даёт заметный прирост качества — давайте разберёмся, как именно это работает.

Читать далее

Я перевёл вторую книгу с помощью нейросетей, методология и лайфхаки

Уровень сложностиСредний
Время на прочтение19 мин
Количество просмотров7.2K

Привет, Хабр!

Сегодня я хочу, как уже было сказано в заголовке, рассказать о том, как я перевёл вторую книгу с помощью нейросетей.

Так как для меня важны контекст и обстоятельства проведённой работы, я намерен поделиться не только опытом и методологией использования нейросетей при переводе книги, но и рассказать о самой книге и ряде связанных с ней тем.

Читать далее

Развенчиваем мифы об AI-агентах: от фантазий к реальности

Время на прочтение16 мин
Количество просмотров5.6K

По мере роста возможностей искусственного интеллекта наш понятийный аппарат с трудом успевает за технологическим прогрессом. До недавнего времени под AI-ассистентами понимали чат-ботов и голосовых помощников, реагирующих на прямые пользовательские команды вроде «позвони маме», «какой рост у Леди Гаги?» или «запусти Spotify».

Сегодня в обиход входят новые термины: AI-агенты и agentic AI. Это отражает сдвиг в сторону более автономных и интеллектуальных систем, способных принимать решения. Проблема в том, что единых представлений о сути этих понятий нет, они часто используются неточно или трактуются ошибочно.

Чтобы прояснить ситуацию и разграничить хайп и реальность, мы побеседовали с техническими специалистами из разных отраслей, которые в реальной работе имеют дело с agentic-системами. В этой статье мы разбираем, что такое agentic AI и AI-агенты, приводим практические примеры, а также исследуем их перспективы и текущие ограничения.

Читать далее

LLM на прокачку: практический гайд по Alignment

Уровень сложностиПростой
Время на прочтение6 мин
Количество просмотров2.9K

Мы в Точка Банке делаем свою LLM. Чтобы она работала хорошо, недостаточно просто обучить её на куче текстов. Для получения осмысленного и предсказуемого поведения модели, нужен Alignment — дообучение с учётом предпочтений и ограничений. В статье расскажу, какие методы применяют в современных моделях, и как мы адаптировали их под себя.

Читать далее

Эксперимент: может ли AI реально помочь с рефакторингом легаси-кода на Python

Время на прочтение11 мин
Количество просмотров4.4K

Показываем на практике, как с помощью ChatGPT можно за несколько минут преобразить реально существующие фрагменты легаси-кода на Python.

Читать далее

Насколько LLM усложняет работу программиста

Уровень сложностиПростой
Время на прочтение9 мин
Количество просмотров21K

На фоне общего хайпа вокруг ИИ холодным душем стали июльские результаты исследования METR о том, как LLM замедляют работу опытных разработчиков в опенсорсных проектах. Напомним, что использование LLM увеличило время выполнения задач на 19%, хотя сами разработчики ощущали противоположный эффект.

Учёные затруднились объяснить причины когнитивного искажения.

Факт в том, что многим разработчикам очень нравятся их инструменты для автодополнения и генерации кода, особенно Claude Code. Он настолько удобен, что от него буквально возникает зависимость. По опросам, чем больше люди используют такие инструменты — тем больше им нравится. Код «магически» генерируется сам собой, зачастую даже корректный.

Но это не обязательно улучшает или ускоряет разработку.

Более того, есть признаки, что в 2025 году наконец-то наступило некоторое охлаждение ожиданий в отношении к LLM.

Читать далее

Как заменить GitHub Copilot на полностью офлайн‑Continue Plugin

Уровень сложностиСредний
Время на прочтение4 мин
Количество просмотров10K

В этом посте я покажу, как использовать Continue Plugin вместо GitHub Copilot, подключив к нему собственную локальную модель LLM без доступа к интернету. Такой подход обеспечивает максимальную конфиденциальность: ни IDE, ни LM Studio не имеют возможности передавать ваши файлы в облако.

Никакой сети – всё работает только в вашем компьютере.

Читать далее

Гонка вооружений: топ-5 детекторов нейросетей

Уровень сложностиПростой
Время на прочтение5 мин
Количество просмотров4.6K

Сегодня мало просто получить текст без ошибок. Бизнесу важно быть уверенным, что за красивыми словами не стоит ИИ вместо эксперта. Рассказываем, какие детекторы действительно умеют вычислять нейросети — и почему абсолютной защиты пока не существует.

Читать далее

Скриншоты сайта в адаптивную Tailwind верстку

Время на прочтение2 мин
Количество просмотров3.4K

Я знаю, что существует 100 500 способов перекинуть картинку в готовую вёрстку.
Но когда у меня дошло до дела, результат оказался так себе.
То ли я криворукий, то ли все эти инструменты ещё далеки от совершенства.
В итоге понял, что мне проще накидать свой собственный велосипед — скрипт на Python (~200 строк).

Решил выложить, может, кому‑то пригодится.

Скрипту можно скормить три скриншота сайта:

1) Десктоп‑версия

2) Планшет

3) Мобильная версия

На выходе получим одну HTML‑адаптивную вёрстку (десктоп, планшет, мобила) с использованием Tailwind CSS.

Читать далее

Ближайшие события

ИИ-система принятия решений: как искусственный интеллект изменит управление организацией

Уровень сложностиСредний
Время на прочтение6 мин
Количество просмотров2.1K

Хочу начать с дисклеймера — я больше не работаю в Токеон, эту статью и все последующие воспринимайте в отрыве от компании.

А написать сегодня хочу о концепции внедрения ИИ в систему принятия решений руководителя организации. В качестве примеров в этой статье я использую продукты, которые себя хорошо зарекомендовали, с которыми есть практический опыт реализации такой системы. Второй дисклеймер — воспринимать их как единственно возможные, конечно, не стоит.

Проблема: информационный хаос и человеческий фактор

Руководители сегодня тонут в информации. Отчёты, метрики, дашборды, совещания, письма — всё это создаёт иллюзию контроля, но на самом деле мешает принимать эффективные решения.

Когда руководитель запрашивает информацию у сотрудников, возникает классическая проблема: человеческий фактор. Сотрудники приукрашивают данные, представляют их в выгодном свете, а иногда просто не понимают, что именно нужно руководителю. На качество информации напрямую влияет компетенция человека, который готовит информацию для руководителя.

Важно отметить и социальные эффекты. Неаккуратно заданный вопрос может привести к непоправимым последствиям — сотрудники начинают нервничать, додумывать, готовиться к худшему. В итоге руководитель получает не объективную картину, а искажённую версию реальности.

Решение: личный ИИ‑ассистент руководителя

Искусственный интеллект на текущий момент — одно из возможных решений для анализа данных и выявления ценной информации. Он не устаёт, не приукрашивает, не нервничает и не имеет личных интересов.

Читать далее

QTune — open-source решение для быстрого файн-тюнинга моделей

Уровень сложностиПростой
Время на прочтение3 мин
Количество просмотров2.5K

Сегодня я хочу рассказать о своем проекте QTune. Это open-source приложение с графическим интерфейсом, которое превращает сложный и требовательный процесс файнтюнинга в понятный и управляемый процесс, доступный каждому. Это не просто набор скриптов, а полноценная студия, охватывающая весь цикл: от создания датасета до запуска готовой модели локально.

Читать далее

Сказ о том, как мы приложение для падел-тенниса создавали

Уровень сложностиСредний
Время на прочтение6 мин
Количество просмотров3.5K

Как‑то раз двое ML‑щиков решили соединить свою любовь к компьютерному зрению и ракеточным видам спорта. Так родилась идея сделать систему видеоаналитики для падел‑тенниса.

Падел — это игра на стыке большого тенниса и сквоша. От сквоша падел взял стеклянные стенки вокруг корта, а от большого тенниса — почти всё остальное.

Читать далее

Legen… Wait, Wait… Dary! Разбираемся с рефлексией LLM

Уровень сложностиСложный
Время на прочтение6 мин
Количество просмотров2.2K

Хабр, привет! Меня зовут Андрей Галичин, я младший научный сотрудник группы «Доверенные и безопасные интеллектуальные системы» в Институте AIRI, инженер‑исследователь в лаборатории безопасного искусственного интеллекта SAIL AIRI‑МТУСИ, а также аспирант Сколтеха. Мы с коллегами занимаемся интерпретируемостью больших языковых моделей. В январе этого года, когда все обсуждали впечатляющие результаты новой рассуждающей языковой модели DeepSeek‑R1 (подробный разбор статьи от моего коллеги Антона Разжигаева можно найти здесь), мы задались вопросом: а что на самом деле происходит внутри этих моделей, когда они «думают»?

Главная особенность таких моделей — это способность к рефлексии, самопроверке и сомнениях в своих рассуждениях, которые магическим образом возникают в процессе обучения ("aha moment") и выражаются в использовании моделью человекоподобных фраз типа "Wait", "Alternatively" и других. Однако никто толком не разбирался, откуда они берутся и зачем нужны (работает — не трогай!).

Именно на эти вопросы мы и попытались ответить в нашей новой статье "​I Have Covered All the Bases Here: Interpreting Reasoning Features in Large Language Models via Sparse Autoencoders". Мы обнаружили, что эти фразы — не просто декорация, а действительно важные для модели вещи. Мы спустились на уровень скрытых представлений модели и нашли механизмы, отвечающие за рассуждающие способности. Более того, мы научились их контролировать — усиливая нужные компоненты, мы смогли заставить модель рассуждать глубже и точнее!

В этой статье я коротко расскажу про наши главные выводы.

Читать далее

Продвинутые техники RAG в действии

Уровень сложностиСредний
Время на прочтение15 мин
Количество просмотров8.3K

Всем привет! Представьте таблицу с сотнями или даже тысячами атрибутов. Как в условиях высокой размерности найти релевантные данные по запросу на естественном языке? Классические методы часто не справляются, нужны новые подходы.

Именно за эту сложную задачу взялась команда Департамента управления данными (SberData) в рамках эффективной интеграции ИИ‑агентов в Корпоративную аналитическую платформу Сбера (КАП), которая объединяет современные инструменты для работы с данными: хранение, интеграция, аналитика, моделирование и контроль качества данных. Наличие таких технологий, как продвинутые LLM (например, GigaChat), и большие объёмы данных делают исследование подобных задач актуальным для рынка больших данных.

В статье мы сравним эффективность векторного поиска, гибридных методов и подхода Retrieval‑Augmented Generation (RAG), оценим их влияние на точность результатов и обсудим практические ограничения.

Читать далее

Мультфильмы из ничего: что такое GAN и как создать их с VToonify

Уровень сложностиСредний
Время на прочтение6 мин
Количество просмотров1.6K

Привет, Хабр! На связи Павел Серов из Cloud4Y. И сегодня поговорим про GAN — генеративно-состязательные сети. 

Представьте, что нейросети устроили настоящую гонку вооружений: одна (генератор) пытается создавать фейковые видео, а другая (дискриминатор) изо всех сил пытается распознать подделку. Это и есть GAN. В итоге генератор становится настолько крут, что его видео не отличишь от настоящих.

Хотите создать такую нейросеть для генерации видео? Например, чтобы превращать обычные лица в мультяшные? В статье покажу, как это сделать шаг за шагом, с помощью фреймворка VToonify.

Читать далее

Снижение цен на видеокарты в облаке, машинное обучение на практике и не только: дайджест за июль

Время на прочтение6 мин
Количество просмотров1.9K

В июле мы анонсировали старт продаж собственного сервера, запустили S3 Vault, завезли новые готовые конфигурации, обновили группы безопасности, добавили аудит-логов и не только.

Привет, Хабр! Меня зовут Влад, я главный редактор в Selectel. В этом дайджесте рассказываю о каждом апдейте. А еще — приглашаем 28 августа на Selectel Network Meetup.

Читать далее

Вклад авторов