
GPT-OSS - тесты на реальном железе: производительность моделей 20B и 120B на RTX 4090, RTX 5090 и H100. Реальные метрики TPS, сравнение скорости генерации и практические выводы о том, какую модель выбрать для локального использования.
Основа искусственного интеллекта
GPT-OSS - тесты на реальном железе: производительность моделей 20B и 120B на RTX 4090, RTX 5090 и H100. Реальные метрики TPS, сравнение скорости генерации и практические выводы о том, какую модель выбрать для локального использования.
Это первая статья специалиста по архитектуре ИТ-систем и трансформации ИТ-ландшафта Дениса Прилепского из серии «Строим корпоративную GenAI-платформу: от концепции до ROI». В этой части он объясняет, зачем вообще нужен архитектурный подход при внедрении GenAI-решений и как грамотная архитектура помогает пройти путь от идеи до реальной бизнес-ценности.
Если вы управляете достаточно крупным бизнесом, вы неизбежно будете собирать аналитические данные. Вы же хотите точно понимать, почему меняются показатели продаж или какие товары будут пользоваться спросом в следующем месяце.
Звучит логично и понятно, пока вы не начнете плотно работать с цифрами и графиками. И тут, как и почти в любой сфере, кто-то рано или поздно должен был внедрить AI-ассистента. Под катом посмотрим, что из этого получилось.
Искусственный интеллект превращается из инструмента в полноценного партнера ученого. В этом большом обзоре мы рассмотрим, как LLM вроде AlphaFold 3, TxGemma и ChemLLM совершают революцию в биологии, медицине, химии и материаловедении, переходя от анализа данных к проектированию будущего.
Мы живём в эпоху больших языковых моделей — инструментов вроде ChatGPT, Gemini, Claude, которые поражают своими способностями: они пишут тексты, отвечают на сложные вопросы, генерируют код и даже ведут осмысленные диалоги. Но задумывались ли вы, как им удаётся не просто понимать отдельные фразы, но и удерживать смысл длинных документов, многочасовых бесед или даже целых книг?
В статье разберём путь от понимания человеческого восприятия до современных оптимизаций механизма внимания в LLM.
Искусственный интеллект уже здесь и он повсюду: от производственных линий трубопрокатных заводов до брейнрот-контента в вашей ленте. С вами снова Михаил Семенов, ведущий юрисконсульт Cloud.ru и человек, который 6 лет прослужил в прокуратуре.
Сегодня предлагаю обсудить слона в комнате, а именно: что вам будет с точки зрения закона, если AI, который вы разрабатываете или закупаете для своей компании, ошибется, некорректно сработает или будет использован для нарушения чужих прав. Ныряйте под кат, там разберем какие правовые документы регулируют это у нас и за рубежом, в какую сторону скорее всего будет развиваться законодательство в сфере AI и что предусмотреть в доке, договорах и регламентах уже сейчас, чтобы потом не пришлось тушить пожары. Постараюсь сильно не грузить и сразу переводить с юридического на человеческий.
Честно говоря, охота на следы ИИ не самая увлекательная задача. Но инструмент полезный: помогает авторам убрать штампы из черновика, а редакторам сэкономить время. Ниже короткий пересказ актуального гайда сообщества Википедии Signs of AI writing и практичный чек-лист для самопроверки.
Привет! Распознаванием речи (ASR) уже никого не удивишь, но качественное распознавание на разговорном русском языке, а особенно в телефонии — очень сложная штука: люди редко говорят как профессиональные дикторы, часто бывает плохое качество звука с постоянными шумами на фоне и в целом есть миллиарды прочих нюансов. Наша компания занимается голосом больше 8 лет, есть собственные классные модели синтеза, распознавания и продукты на их основе, поэтому экспериментов мы проводим очень много и за появлением новых голосовых моделей следим очень внимательно.
В свободном доступе уже есть самый узнаваемый Whisper, есть интересные модели GigaAM от Сбера, не так давно Т-Банк выложил в открытый доступ свою модель T-One — давайте заглянем под капот нашего внутреннего бенчмарка и посмотрим насколько кто хорош.
Поехали!
AI-редакторы и агенты становятся частью повседневной разработки. Но у каждого свои сильные и слабые стороны: где-то упор на автономность, где-то на глубокое понимание кода, а где-то на гибкость за счёт open source. Ниже — обзор самых заметных решений.
Я протестировал каждый из них и выявил плюсы и минусы каждого из решений.
Сколько времени занимает сложение двух лучей света? Почти никакого: интерференция рождает результат сразу, пока лучи проходят через чип. В этой статье — без мистики и рекламных лозунгов — разберём, как свет выполняет линейную алгебру, из каких модулей собирают фотонные процессоры и где они уже уместны в реальных задачах. К концу чтения у вас будет ясная картинка тракта «источник → модулятор → оптическая решётка → детекторы» и чек-лист для первого PoC.
👋 Привет, Хабр!
Меня зовут Никита Горячев, я Research Engineer в WB, последние несколько лет работаю на стыке RecSys, LLM и мультимодальных моделей. Каждый день мы обрабатываем миллиарды событий, а модели, которые мы внедряем, напрямую влияют на CTR, удержание и конверсию, принося немало дополнительной выручки.
До этого я успел поработать в AI-стартапе в Palo Alto, где занимался голосовыми агентами (ASR/TTS), и в МТС, где мы строили AI-экосистему. Ранее в Сбере я занимался созданием единого RecSys SDK для всей экосистемы (от SberMegaMarket до Okko и Zvuk), а ещё раньше — развивал персонализацию и ML в ритейле и нейротехе.
Сегодня я хотел бы поговорить о том, как большие языковые модели могут починить контрастивное обучение в рекомендательных системах. Контрастивные методы давно стали стандартом в NLP и CV, но в последовательных рекомендациях они работают далеко не идеально: данные разрежены, а аугментации часто искажают смысл вместо того, чтобы его сохранять. Авторы свежей статьи с arXiv — “Semantic Retrieval Augmented Contrastive Learning for Sequential Recommendation (SRA-CL)” — предлагают элегантное решение: использовать LLM для генерации семантически осмысленных позитивных пар. Звучит просто, но даёт заметный прирост качества — давайте разберёмся, как именно это работает.
Привет, Хабр!
Сегодня я хочу, как уже было сказано в заголовке, рассказать о том, как я перевёл вторую книгу с помощью нейросетей.
Так как для меня важны контекст и обстоятельства проведённой работы, я намерен поделиться не только опытом и методологией использования нейросетей при переводе книги, но и рассказать о самой книге и ряде связанных с ней тем.
По мере роста возможностей искусственного интеллекта наш понятийный аппарат с трудом успевает за технологическим прогрессом. До недавнего времени под AI-ассистентами понимали чат-ботов и голосовых помощников, реагирующих на прямые пользовательские команды вроде «позвони маме», «какой рост у Леди Гаги?» или «запусти Spotify».
Сегодня в обиход входят новые термины: AI-агенты и agentic AI. Это отражает сдвиг в сторону более автономных и интеллектуальных систем, способных принимать решения. Проблема в том, что единых представлений о сути этих понятий нет, они часто используются неточно или трактуются ошибочно.
Чтобы прояснить ситуацию и разграничить хайп и реальность, мы побеседовали с техническими специалистами из разных отраслей, которые в реальной работе имеют дело с agentic-системами. В этой статье мы разбираем, что такое agentic AI и AI-агенты, приводим практические примеры, а также исследуем их перспективы и текущие ограничения.
Мы в Точка Банке делаем свою LLM. Чтобы она работала хорошо, недостаточно просто обучить её на куче текстов. Для получения осмысленного и предсказуемого поведения модели, нужен Alignment — дообучение с учётом предпочтений и ограничений. В статье расскажу, какие методы применяют в современных моделях, и как мы адаптировали их под себя.
Показываем на практике, как с помощью ChatGPT можно за несколько минут преобразить реально существующие фрагменты легаси-кода на Python.
На фоне общего хайпа вокруг ИИ холодным душем стали июльские результаты исследования METR о том, как LLM замедляют работу опытных разработчиков в опенсорсных проектах. Напомним, что использование LLM увеличило время выполнения задач на 19%, хотя сами разработчики ощущали противоположный эффект.
Учёные затруднились объяснить причины когнитивного искажения.
Факт в том, что многим разработчикам очень нравятся их инструменты для автодополнения и генерации кода, особенно Claude Code. Он настолько удобен, что от него буквально возникает зависимость. По опросам, чем больше люди используют такие инструменты — тем больше им нравится. Код «магически» генерируется сам собой, зачастую даже корректный.
Но это не обязательно улучшает или ускоряет разработку.
Более того, есть признаки, что в 2025 году наконец-то наступило некоторое охлаждение ожиданий в отношении к LLM.
В этом посте я покажу, как использовать Continue Plugin вместо GitHub Copilot, подключив к нему собственную локальную модель LLM без доступа к интернету. Такой подход обеспечивает максимальную конфиденциальность: ни IDE, ни LM Studio не имеют возможности передавать ваши файлы в облако.
Никакой сети – всё работает только в вашем компьютере.
Сегодня мало просто получить текст без ошибок. Бизнесу важно быть уверенным, что за красивыми словами не стоит ИИ вместо эксперта. Рассказываем, какие детекторы действительно умеют вычислять нейросети — и почему абсолютной защиты пока не существует.
Я знаю, что существует 100 500 способов перекинуть картинку в готовую вёрстку.
Но когда у меня дошло до дела, результат оказался так себе.
То ли я криворукий, то ли все эти инструменты ещё далеки от совершенства.
В итоге понял, что мне проще накидать свой собственный велосипед — скрипт на Python (~200 строк).
Решил выложить, может, кому‑то пригодится.
Скрипту можно скормить три скриншота сайта:
1) Десктоп‑версия
2) Планшет
3) Мобильная версия
На выходе получим одну HTML‑адаптивную вёрстку (десктоп, планшет, мобила) с использованием Tailwind CSS.
Хочу начать с дисклеймера — я больше не работаю в Токеон, эту статью и все последующие воспринимайте в отрыве от компании.
А написать сегодня хочу о концепции внедрения ИИ в систему принятия решений руководителя организации. В качестве примеров в этой статье я использую продукты, которые себя хорошо зарекомендовали, с которыми есть практический опыт реализации такой системы. Второй дисклеймер — воспринимать их как единственно возможные, конечно, не стоит.
Проблема: информационный хаос и человеческий фактор
Руководители сегодня тонут в информации. Отчёты, метрики, дашборды, совещания, письма — всё это создаёт иллюзию контроля, но на самом деле мешает принимать эффективные решения.
Когда руководитель запрашивает информацию у сотрудников, возникает классическая проблема: человеческий фактор. Сотрудники приукрашивают данные, представляют их в выгодном свете, а иногда просто не понимают, что именно нужно руководителю. На качество информации напрямую влияет компетенция человека, который готовит информацию для руководителя.
Важно отметить и социальные эффекты. Неаккуратно заданный вопрос может привести к непоправимым последствиям — сотрудники начинают нервничать, додумывать, готовиться к худшему. В итоге руководитель получает не объективную картину, а искажённую версию реальности.
Решение: личный ИИ‑ассистент руководителя
Искусственный интеллект на текущий момент — одно из возможных решений для анализа данных и выявления ценной информации. Он не устаёт, не приукрашивает, не нервничает и не имеет личных интересов.