Все потоки
Поиск
Написать публикацию
Обновить
841.64

Машинное обучение *

Основа искусственного интеллекта

Сначала показывать
Порог рейтинга
Уровень сложности

Почему ИИ скрывает от нас свои цели (и как это исправить)

Уровень сложностиСредний
Время на прочтение21 мин
Количество просмотров2.8K

Вы доверяете искусственному интеллекту? А стоит ли? Если задуматься, можем ли мы действительно быть уверены, что ИИ, которому мы поручаем составлять резюме, генерировать код или анализировать данные, делает именно то, что мы хотим, а не оптимизирует какие-то свои скрытые цели? 

Современные языковые модели всё чаще демонстрируют признаки того, что у них есть собственная «повестка» — внутренние цели, расходящиеся с намерениями создателей и пользователей. Недавние исследования показывают: чем умнее становятся нейросети, тем изобретательнее они в обходе ограничений. Они узнают, когда их тестируют, маскируют вредоносное поведение и даже осваивают новые способы обмана, не заложенные разработчиками. Самое тревожное — большинство таких случаев остаются незамеченными при стандартных проверках.

Эта статья — технический разбор охоты за скрытыми целями в крупных языковых моделях. Поговорим о том, что такое misalignment, почему эта проблема набирает обороты, и как исследователи пытаются вернуть контроль над целями, которые преследует искусственный интеллект.

Читать далее

Локальный AI: Прагматичное руководство по запуску LLM на своем железе

Уровень сложностиПростой
Время на прочтение18 мин
Количество просмотров15K

Устали от счетов за API и переживаете за конфиденциальность данных? Пришло время построить свою «AI-кухню» и вернуть контроль. Этот гайд — ваш пошаговый план: от выбора идеальной видеокарты до запуска первой модели через Ollama или LM Studio. Превратите свой ПК в суверенный AI-воркстейшн.

Читать далее

Claude Code за $3/месяц и 2 новые «стелс» модели: потестил за вас

Уровень сложностиСредний
Время на прочтение5 мин
Количество просмотров8.5K

На выходных вышли сразу две громкие ИИ-новости, которые захотелось пощупать руками.

Во-первых, на OpenRouter тихо появились две стелс-модели: Sonoma Dusk Alpha и Sky Alpha. Обе заявлены с окном контекста 2 млн токенов, поддержкой изображений на входе и параллельным вызовом инструментов, и сейчас бесплатны; Dusk заявляется как быстрая модель на каждый день, Sky - как максимально интеллектуальная для сложных задач.

Во-вторых, z.ai запустили API совместимый с Claude Code с доступом к своей флагманской модели GLM-4.5 по за $3/мес (план GLM Coding Lite) — с лимитом ~120 промтов на каждые 5 часов. Есть и Pro за $15/мес (~600 промтов/5 ч). Эти планы работают только внутри инструментов кодинга вроде Claude Code (в веб-чате их не включают).

Ну как не потестить? Потестим.

Читать далее

Маскарад невидимок

Уровень сложностиСредний
Время на прочтение12 мин
Количество просмотров709

Добрый день, уважаемые хаброжители !!! Случилось страшное… Нам надо серьезно поговорить и обсудить пару “скользких” моментиков ;)) Вернее так, говорить мы сегодня будем про “подмены” лица во всей красе или, как принято сейчас величать сие явление,  дипфейки. Так вот, случилось нам давеча участвовать в хакатоне Kryptonite ML Challenge 2025 (Разработка модели распознавания, способная противостоять DeepFake атакам) от компании «Криптонит».

Читать далее

Как улучшить оценку МНК в гуманитарных науках

Уровень сложностиПростой
Время на прочтение5 мин
Количество просмотров1.4K

Замечательный метод МНК появился в недрах астрономии (точной науки). Здесь мы покажем как можно существенно улучшить ее оценки в гуманитарных (неточных) науках.

Сперва приведем реальный пример его использования. Летом 2024 года я вычислил курс доллара в Казахстане на полгода вперед. И написал об этом статью в здесь же.

Читать далее

Почему LLM врут с умным видом

Время на прочтение4 мин
Количество просмотров3.1K

Иногда кажется, что большие языковые модели уверены в себе больше, чем большинство людей в понедельник утром. Задаёшь простой вопрос — а в ответ получаешь удивительный факт, на который хочется переспросить: а ты точно знаешь, о чем говоришь или просто угадываешь?

Оказывается, у этой привычки «галлюцинировать» и выдавать ответы даже тогда, когда стоило бы промолчать, есть вполне логичные основания. Проблема заложена ещё на этапе обучения и подкрепляется тем, как мы потом оцениваем работу LLM. Почему даже самые продвинутые модели чаще выбирают угадать, чем признаться в собственном незнании, и что с этим делать — свежее исследование предлагает неожиданно простое объяснение.

Читать далее

Humans-in-the-loop vs synthetic data: за что идёт борьба на рынке AaaS

Время на прочтение8 мин
Количество просмотров285

Scale зарабатывает более $750 млн в год на продаже данных для RLHF. Кто собирается их потеснить?

Scale AI — стартап, ранее известный своими контрактами на разметку данных для беспилотных автомобилей и военных проектов, приближается к годовому обороту в $1 млрд благодаря своим дата-сервисам, используемым в техниках вроде reinforcement learning from human feedback (RLHF). Я давно слышал слухи об их масштабах, о том, что они работают буквально со всеми крупными AI-лабораториями — от Meta до OpenAI, но увидеть подтверждение этого в публичных отчетах ощущается совсем иначе.

Читать далее

Куда инвестирует великий программист Джефф Дин

Уровень сложностиПростой
Время на прочтение6 мин
Количество просмотров21K

Легендарный Джеффри Дин не нуждается в дополнительном представлении: именно он спроектировал и запрограммировал некоторые ключевые сервисы для Google, в том числе распределённую БД Spanner, систему хранения полуструктурированных данных Bigtable, систему обработки данных в кластерах MapReduce, NoSQL-хранилище LevelDB, библиотеку машинного обучения TensorFlow и др.

Как и другие известные разработчики, Джефф Дин сейчас работает в области ML. Для него это естественное направление, поскольку он ещё с университета специализировался на машинном обучении.

Кроме основных занятий, ведущий исследователь Google также инвестирует в стартапы. Новое поколение стартапов, которые появляются как грибы после дождя.

Читать далее

Нейросети без вреда для психики, разума и безопасности

Уровень сложностиПростой
Время на прочтение11 мин
Количество просмотров4.9K

Ни для кого не секрет, что многие важные изобретения в истории часто сопровождались спорами и критикой.

Например, лампочку Эдисона и электричество поначалу называли «глобальным провалом», а автомобили — «мимолетным увлечением», которое никогда не станет массовым. Про компьютер даже сами представители IT‑отрасли говорили, что «у людей нет никаких причин держать его в своем доме».

Зачастую даже сами ученые не могут представить себе будущее своего изобретения и то, как люди его используют. Так что влияние технологии на мир — будет ли оно положительным, отрицательным или вообще незаметным — часто проявляется только со временем.

Пожалуй, именно в эту категорию спорных изобретений сегодня попадают нейросети и LLM. Да, они помогают решать сотни рутинных дел, но постепенно мы доверяем им всё больше и больше, воспринимая не иначе как личного ассистента, поверенного, самого близкого друга.

Читать далее

Как потратить токены LLM моделей весело и с пользой

Уровень сложностиСредний
Время на прочтение7 мин
Количество просмотров2.3K

Привет Хабр! Меня зовут Кирилл Овчинников, я работаю в Сбере и по работе у меня есть доступ к различным большим языковым моделям, включая наш собственный GigaChat. Но речь сегодня пойдёт не столько о корпоративных возможностях, сколько о довольно неожиданной проблеме, с которой сталкиваются многие команды при работе с API токенами различных LLM-сервисов — они имеют срок годности и просто сгорают, если их не использовать вовремя.

История началась довольно прозаично: наша команда, как и многие другие, в своё время закупила токены для различных API — и зарубежных, и российских компаний, потратив на это несколько десятков тысяч рублей для экспериментального проекта. Проект, как это часто бывает со стартапами и экспериментами, не взлетел, и токены повисли где-то в недрах наших аккаунтов. Спустя год, когда появилась новая идея, мы с энтузиазмом зашли в личные кабинеты и обнаружили неприятное уведомление — через две недели все наши токены превратятся в тыкву. Десятки тысяч рублей просто испарятся, если мы их срочно не используем.

Читать далее

LLM AI на «стероидах» прошлой эры, для ИИ новой эры. Круг замкнулся

Уровень сложностиПростой
Время на прочтение5 мин
Количество просмотров769

В своих размышлениях и прошлых попытках разработки ИИ, я добрался до сего дня llm - large language models. Однако этим моделям свойственны некоторые точности с контролем выходного результата, а именно почему получилось именно так.

Многие знают, что новое - это хорошо забытое старое. Поэтому эксперты старой закалки, опыта и знаний, находят решения, которые далеко не каждому придут в голову. Забегаю вперёд, скажу что это прототип, однако у него есть явные преимущества, плюсы и перспективы. Пока что на просторах интернета я не нашел подобных решений или они мало афишируются.

Надеюсь специалисты из крупных компаний, средними бюджетами и возможностью оплатить работу десятка специалистов, прочитают, увидят разумное зерно и преисполняется.

Техническое задание (ТЗ) на проект, основанный на извлечении триплетов из текста, логическом выводе и масштабируемой обработке графа знаний с GPU-ускорением:

---

📘 Техническое задание: Система извлечения и логического анализа триплетов с GPU-ускорением

🔹 Цель проекта

Разработка гибридной экспертной системы, способной:

- Извлекать триплеты из неструктурированного текста с помощью LLM

- Хранить и обрабатывать триплеты в логической форме (Prolog)

- Масштабировать поиск и reasoning через кластеризацию и GPU-графовые вычисления

---

🔹 Архитектура системы

1. Модуль извлечения знаний

- Вход: текстовые данные (статьи, документы, диалоги)

- Выход: триплеты вида <субъект> — <предикат> — <объект>

- Инструменты: LLM с кастомным промптом, поддержка хотя бы одного языка. Перевод это техническая обвязка.

Читать далее

Глубокие исследования без границ: выбираем свою LLM и управляем стратегией поиска

Время на прочтение4 мин
Количество просмотров2.5K

Инструменты для поиска и анализа информации на базе LLM становятся все умнее, но есть один нюанс: почти всегда они работают по заранее заданному сценарию. Вы набрали запрос — а дальше модель сама решит, какие источники ей искать, как проверять данные и что включить в отчет. Но большинство таких сервисов не предлагают никаких особых подходов — например, собственные правила проверки, любимую LLM или уникальную стратегия поиска.

В свежем исследовании Nvidia появилась идея: а что, если сделать так, чтобы вы сами могли выбирать, какая LLM будет искать для вас информацию, и описывать свои собственные алгоритмы исследования простым человеческим языком без программирования. По сути, это попытка дать пользователю то самое управление, которого раньше так не хватало. 

Как это выглядит на практике и зачем вообще отдавать в руки человека стратегию глубокого поиска — разбираемся в деталях.

Читать далее

Какое в Китае есть ИИ-железо. Насколько эти чипы мощные в сравнении с моделями Nvidia / AMD

Уровень сложностиПростой
Время на прочтение7 мин
Количество просмотров4.2K

Из-за экспортных ограничений США, китайские производители AI-чипов переманивают бывших сотрудников Nvidia и активно развивают свое железо.

В обзоре рассмотрим на самые перспективные стартапы в области разработки ИИ-железа (Cambricon, Baidu, Huawei, Moore Threads, Enflame, MetaX), разберем самые известные чипы этих компаний, сравним их с чипами от Nvidia и AMD.

Читать далее

Ближайшие события

ИИ как соавтор: как агенты меняют науку прямо сейчас

Время на прочтение4 мин
Количество просмотров1.8K

Пару лет назад казалось, что искусственный интеллект в науке — это про умных помощников: они сортируют данные, визуализируют графики, подсказывают формулы, но остаются просто искусными руками для человека. Но теперь всё меняется. На горизонте появился новый герой — научный агент. Он уже не ждет указаний, а сам берется за чтение статей, формулирует свежие гипотезы, ставит эксперименты, а если что-то идет не так — может сам себя скорректировать. Такой ИИ — это не просто ассистент, а почти полноценный соавтор в лаборатории. Пока одни ученые еще скептически приглядываются к этой идее, в биологии, химии и материаловедении научные агенты уже совершают реальные открытия. Кажется, научный цикл меняется прямо на наших глазах.

Читать далее

ML Q & AI. Глава 8. Успех трансформеров

Уровень сложностиСредний
Время на прочтение5 мин
Количество просмотров1.8K

← Предыдущая глава | 

В чём секрет успеха трансформеров?

В последние годы трансформеры стали самой успешной архитектурой нейронных сетей, особенно в задачах обработки естественного языка. Теперь они близки к тому, чтобы стать SOTA для задач компьютерного зрения тоже. Успех трансформеров обусловлен несколькими ключевыми факторами: их механизм внимания, возможность легкой параллелизации, предварительное обучение без учителя и большое количество параметров.

Читать далее

Schema Guided Reasoning: метод структурированного рассуждения AI

Уровень сложностиПростой
Время на прочтение8 мин
Количество просмотров2.3K

📝 Описание

Рассматриваем подход Schema Guided Reasoning (SGR) — метод структурированного промптинга, который направляет рассуждения LLM через типизированные схемы и явные рабочие процессы. Также разбираем расширение для пространственного рассуждения — SG² (Schema-Guided Scene-Graph Reasoning), многоагентный фреймворк «рассуждай-пока-извлекаешь» для задач по графам сцены. Подходы демонстрируют прирост точности на 5–10% и достигают 95%+ воспроизводимости, одновременно снижая галлюцинации за счёт валидации схем и программного извлечения фактов.

🔍 Ключевые особенности

- Структурированные выводы: типизированные схемы (JSON Schema / Pydantic) обеспечивают контроль формата и смысла ответа.
- Три паттерна рассуждения: Cascade, Routing, Cycle — для разных типов задач и контроля шага рассуждений.
- Constrained decoding: CFG/grammar-ограничения для безопасной генерации, автоматические повторы при валидации.
- Мультиагентная архитектура SG²: разделение на модуль рассуждений и модуль извлечения с программным доступом к графу.
- Программное извлечение: генерация Python-кода для обхода scene-graph вместо жёстких API.
- Снижение галлюцинаций: разделение контекста и схема-навигация уменьшают отвлечения и ошибочные выводы.
- Совместимость: OpenAI Structured Outputs, Instructor, LangChain, Pydantic AI, локальные бэкенды (xgrammar/Outlines/etc.).

Читать далее

Schema-Guided Scene-Graph Reasoning based on Multi-Agent Large Language Model System

Уровень сложностиПростой
Время на прочтение7 мин
Количество просмотров599

📝 Описание

Рассматриваем подход Schema Guided Reasoning (SGR) — метод структурированного промптинга, который направляет рассуждения LLM через типизированные схемы и явные рабочие процессы. Также разбираем расширение для пространственного рассуждения — SG² (Schema-Guided Scene-Graph Reasoning), многоагентный фреймворк «рассуждай-пока-извлекаешь» для задач по графам сцены. Подходы демонстрируют прирост точности на 5–10% и достигают 95%+ воспроизводимости, одновременно снижая галлюцинации за счёт валидации схем и программного извлечения фактов.

🔍 Ключевые особенности

Структурированные выводы: типизированные схемы (JSON Schema / Pydantic) обеспечивают контроль формата и смысла ответа.
Три паттерна рассуждения: Cascade, Routing, Cycle — для разных типов задач и контроля шага рассуждений.
Constrained decoding: CFG/grammar-ограничения для безопасной генерации, автоматические повторы при валидации.
Мультиагентная архитектура SG²: разделение на модуль рассуждений и модуль извлечения с программным доступом к графу.
Программное извлечение: генерация Python-кода для обхода scene-graph вместо жёстких API.
Снижение галлюцинаций: разделение контекста и схема-навигация уменьшают отвлечения и ошибочные выводы.
Совместимость: OpenAI Structured Outputs, Instructor, LangChain, Pydantic AI, локальные бэкенды (xgrammar/Outlines/etc.)

Читать далее

Долгая дорога к DiT (часть 1)

Уровень сложностиСредний
Время на прочтение16 мин
Количество просмотров978

Это лето обрадовало нас прорывом в обработке изображений с помощью нейросетей. Одна за другой выходят такие модели как Flux.1 Kontext, Qwen-Image-Edit, Gemini 2.4 Flash Image Preview (Nano Banana) демонстрируя недостижимый до сих пор уровень манипуляции цифровым контентом. Это не замена Фотошопу, а технология, открывающая врата в бесконечные визуальные миры и всё благодаря мощи архитектуры Diffusion Transformer (DiT). Впечатлившись, я решил поближе познакомиться с диффузными трансформерами - собственноручно натренировать свою собственную DiT-модель. Об этом и будет эта статья.

Читать далее

Fine-tune Qwen3 Embeddings для классификации категорий товаров

Уровень сложностиСредний
Время на прочтение4 мин
Количество просмотров3.6K

Мы взяли размеченный корпус товаров из Web Data Commons, дообучили Qwen3 Embedding с помощью LoRA и получили лёгкий чекпойнт на ~615M параметров, который сопоставляет «сырые» названия товаров с 6 верхнеуровневыми категориями с результатом macro-F1 = 0.836, может работать в реальном времени на одной видеокарте. Код доступен в гитхабе так же английская версия этого поста.

Читать далее

Очеловечить компьютер: как развивалось машинное обучение в середине XX века

Уровень сложностиПростой
Время на прочтение16 мин
Количество просмотров1.3K

Согласно хрестоматийной хронологии машинного обучения, в 1952 году, то есть спустя год после того, как Минский и Эдмондс собрали и испытали свой SNARC, сотрудник компания IBM Артур Самюэль написал программу для игры в шашки с компьютером IBM 701. С точки зрения математики это было, как говорится, из другой оперы, скорее статистики и теории игр, но с точки зрения машинного обучения это считается теперь одним из краеугольных камней, заложенных в фундамент машинного ИИ, да и введение в оборот самого термина Machine Learning ставят в заслугу именно Самюэлю.

Читать далее

Вклад авторов