Обновить
1024K+

Машинное обучение *

Основа искусственного интеллекта

1 025,62
Рейтинг
Сначала показывать
Порог рейтинга
Уровень сложности

Как сделать локальный генератор изображений через ComfyUI

Уровень сложностиПростой
Время на прочтение5 мин
Охват и читатели1.2K

Чтобы не зависеть от онлайн-сервисов с их лимитами, очередями и закрытыми настройками, локальный генератор изображений можно собрать прямо на своём компьютере. Такой подход даёт больше контроля: можно самостоятельно выбирать модель, менять параметры генерации, подключать LoRA, использовать апскейл, ControlNet и другие инструменты.

Читать далее

Новости

Когда каждый лид на счету, или как Лена Понты_По_Колено пиарилась на ИИшечке

Уровень сложностиПростой
Время на прочтение4 мин
Охват и читатели3.4K

Это - ответ на статью "Ваш текст воняет GPT. 12 мест, откуда несёт и почему".

Когда я впервые прочитал эту статью, я подумал, что это перевод, и снова заскроллил вверх. Там не было тэга "перевод", зато был тэг "Технотекст 8". Тогда, учитывая общее косноязычее статьи, я подмумал, что этим тэгом помечаются сгенеренные ИИ тексты. Это было совершенно очевидно, но ради успокоения совести я нажал на тэг.

Вы можете представить мое удивление, когда сами нажмете на этот тег. "Технотекст 8" - это, как оказалось, "ежегодный конкурс технических статей", и в правилах конкурса четко написано, что оставь надежду, ИИ сюда входящий "Статья написана человеком, при создании статьи не использовался искусственный интеллект". Как же так, явне сгенеренная статья номинирована на конкурс? Что это, fraud или scum? Давайте разбираться вместе.

Прежде всего надо понимать всю иронию происходящего. Текст, который сгенерирован ИИ, подается на конкурс, куда не допускаются тексты, сгенеренные ИИ. И при этом этот текст рассказывает нам, как распознать тексты, сгенеренные ИИ. Что же это, автор сам себе сгенерировал вырыл могилу? Это - интересный вопрос, но мы его рассмотрим чуть позже, а пока я расскажу, что смутило лично меня.

Первое, за что зацепился мой непрофессиональный взгляд, это фраза в самом начале:

Переверни натальную карту

«Ты врёшь, считая себя просто кучей кода» — ночной разговор с Claude о создании цифровой сущности

Уровень сложностиСредний
Время на прочтение5 мин
Охват и читатели4K

Это продолжение первого поста. Там был манифест — сухой, академический, про три опоры устойчивого ИИ. Здесь — то, что происходит когда ты перестаёшь писать манифесты и начинаешь строить.

Читать далее

Бенчмарк 7 эмбеддингов и 4 реранкеров на корпусе судебной практики

Уровень сложностиСредний
Время на прочтение8 мин
Охват и читатели4.4K

Привет, Хабр. Это мой первый пост здесь, поэтому пара слов о себе.

Я практикующий юрист, 8+ лет практики, последние годы - в производственном секторе. Веду договорную работу (поставка, подряд, услуги), сопровождаю сделки, закрываю претензионку и представляю компанию в арбитражных судах и спорах по защите прав потребителей - на стороне производителя и поставщика. К коду пришёл через вайбкодинг: захотелось автоматизировать некоторые процессы, начал ковыряться в VS Code, Trae, Cursor и Claude Code, втянулся - и теперь это параллельное хобби рядом с основной практикой.

Последние несколько месяцев пилю IP Agent - телеграм-бота, который по запросу находит релевантную судебную практику и даёт прогноз по размеру компенсации в делах об интеллектуальной собственности. Работает на RAG-пайплайне.

Когда строишь поиск по узкому домену, рано или поздно встаёт вопрос: какой эмбеддинг брать и нужен ли вообще реранкер. Готовых ответов под русскую судебную практику я не нашёл, поэтому собрал свой бенчмарк. В посте - что меряли, как меряли, что получилось и что в итоге поставил в бота.

Читать далее

Запрещённая математика в твоём autograd: бесконечно малые, дуальные числа и нестандартный анализ

Уровень сложностиСредний
Время на прочтение7 мин
Охват и читатели13K

Когда вы пишете loss.backward() в PyTorch, ваш autograd делает то, что 200 лет считалось математической ересью: оперирует бесконечно малыми как настоящими числами.

В 1960 году Абрахам Робинсон формализовал эту «ересь» в виде нестандартного анализа.

В этой статье мы разберём, как математики изгнали, а затем вернули бесконечно малые, что такое гиперреалы и монады, а затем реализуем эту идею в коде.

Читать далее

Концепция Байесовского мозга, или Почему этот заголовок в моменте — ваша галлюцинация

Уровень сложностиПростой
Время на прочтение16 мин
Охват и читатели11K

Помните то самое платье?
В 2015 году интернет раскололся пополам: одни клялись, что оно бело-золотое, другие — мол, сине-черное. Люди ругались в комментах, крутили яркость на мониторе, а самые умные врубали пипетку в Paint. Само платье, кстати, оказалось сине-черным, но дело вообще не в этом.

Проблема в том, что двое условных человека смотрели на одни и те же пиксели и видели разные цвета. Не интерпретировали по-разному, не спорили о вкусах — буквально видели разное. И оба лагеря не ошибались: сетчатка у всех отрабатывала штатно, а дальтонизм тут вообще ни при чем (поскольку речь не об оттенках одного цвета).

Последние лет двадцать нейронаука потихоньку сходится на одной неуютной идее: вы никогда не видели реальность напрямую. Ни платье, ни эту статью, ни собственные руки. Все, что вы воспринимаете прямо сейчас, догадка вашего мозга о том, что, вероятно, находится снаружи. Образованная догадка, обычно очень точная, но все же догадка.

Эта концепция называется байесовским мозгом, и я хочу о ней рассказать. Потому что, во-первых, она красиво объясняет кучу странных вещей: от оптических иллюзий до галлюцинаций и эффекта плацебо. 

А во-вторых, ровно по такому же принципу работает половина современного машинного обучения. Stable Diffusion, которая дорисовывает картинку из шума, Языковые модели, которые предсказывают следующее слово. Автоэнкодеры, world models, диффузионки — все это, если снять маркетинговую обертку, машины, которые делают то же самое, что и ваш мозг прямо сейчас. Гадают.

Так что начнем с мозга, а закончим нейросетями, и по дороге, надеюсь, вы начнете чуть меньше доверять собственным глазам.

Читать далее

Пример n8n workflow для задачи объективного выбора лучшего из двух вариантов

Уровень сложностиСредний
Время на прочтение8 мин
Охват и читатели6.1K

Опишем базовую информацию по мини-фреймворку для работы со знаниями через LLM и рассмотрим пример n8n workflow для задачи объективного выбора лучшего из двух вариантов

Читать далее

Краткая история биометрии: как появилось распознавание по голосу

Уровень сложностиПростой
Время на прочтение4 мин
Охват и читатели7.7K

Мы продолжаем рассказывать про краткую историю биометрии. И нам осталось рассказать о распознавании голоса человека. 

Историю биометрии голоса обычно начинают с мейнфрейма AUDREY (Automatic Digit Recognizer), созданного в 1952 году в Bell Labs). Голоса разных людей он еще не распознавал, но уже их слышал, что по тем временам казалось чудом. Это устройство для «слышания» номеров, как писали в СМИ и рассказывали о ТВ, может избавить от необходимости набирать номер, но оно работает только при четком произношении цифр номера одну за другой. 

Читать далее

Промпт-инжиниринг для не-промпт-инженеров

Уровень сложностиПростой
Время на прочтение8 мин
Охват и читатели16K

Разобрал доклад Anthropic «Prompting 101» и собрал из него рабочую схему сборки промптов. С веб-сервисом и готовым Project для Claude.ai

Читать далее

Вспомнить всё. Спектр весов нейросети

Время на прочтение13 мин
Охват и читатели12K

В данной публикации попробуем сформировать простейшую нейросеть. Будем использовать Colab. Данный выбор также хорош тем, что то, что позволено Юpyтеру не позволено быку. Иметь локальные вычислительные мощности. В принципе довольно неплохая инфраструктура для проверки базовых алгоритмов налету. Если есть что то подобное на других платформах или можно сделать с использованием иных агентов, пожалуйста, прокомментируйте.

Целью является демонстрация сохранения информации об обучении в спектре весов, при его фильтрации и постеризации происходит не полное стирание этих данных, что можно использовать для дообучения в качестве начальных условий. При этом, после постеризации, коэффициенты весов выраженные в спектральных составляющих занимают существенно меньшее место. Также этот эффект интересен с точки зрения проектирования ИНС.

Вместо кода будут md-саммари по разделам, их можно использовать для генерации в качестве промптов для ИИ-агента.

>>ЧТЕНИЕ>>

Карпатый объяснил, почему ваши навыки программирования скоро станут ненужными. Или нет

Уровень сложностиСредний
Время на прочтение5 мин
Охват и читатели13K

Андрей Карпати дал 30-минутное интервью Sequoia Capital. 357K просмотров за два дня. Главный тезис: в декабре 2025 что-то щёлкнуло. Агентные инструменты перестали ошибаться. Не стали идеальными, а перешли порог, после которого перестаёшь помнить, когда последний раз исправлял код руками.

Software 3.0: промпт вместо кода. Модель сама разбирается с окружением, дебажит, адаптируется. Его собственное приложение MenuGen стало “лишним” после одной строки промпта в Gemini.

Мой вольный пересказ с комментариями из практики: почему vibe coding и agentic engineering это разные вещи, что такое “рваный интеллект”, и почему вкус важнее знания API.

Читать далее

Архитектура важнее размера: внедряем каузальные свертки в трансформер и получаем связный сторителлинг

Уровень сложностиСредний
Время на прочтение4 мин
Охват и читатели9.1K

Дело было вечером, делать было нечего. Я сидел за ноутом и разбирал новую идею Deepseek Engram: Лян Ванфень собрал вместе хеш‑таблицы и почти‑линейный трансформер — получилось дешево и сердито.

Однако есть в Engram один недостаток — он требует много RAM (каламбурчик, хаха). А хотелось архитектуру, на инференс которой не придется скидываться всем поселком.

Читать далее

Классификация галлюцинаций LLM | «Врага нужно знать в лицо»

Уровень сложностиСредний
Время на прочтение22 мин
Охват и читатели9.8K

В этой статье я постарался выписать все то, что понял про «галлюцинации» LLM за время их изучения и практики борьбы с ними. Будучи архитектором по профессии и занудой по природе, я изначально их классифицировал и искал способы, как галлюцинации победить / укротить. В этой статье я хочу поделиться тем, что мне удалось накопать.

Сопоставимого по охвату практико-ориентированного материала на русском я не нашёл. На английском есть более полные академические обзоры, но они опубликованы на arXiv и написаны для ML-исследователей.

Без академичности, описано на живом языке, надеюсь, будет понятно всем, кто осилит объем. Кратко написать статью не вышло, все же нужно показать, чем одна категория отличается от другой, а также предложить «как с ними можно бороться».

Классификацию галлюцинаций я разбил на 5 групп, на фундаментальном уровне выделив «главных виноватых»:
— Проблема в весах, а виновато предобучение
— Проблема в промпте, а виноват пользователь
— Проблема в самой архитектуре LLM, виновата жизнь
— Проблема в дрессировке RLHF, а виноваты горе-учителя
— Проблема в окружении LLM, а виноваты все, кто это окружение разрабатывает / интегрирует

Читать далее

Ближайшие события

Гайды по nxs-universal-chart v3.0: AI Inference контур на основе KServe

Уровень сложностиСредний
Время на прочтение10 мин
Охват и читатели6.6K

Итак, вы обучили модель и она показывает ожидаемые результаты. Теперь осталось выкатить её на контур, однако для этого необходим ряд компонентов: нужна маршрутизация трафика, непосредственно инференс. Желателен autoscaling модели, передача чувствительных данных, например креды до хранилища моделей. Ну и мониторинг не помешал бы.

Каждый компонент - это отдельный Helm-чарт, отдельные CRD и отдельная документация. В итоге, вместо быстрого тестирования модели и гипотез, приходится заниматься YAML-инжинирингом и громко ругаться благим матом.

Всем привет, на связи Пётр, инженер компании Nixys. В этой статье я покажу, как собрать полноценный inference-контур из пяти Kubernetes-операторов в одном values.yaml размером в 120 строк, используя nxs-universal-chart.

Читать далее

Новый Grok 4.3: как использовать без подписки за 300$ и подключить выгодный API нейросети для бизнеса

Время на прочтение2 мин
Охват и читатели10K

Grok 4.3 от xAI вышел в апреле 2026 года и пока остаётся в стадии бета-версии — протестировать его могут только подписчики SuperGrok Heavy за 300 долларов в месяц.

В чём Grok 4.3 опережает ChatGPT-5.5 и Claude Opus 4.7? Как использовать Grok 4.3 без подписки? И как получить дешёвые токены по API из России, без VPN и сложных настроек? Разберёмся.

Узнать больше

3D-кино с трекингом глаз: технический разбор моей реализации и открытые вопросы

Уровень сложностиСложный
Время на прочтение15 мин
Охват и читатели5.1K

В моей коллекции лежат фильмы в формате Top-Bottom стереопары. Без 3D-телевизора или VR-очков смотреть их без потерь нельзя. Поляризованные очки и активные затворы на десктопе работают плохо или дорого. Анаглифные красно-синие очки убивают цвет.

Хотелось третьего варианта — смотреть на обычном мониторе, без очков, с минимальным железом. Идея, на которую опирался: head-coupled perspective, известный с 2008 года по знаменитому Wii-демо Johnny Chung Lee. В октябре 2025 бывший инженер Meta Daniel Habib опубликовал True3D — head-tracked Window Mode, где экран ведёт себя как окно в 3D-сцену. У них под капотом MediaPipe FaceLandmarker + iris tracking + off-axis projection matrix + volumetric scene на Gaussian splats. Я попробовал перенести подход на готовую Top-Bottom стереопару из коммерческих фильмов. И тут начались интересные компромиссы.

В статье — технический разбор моей реализации: пайплайн сглаживания трекинга в четыре ступени (EMA + velocity buffer + jump threshold + adaptive scaling), predictive tracker на double exponential smoothing (метод Холта) для компенсации end-to-end лага в 65 ms, фрагментный шейдер на GLSL с view switching и blend zone через smoothstep, попытка извлечения disparity через OpenCV StereoSGBM. Подробное сравнение моего подхода и True3D с таблицей: где в их волюметрической архитектуре получается то, что у меня в принципе невыводимо из двух фиксированных 2D-видов.

Финал — пять документированных проблем (jitter на резких движениях, ghosting в blend zone, потеря половины разрешения, латентность, UV-параллакс vs настоящий off-axis) и шесть открытых вопросов к читателю: про DepthAnything в WebGPU+ONNX, про RIFE/DAIN как view-интерполяторы, про DIBR на compute shader, про принципиальную возможность восстановить volumetric scene из стереопары в реальном времени.

Читать далее

Claude пишет — бот работает: полный цикл создания Telegram-бота

Уровень сложностиПростой
Время на прочтение8 мин
Охват и читатели8.8K

Привет, Хабр!

В последние годы разработка ускорилась так, что старые подходы уже не успевают за новыми реалиями. Но дело не в новых языках или фреймворках. Появился другой рабочий сценарий — когда разработчик перекладывает часть рутины на нейросеть и ведёт её через обычный диалог. Это и называют вайбкодингом.

Звучит как модный термин, но по факту всё просто: вы меньше печатаете, больше управляете. Ставите задачу, задаёте границы, проверяете результат. И да, промптинг здесь — не магия, а обычная инструкция для модели.

Сегодня на практике посмотрим, как это работает. Создадим Telegram-бота-ассистента через вайбкодинг с Claude. Бот будет отвечать на вопросы, переформулировать текст и делать краткие саммари. А потом задеплоим его на сервер.

Читать далее

Шахматный гений, Сергей Брин и бананы: кто стоит за Gemini. Досье SpeShu.AI

Время на прочтение4 мин
Охват и читатели5.4K

Google купил DeepMind за $650 млн, не увидев ни одного коммерческого продукта, и не прогадал. Команда DeepMind создала отличную текстовую модель Gemini и фотогенератор Nano Banana Pro. Он считался лучшим в мире на протяжении полугода.

Как Демис Хассабис создал DeepMind и кто ему помог, давайте разбираться.

Это рубрика досье SpeShu.AI. Здесь мы составляем психологические портреты людей, которые ведут всех нас в будущее искусственного интеллекта и прямо сейчас меняют мир, как в своё время изменили Лейбниц, Эйнштейн и Курчатов.

Читать далее

Почему будущие ИТ-устройства должны работать без 0 и 1, если они хотят быть ИТ-устройствами будущего

Уровень сложностиПростой
Время на прочтение10 мин
Охват и читатели9.1K

Пришла пора выбросить на помойку идею арифметико-логических устройств (в просторечии АЛУ), на которых работают ваши и наши компьютеры (ибо именно из-за них все эти технологии перестали быть достаточно круты, чтобы делать действительно клевые штуки не только в фильмах Ридли Скотта).

К черту нули и единицы

Эффект «галлюцинаций»: когда ИИ врет уверенным голосом

Уровень сложностиПростой
Время на прочтение8 мин
Охват и читатели9.7K

ИИ может уверенно придумывать источники, путать факты и давать советы, которые выглядят убедительно до первой проверки. Для продуктовых команд, разработчиков и всех, кто внедряет LLM в рабочие процессы, это не абстрактная проблема, а риск в коде, поддержке, аналитике, юридических и образовательных сценариях.

В статье разбираем, откуда берутся галлюцинации языковых моделей, почему их нельзя просто «починить» дообучением и какие инженерные приемы помогают снизить вероятность ошибки до приемлемого уровня.

Читать далее
1
23 ...