Фаундер Airbnb предсказывает движение к реальному в эпоху искусственного. Техническая реализация — вот где главная проблема сейчас.
В ноябре Брайан Чески выступил с тезисом, который недавно привлёк внимание: его назвали одним из самых прозорливых визионеров Кремниевой долины.

Брайан сделал годную провокацию: мол, спустя три года после взлёта ChatGPT 3.5 мы всё ещё не видим реального и существенного приложения этих технологий к решению проблем: «Люди всё так же залипают в телефоны, только вместо Google идут в ChatGPT». В топ-50 App Store первые три места — Sora, ChatGPT и Gemini, а остальные 47 — это те же приложения, что были до появления AI.
Метафора Чески:
«Интеллект — это золото. Enterprise-стартапы — компании по продаже кирок и лопат. Но что мы делаем с золотом? Мы изобрели реактивный двигатель и приделали его к машине. Нужно изобрести самолёт».
Ну, допустим, можно перевернуть этот тезис так: настоящее золото, прорыв будущего лежит уже не среди топовых AI-лабораторий, а среди реального бизнеса, эффективность или продукт которого перевернутся с ног на голову из-за AI. И надо смотреть туда, в «остальные 47» сервисов из топ-50 — кто из них будет успешно дизраптить свой бизнес с AI, или кто-то придёт и задизраптит их, скинет с Олимпа.
Но вот ещё одна интересная (хотя и неоригинальная) мысль Брайана:
«Важное слово в AI — это "искусственное". После Sora ты не можешь знать наверняка, реально ли то, что видишь на экране. В будущем всё на экране — искусственное или может быть искусственным».
Отсюда стратегия: «Противоположность искусственного — реальное. Противоположность экрана — реальный мир».
Его прогноз: цифровой мир станет всё более искусственным и иммерсивным, но физический мир останется физическим. Роботы заменят множество работ, но людям по-прежнему будет нужна связь с другими людьми.
«Ваши фолловеры не придут на ваши похороны. Никто не изменил чужое мнение в секции YouTube-комментариев. Скоро ваши друзья будут AI. Поэтому должно быть движение к реальному».
Проблема без решения
Визионерство Брайана работает на уровне прогноза спроса: людям действительно захочется качнуться к реальности, когда контент вокруг не даёт объективного представления о происходящем.
Но как это реализовать технически? Вот что мы видели до сих пор:
Верификация аккаунтов недостаточна — в человеческих аккаунтах можно размещать AI-контент. Даже если ты сделаешь верификацию по паспорту владельцев аккаунта, это не защищает от размещения в их аккаунтах AI-слопа или дезы
Вотермарки подделываются или удаляются. Ленты забиты видосами из Sora и картинками Nano Banana с удалёнными маркерами ИИ-контента
Центры проверки фактов обманываются, игнорируются, при больших объёмах задач не справляются с обработкой. С ними экспериментировали и Цукерберг, и прошлая администрация Twitter — они скорее нужны для прикрытия, а не для решения проблемы
Спрос на реальное увеличится. Но хороший вопрос не всегда имеет хороший ответ. Верифицировать реальность контента так, чтобы систему нельзя было обойти — пока что не решённая задача.
Криптография и персональная ответственность: подход World
У фаундера OpenAI Сэма Альтмана и фаундера Tools for Humanity Алекса Блании есть совместный проект World (ранее Worldcoin). Его заявленная миссия — обеспечить процветание людей в эпоху, когда ИИ-ботов вокруг становится всё больше: создатели утверждают, что к некоторым сервисам доступ стоит давать только для живых людей — финансовым приложениям, трейдинг-платформам, социальным сетям, дейтингу и видеоиграм.

В основе World лежит биометрия как способ идентифицировать конкретного человека и безопасно связать его с цифровыми аккаунтами. Насколько можно судить, на базе этих технологий небольшая команда вокруг этого проекта работает (как минимум с апреля 2025) над созданием социальной сети для живых людей, где верификация будет через биометрию в специальных сферических устройствах Orb, раскиданных по миру. Массовые сервисы так до сих пор не делали, полагаясь на электронные почты или телефонные номера.
Но интерес тут не только в соцсетях и предсказаниях, будет ли запуск успешным и востребованным, но и в способе контролировать то, что постит человек — а не только верифицировать реальность его личности.
В версии протокола World ID 3.0 была представлена функция Deep Face. Она нацелена на решение проблемы дипфейков в реальном времени (например, в видеозвонках).
Система сравнивает видеопоток с вашими биометрическими данными, подтвержденными ранее через Orb — станцию регистрации, которую нельзя подделать. Если кто-то пытается выдать себя за вас в FaceTime или Zoom, используя ИИ-фильтр, система увидит несоответствие «цифровой подписи» лица и заблокирует авторизацию.
Что касается обычных видео и постов, подход архитекторов World (и Сэма Альтмана в частности) заключается не в том, чтобы «угады��ать», сгенерировано ли видео (это невозможно, и все сервисы-«детекторы AI» — полная херня), а в том, чтобы криптографически подтверждать источник данных.
Ответственность на авторе: если видео опубликовано аккаунтом с World ID, это значит, что за него отвечает конкретный живой человек. Если он публикует фейк, его репутация (и доступ к сервисам) может быть аннулирована
Верификация съёмки: World продвигает идею интеграции с аппаратным обеспечением камер. В будущем камера смартфона может «подписывать» файл в момент съемки ключом, привязанным к вашему World ID. Это создает метаданные (по стандарту C2PA), которые подтверждают: «Это видео было снято физической линзой в такое-то время, а не сгенерировано нейросетью»
Сделаем несколько допущений, чтобы телепортироваться в будущее: допустим, Альтману удалось создать востребованную соцсеть. Допустим, другие продукты, заваленные AI-ботами и нейрослопом, оказались покинутыми реальными людьми. Допустим, что новые методы верификации оказались действенными и прошли государственную регуляцию, в том числе приняли регуляции ответственности авторов контента за его оригинальность.
И вот мы в мире, где для победы над AI-контентом введена и легализована персональная ответственность авторов контента, а чтобы получить внимание других живых людей, нужно сидеть под аккаунтом, который привязан к твоей биометрии.
И если ты запостишь что-то, что в картине мира Сэма Альтмана, его компаний и государственного аппарата будет воспринято как дезинформация или введение в заблуждение, то твой социальный рейтинг упадёт. Сначала ты лишишься доступа к постингу в эту соцсеть или каких-то бенефитов ChatGPT, а потом у тебя вырастет процент по ипотеке.
Норм?
Скрытый текст
Такие посты чаще выходят у меня в Telegram-канале, где в основном пишу про AI и его применение. Что? Сам раскрыл этот спойлер.
