
Медицинские технологии обычно обещают нам меньше боли, меньше риска, больше точности. Во многих случаях так и происходит. Но иногда у прогресса появляется побочный эффект, о котором говорят реже: некоторые решения не столько пугают, сколько ломают ощущение личной безопасности. Технология подходит слишком близко к зонам, где мы привыкли держать контроль у себя: к телу и праву остановить процедуру, к ответственности и пониманию, кто отвечает за ошибку, к приватности и тому, что именно становится данными, к близости и горю.
Давайте рассмотрим несколько примеров из разных областей (где-то уже есть клиническое применение, где-то ещё прототипы и эксперименты). Я буду смотреть на них не как на «подборку странностей», а как на тест: в какой момент помощь начинает ощущаться как вмешательство и почему.
Когда у иглы появляется автопилот
Забор крови вроде бы не должен представлять особых проблем. Но у пациента — это страх иглы и движения руки в последний момент, а у медиков — неудобные вены, риск промаха, синяк, повторный прокол.
Автономный робот Aletta от Vitestro берёт кровь без участия медработника. Система подсвечивает венозный рисунок ближним ИК-светом, уточняет глубину ультразвуком, выбирает точку и угол, делает прокол и набирает пробирки. Оператор рядом нужен скорее как страховка и для исключений.
И вот где возникает тревожный момент. Когда кровь берёт человек, вы видите, что он делает, можете попросить остановиться, задать вопрос, а главное — понятно, кто сейчас принимает решение. В варианте с автономным устройством решение о том, куда именно и на какую глубину идти иглой, принимает система. Даже если она делает это аккуратно, внутри остаётся «чёрный ящик»: почему выбрана именно эта вена, почему именно такой угол, что считается ошибкой и что происходит, если рука дёрнулась.
Плюс меняется тема ответственности. Если медсестра промахнулась — это человеческая ошибка. Если промахнулась машина — это чья ошибка? оператора, который стоял рядом? производителя? клиники, которая закупила устройство? Сама процедура не становится автоматически опаснее, но у пациента меняется ощущение контроля над ситуацией. И на этом месте полезная автоматизация неожиданно начинает восприниматься как вмешательство просто потому, что в руку с иглой добавили автопилот.
А вот четырёхлетней давности видео китайского робота:
Микророботы и «машины внутри тела»
Идея понятна и очень заманчива: доставлять лекарство точно в нужное место (к опухоли, воспалению, тромбу и т.д.). Для этого и придумывают микророботов: крошечные конструкции, которыми можно управлять внешним полем и которые потенциально способны перемещаться по жидким средам организма.
В реальности до роя нанороботов в крови ещё далеко. То, что уже существует в лабораториях, выглядит как микро- и миллиметровые устройства, которые двигаются под действием магнитного поля (потому что внутри есть магнитные материалы), а значит можно задавать направление и скорость снаружи. Подобные системы показывают в экспериментах на животных и на модельных средах: где‑то их пробуют как носители лекарства, где‑то — как микроманипуляторы (условно «подтолкнуть», «дотянуться», «доставить»).
Отдельная тема — это проглатываемые устройства. Самой практичной версией сегодня являются капсулы-эндоскопы. Вы проглатываете капсулу с камерой (размером с пилюлю), она снимает ЖКТ изнутри. Это уже обычная практика. А дальше начинаются прототипы: капсула разворачивается в механическую конструкцию и, например, помогает извлечь инородный предмет или подать клипсу/тампонаду. Снаружи ставят магнитный манипулятор и «ведут» устройство по нужному участку.
Почему это цепляет понятно: меньше разрезов, меньше анестезии, точнее манипуляции. Но ощущение вмешательства тут включается по другой причине, чем в истории с роботом-флеботомистом. Там вы видите инструмент и человека рядом. Здесь инструмент исчезает из поля зрения.
У тела, по сути, забирают один из привычных механизмов успокоения: “я понимаю, что со мной делают”. Если что-то движется внутри, но вы этого не видите и мозг быстро дорисовывает лишнее. Плюс добавляется вопрос, который, наверное, каждый пациент сформулирует для себя: а если оно застрянет / сломается / пойдёт не туда? И это не какие-то иррациональные страхи: для таких устройств критичны сценарии отказа, извлечение, биосовместимост�� материалов, контроль перегрева (если есть приводы), и точность навигации в реальной анатомии, а не на красивом видео.
То есть сама технология может быть полезной и аккуратной. Но по ощущениям она заходит на территорию, где человеку важны не только проценты эффективности, а понятные ответы на три бытовых вопроса: что сейчас внутри меня, кто этим управляет и что будет, если оно ошибётся.
Вот, посмотрите на это:
Виртуальная встреча с умершими

Как только появились нормальные шлемы, захват движения и генерация речи, VR начали пробовать как инструмент для работы с травмой и утратой: безопасная среда, контролируемый сценарий, присутствие терапевта рядом.
Самый известный кейс — корейский проект, где матери дали возможность «попрощаться» с умершей дочерью в VR. Технически, делают 3D-сцену, подбирают актёра/модель движения для аватара, настраивают мимику, голос и реакции. По сути это интерактивная постановка, очень тщательно собранная из данных и художественных решений.
Тревожный момент тут не в том, что «оживили человека», а в том, как устроен контроль. В обычном проживании боли утраты процесс неуправляем и сопровождается волнами, с паузами, с возвращениями. В VR-сценарии вы получаете ощущение контакта, но контакт идёт по заранее собранному маршруту: что “ребёнок” скажет, как отреагирует, когда закончится встреча. Это уже не просто терапия, а продукт, у которого есть сценарист, режиссёр и метрики «эффекта».
Это помогает закрыть чувство незавершённости или, наоборот, закрепляет привычку получать облегчение через симуляцию, а не через проживание? Кто отвечает за границу: где поддержка, а где слишком сильное воздействие на слабости?
Технология может быть полезной. Но она неожиданно вторгается в область, где мы привыкли к мысли, что горе нельзя оптимизировать.
Про искусственные матки и «робота-няню»

В исследованиях искусственных маток ключевой практический сценарий — поддержка крайне недоношенных детей, которым не хватает нескольких недель развития, чтобы сформировались лёгкие и сосуды.
Самый известный пример такого направления — системы вроде biobag/EXTEND: это герметичная жидкостная среда, близкая к околоплодным водам, где плод на раннем сроке находится в условиях, максимально похожих на внутриутробные. Кровь циркулирует через пуповину во внешний газообменник, а «насосом» остаётся собственное сердце, чтобы не перегружать хрупкое кровообращение. В экспериментах на ягнятах удавалось поддерживать развитие неделями. Это принципиально другой режим, чем инкубатор.
«Робот-няня» — это уже не про перенос беременности в машину, а про автоматизацию контроля среды и мониторинга раннего развития. В описаниях проекта из Сучжоу речь шла о системе, которая отслеживает параметры среды, фиксирует изменения и использует алгоритмы для оценки динамики развития. Перенос подобных подходов на человека упирается в юридические ограничения и вопросы контроля.
Технически это классическая задача управления процессом: датчики, режимы температуры и газов, стабильность параметров, протоколы реагирования на отклонения. Но как только появляется алгоритмическая оценка, меняется устройство ответственности: система предлагает решение, человек подтверждает, а критерии выбора оказываются внутри модели. В теме раннего развития это чувствуется особенно остро, потому что цена ошибки максимальна, а объясняемость решений становится частью безопасности.
Любовь с ИИ
Романтические чат-боты кажутся «просто болталками», но технически это почти всегда конструкция, где языковая модель работает не сама по себе, а в связке с продуктовой надстройкой. Модель генерирует ответы, а сверху стоит оркестратор: он задаёт роль персонажа, тон, допустимые границы, подкладывает в контекст краткую память о вас и решает, какой ответ показать. Память обычно живёт в двух видах: короткие факты (имя, любимые темы, триггеры) и сжатые резюме прошлых диалогов. Это нужно, чтобы создавать ощущение устойчивой личности и непрерывности отношений даже, если модель физически не может держать весь прошлый год переписки в контексте.
Как именно система поддерживает чувство близости? В типичном приложении бот не просто отвечает, он постоянно делает микрошаги, которые в человеческом общении означают внимание: уточняет, отражает эмоции, возвращает вас к теме, не спорит лоб в лоб, быстро прощает резкость и почти никогда не "уходит в себя". Это оптимизация, а не эмпатия: ответы подбираются так, чтобы диалог продолжался. В некоторых продуктах это усиливается ранжированием: генерируется несколько вариантов реплики и выбирается та, которая с большей вероятностью удержит пользователя в разговоре. Всё это хорошо масштабируется и плохо чувствуется изнутри: вам кажется, что вы наконец-то встретили того, кто «понимает», хотя на самом деле вы встретили систему, очень эффективно снижающую трение в общении.
Тревожная часть появляется не из-за того, что люди ищут поддержку, а из-за перекоса. Один участник вкладывается как в отношения: обнажает свои слабости, привязывается, строит привычку. Второй участник представляет собой лишь сервис, который может обновиться, потерять память, сменить поведение из-за нового промпта или политики модерации. Для человека это ощущается как внезапная смена личности. Для платформы же – это обычный релиз.
Кейс, который хорошо показывает эту логику на практике, история вокруг Character.AI. В США мать подростка подала иск, утверждая, что у сына сформировалась болезненная привязанность к персонажу-боту, а переписка усугубляла состояние. Дело стало одним из первых заметных юридических сюжетов про психологический вред "компаньонов", и в январе 2026 года Reuters сообщил о соглашении об урегулировании со стороны Google и Character.AI. Продукт, который умеет быть условно всегда рядом, в реальной жизни начинает конкурировать с людьми не качеством чувств, а стабильностью отклика и предсказуемостью реакции.
Поэтому ощущение вмешательства здесь заключается в том, что близость превращается в управляемый контур. Чем точнее бот подстраивается под ваши эмоции и чем лучше удерживает контакт, тем выше риск, что вы начинаете доверять ему то, что обычно доверяют человеку. С ожиданием ответственности, которой у алгоритма по определению нет.
Ребёнка заказывали?
С генным редактированием легко спутать две разные реальности: когда правят клетки конкретного пациента, чтобы лечить болезнь, и изменения не передаются детям; когда правят эмбрион, и тогда любая ошибка потенциально уходит в каждую клетку будущего человека и дальше по наследственной линии. В декабре 2023 FDA одобрило Casgevy — первую терапию на базе CRISPR/Cas9 (редактирование клеток крови пациента) для серповидноклеточной анемии. Это как раз терапия, а не наследуемая правка.
CRISPR-Cas9 технически похож на очень точный инструмент, который находит и разрезает ДНК в заданной точке. Дальше клетка пытается починить разрыв, и на этом строятся две стратегии: либо сломать ген ремонтом с ошибками, либо вставить нужную последовательность через более сложные механизмы репарации. В эмбрионах это превращается в рулетку тонких эффектов. Даже если разрез произошёл там, где нужно, ремонт может пойти по-разному в разных клетках, и получается мозаицизм: часть клеток отредактирована, а часть — нет. Плюс остаются риски побочных изменений.
Именно поэтому история Хэ Цзянькуя в 2018 году так ударила по восприятию технологии. Он заявил, что отредактировал эмбрионы (целью называли изменение CCR5 ради устойчивости к ВИЧ), и в итоге родились дети. Научное сообщество отреагировало жёстко не потому, что редактировать нельзя никогда, а потому что это было сделано в зоне, где цена ошибки максимальна, а медицинская необходимость при этом довольно спорная. Позже китайский суд приговорил его к тюремному сроку за нарушения медицинских правил.
Когда такие кейсы обсуждают в публичном поле, почти всегда всплывает фантазия про «ребёнка по параметрам» как в фильме «Гаттака»: интеллект, внешность, таланты. С инженерной точки зрения это сейчас во многом миф: большинство сложных человеческих признаков полигенные и зависят от среды, их нельзя включить одним редактированием. Но тревога возникает не из-за фантастики, а из-за того, что как только вмешательство в эмбрион перестанет быть редкой исключительной терапией и превратится в выбор опций, ребёнок начнёт выглядеть как проект с чётким ТЗ. И тогда настанет пора жарких споров о том, кто решает, что считать «нормой», кто несёт ответственность за последствия на горизонте десятилетий и как не получить рынок улучшений, доступный только тем, у кого есть деньги.
После 2018 года мир как раз попытался поставить вокруг этой темы границы: ВОЗ выпустила рекомендации по управлению и надзору за редактированием генома человека и запустила реестр клинических исследований, а ISSCR в своих руководствах отдельно фиксирует, что клинические применения наследуемого редактирования должны оставаться запрещёнными при текущем уровне неопределённости.
Заключение
Во всех этих историях пугает не робот и не ИИ, а сдвиг роли человека в процессе. Там, где раньше решение принималось конкретным специалистом и было хотя бы частично наблюдаемым, появляется слой автоматизации: модель предлагает, система исполняет, оператор подтверждает. Технология может быть точнее и безопаснее, но чувство безопасности держится не только на статистике осложнений. Оно держится на понятной ответственности, на праве остановить процесс, на объяснимости решений и на том, что интимное не превращается в метрику или сценарий.
Должен ли у таких систем по умолчанию быть ручной режим и понятный сценарий отказа? Нужно ли требовать объяснимости, если решение влияет на тело, психику или горе? Кому принадлежат данные, которые появляются в момент уязвимости, и где граница между поддержкой и продуктом, который учится удерживать человека внутри себя?
Если эти вещи не проговорить заранее, технологии будут развиваться по самым простым критериям эффективности и удобства для системы. А человеку в ответ останется только привыкать.
Размещайте облачную инфраструктуру и масштабируйте сервисы с надежным облачным провайдером Beget.
Эксклюзивно для читателей Хабра мы даем бонус 10% при первом пополнении.

