Как стать автором
Обновить

Комментарии 38

Мужик вообще-то в предметной области 50 лет, и его прогнозы осуществляются на 80-90%.

За 20 лет хз (журнашлюхи часто перевирают), но за 30 может быть и реально. В чем вообще главная фишка этой логики? В том, что следующие 10 лет не равны по технологическому потенциалу предыдущим 10 годам, а существенно больше благодаря ускорению прогресса. То есть если мы видим цифру 20, следует рассматривать ее как N^20, а если 30, то это уже N^30, и это большая разница — в N^10 раз. N равно единице + % роста показателей. Чем мощнее у нас железо, тем эффективнее получается проектировать (а также и внедрять) следующие его поколения. В то же время подобные качественные изменения для многих людей выглядят непривычными и часто отрицаются, или экстраполируются чисто количественно (тогда получаются страшилки типа «Матрицы»).
Это в предположении, что каждая следующая задача равна по сложности уже решённым.
Тогда, при возрастании вычислительных мощностей и прочих возможностей, ступеньки в роадмапе будут проходиться быстрее и быстрее.
Однако, сложность задач может расти быстрее чем возможности, полученные от предыдущих решений. Тогда каждое новое (условно) поколение технологий будет изобретаться всё с большей временной задержкой.
Это смотря какие задачи и что считать поколениями технологий. Конкретные технологии, как правило, развиваются по S-кривой до какого-то оптимального состояния (что часто считают замедлением общего прогресса на примере, скажем, транспорта), но после этого их начинают «закрывать» (или вытеснять в более узкую нишу) какие-то совершенно другие технологии. Например, ж-д вытеснялись автомобилями (а затем автомобили в свою очередь скоростными ж-д, велосипедами или авиацией в разных применениях), а транспорт в целом как инструмент бизнеса и коммуникаций теснят ИКТ (при том он продолжает развиваться и, например, грузы еще не телепортируют физически, но уже есть примеры печати некоторых объектов на 3D-принтерах вместо перевозки и т. д.).

Курцвейл говорит прежде всего о достижении вычислительной сложности человеческого мозга и о следующем за этим резком скачке развития ИИ (и апгрейда интеллекта человеческого). На то есть очень веские основания, т. к. наш текущий интеллект эволюционно сформировался на очень тормозном и бажном фундаменте, как и вся биология, и когда мы получаем возможность его фиксить (или моделировать на менее бажной основе) — продуктивность может увеличиваться на порядки за небольшое по историческим меркам время. В целом, мы сейчас учимся создавать все более сложные объекты со все большей точностью, и эти объекты все больше позволяют нам усиливать свои интеллектуальные возможности, поскольку мы их можем все лучше подстраивать под наши потребности и в том числе под наши мозги и прочую биологию. На каком-то этапе такие конструкции оказываются эффективнее, чем те, что сформированы природой — на этом, собственно, и основывается идея т. н. сингулярности.
Это смотря какие задачи и что считать поколениями технологий

К примеру, планы 2045.ru
2020: копия тела, управляемая дистанционно — допустим, осилят в срок
2025: копия тела, в которую пересаживается мозг — допустим, тоже
2035: загрузка сознания в полностью искусственное тело — а тут раз — и не 10 лет потребуется, а все 100 или даже 500. ведь никто не знает, что такое сознание. и матчасть может созреть только через сотни лет
Планы 2045,ru в целом основываются на нескольких теоретических утверждениях, которые, если придерживаться научной честности, пока требуют доказательства, но в целом укладываются в материалистическую картину мира. Согласно этой теории, сознание порождается определенным образом организованными информационными структурами определенного уровня сложности. Соответственно прогнозы основываются на возможности воспроизвести такой уровень сложности с помощью НБИК-техологий к соответствующему году. ИИ человеческого уровня (прогнозируемый примерно на 2030 год) — возможно, будет еще недостаточным собственно для загрузки, но несомненно позволит создать эффективные интерфейсы для расширения возможностей мозга и более глубокого изучения его свойств, в т. ч. сознания. Дальнейшие прогнозы ускоряются до «сингулярности» благодаря тому, что такой расширенный мозг (или «чистый» машинный ИИ, смоделированный по образцу человеческого) будет на порядки быстрее мыслить и соответственно быстрее производить сверхсложные технологии. То есть не просто такие же процессоры, только с большим числом ядер и/или частотой, а в прямом смысле искусственные мозги из каких-нибудь наноассемблеров, конфигурирующие себя на лету и все больше растущие в «ширину», а может быть и в глубину за счет исследования фундаментальных свойств материи. Некоторые сценарии предусматривают с тех же 2040-х начало преобразования целых планет в компьютрониум (мыслящее вещество) такой мощности, которой с головой хватит для воспроизведения не то что миллиардов, а квадриллионов человеческих разумов, даже если это будут чисто классические вычисления. А скорее всего они будут квантовыми.

Какое будущее считаю вероятным лично я?

Сейчас нам (человечеству в целом) нужно уверенно оседлать несколько ключевых трендов:

1) Вычисления после закона Мура: графен, фотоника, что угодно еще для выхода за пределы ограничений текущих кремниевых технологий. Сам Курцвейл говорит о так называемых обратимых вычислениях — такой организации архитектуры, которая позволит минимизировать затраты энергии в схемах и разгонять их на порядки без упирания в тепловой барьер. На какой материальной базе это будет реализовано, это еще вопрос. В любом случае, флопсы должны расти как минимум на те же 3 порядка за 10 лет. Но это еще не всё.

2) Биотехнологии и, в частности, программирование структур из ДНК. Это — путь к первым программируемым нанороботам, а далее соответственно и к более универсальным их моделям. С другой стороны к нанотехнологиям подбирается 3D-печать. Вот здесь еще не совсем ясно, как быстро мы перейдем от текущих самых точных образцов 3D-принтеров к полноценным нанофабрикам, которые будут реально собирать объекты по атомам. Пока что не видел толком даже виртуальных моделей нанороботов, которые бы работали в каком-нибудь эмуляторе физической среды. Но с другой стороны, нанороботы как таковые уже существуют в природе, как части живых клеток или сами клетки, и вопрос в их конструировании с нужными свойствам. Здесь опять может помочь синтетическая биология, ксеноДНК (с другой химической основой, для сборки квази-живых структур, скажем, из каких-нибудь металлов или других не освоенных природой элементов) и все такое.

3) Квантовые вычисления с выходом на новый аналог закона Мура — где производительность растет экспоненциально при линейном (!) увеличении числа кубитов, то есть границ практически нет — главное уметь транслировать необходимые нам вычислительные задачи в квантовую форму. Но думаю, благодаря квантовой природе самой физической реальности ее моделирование будет осуществляться весьма «нативно»; в таком случае классические компьютеры возьмут на себя роль буфера для распределения получаемых данных по квантовым «ускорителям», и их производительность перестанет ограничивать общую производительность систем. Тогда, даже если окажется, что сознание по Пенроузу имеет квантовую природу, его воссоздание станет делом обозримого будущего. А может быть, даже и воссоздание утраченного, т. е. Большая Мечта ака Общее Дело космистов. В любом случае сам по себе уровень познания, до которого мы таким образом можем добраться, более чем впечатляет.

4) Экспоненциальная энергетика и освоение космоса. Это, скажем так, инструменты мотивации человечества к прогрессу, чтобы оно не скатывалось к нездоровым идеям, а продолжало смотреть вперед.

Насколько всё это реально к 2045 году?

Прежде всего, ресурсная и мотивационная база (4) не составляет никакой проблемы. Популярные мальтузианские мифы основаны на непонимании экспоненциальных темпов роста ВИЭ и прочих технологий ресурсного обеспечения и их потенциала — на одной только поверхности Земли энергии на 3-4 порядка больше всех наших текущих потребностей, на ближайшее время хватит, а там и за пределы планеты ничто не мешает выдвигаться. Конечно, вряд ли можно сделать много за 30 лет, но в качестве ориентира и мотиватора космос — мощный ресурс.

Далее у нас идут ИТ, как минимум для моделирования всех этих чем дальше, тем более сложных ништяков. Сегодняшние тенденции развития процессоров для ПК, скажем прямо, не впечатляют — ПК с его ЦП все больше превращается в некий вспомогательный элемент управления доступом к облачным ресурсам и контенту. Но есть еще графические ускорители с поддержкой общих вычислений, есть собственно суперкомпьютеры, которые устанавливаются по ту сторону в облаках. Есть, в конце концов, и все более разнообразное специализированное железо вплоть до персональных суперкомпьютеров; в общем, не ПК единым. Краудфандинг, краудсорсинг, опенсорс в ПО, железе и науке — гарантия того, что ништяков будет появляться все больше, при этом они будут становиться мощнее и доступнее.

Такая же ситуация в биотехе и аддитивном производстве, за исключением того, что здесь еще нет своего Intel или IBM. Как и за сколько времени мы доберемся от нынешних репрапов, мейкерботов и т. п. и днк-оригами до полноценного нанотеха? Вопрос интересный. При этом и традиционные методы производства железа, скажем, тех же микросхем не стоит сбрасывать со счетов. Возможно, в сегодняшних хакерспейсах еще и не делают открытых аналогов хотя бы пентиумов, но тем не менее DIY-сообществу с каждым годом доступно все больше технологий, которые ранее были доступны преимущественно в дорогих корпоративных или университетских лабораториях. Этот процесс несомненно будет продолжаться. Кстати, это касается и робототехники, которую я выше намеренно пропустил, поскольку этот тренд мы уже практически оседлали. Роботы — это уже мейнстрим. Имеются в виду такие роботы, которые реально важны для производства, а не популярные в прошлом мемы из НФ; хотя социальные роботы в быту тоже становятся одним из факторов мотивации общества и снижения «шока будущего». Одно из узких мест робототехники в прошлом — энергообеспечение — тоже постепенно расширяется по мере прогресса аккумуляторов и ВИЭ.

Наконец, квантовые компьютеры еще в процессе выхода на взлет, но я не вижу фундаментальных причин, которые бы помешали им взлететь в ближайшие максимум 10-20 лет. Пусть даже в виде дорогих лабораторных установок, недоступных большинству напрямую, но с предоставлением доступа через облака (может быть, через NN лет мы и на стол себе поставим небольшой квантовый комп, положим в карман или встроим в самих себя — но даже в первоначальном громоздком виде они будут рулить и дадут радикальный импульс развитию ИТ).

С учетом всего вышесказанного, у нас, в общем-то, неплохие шансы увидеть к 2045 году что-то такое, о чем говорит Курцвейл, в какой бы форме это ни было реализовано. Особенно если уже сегодня реально заниматься актуальными технологиями, а не пить коктейли (это такой мем из сообщества трансгуманистов, символизирующий тусовочную болтовню и пассивное ожидание «сингулярности»).
С квантовыми вычислениями может случиться та же история, что с холодным синтезом: в теории всё понятно, на учебных стендах работает (в микро-масштабе), но в производство запустить — никак, хоть и 70 лет пытаются.
Что в холодном синтезе «в теории понятно» и «на учебных стендах работает», если официально (на уровне признанной науки) его вообще не существует в принципе?
И первые опыты только лет 30 назад появились, но тогда это было то ли ошибкой/то ли мошенничеством — никто повторить в других лабораториях не смог.

Сейчас новая более серьезная волна началась(на других принципах), но всего около 4 лет назад.
Над этим уже работают, например en.wikipedia.org/wiki/Blue_Brain_Project
Где-то лет через 10 ожидается смогут смоделировать мозг человека «в лоб» на суперкомпьютере — не пытаясь досконально разобраться в высших функциях и «организации данных», а просто моделированием шаг за шагом начиная с индивидуальных нейронов и синапсов и наблюдая за переходом количества в качество (уровень разных червей и насекомых давно и успешно опробован, сейчас работают с уровнями соответствующими мелким животным типа мышей или крыс, скоро уже должны быть результаты)

Так же в прошлом году в ЕС совместно с США запустили другой крупнейший проект, объединяющий сотни ученых и с финансированием на несколько миллиардов долларов. Его цель тоже примерно через 10 лет построить уже именно функциональную модель работы мозга конкретно человека — т.е. понимать все информационные процессы в нем происходящие и связи, после чего можно будет заниматься «оптимизациями» и разработкой систем выполняющих аналогичные функции намного эффективнее чем пошаговое моделирование на обычном универсальном компьютере, которые используются в Blue_Brain_Project. Это нужно чтобы в перспективе можно было работать над разработкой электронного мозга компактных размеров, а не суперкомпьютеры размером с этаж для этого гонять. (классические вычислительные машины скорее всего никогда не получиться сделать настолько быстрыми/эффективными, чтобы необходимую выч. мощность уместить в размерах сравнимых с живым мозгом, скорее всего понадобятся как минимум нейроморфные процессоры, а возможно и смесь из FGPA + ASIC технологий).

Про это у нас писали: geektimes.ru/post/168087

Самая проблема где пока серьезных подвижек нет, это проблема как считывать данные с живого мозга для переноса. Пока ничего лучше чем нарезание мозга на тончайшие пленки с последующим их сканированием с макс. доступным разрешением и восстановлением полной 3д структуры из массива полученных плоских изображений не придумали.
Что само собой подразумевает биологическую смерть человека и необратимость процесса. Ну и точность еще недостаточная, но хотя бы сравнима с требуемой.

Все остальные щадящие методы(без вскрытия черепушки и повреждений мозга) даже близко к нужному уровню детализации позволяющему считывать состояния отдельных нейронов и сеть связей между ними не подошли.
Ух ты, а мы уже открыли механизмы хранения информации в мозгу, и можем её оттуда считывать?) (сигналы энцефалограммы не в счёт).
Звучит как-то черезчур оптимистично. Если к проблеме моделирования интеллекта уже есть отчетливые подходы, и построение такой модели лишь вопрос времени, то вот к проблеме чтения интеллекта с бионосителя таких подходов даже не намечается. Разрешающая способность неинвазивных аппаратных средств для чтения синаптических связей слишком низка и с этой стороны, скорее всего, тупик. Не говоря уже о каналах внесинаптической передачи.
Да, подробностей не хватает. Может мы чего-то не знаем, может гугл уже делает нанороботов?
Ну, простейших "нанороботов, изготовленных из нитей ДНК" не просто делают, их можно уже купить в магазине, стоит это удовольствие от 50К рублей за вектор. Называются они лентивирусами. И других ретровирусов вовсю делают для разных экспериментов. Только толку-то? Вероятно, они как-то могут помочь в чтении связей, но пока непонятно как. Пока их роль сводится к исследованиям в сфере связей генотип-фенотип.
Почему сводится? Их так же используют для генной модификации организмов. Включая взрослых особей, а не только эмбрионы. И включая уже даже и человека в том числе. (хотят тут очень медленно, но не по техническим причинам, а из соображений безопасности, этики, бюрократии и т.д.).
Генная модификация животных, а тем более человека, пока еще не вышла из лабораторий на промышленный и коммерческий уровень. И не из соображений бюрократии и этики, а из соображений как раз существенной недоопределенности связей между геномом и феномом. А эта недоопределенность, в свою очередь, вытекает из сложности и нелинейности самих механизмов отображения генной информации в фенотипические эффекты — причем начиная с самых низших уровней процесса: транскрипции, изомеризации, сплайсинга и пр. Можно сейчас уже спроектировать на имеющихся у нас данных какую-нибудь последовательность и сделать вирус, который ее доставит — и поставить на себе эксперимент. И никакая бюрократия и этика этому уже не в силах помешать. Но что-то толп желающих пока что нет )
> Генная модификация животных, а тем более человека, пока еще не вышла из лабораторий на промышленный и коммерческий уровень.

Препараты уже несколько лет как продаются и лечение посредством модификации проводится.
ru.wikipedia.org/wiki/Генотерапия
Если говорить о полном соответствии генотип-фенотип, то да для установления полной картины связей для человека и сложных животных еще очень далеко. На данный момент хорошо изучено (т.е. выяснено за что ген отвечает и на чем его работа сказывается) только около 10-15% генома человека. (кодирующей части, от всех ДНК меньше)

Но о тех генах где связь уже выяснена и доказана — уже идут успешные опыты с модификацией, т.к. нет необходимости дожидаться изучения всего генома в целом, если меняется только известная уже изученная часть. Обычно 1-2 «испорченных» генов заменяются «эталонными» копиями.

И желающие «ставить на себе опыты» есть в значимых количествах — кому не повезло с какими-то врожденными ген. дефектами родиться. Первые такие работы уже вышли так сказать на «коммерческий» уровень из стан лабораторий — т.е. уровень применения как доказанной и допущенной к официальному применении методики лечения.

А вот над всякими «улучшениями» работать запрещают в большинстве развитых стран — лаборатории просто не дадут такие по такой тематике работать. Кто нибудь конечно все-равно этим займется (возможно уже занимается прямо сейчас), но либо тайно на частные средства, либо уехав и перенеся лабораторию в другую юрисдикцию, где таким заниматься не запрещают.
"...хорошо изучено (т.е. выяснено за что ген отвечает и на чем его работа сказывается) только около 10-15% генома человека..."

В том-то и проблема, что выяснены только прямые эффекты, а вот о косвенных, пока не изучены остальные 90%, можно только предполагать с той или иной степенью вероятности. Все было бы проще, если бы связь между кодирующей последовательностью и ее — даже не конечным белковым продуктом, а считываемой с нее мРНК — была однозначной. Но это не так.

"...кому не повезло с какими-то врожденными ген. дефектами родиться..."

Опять же есть разница между модификаций (т.е. проектируемым улучшением) и замещением известной «неисправной» последовательности на «исправную эталонную». И даже тут пока что мы очень далеки от практического применения. Я пристально за этим не слежу, может быть, конечно, уже где-то есть отдельные прецеденты коммерческого применения, но широкой практики пока не видно.

Где-то запрещают, где-то нет. Вот китайцы недавно на эмбрионах опробовали исправление генома — с каким-то, далеким от 100% успешности, результатом. Т.е. проблема не столько в том, что запрещают, сколько в том, что — пока — не удается, или удается далеко не все и не так, или удается с не вполне прогнозируемыми последствиями. Как только кому-то где-то удастся получить надежные результаты — коммерческие применение не заставит себя ждать, и запреты этот процесс не удержат.
Ну вроде практически однозначная — считается что ДНК последовательность однозначно определяет как структуру, так и функции белка. Если нет «сбоев» в процессе синтеза (дефектов или серьезного внешнего воздействия на клеточные механизмы), то результат на выходе зависит только от нуклеотидной последовательности в ДНК.

Сейчас одно из «горячих» направлений молекулярной биологии это как раз определение (расчет/предсказание) третичная структура белка по его первичной последовательности (которая в свою очередь полностью описывается «буквенной» последостельность из ДНК, которые для человека уже полностью определены).

Успехи на этом направлении последние несколько лет очень хорошие — результаты рассчетов(моделирования) почти идеально ложатся на экспериментальные данные.
Я кстати в паре подобных проектов сам участвую как волонтер и «агитатор» (превлекающий/мотивирующий других волонтеров), потому как методика и алогитмы хоть уже и дошли до приличного качества, но на 1 белок уходит несколько недель счета суперкопьютера или крупной распределенной сети.

Успехи регулярно оцениваются в слепом тесте/соревновании: en.wikipedia.org/wiki/CASP

Китайцы да, однакак если читали то на них сразу чуть ли не половина мира с критикой обрушилась за это. И подобные исследования в большинстве развитых стран просто запрещены. Какие бы были результаты без этих запретов, когда тем же самым занимались не одна малоизвестная китайская группа, а несколько ведущих научных лабораторий параллельно сложно сказать. Но думаю намного лучше.
Но они не занимаются, потому что НИЗЯ.

Удержать конечно совсем не получится, а вот затормозить на десяток-другой лет вполне. Точнее порядка десятка лет «тормоза» уже по факту есть.
"… Ну вроде практически однозначная — считается что ДНК последовательность однозначно определяет как структуру, так и функции белка..."

Это если мы имеем дело с непрерывной кодирующей последовательностью, а не, например, интрон-экзонной, которых у эукариот подавляющее большинство. И в последнем случае на сцену выходит альтернативный сплайсинг, результат которого зависим, в том числе, от продуктов экспрессии других последовательностей, ряд которых, опять же, имеет интрон-экзонную структуру.

"… Китайцы да, однакак если читали то на них сразу чуть ли не половина мира с критикой обрушилась за это...."

Любопытно было бы посмотреть на это «обрушение», если бы им удалось показать существенно более успешный результат. Но результат от успешности пока, в общем, довольно далек.

Тормоза, конечно, в некоторой степени влияют на ситуацию, но они ее не определяют, как мне думается. Это пока скорее экзотика — именно в силу недостаточных возможностей моделирования и моделей, обладающих достаточно надежной предсказательной силой. Механизм как модифицировать в целом понятен и просто не настолько интересен, как вопрос что модифицировать, чтобы получить нечто четко запланированное — а не неведому зверушку. Поэтому и ведущие лаборатории пока в основном заточены под мышек и прочих мелких зверушек.
Я общался с разработчиком генного препарата. Первый официальный в России. Неоваскулген называется. Есть и развивается уже.
Какой-то более серьезной информации по механизму действия или хотя бы карты последовательности найти не удалось (. Но насколько я поняла по описанию препарата, к генной модификации человека это не относится, т.к. интегративностью эти плазмиды не обладают, в хроматин не встраиваются, экспрессируются пока целы — и все. Ну да, генная терапия — но не генная модификация.
Да, там плазмиды. Через время элиминируются, наштамповав фактор роста сосудов. С одной стороны прекращение действия, когда работа закончена, с другой минимальный риск онкологии и побочных эффектов.
… А с третьей стороны — заоблачная стоимость и необходимость повторения процедуры по этой заоблачной стоимости, когда ситуация вернется на круги своя. Было бы интереснее, если бы последовательность встраивалась в хроматин, а фактор роста — и/или другие сигналы успешной терапии — одновременно участвовали бы в регуляции экспрессии. Интересно, что помешало реализовать такую модель?
Трудно реализуется обратная связь. Велики риски аномальной васкуляризации без возможности подавления экспрессии. На самом деле очень крутая вещь. Видел результаты. Хотя и дорогая до безобразия. Но зато цена особо оттимпорта не зависит и есть большой потенциал для снижения ещё процентов на 30.
Интересно бы посмотреть, как ее, обратную связь, моделировали (если моделировали вообще). И как обходится иммунный ответ.
А ведь конечно крутая сама по себе… шажок в будущее.
Там, насколько я понял, задумана элиминация около 80% введенных плазмидных векторов и еще меньший процент активации. А дальше все нормально. VEGF, который регулирует рост капиллиляров вообще неспецифичный. Одинаков и у приматов и у крыс, например. Со временем плазмиды в клетках разрушаются и эффект проходит. Концентрация вектора подбирается как раз с учетом всего этого. То есть, вырастили сосуды и разрушились.
Первая подобная еще в 2003 году (т.е. уже 12 лет назад) в Китае была одобрена:
China approves first gene therapy

На «Западе» ушло почти 10 лет(после начала использования в Китае), чтобы 1ю методику официально одобрить:
European Agency Backs Approval of a Gene Therapy
Насколько помню (читал подробно более года назад) в этом случае это полноценная модификация — т.е. изменение ДНК пациента (правда всего одного дефектного гена).

Вот еще одна успешная методика модификации иммунных Т-клеток для лечения рака:
Souped-up immune cells force leukaemia into remission

Сейчас уже несколько десятков успешных методик — но большинство из них уже по многу лет «висят» в ожидании допуска/легализации и возможности использования в медицине, а не только в лаборатории.
Радует, что все это потихонечку пробивает себе дорогу в жизнь.

Интересно было бы почитать подробнее по применяемым механизмам доставки и, если это там имеет таки место — что неочевидно из обзорных статей — обратной транскрипции. Может быть, подскажете где можно найти такие подробности?
Было бы интересно ознакомиться с диетой Рея, с обоснованием почему выбраны такие продукты. Я тоже хочу дожить до сингулярности, хотя мне всего 28.
А сколько лет то надо? Мне тоже 28. На какой срок прицеливаться?
Есть оценки на 2030-2050. Тут главное — собрать полноценный ИИ, а дальше уже попрет очень быстро.
Кусанаги, осталось 15 лет!

image
Мужик ест мало белков, не доживет. Белок — основа клеточного деления и транспортная функция для работы всех остальных систем в т.ч. для расщепления жиров.
Боюсь представить отечественную госрегуляцию с блокировками мозговой активности при попытке доступа индивидуумов к запрещенной информации в облаке.
Или наоборот, принудительное подключение мозга к ежечасным новостным выпускам, Оруэлл бы оценил.
А вы считаете, что проблема Роскомнадзора останется через 15 лет? ;-)
Пока общество слишком аморфно и в большей части индифферентно наблюдает за деятельностью госорганов, к сожалению.
Так что вполне.
Только полноправные пользователи могут оставлять комментарии. Войдите, пожалуйста.