Как стать автором
Поиск
Написать публикацию
Обновить

Будущее, в котором ИИ — герой, а не злодей

Время на прочтение24 мин
Количество просмотров237
Автор оригинала: Marc Andreessen

Эра искусственного интеллекта уже наступила — и люди, мягко говоря, в панике.

К счастью, я здесь, чтобы рассказать хорошие новости: AI не уничтожит мир, а наоборот, вполне может его спасти.

Для начала короткое описание того, что такое AI: это применение математики и программного кода для обучения компьютеров понимать, синтезировать и генерировать знания примерно так же, как это делают люди. AI — это программа, как и любая другая: она запускается, принимает входные данные, обрабатывает их и выдаёт результат. Причём output AI полезен в самых разных областях — от программирования до медицины, юриспруденции и искусства. Ею владеют и контролируют люди, как и любой другой технологией.

А теперь коротко о том, чем AI не является: это не какие-то «убийственные программы» и роботы, которые внезапно оживут и решат уничтожить человечество или развалить всё вокруг, как это показывают в фильмах.

И еще короче о том, чем AI может стать: способом сделать лучше всё, что нам действительно важно.

Почему AI способен улучшить всё, что нам так важно

Самый надежно подтвержденный вывод социальных наук за многие десятилетия и тысячи исследований заключается в том, что человеческий интеллект улучшает крайне широкий спектр жизненных исходов. Более умные люди демонстрируют лучшие результаты практически в любой сфере деятельности: академическая успеваемость, производительность труда, профессиональный статус, доход, креативность, физическое здоровье, продолжительность жизни, освоение новых навыков, управление сложными задачами, лидерство, успех в предпринимательстве, разрешение конфликтов, понимание прочитанного, финансовые решения, умение смотреть на ситуацию с точки зрения других людей, творчество, воспитание детей и общая удовлетворенность жизнью.

Более того, именно интеллект — это тот рычаг, который мы использовали на протяжении тысячелетий, чтобы создать мир, в котором живём сегодня: наука, технологии, математика, физика, химия, медицина, энергетика, строительство, транспорт, коммуникации, искусство, музыка, культура, философия, этика, мораль. Без применения интеллекта ко всем этим областям мы до сих пор жили бы в глиняных хижинах, ведя жалкое существование натуральным хозяйством. Вместо этого мы использовали свой разум, чтобы поднять уровень жизни примерно в 10 000 раз за последние 4 000 лет.

Что даёт нам AI? Возможность радикально усилить человеческий интеллект, чтобы сделать всё, что зависит от него — от создания новых лекарств до способов борьбы с изменением климата и технологий для полётов к звёздам — гораздо, гораздо лучше.

Усиление человеческого интеллекта с помощью AI уже началось — AI давно окружает нас в виде всевозможных компьютерных систем управления, сейчас это быстро выходит на новый уровень с большими языковыми моделями вроде ChatGPT и очень скоро ускорится еще сильнее, если мы позволим этому случиться.

В нашей новой AI-эпохе:

  • У каждого ребёнка будет AI-репетитор, бесконечно терпеливый, бесконечно заботливый, бесконечно знающий и бесконечно готовый помочь. Такой репетитор будет рядом на каждом этапе развития ребёнка, помогая максимально раскрыть его потенциал с машинной версией бесконечной любви.

  • У каждого человека будет AI-ассистент/коуч/ментор/тренер/консультант/терапевт, обладающий теми же качествами — бесконечной терпеливостью, заботой, знаниями и готовностью поддержать. Он будет сопровождать все возможности и трудности жизни, помогая достигать наилучших исходов.

  • У каждого учёного будет AI-ассистент/партнёр, который радикально расширит масштаб их исследований и достижений. То же самое получат художники, инженеры, предприниматели, врачи, соцработники — все в своих сферах.

  • У каждого лидера людей — CEO, госчиновника, главы некоммерческой организации, спортивного тренера, учителя — тоже будет такой AI. Эффект масштабирования за счет более качественных решений лидеров, распространяющихся на всех, кого они ведут за собой, огромен, так что это усиление интеллекта, возможно, окажется самым важным из всех.

  • Рост продуктивности в экономике драматически ускорится, что приведёт к экономическому росту, появлению новых индустрий, созданию новых рабочих мест и росту зарплат, открыв новую эру повышенного материального благосостояния по всей планете.

  • Научные открытия, новые технологии и лекарства начнут появляться гораздо быстрее, потому что AI поможет нам глубже расшифровать законы природы и использовать их себе во благо.

  • Искусство вступит в золотой век, потому что художники, музыканты, писатели и кинематографисты с поддержкой AI смогут реализовывать свои замыслы намного быстрее и в куда большем масштабе, чем раньше.

  • Я даже думаю, что AI улучшит войны (когда их, увы, не удастся избежать), значительно снизив уровень смертности. Каждая война сопровождается ужасными решениями, принятыми под колоссальным давлением и при крайне ограниченной информации крайне ограниченными людьми. Теперь у военных командиров и политических лидеров будут AI-советники, которые помогут принимать гораздо более грамотные стратегические и тактические решения, сводя к минимуму риски, ошибки и ненужное кровопролитие.

  • Короче говоря, всё, что люди сегодня делают с помощью своего естественного интеллекта, можно будет делать гораздо лучше с AI. И мы сможем браться за задачи, которые раньше были попросту невозможны — от излечения всех болезней до межзвездных путешествий.

  • И это не только про интеллект! Возможно, самая недооцененная черта AI — это то, насколько он может быть полезным. AI-арт дает возможность людям, у которых нет технических навыков, свободно создавать и делиться своими художественными идеями. Разговор с эмпатичным AI-другом действительно помогает им лучше справляться с жизненными трудностями. А AI-мед чат боты уже зачастую проявляют больше сочувствия, чем их человеческие коллеги. Вместо того чтобы сделать мир более холодным и механистическим, бесконечно терпеливый и отзывчивый AI сделает его теплее и добрее.

Ставки здесь невероятно высоки. Возможности — по-настоящему широкие. AI, возможно, самая важная и лучшая вещь, которую когда-либо создавала наша цивилизация — уж точно на уровне электричества и микрочипов, а, вероятно, даже выше.

Развитие и распространение AI — это вовсе не риск, которого стоит бояться, а моральный долг, который мы имеем перед самими собой, перед нашими детьми и перед нашим будущим. 

Мы должны жить в гораздо лучшем мире — и теперь у нас наконец появилась такая возможность.

Так почему же тогда поднимается паника?

В противовес этому позитивному взгляду, публичные обсуждения AI сегодня насквозь пронизаны истерическим страхом и паранойей.

Мы слышим утверждения о том, что AI в итоге либо убьёт нас всех, либо разрушит общество, либо отнимет у нас все рабочие места, либо приведёт к катастрофическому неравенству, либо даст плохим людям инструменты для ужасных дел.

Что объясняет такой разрыв между потенциальными сценариями — от почти утопии до ужасающей антиутопии?

Исторически любая новая значимая технология — от электрического освещения до автомобилей, радио и Интернета — вызывала моральную панику. Это такой социальный «заразный страх», который убеждает людей, что новая технология вот-вот уничтожит мир или общество, или и то и другое. Отличные ребята из Pessimists Archive задокументировали десятки таких технологических моральных паник за последние десятилетия; их история делает этот паттерн наглядно очевидным. Оказывается, нынешняя паника — даже не первая для AI.

Конечно, многие новые технологии действительно приводили к плохим последствиям — зачастую это те же самые технологии, которые в остальном были крайне полезны для нашего благосостояния. Так что сам факт моральной паники не значит, что нам совсем не о чем беспокоиться.

Но моральная паника по самой своей природе иррациональна — она берёт то, что может быть вполне обоснованной тревогой, и раздувает её до уровня истерии, который, что иронично, только усложняет возможность трезво разобраться с действительно серьезными вопросами.

И сейчас мы наблюдаем полноценную моральную панику вокруг AI.

Эта паника уже используется разными игроками как инструмент давления для требований о мерах политики — новых запретов, регуляций и законов по AI. Эти люди, которые публично делают крайне драматические заявления об угрозах AI, подпитывают и дальше раздувают моральную панику, при этом позиционируя себя как бескорыстных защитников общественного блага.

Но так ли это?

И правы ли они вообще — или нет?

«Баптисты» и «бутлегеры» AI

Экономисты давно заметили закономерность в подобного рода реформистских движениях. Их участники, как правило, делятся на две категории — «баптисты» и «бутлегеры», по аналогии с историей запрета алкоголя в США в 1920-х годах:

Баптисты
«Баптисты» — это настоящие социальные реформаторы-идеалисты, которые искренне, глубоко и эмоционально, пусть даже не всегда рационально, верят в то, что нужны новые запреты, регуляции и законы для предотвращения катастрофы в обществе. В случае с сухим законом такими акторами часто буквально были религиозные христиане, считавшие, что алкоголь разрушает моральные устои общества. Для рисков AI это те, кто всерьёз верит в одну или другую экзистенциальную угрозу от AI — подключите их к детектору лжи, они действительно так думают.

Бутлегеры
«Бутлегеры» — это циничные оппортунисты, которые могут финансово выиграть от введения новых запретов, регуляций и законов, ограждающих их от конкурентов. Во времена сухого закона это были настоящие бутлегеры, сколотившие состояние на незаконной торговле алкоголем, когда легальная продажа была запрещена. Для рисков AI это те CEO, которые рассчитывают заработать больше, если появятся регуляторные барьеры, образующие картель «AI-вендоров, благословленных государством», защищенных от конкуренции стартапов и open source — софтверный аналог банков «too big to fail».

Циник мог бы заметить, что некоторые желающие казаться «баптистами» на самом деле тоже «бутлегеры» — особенно те, кого платят за атаки на AI университеты, think tanks, активистские группы и медиа. Если вам платят зарплату или вы получаете гранты за нагнетание паники вокруг AI, то скорее всего, вы «бутлегер».

Проблема с бутлегерами в том, что они побеждают. «Баптисты» — наивные идеалисты, «бутлегеры» — циничные операторы. И в итоге такие движения часто заканчиваются тем, что «бутлегеры» получают желаемое — regulatory capture, защиту от конкуренции, создание картеля, а «баптисты» остаются в недоумении, куда же делся их импульс к общественному благу.

Мы только что стали свидетелями ярчайшего примера — банковской реформы после глобального финансового кризиса 2008 года. Тогда «баптисты» говорили нам, что нужны новые законы и регуляции, чтобы разделить банки «too big to fail» и не допустить повторения кризиса. Конгресс принял закон Dodd-Frank в 2010 году, который позиционировался как решение задачи «баптистов», но на деле был перехвачен «бутлегерами» — крупными банками. Результат: те же банки, что подвели нас в 2008, теперь стали куда больше.

Так что на практике, даже если «баптисты» искренни, и даже если они правы, их используют в качестве прикрытия манипулятивные и корыстные «бутлегеры», чтобы заработать на этом для себя.

И именно это мы сейчас наблюдаем в попытках зарегулировать AI. Однако просто разоблачить акторов и раскритиковать их мотивы недостаточно. Нужно всерьёз рассмотреть аргументы и «баптистов», и «бутлегеров» по существу.

Риск №1: убьёт ли AI нас всех?

Первый и самый старый страх вокруг AI заключается в том, что AI буквально решит уничтожить человечество.

Страх, что созданная нами технология восстанет и уничтожит нас, глубоко укоренен в нашей культуре. Греки выразили этот страх в мифе о Прометее — Прометей принёс людям разрушительную силу огня, а шире — технологий (techne), за что боги приговорили его к вечным мучениям. Позже Мэри Шелли подарила современному миру свою версию этого мифа в романе «Франкенштейн, или Современный Прометей», где человек создает технологию вечной жизни, а она встает против него и пытается его уничтожить. И, конечно, нельзя представить себе ни одной газетной статьи, сеющей панику вокруг AI, без фотографии сверкающего красноглазого робота-убийцы из фильмов Джеймса Кэмерона «Терминатор».

Предположительно, эволюционное назначение этой мифологии — мотивировать нас серьёзнее относиться к рискам новых технологий. Ведь огонь действительно можно использовать, чтобы сжечь дотла целые города. Но точно так же, как огонь стал фундаментом современной цивилизации, согревая и защищая нас в холодном и враждебном мире, эта мифология напрочь игнорирует гораздо более весомую положительную сторону большинства (всех?) новых технологий и на практике лишь раздувает разрушительные эмоции вместо рассудочного анализа. Просто потому что первобытный человек впадал в панику по этому поводу, вовсе не значит, что и мы должны — мы можем включить рациональность.

На мой взгляд, идея о том, что AI вдруг решит уничтожить человечество, — это глубокая категориальная ошибка. AI не живое существо, прошедшее через миллиарды лет эволюции борьбы за выживание сильнейших, как животные или как мы сами. Это математика — код — компьютеры, созданные людьми, принадлежащие людям, используемые людьми, контролируемые людьми. Идея, что однажды AI вдруг обретёт собственный ум и свои «мотивы», которые подтолкнут его нас убить, — это суеверная фантазия.

Короче говоря, AI не «хочет», у него нет целей, он не жаждет вас убить, потому что он не живой. AI — это машина, и она не «оживёт», ровно так же, как не оживёт ваш тостер.

Теперь, конечно, есть настоящие «баптисты», верующие в killer AI, которые получают сейчас астрономический объем медийного внимания со своими ужасающими предупреждениями. Некоторые утверждают, что десятилетиями изучали эту тему и теперь до смерти напуганы тем, что узнали. Причём некоторые из этих истинно верующих сами являются настоящими инноваторами технологии. Эти акторы выступают за целый спектр странных и крайних ограничений для AI: от полного запрета на разработку AI до авиаударов по дата-центрам и ядерной войны. Их аргумент в том, что поскольку люди вроде меня не могут исключить гипотетические катастрофические последствия AI в будущем, мы должны занять «выжидательную» позицию, которая может потребовать масштабного насилия и смертей, чтобы предотвратить потенциальный экзистенциальный риск.

Мой ответ таков: их позиция ненаучна. Какова проверяемая гипотеза? Что бы её опровергло? Как мы поймем, что заходим в опасную зону? Эти вопросы в основном остаются без ответов, кроме как: «Вы не можете доказать, что этого не случится!» На деле позиция этих «баптистов» настолько ненаучна и настолько экстремальна — это буквально теория заговора про математику и код, которая уже призывает к физическому насилию, что я сделаю то, чего обычно не делаю: поставлю под сомнение их мотивы.

Конкретно, я думаю здесь играют роль три вещи:

Во-первых, вспомним, что Джон фон Нейман ответил Роберту Оппенгеймеру, который мучительно переживал свою роль в создании ядерного оружия (которое, кстати, помогло закончить Вторую мировую и предотвратить Третью): «Некоторые признаются в вине, чтобы получить признание за свой грех.» Как самый драматичный способ подчеркнуть значимость собственной работы, не звуча при этом откровенно хвастливо? Это объясняет разрыв между словами и действиями «баптистов», которые на самом деле продолжают строить и финансировать AI — смотрите на их дела, а не на слова. (Трумэн был жёстче после встречи с Оппенгеймером: «Больше не пускайте сюда этого плаксу.»)

Во-вторых, некоторые из «баптистов» на деле — «бутлегеры». Существует целая профессия «экспертов по безопасности AI», «AI-этиков», «исследователей рисков AI». Им платят за то, чтобы они были думерами, и их заявления надо воспринимать соответствующе.

В-третьих, Калифорния справедливо знаменита своими тысячами культов — от EST до Peoples Temple, от Heaven’s Gate до «Семьи» Мэнсона. Многие (хотя не все) из них безвредны и, возможно, даже полезны для отчужденных людей, которые находят в них дом. Но некоторые — очень опасны, и культы известны тем, что плохо удерживают ту грань, за которой начинается насилие и смерть.

И реальность, которая очевидна каждому в Bay Area, но, возможно, не столь заметна за её пределами, заключается в том, что «AI risk» уже превратился в культ, который внезапно вырвался на свет глобального внимания прессы и публичных обсуждений. Этот культ втянул не только маргиналов, но и настоящих индустриальных экспертов, а также немало богатых спонсоров — включая, до недавнего времени, Сэма Бэнкмана-Фрида. И он развил у себя весь набор паттернов поведения и верований в культе.

Именно поэтому эта группа AI-думеров звучат настолько громко. Не потому что у них есть секретные знания, делающие их настроение логичным, а потому что они сами себя так накрутили и теперь действительно ударились в экстремальные вещи.

Оказывается, этот тип культа не нов — в западной традиции давно существует милленаризм, порождающий апокалиптические культы. Культ рисков AI демонстрирует все признаки милленарного апокалиптического культа. Из Википедии, с моими добавлениями:

«Милленаризм — это вера группы или движения [AI-думеров] в грядущее фундаментальное преобразование общества [пришествие AI], после которого всё изменится [AI-утопия, дистопия и/или конец света]. Только драматические события [запреты AI, авиаудары по дата-центрам, ядерные удары по нерегулируемым AI] способны изменить мир [остановить AI], и эти изменения должны быть осуществлены или пережиты группой преданных и фанатичных. В большинстве милленарных сценариев грядущее бедствие или битва [AI-апокалипсис или его предотвращение] ведет к новому, очищенному миру [запретам AI], в котором верующие будут вознаграждены [или хотя бы признаны правыми задним числом].»

Этот апокалиптический культ настолько очевиден, что я удивляюсь, почему это видят не все.

Не поймите меня неправильно: про культы весело читать, их учения часто креативны и увлекательны, а их участники забавно выглядят на телешоу. Но их экстремальные убеждения явно не должны определять будущее наших законов и общества.

Риск №2: Разрушит ли AI наше общество?

Второй широко обсуждаемый риск AI заключается в том, что AI якобы разрушает наше общество, генерируя такие «вредоносные» (по терминологии думеров) процессы, которые нанесут человечеству серьезный урон, даже если нас буквально не убьют.

Короткая версия: если нас не уничтожат роботы-убийцы, то это сделают «hate speech» и «misinformation».

Это относительно недавнее опасение думеров, которое выросло из движения «AI risk» (описанного выше) и во многом его перехватило. На самом деле терминология «AI risk» недавно изменилась: вместо «AI safety» (так раньше называли опасения, что AI буквально нас убьёт) теперь говорят «AI alignment» — это термин тех, кто озабочен «вредом для общества». Первоначальные «AI safety»-люди этим сдвигом разочарованы, но уже не знают, как загнать всё обратно в коробку — они теперь даже предлагают переименовать исходную тему риска в «AI notkilleveryoneism», что пока не получило широкого распространения, но хотя бы звучит ясно.

Подсказку к сути претензий о «социальном риске AI» даёт сам этот термин — «AI alignment». Согласование с чем? С «человеческими ценностями». А чьими именно человеческими ценностями? Вот тут всё и становится сложно.

Так получилось, что я был свидетелем аналогичной истории — «trust & safety»-войн в соцсетях. Как теперь очевидно, в течение многих лет социальные платформы испытывали колоссальное давление со стороны правительств и активистов, требующих запретов, ограничений, цензуры и подавления самого разного контента. И ровно те же вопросы «hate speech» (и его математический аналог — «algorithmic bias») и «misinformation» напрямую переносятся из контекста соцсетей в новую повестку «AI alignment».

Мои главные уроки из этих «сетевых войн»:

С одной стороны, не существует абсолютно свободной речи. Во-первых, в каждой стране, включая США, есть хотя бы какой-то контент, который вне закона. Во-вторых, есть виды контента вроде детской порнографии или призывов к реальному насилию, которые практически во всех обществах считаются табу, вне зависимости от их легальности. Так что любая технологическая платформа, генерирующая или распространяющая контент (речь), всегда будет иметь какие-то ограничения.

С другой стороны, «скользкая дорожка» — это вовсе не логическая ошибка, а практически неизбежность. Как только возникает инфраструктура для ограничения даже очевидно ужасного контента — будь то hate speech (какое-то конкретное оскорбительное слово) или misinformation (явно ложное утверждение вроде «Папа Римский умер») — начинается лавина требований от огромного числа госагентств, активистских групп и прочих организаций, требующих всё больше цензуры и подавления любой речи, которую они сами считают угрозой обществу и/или своим личным интересам. Причём делают они это вплоть до откровенно уголовных методов. На практике этот цикл может длиться бесконечно, с воодушевленный поддержкой авторитарных «смотрителей» во всех элитных структурах власти. Это продолжается в соцсетях уже более десяти лет и за редкими исключениями становится лишь все фанатичнее.

И ровно такая динамика сформировалась сейчас вокруг «AI alignment». Его сторонники утверждают, что знают, как сконструировать AI, чтобы он генерировал «речь и мысли», полезные для общества, и блокировать AI-генерацию, если она якобы вредна для общества. Их оппоненты отвечают, что такая «полиция мыслей» поражает своей самоуверенностью и наглостью — и часто откровенно нарушают законы США, стремясь построить новый гибридный государственно-корпоративно-академический авторитарный режим цензуры, словно вырванный прямо со страниц «1984» Джорджа Оруэлла.

Поскольку апологеты «trust & safety» и «AI alignment» в значительной мере сосредоточены в очень узком срезе глобального населения — американской элите (в том числе среди тех, кто работает в индустрии технологий и пишет о ней), многие из вас, читателей, могут быть предрасположены считать, что радикальные ограничения AI-процессов необходимы, чтобы «не разрушить общество». Я не стану сейчас вас переубеждать, просто хочу констатировать: такова природа этих требований, и при этом большинство людей в мире ни вашей идеологии не разделяют, ни вашей победы не желают.

Если вы не согласны с этой узкой моральной доктриной, которую насаждают в соцсетях и теперь в AI через всё более суровые «кодексы речи», стоит также осознать, что битва за то, что AI разрешат генерировать и говорить, будет куда важнее, чем борьба вокруг сетевой цензуры. AI с высокой вероятностью станет управляющим слоем всего мира. То, как ему позволят функционировать, может оказаться важнее всего, что когда-либо было. И нужно понимать, что небольшой и оторванный от реальности кружок социальных инженеров уже пытается установить эти правила — под вечным предлогом, что они делают это «ради вашей защиты».

Короче говоря, не дайте полиции мыслей задушить AI.

Риск №3: Заберет ли AI все наши рабочие места?

Страх потерять работу из-за механизации, автоматизации, компьютеризации или теперь уже AI — это повторяющаяся паника на протяжении сотен лет, начиная с появления таких машин, как механический ткацкий станок. Хотя каждая новая крупная технология исторически приводила к большему числу рабочих мест с более высокими зарплатами, каждая волна этой паники сопровождается заявлениями «в этот раз всё будет иначе» — вот, мол, та самая технология, которая окончательно добьет человеческий труд. И этого так никогда и не случается.

Мы только за последнее время пережили два таких витка паники: outsourcing-панику 2000-х и automation-панику 2010-х. Несмотря на множество экспертов, журналистов и даже топов из техиндустрии, которые всё это время били в колокола, предсказывая массовую безработицу, к концу 2019 года (до начала COVID) в мире было больше рабочих мест и зарплаты выше, чем когда-либо в истории.

Тем не менее эта ошибочная идея не умирает.

И вот она снова вернулась.

Теперь у нас, наконец, появилась технология, которая отнимет все рабочие места и сделает людей ненужными — настоящий AI. Уж в этот-то раз история не повторится, и AI вызовет массовую безработицу (а не быстрый рост экономики, рабочих мест и зарплат), правда ведь?

Нет, этого не произойдёт. И более того — если дать AI развиваться и проникнуть во всю экономику, это может привести к самому впечатляющему и продолжительному экономическому буму за всю историю, с рекордным ростом рабочих мест и зарплат — ровно противоположному тому, чего боятся. Вот почему.

Ключевая ошибка doomers, предсказывающих гибель от автоматизации, — это Lump Of Labor Fallacy. Этот заблуждение заключается в неверном представлении, что в экономике есть фиксированный объем работы, который нужно выполнить, и если его сделают машины, то для людей уже ничего не останется.

Это заблуждение кажется интуитивным, но интуиция тут ошибочна. Когда технологии внедряются в производство, мы получаем рост производительности — рост результативности при сокращении трудозатрат. В результате падают цены на товары и услуги. А раз цены падают, мы тратим на них меньше, значит у нас остается больше денег, чтобы покупать другие вещи. Это увеличивает спрос в экономике, что стимулирует создание нового производства — новых продуктов и целых отраслей — а значит появляются новые рабочие места для тех, кого раньше вытеснили машины. В итоге экономика становится больше, материальное благосостояние выше, индустрий и товаров больше, а рабочих мест — тоже больше.

И на этом хорошие новости не заканчиваются. Растут ещё и зарплаты. Потому что уровень зарплаты для отдельного работника рынок определяет исходя из его предельной производительности. Работник в компании с технологической начинкой продуктивнее, чем в традиционной. Работодатель либо заплатит ему больше, либо это сделает другой работодатель — из чисто личной выгоды. В результате технологии в индустрии обычно не только увеличивают число рабочих мест, но и повышают зарплаты.

Если коротко: технологии позволяют людям работать продуктивнее. Это приводит к снижению цен на товары и услуги и росту зарплат. А это в свою очередь стимулирует экономический рост и рост занятости, мотивируя создание новых рабочих мест и отраслей. Если рыночная экономика функционирует свободно и технологии внедряются без препятствий, это бесконечный восходящий цикл. Как говорил Милтон Фридман, «человеческие потребности бесконечны» — мы всегда хотим больше, чем имеем. А рыночная экономика, насыщенная технологиями, — это способ всё ближе подходить к тому, чтобы дать каждому всё, чего он только может захотеть, но никогда не достичь окончательной «точки насыщения». Именно поэтому технологии не уничтожают рабочие места — и никогда не уничтожат.

Эти идеи настолько взрывные для тех, кто прежде их не слышал, что, возможно, вам потребуется время, чтобы их осмыслить. Но я это не выдумал — всё это вы найдете в стандартных учебниках по экономике. Рекомендую главу The Curse of Machinery из Economics In One Lesson Генри Хазлита и сатирическую Петицию производителей свечей Фредерика Бастиа, адаптированную к нашим временам, о том, как солнце якобы нечестно конкурирует с индустрией освещения.

Вы можете подумать: «Но в этот раз всё иначе. В этот раз с AI у нас технология, которая сможет заменить абсолютно весь человеческий труд.»

Но если применить описанные выше принципы, что бы это означало? Это означало бы такой взрывной рост экономической продуктивности, что он оказался бы абсолютно стратосферным, далеко выходящим за любые исторические прецеденты. Цены на существующие товары и услуги рухнули бы практически до нуля. Благосостояние потребителей взлетело бы до небес. Их покупательная способность выросла бы колоссально. В экономике возник бы взрывной новый спрос. Предприниматели начали бы создавать ослепительное множество новых отраслей, продуктов и услуг, нанимая так много людей и AI, как только возможно, чтобы удовлетворить весь этот новый спрос.

И если AI снова вытеснит этот труд? Цикл повторится, ещё сильнее ускоряя благосостояние потребителей, рост экономики, рабочих мест и зарплат. Это была бы прямая спираль вверх — к материальной утопии, о которой даже Адам Смит или Карл Маркс не осмелились бы мечтать.

Нам бы так повезло.

Риск №4: Приведёт ли AI к разрушительному неравенству?

Раз уж заговорили о Карле Марксе, стоит отметить, что опасения о том, что AI отнимет все рабочие места, напрямую переходят к следующему предполагаемому риску AI. Допустим, Марк (это я), AI действительно заберёт все рабочие места — плохо это или хорошо. Разве это не приведёт к массовому и сокрушительному имущественному неравенству, когда владельцы AI соберут все экономические плоды, а обычные люди останутся ни с чем?

Вообще-то, это был один из центральных тезисов марксизма: что владельцы средств производства, буржуазия, неизбежно присвоят всё общественное богатство у тех, кто выполняет реальную работу, то есть у пролетариата. Это ещё одно заблуждение, которое никак не хочет умирать, сколько бы раз реальность его ни опровергла. Но давайте всё же вонзим кол ему в сердце.

Ошибка этой теории в том, что владельцу технологии вовсе не выгодно держать её исключительно для себя, напротив, ему выгоднее всего продать её как можно большему числу клиентов. Самый большой рынок в мире для любого продукта — это весь мир, все 8 миллиардов нас. Поэтому на практике любая новая технология — даже та, что изначально продается лишь в элитные сегменты большим корпорациям или богатым потребителям, очень быстро распространяется и оказывается в руках массового рынка, в конечном итоге у всех людей на планете.

Классический пример — так называемый «секретный план» Илона Маска для Tesla в 2006 году (который он, разумеется, открыто опубликовал):

Шаг 1: построить [дорогой] спорткар

Шаг 2: использовать заработанные деньги, чтобы сделать более доступный автомобиль

Шаг 3: использовать эти деньги, чтобы сделать еще более доступный автомобиль

И это ровно то, что он и сделал, став в результате самым богатым человеком в мире.

И вот ключевой момент: стал бы Илон богаче, если бы продавал машины только богатым сегодня? Нет. Был бы он еще богаче, если бы делал машины только для себя? Конечно нет. Он максимизирует свою прибыль, продавая на самом большом рынке — всему миру.

Короче говоря, в итоге доступ к технологии получают все. Мы это уже видели на примере не только автомобилей, но и электричества, радио, компьютеров, Интернета, мобильных телефонов и поисковиков. Создатели таких технологий крайне мотивированы снижать цены, пока их не смогут позволить себе буквально все на планете. Ровно это уже происходит с AI — именно поэтому вы можете использовать самые передовые генеративные AI не просто за небольшие деньги, но даже бесплатно в Microsoft Bing или Google Bard. И так будет продолжаться дальше. Не потому что эти вендоры глупые или альтруистичные, а наоборот — потому что они жадные и хотят максимизировать размер своего рынка, что и максимизирует их прибыль.

В результате происходит не централизация богатства за счёт технологий, а наоборот — отдельные потребители технологий, в конечном итоге все люди на планете, получают преимущество и присваивают себе большую часть создаваемой ценности. Как и с предыдущими технологиями, компании, которые строят AI (если они вынуждены работать в условиях свободного рынка), будут яростно конкурировать, чтобы так и получилось.

Маркс ошибался тогда, и ошибается сейчас.

Это не значит, что проблема неравенства в нашем обществе не существует. Существует. Просто она вызвана не технологиями, а наоборот — теми секторами экономики, которые больше всего сопротивляются новым технологиям и где государство активнее всего вмешивается, чтобы воспрепятствовать внедрению таких технологий, как AI. Это в первую очередь жилищный сектор, образование и здравоохранение. Настоящий риск в контексте AI и неравенства состоит не в том, что AI вызовет больше неравенства, а в том, что мы не позволим AI использоваться для того, чтобы это неравенство сокращать.

Риск №5: Даст ли AI плохим людям делать плохие вещи?

До этого момента я объяснил, почему четыре из пяти самых популярных предполагаемых рисков AI на самом деле не являются реальными: AI не оживёт и не убьёт нас, AI не разрушит наше общество, AI не вызовет массовую безработицу и AI не приведёт к катастрофическому росту неравенства. Но теперь давайте обсудим пятый риск — тот, с которым я действительно согласен: AI упростит жизнь плохих людей, которые захотят делать плохие вещи.

В некотором смысле это тавтология. Технологии — это инструмент. Инструменты, начиная с огня и камней, могут использоваться для хорошего — готовить еду и строить дома, но и для плохого — сжигать людей и проламывать головы. Любую технологию можно использовать во благо или во вред. Это справедливо. И AI действительно облегчит преступникам, террористам и враждебным государствам совершение плохих поступков, без вопросов.

Из-за этого некоторые предлагают: ну что ж, тогда давайте не рисковать и прямо сейчас запретим AI, пока не поздно. Проблема в том, что AI — это не какой-то экзотический физический материал вроде плутония, до которого сложно добраться. Наоборот, AI — это самый доступный в мире «материал», математика и код.

Этот кот уже давно не в мешке. Вы можете научиться создавать AI по тысячам бесплатных онлайн-курсов, книг, научных статей и видео, а выдающиеся open source-имплементации множатся с каждым днём. AI подобен воздуху — он будет везде. Уровень тоталитарных репрессий, который потребовался бы, чтобы это остановить, был бы столь драконовским (глобальное правительство, следящее и контролирующее все компьютеры? спецназ в черных вертолетах, конфискуют «враждебные» GPU?), что от общества, которое мы якобы хотим защитить, попросту ничего бы не осталось.

Так что есть два куда более простых и прямых способа справиться с риском того, что плохие люди будут использовать AI для плохих дел — и именно на них нам стоит сосредоточиться.

Во-первых, у нас уже есть законы, которые криминализируют большую часть плохих действий, которые кто-либо может совершить с помощью AI. Взломать Пентагон? Это преступление. Украсть деньги из банка? Преступление. Создать биологическое оружие? Преступление. Совершить теракт? Преступление. Мы можем просто сосредоточиться на том, чтобы предотвращать эти преступления, когда можем, и привлекать к ответственности, когда не можем. Нам даже не нужны новые законы — я не знаю ни одного реально предложенного «плохого» применения AI, которое уже не было бы незаконным. А если появится новое плохое использование — запретим его. 

Но вы могли заметить, что я «пропустил» кое-что в этой логике: я сказал, что нам стоит прежде всего предотвращать преступления с помощью AI ещё до их совершения. Разве такое предотвращение не означает фактического запрета AI? Нет, потому что есть другой способ это сделать, а именно - использовать AI как инструмент защиты. Те же самые возможности, которые делают AI опасным в руках плохих людей с плохими целями, делают его мощным оружием в руках хороших людей с хорошими целями, а конкретно тех, чья задача и состоит в том, чтобы предотвращать плохие события.

Например, если вас беспокоит, что AI будет генерировать фейковых людей и фейковые видео, ответ прост: нужно строить новые системы, в которых люди и контент смогут подтверждать свою подлинность криптографическими подписями. Цифровое создание и изменение как реального, так и фейкового контента существовало ещё до AI; решение — не запрещать текстовые редакторы, Photoshop или AI, а использовать технологии, чтобы построить систему, которая действительно решит проблему.

И во-вторых, давайте развернем масштабные программы, чтобы использовать AI для хороших, легитимных, оборонительных целей. Пусть AI работает в киберзащите, биозащите, в борьбе с терроризмом и во всём остальном, что мы делаем, чтобы защищать себя, свои сообщества и свою страну.

Конечно, уже сегодня множество умных людей в госструктурах и за их пределами занимаются ровно этим. Но если мы направим все те усилия и интеллектуальные ресурсы, которые сейчас тратятся на тщетные попытки запретить AI, на то, чтобы использовать AI для защиты от плохих людей, я абсолютно уверен, что мир, пронизанный AI, будет куда безопаснее того, в котором мы живём сегодня.

Реальный риск — не развивать AI максимально быстро и мощно

Есть один последний и действительно реальный риск, который, пожалуй, самый пугающий из всех:

AI разрабатывается не только в относительно свободных обществах Запада — он также создаётся Коммунистической партией Китайской Народной Республики.

У Китая совершенно иное видение AI, чем у нас — они рассматривают его как механизм для авторитарного контроля над населением, точка. И они даже не пытаются это скрыть: они открыто и недвусмысленно об этом заявляют и уже активно реализуют свою стратегию. Причём они не собираются ограничивать её рамками Китая — они намерены распространять свою модель по всему миру: туда, где строят 5G-сети, куда дают кредиты в рамках Belt And Road, где продвигают «дружественные» потребительские приложения вроде Tiktok, которые фактически являются фронтендами для их централизованного командного и контрольного AI.

Самый большой риск AI — это то, что Китай выиграет глобальную гонку за доминирование в AI, а мы (США и Запад) — нет.

Я предлагаю простую стратегию, что с этим делать — собственно, ровно ту же стратегию, которую президент Рональд Рейган использовал, чтобы выиграть первую холодную войну с Советским Союзом:

«Мы выигрываем, они проигрывают.»

Вместо того чтобы позволить безосновательной панике по поводу killer AI, «вредоносного» AI, AI, уничтожающего рабочие места, или AI, порождающего неравенство, поставить нас в оборонительную позицию, мы в США и на Западе должны бросить все силы на разработку AI.

Мы должны стремиться выиграть гонку за глобальное технологическое превосходство в AI и гарантировать, что Китай её не выиграет.

В процессе мы должны максимально быстро и масштабно внедрять AI в нашу экономику и общество, чтобы по максимуму извлечь выгоды для роста продуктивности и реализации человеческого потенциала.

Это лучший способ одновременно и компенсировать реальные риски AI, и гарантировать, что наш образ жизни не будет вытеснен куда более мрачной китайской моделью.

Что же делать?

Я предлагаю простой план:

  • Крупным AI-компаниям должно быть разрешено строить AI максимально быстро и агрессивно, как они только могут — но при этом им нельзя позволять добиться regulatory capture, нельзя позволять создать защищенный государством картель, изолированный от рыночной конкуренции под предлогом «рисков AI». Это позволит в полной мере раскрыть технологический и социальный потенциал этих компаний, которые являются настоящими жемчужинами современного капитализма.

  • AI-стартапам также должно быть позволено строить AI максимально быстро и агрессивно. Они не должны сталкиваться с госзащитой крупных компаний, но и не должны получать от государства преференции. Их просто нужно пустить в свободную конкуренцию. Даже если стартапы не будут успешны, их само наличие на рынке будет постоянно мотивировать крупных игроков быть лучшими — в итоге наши экономики и общества выигрывают в любом случае.

  • Open source AI должен свободно развиваться и конкурировать и с крупными AI-компаниями, и со стартапами. Не должно быть никаких регуляторных барьеров для open source. Даже если open source не победит коммерческие компании, его широкая доступность — огромный подарок для студентов по всему миру, которые хотят научиться строить и использовать AI, чтобы стать частью технологического будущего, и это гарантирует, что AI будет доступен каждому, кто может извлечь из него пользу, независимо от того, кто он и сколько у него денег.

  • Чтобы компенсировать риск того, что плохие люди будут использовать AI во вред, правительства в партнерстве с частным сектором должны энергично работать в каждой зоне потенциальных угроз, применяя AI для максимального усиления оборонных возможностей общества. И это не должно ограничиваться лишь AI-угрозами, но включать и более общие задачи, такие как недоедание, болезни и климат. AI может быть невероятно мощным инструментом для решения проблем — и мы должны принять его именно в этом качестве.

  • Чтобы не допустить, чтобы Китай достиг глобального доминирования в AI, мы должны использовать всю мощь нашего частного сектора, научного сообщества и государств в согласованной стратегии для того, чтобы американский и западный AI добился абсолютного глобального лидерства — в конечном счёте включая и сам Китай. Мы выигрываем, они проигрывают.

И вот так мы и используем AI, чтобы спасти мир.

Пришло время над этим работать!

Легенды и герои

Завершу двумя простыми тезисами.

Развитие AI началось в 1940-х годах, одновременно с изобретением компьютера. Первая научная статья о нейронных сетях — архитектуре, лежащей в основе сегодняшнего AI — была опубликована в 1943 году. Целые поколения ученых в области AI за последние 80 лет родились, учились, работали и во многих случаях уходили из жизни, так и не увидев того результата, который мы получаем сейчас. Они — легенды, каждый из них.

Сегодня растущие легионы инженеров, многие из которых молоды и у которых деды или даже прадеды могли быть причастны к созданию идей, стоящих за AI, работают над тем, чтобы сделать AI реальностью, несмотря на стену запугивания и думерства, пытающуюся выставить их безрассудными злодеями. Я не считаю их безрассудными или злодеями. Они — герои, каждый из них.

Моя фирма и я сами с огромным воодушевлением поддерживаем их всех, кого только можем, и будем стоять рядом с ними и их работой на все 100%.

Теги:
Хабы:
0
Комментарии2

Публикации

Ближайшие события