На старте 2023 года произошел настоящий бум генеративного искусственного интеллекта (ГИИ). Но так ли все радужно? Или это была разовая вспышка и нас ждет очередная ИИ-зима? А может мы на пороге трансформации ИИ? Давайте разбираться.

Содержание

  • Что такое генеративный ИИ?

  • Проблемы генеративного ИИ

  • Ограничения ИИ, которые приводят к проблемам

  • Что делать?

  • Резюме

Что такое генеративный искусственный интеллект?

В статье Искусственный интеллект: помощник или игрушка? мы рассмотрели ключевые направления для применения ИИ:

  • прогнозирование и принятие решений;

  • анализ сложных данных без чётких взаимосвязей, в том числе для прогнозирования;

  • оптимизация процессов;

  • распознавание образов, в том числе изображений и голосовых записей;

  • генерация контента.

Направления ИИ, которые сейчас на пике популярности - распознавание образов (аудио, видео, числа) и на их основе генерация контента: аудио, текст, код, видео, изображения и так далее. В том числе к генеративному ИИ можно отнести и корпоративных цифровых советников.

И именно сюда идет большинство разработчиков ИИ, а наиболее распиаренные проекты это именно генеративный ИИ:

  • Midjorney;

  • Chat GPT;

  • Bard;

  • Kandinsky;

  • Giga chat.

Хорошая подборка решений также доступна по ссылке.

Проблемы генеративного ИИ

По состоянию на конец 2023 года направление генеративного ИИ нельзя назвать успешным. Так, например, в 2022 году компания OpenAI понесла убытки в размере $540 млн из-за разработки ChatGPT. А для дальнейшего развития и создания сильного ИИ потребуется еще около 100 млрд долларов. Такую сумму озвучил сам глава OpenAI .

Также неблагоприятный прогноз на 2024 год дает и американская компания CCS Insight. Возвращаясь снова к Open AI нужно отметить ее операционные затраты, которые составляю $700000 в день на поддержание работоспособности чат-бота ChatGPT.

Также интересное мнение у Алексея Водясова, технического директора компании SEQ: «ИИ не достигает тех маркетинговых результатов, о каких говорили ранее. Их использование ограничено моделью обучения, при этом затраты и объем данных для обучения растет. В целом же за хайпом и бумом неизбежно следует спад интереса. ИИ выйдет из фокуса всеобщего внимания так же быстро, как и вошёл, и это как раз нормальное течение процесса. Возможно, спад переживут не все, но ИИ - это действительно «игрушка для богатых», и таковой на ближайшее время и останется». И мы согласны с Алексеем, после шумихи в начале 2023 года уже к осени наступило затишье.

Дополняет картину расследование Wall Street Journal. Так, согласно ему, большинство ИТ-гигантов пока не научилось зарабатывать на возможностях генеративных нейросетей. Microsoft, Google, Adobe и другие технологические компании, которые активно вкладываются в искусственный интеллект ищут способы заработать на своих продуктах. Приведём несколько примеров:

  • Google планирует повысить стоимость подписки на программное обеспечение с поддержкой ИИ;

  • Adobe устанавливает ограничения на количество обращений к сервисам с ИИ в течение месяца;

  • Microsoft хочет взимать с бизнес-клиентов дополнительные $30 в месяц за возможность создавать презентации силами нейросети;

Также о проблемах свидетельствует и тот факт, что тот же Zoom пытается снизить затраты, используя более простой чат-бот, разработанный своими силами и требующий меньших вычислительных мощностей по сравнению с последней версией ChatGPT.

Вычислительные мощности — действительно одна из главных статей расходов при работе с технологией генеративного ИИ. Чем больше пользователей отправляет чату запросы, тем больше оказываются и счета за инфраструктуру. В выигрыше в данной ситуации только поставщики «железа» и электроэнергии — например, американская корпорация Nvidia в августе 2023 года заработала около $5 млрд благодаря продажам своих ускорителей A100 и H100 для высокопроизводительных вычислений китайскому ИТ-сектору.

Но давайте разберем все по порядку - почему так сложилось и какие ограничения угрожают ИИ, а главное что будет дальше:? Закат генеративного ИИ с очередной ИИ-зимой или трансформация?

Ограничения ИИ, которые приводят к проблемам

И так, какие же ключевые проблемы существуют у текущих решений генеративного ИИ?

  • Беспокойство компаний о своих данных

Любой бизнес стремится охранять свои корпоративные данные и любыми способами старается исключить утечку этих данных. И это приводит к 2-м проблемам.

Во-первых, компании запрещают использование онлайн-инструментов, которые располагаются за периметром защищенной сети. А любой запрос к онлайн-боту это обращение во внешний мир. Вопросов к тому, как хранятся, как защищены и как используются данные много.

Во-вторых, это ограничивает развитие вообще любого ИИ. Все компании хотят от поставщиков ИТ-решений с ИИ рекомендаций от обученных моделей. Которые, например, предскажут поломку оборудования. Но своими данными делится не готовы. Получается замкнутый круг.

Однако тут надо сделать оговорку. Некоторые ребята уже научились размещать языковые модели уровня Chat GPT 3 - 3,5 внутри контура компаний. Но эти модели все равно надо обучать, это не готовые решения. И внутренние службы безопасности найдут риски и будут против.

  • Сложность и дороговизна разработки, последующего содержания

Разработка любого "общего" генеративного ИИ это огромные затраты - десятки миллионов долларов. Кроме того, Вам нужно много данных, очень много данных. Нейросети пока обладают низким КПД. Там где человеку достаточно 10 примеров, искусственной нейросети нужны тысячи, а то и сотни тысяч примеров. Хотя да, он может найти такие взаимосвязи, и обрабатывать такие массивы данных, которые человеку и не снились.

Но вернемся к теме. Именно из-за ограничения по данным тот же ChatGPT лучше "соображает" если с ним общаться на английском языке, а не на русском. Ведь англоязычный сегмент интернета гораздо больше, чем наш с вами.

Добавим к этому затраты на электроэнергию, инженеров, обслуживание, ремонт и модернизацию оборудования и получаем те самые 700 000 $ в день только на содержание Chat GPT. Много ли компаний могут потратить такие суммы с неясными перспективами монетизации (но об этом ниже)?

Да, можно снизить затраты, если разработать модель, а затем убрать все лишнее, но тогда это будет очень узкоспециализированный ИИ.

Поэтому большинство решений в рынке по факту являются GPT-фантиками - надстройками к ChatGPT.

  • Беспокойство общества и ограничения регуляторов

Общество крайне обеспокоено развитием ИИ-решений. Государственные органы во всем мире не понимают, чего ожидать от них, как они повлияют на экономику и общество, насколько масштабна технология по своему влиянию. При этом его важность отрицать нельзя. Генеративные ИИ в 2023 году наделали больше шуму, чем когда-либо. Они доказали, что могут создавать новый контент, который можно спутать с человеческими творениями: тексы, изображения, научные работы. И доходит до того, что ИИ способен за считанные секунды разработать концептуальный дизайн для микросхем и шагающих роботов.

Второй фактор - безопасность. ИИ активно используют злоумышленники для атак на компании и людей. Так, с момента запуска ChatGPT с число фишинговых атак возросло на 1265%. Или, например, с помощью ИИ можно получить рецепт изготовления взрывчатки. Люди придумывает оригинальные схемы и обходят встроенные системы защиты.

Третий фактор - непрозрачность. Как работает ИИ не понимают порой даже сами создатели. А для столь масштабной технологии непонимание что и почему может сгенерировать ИИ ситуация опасная.

Четвертый фактор - зависимость от обучающих. ИИ-модели строят люди, и обучают его люди. Да, есть самообучаемые модели, но будут развиваться и узкоспециализированные, а материал для их обучения будут отбирать люди.

Все это означает, что отрасль начнут регулировать и ограничивать. Как, пока никто не понимает. Дополним это известным письмом в марте 2023 года, в рамках которого известные эксперты по всему миру потребовали ограничить развитие ИИ.

  • Недостаток модели взаимодействия с чат-ботами

Думаем вы уже пробовали взаимодействовать с чат-ботами и остались, мягко говоря, разочарованными. Да. классная игрушка, но что с ней делать?

Надо понимать, что чат-бот не эксперт, а система, которая пытается угадать, что вы хотите увидеть или услышать. И дает Вам именно это.

И чтобы получить практическую пользу вы сами должны быть экспертом в предметной области. А если вы эксперт в своей теме, нужен ли вам ГИИ? А если вы не эксперт, то вы и не получите решения своего вопроса и не будет ценности, лишь общие ответы.

В итоге мы получаем замкнутый круг - экспертам это не нужно, а любителям не поможет. Кто тогда будет платить за такого помощника? А значит на выходе имеем дорогу игрушку.

Кроме того, помимо экспертности в теме, нужно еще и знать как правильно формулировать запрос. А таких людей вообще считанные единицы. В итоге даже появилась новая профессия - промтинженер. Промтинженер - человек, который понимает как думает машина и может правильно составить запрос к ней. А стоимость такого инженера в рынке около 6000 рублей в час. И поверьте, он с первого раза не подберет правильный запрос для вашей ситуации.

Нужен ли такой инструмент бизнесу? Захочет ли бизнес стать зависимым от очень редких специалистов, которые еще и стоят даже дороже программистов, ведь обычные сотрудники не извлекут из него пользы.

Вот и получается, что рынок для обычного чат-бота не просто узкий, он исчезающе мал.

  • Тенденция к производству некачественного контента, галлюцинации

В статье Искусственный интеллект: помощник или игрушка? мы отметили, что нейросети просто собирают данные и не анализируют факты, их связанность. То есть чего больше в интернете / базе, на то они и ориентируются. Они не оценивают написанное критически. В тоге ГИИ легко генерирует ложный или некорректный контент.

Например, специалисты инженерной школы Тандона Нью-Йоркского университета решили проверить ИИ-помощника Copilot от Microsoft с точки зрения безопасности. В итоге, они обнаружили, что примерно в 40 % случаев код, сгенерированный помощником, содержит ошибки или уязвимости. Подробная статья доступна по ссылке.

Еще один пример использования Chat GPT привел пользователь на Хабре. Вместо 10 минут и простой задачи получился квест на 2 часа.

А ИИ-галлюцинации уже давно известная особенность. Что это такое и как они возникают можно прочитать тут.

Мы сами несколько раз тестировали ГИИ и часто всегда он давал, скажем так, не совсем корректный результат. А порой и откровенно ошибочный. Нужно было провести 10-20 запросов с совершенно безумной детализацией, чтобы получить что-то вменяемое, что потом все равно надо переделывать / докручивать.

То есть за ним нужно перепроверять. И снова мы приходим к тому, что нужно быть экспертом в теме, чтобы оценить корректность контента и использовать его. А порой это занимает даже больше времени.

  • Эмоции, этика и ответственность

ГИИ без правильного запроса будет склоняться к простому воспроизведению информации или созданию контента, не обращая внимание на эмоции, контекст и тон коммуникации. А по циклу статей о коммуникации мы уже знаем, что сбой в коммуникации может произойти очень легко. В итоге мы ко всем проблемам выше можем получить еще и огромное количество конфликтов.

Также возникают вопросы относительно возможности определения авторства созданного контента, а также прав собственности на созданный контент. Кто несет ответственность за недостоверные или вредоносные действия, совершенные с помощью ГИИ? А как доказать, что авторство лежит именно за вами или вашей организацией? Возникает потребность в разработке этических стандартов и законодательства, регулирующих использование ГИИ.

  • Экономическая целесообразность

Как мы уже с Вами поняли, самим разработать генеративный ИИ высокого класса может оказаться неподъёмной задачей. И у многих возникнет идея: "А почему бы не купить "коробку" и не разместить у себя?" Но как Вы думаете? Сколько будет стоить такое решение? Сколько запросят разработчики?

А главное, каких масштабов должен быть бизнес, чтобы это все окупилось?

Что делать?

Ну что ж, давайте теперь немного подумаем, а что же делать?

  • Не спешить

Ожидать заката ИИ не стоит. Слишком много в эту технологию было вложено за последние 10 лет, и слишком большим потенциалом она обладает.

Мы рекомендуем помнить о 8 принципе из ДАО Тойота, основы бережливого производства: "Используй только надежную, испытанную технологию".

  • Технологии призваны помогать людям, а не заменять их. Часто стоит сначала выполнять процесс вручную, прежде чем вводить дополнительное оборудование.

  • Новые технологии часто ненадежны и с трудом поддаются стандартизации, а это ставит под угрозу поток. Вместо непроверенной технологии лучше использовать известный, отработанный процесс.

  • Прежде чем вводить новую технологию и оборудование, следует провести испытания в реальных условиях.

  • Отклони или измени технологию, которая идет вразрез с твоей культурой, может нарушить стабильность, надежность или предсказуемость.

  • И все же поощряй своих людей не забывать о новых технологиях, если речь идет о поисках новых путей. Оперативно внедряй зарекомендовавшие себя технологии, которые прошли испытания и делают поток более совершенным.

Да, через 5-10 лет генеративные модели станут массовыми и доступными, достаточно умными и подешевеют, а в итоге придут к плато продуктивности по хайп-циклу. И скорее всего, каждый из нас будет использовать результаты от ГИИ: написание статьей, подготовка презентаций и так до бесконечности. Но уповать сейчас на ИИ и сокращать людей будет явно избыточным.

  • Повышать эффективность и безопасность

Практически все разработчики сейчас сфокусированы на том, чтобы ИИ-модели стали менее требовательными к количеству и качеству исходных данных. А также на повышении уровня безопасности - ИИ должен генерировать безопасный контент, а также он должен стать устойчивым к провокациям.

  • Осваивать ИИ в формате экспериментов, проведения пилотных проектов

Чтобы быть готовым к приходу действительно полезных решений нужно следить за развитием технологии, пробовать ее, формировать компетенции. Это как с цифровизацией, вместо того, чтобы прыгать в омут с головой в дорогие решения, нужно поиграть с бюджетными или бесплатными. Благодаря этому, к моменту прихода технологии в массы:

  • вы и ваша компания будет понимать, какие требования необходимо закладывать к коммерческим и дорогим решениям, и подойдёте к этому вопросу осознанно. А хорошее техническое задание 50% успеха;

  • сможете уже получить эффекты в краткосрочной перспективе, а значит будет и мотивация идти дальше;

  • команда повысит свои цифровые компетенции, что снимет ограничения и сопротивление по техническим причинам;

  • будут исключены неверные ожидания, а значит будет и меньше бесполезных затрат, разочарований, конфликтов.

  • Трансформировать общение пользователя с ИИ

Подобную концепцию мы закладываем в нашего цифрового советника. Пользователю надо готовые формы, где он просто проставит нужные значения или отметить пункты. И уже эту форму с корректной обвязкой (промтом) отдавать ИИ. Либо глубоко интегрировать решения в существующие ИТ-решения: офисные приложения, браузеры, автоответчики в телефоне и т.д.

Но это требует глубокой проработки и понимания поведения, запросов пользователя. Или их стандартизации. То есть либо это уже не копеечное решение и и все равно требует затрат на разработку, либо мы теряем в гибкости.

  • Разрабатывать узкоспециализированные модели

Как и с людьми, обучать ИИ всему занятие очень трудозатратное и имеет низкую эффективность. Даже если мы создадим очень эффективные алгоритмы (технологическое решение задачи эффективности), то все второе направление - уход в область специализированных решений.

Если пойти по созданию с узкоспециализированных решений на базе движков больших решений, то и обучение можно свести к минимуму, и сама модель будет не слишком большой, и контент будет менее абстрактным, более понятным, и галлюцинаций будет меньше.

Наглядная демонстрация - люди. Кто добивается больших успехов и может решать сложные задачи? Те, кто знают все, или кто фокусируется на своем направлении и развивается вглубь, знает различные кейсы, общается с другими экспертами и тратит тысячи часов на анализ своего направления?

Пример узкоспециализированного решения

  • советник для управления проектами

  • налоговый консультант

  • советник советник по бережливому производству

  • чат-бот по производственной безопасности или помощник специалиста производственной безопасности

  • чат-бот для ИТ-техподдержки

Резюме

Хоть ГИИ пока только на стадии развития, потенциал у технологии большой. Следующий шаг в развитии ИИ - создание более новых и легких моделей, которым нужно меньше данных для обучения. Нужно только набраться терпения и постепенно изучать инструмент и формировать компетенции, чтобы потом использовать его потенциал в полной мере.