Как стать автором
Обновить

Пузырь ИИ? Вы просто неправильно его используете

Уровень сложностиПростой
Время на прочтение5 мин
Количество просмотров4K

На Хабре часто встречаются статьи о том, что ИИ сейчас — очень перегретая тема. Вот хотя бы раз, два. Так ждет ли нас крах, подобный краху доткомов в начале нулевых?

TLDR — нет.

Однако нас действительно ожидает волна разочарования, из‑за того, что у людей завышены ожидания. А почему? На мой взгляд, здесь хайп похож на тот, который царит вокруг курсов «войти в айти», и зачастую он создается создателями (извините за тавтологию) этих курсов.

Приведу два интересных примера, чтобы было понятно, что не так с ИИ сейчас.

Пример первый случился с приятелем, работающем в крупной европейской финансовой компании. У них был создан на волне хайпа ChatGPT отдел AI. Ну как отдел — два парня, один начальник, другой зам. Здесь важно, что этот отдел (как и в большинстве компаний, которые сами не специализируются на ИИ) не R&D, а вполне себе обычный отдел, подчиняющийся тем же требованиям менеджмента, что и все остальные. А значит — должен отчитываться тем, что разработано и внедрено. Даже если это путем ущерба компании в целом. Приходится отбиваться от них постоянно. Например, вот одна из их светлых идей.

У компании есть приложение скоринга, которое на основе данных пользователя принимает первичное решение о том, одобрять ли пользователю финансовую операцию или как. А давайте развернем внутри компании сеть, обучим ее на основе алгоритма этой программы (или еще лучше, давайте скормим ей код программы) и пусть сеть через чат‑бота выдает эти решения.

Реакция разработчиков исходной программы
Реакция разработчиков исходной программы

Во-первых, программа уже есть и работает довольно давно. Во-вторых, здесь нет каких-либо непонятных моментов, которые мог бы уточнять у пользователя AI-ассистент. В-третьих, есть момент с PCI Compliance, а не сохранит ли чатбот эти данные себе как-то внутри сети в результате переобучения? В четвертых, это еще все же прогоняться предполагается через сервера Azure, пусть и с гарантиями от Microsoft, что это никуда не утечет.

Т.е. предполагается решать проблему, которая и так уже решена.

Второй случай произошел уже со мной. Ко мне обратился приятель‑предприниматель. Он оказывает людям услуги, и люди пишут ему письма на сайт с описанием проблемы, что за тип оборудования им нужен, какой объем, и он выставляет ценник. У него есть вполне четкий алгоритм, как он им его выставляет, и он пришел ко мне с идеей — а что, если натаскать бота для телеграмма, который бы общался с пользователями на эту тему и выставлял ценник, и даже заключал сделку? Он даже нашел несколько конструкторов таких AI‑ботов, и даже в РФ (называть не буду, чтобы не показалось рекламой). После длительного разбора я его отговорил. И вот какими доводами:

  • Даже в банках ботам, как правило, доверяют вопросы консультации по техподдержке, и переключают на оператора, в случае чего. Оформить кредит по быстрому через бота не получится, и на это есть причины.

  • Задача «Задать пользователю наводящие вопросы и выдать ему примерную смету» хорошая, и ее лучше всего решать с помощью искусственного интеллекта, но не так, как это нынче видится менеджерам. По идее в кейсах диалогов с реальными пользователями можно вывести ряд различных фаз вопросы об авторизации, вопросы о хранении данных и о логировании, вопросы о распределении данных, вопросы о наличие складской системы учета и т. д.). В этом случае это можно и нужно оформлять в виде дерева решений. Пользователь на странице в системе выбирает одну из возможных опций для первой фазы, для второй и т. д. По итогам стоимость выдаем. Тут имеет смысл дать ИИ все эти кейсы в виде документа и попросить его на любом из приемлемых языков программирования сформулировать дерево решений, проходящее через эти фазы, а затем уже развернуть где‑нибудь в облаке веб‑систему с этим деревом. Почему это лучше?

  • Юридические проблемы. Не забываем, что особенность GPT — это наличие рандомайзера в выборе следующего токена. Это значит, что двум пользователям, задавшим боту одни и те же вопросы (буквально с точностью до запятой), могут прийти слегка разные ответы и не слегка разные цены. Скажем, российским законодательством это прямо запрещено. Как запрещено, например, считывать User‑Agent в запросе, и если это iPhone, ставить цену на 10 процентов повыше — типа мажор. Конечно, здесь можно сослаться на отсутствие прямого умысла с GPT, но как к этому отнесутся регулирующие инстанции — предугадать сложно.

  • Проблемы с математикой — внезапно в силу ряда особенностей LLM под капотом GPT, им гораздо проще написать программу, выполняющую вычисления, чем вычислить самим. Задачи вида «Даны длина и ширина в футах, выдай площадь в метрах» даются им крайне тяжело, но выдать рецепт, как это решить, они могут очень легко, что в человеческом языке, что в программном. Поэтому я крайне скептически отношусь к идее бота, который, задав ряд наводящих вопросов, выдаст цену, перемножив чего‑то там. Проще заставить ИИ помочь с написанием программы.

  • Энергетика‑экология. Использовав ИИ для написания программы, мы получаем очень простое дерево решений, которое можно при желании хоть на первом пентиуме запустить. Если же каждый раз использовать ИИ для каждого клиента, то там совсем другие энергозатраты получаются. Характерно, что на сайте конструктора ботов, который приятель мне скинул, пишут, что цена от 990 рублей для клиента (надеюсь, там не хитрые биллинги, как на Амазоне, чтоб незаметно сожрать CPU и потребовать с тебя 100 штук). Программа на основе дерева решений получается куда более предсказуемой — за 900 рублей можно выделить себе сервер и на нем разместить с десяток таких приложений. Если поставить preemptive квоты, и туда редко будут приходить люди, то вообще в пару сотен можно уложиться.

    Эти доводы убедили человека, что он погорячился. Что по итогам можно сказать?

  • Разные конструкторы AI ботов и рекламные кампании по сути эксплуатируют те же потаенные желания, что и курсы «войти в айти». Курсы предлагают тебе «отучись тут полгода и устройся на работу программистом за 300 тысяч в месяц». Конструкторы предлагают тебе «Избавься от программиста и сэкономь 300 тысяч в месяц». LLM очень полезные и могут резко повысить эффективность программиста, а не избавить от него.

  • Вообще вся эпопея с LLM сейчас мне напоминает этап хайпа с Domain Specific Languages (DSL). Они тоже в свое время подавались под соусом «С этими языками обычные сотрудники могут выполнять все задачи, и программисты не потребуются». Это оказалось не так. Но это не значит, что DSL исчезли — они никуда не делись и очень интенсивно используются. Просто использовать их как замену программистов и экономию на труде программистов — не получилось.

  • Исходя из этого, LLM ждет процесс значительного отката в плане интереса к технологии. Когда люди убедятся, что LLM не позволяет решить большинство проблем самостоятельно, не прибегая к помощи специалистов, многие стартапы лопнут, поскольку исчезнет возможная клиентская база. Это не значит, что сами LLM исчезнут — их использование будет становиться все более повсеместным.

А что думаете по этому поводу Вы?

Теги:
Хабы:
Всего голосов 13: ↑8 и ↓5+4
Комментарии9

Публикации

Истории

Ближайшие события

28 ноября
Конференция «TechRec: ITHR CAMPUS»
МоскваОнлайн
2 – 18 декабря
Yandex DataLens Festival 2024
МоскваОнлайн
11 – 13 декабря
Международная конференция по AI/ML «AI Journey»
МоскваОнлайн
25 – 26 апреля
IT-конференция Merge Tatarstan 2025
Казань