Comments 63
👉 Здесь есть скрытое противоречие:
Автор сравнивает ИИ с уже зрелыми инструментами (ERP, CRM, облака и т. д.), ожидая от него такой же стабильности и эффективности.
Но на деле технология слишком свежая, и справедливее было бы анализировать её как экспериментальную стадию — с неизбежными хаотичными результатами, провалами пилотов и неясными бизнес-моделями.
По сути, его критика строится на предположении, что «всё должно было уже показать себя», хотя времени прошло слишком мало для того, чтобы это требование было справедливым.
Видимо, каждый видит то, что хочет увидеть.
Я прочитал лишь то, что написано: на сегодняшний день зримых результатов от внедрения "ИИ" нет, хотя прошло 3 года, и всё происходящее ("ИИ", "революция", etc.) больше напоминает хайп, аналогичный тому, что был с криптой.
Жаль только, орфографических ошибок в статье многовато, и одна и та же картинка почему-то повторяется под двумя спойлерами.
Спасибо! Перепроверю! Писал сам, (слепым методом) и не просил проверить ЧатЖПТ)
В отличие от крипты от ИИ всё же польза есть.
Да и от крипты есть) Просто для кратно меньшего количества людей)
Ну и пользу никто не отрицает. Вот только вопрос как ее считать? Как минимум вопрос, как учитывать затраты? "Бесплатный ChatGPT" vs "ChatGPT в случае необходимости платить как минимум полную себестоимость за него" - сильно влияют на размер "пользы".
Случай из середины 2000-х.
В одном банке крупном (российская дочка международной группы) считали, сколько стоит интеграция двух систем. В итоге решили купить сотрудникам вторые мониторы, чтобы им удобнее и быстрее было вводить данные параллельно в две системы - так оказалось дешевле даже с учетом необходимости исправления неизбежно появлящихся при таком "двойном вводе" ошибок.
Не ИИ, а LLM :-)))))
... Не просто на предположении, а еще и на сравнении с той же БигДатой. Ну а дискутировать на тему много ли это 3 года или нет - смысла нет. Понятие субьективное.
Касательно зрелости и сравнения. Я указываю на то, что "by design" LLM не могут дать стабильность и эффективность как у мат.алгоритма. Или что вы имеете в виду?
ну рано же судить) Каждый день открывают новые подходы к стабильности. Стоит только вспомнить размер жесткого диска и его объемы и стоимость в 70-е года.
Если она такая свежая, то что ее стараються запихать во все дырки, увольняя кучу специалистов?
Касательно уволнений из-за ИИ, есть гипотеза, что это просто удобный предлог: сравните "у нас дела так себе, поэтому сокращаем персонал" и "мы внедряем инновации, и поэтому заменяем часть людей на ИИ" :-))).
Косвенно этому можно считать подтверждением тот факт, что если верить всем заявлением компаний про замену людей на ИИ, то эффективность компаний должна была возрасти значительно, что это точно должно было бы найти отражение в бизнес процессах и финансовых показателях, чего пока не наблюдается...
Это все понятно, бывает и такое. Но вроде как топчики из snp500 это практикуют не слабо, они то уж должны понимать, к чему это может привести в итоге
Спойлер, спойлер - к обвалу экономики при схлопывании пузыря. Или без этого хайп бы не раскрутился?
Я думаю они практикуют скорее под натиском хайпа (акционеры и совет директоров требуют "внедрять ИИ") + могут себе финансово позволить эксперименты. А механизм принятия решений часто везде одинаков:
есть хайп из каждого утюга
как следствие есть давление на ЛПР со стороны совета директоров, акционеров и т.п.
конкретное ЛПР стоит перед выбором - сопротивляться давлению, рискуя своим положением, или согласиться
выбор очевиден :)
Кстати, во время Ковида драконовские карантинные меры (многие из которых потом, хотя и нехотя, признали ошибкой) были приняты именно под натиском паники в масс-медиа (тоже своебразный хайп) - у чиновника был выбор: либо он "сопротивляется" и ловит "хейт" от своего избирателя, либо поддакивает и остается "любимчиком"
Потому что ИИ для зрелости нужно много обратной связи для дообучения скормить - поэтому одни сгоняют народ на сырой продукт рекламой будущего, а некоторые это чувствуют и гребут в противоположном направлении.
На самом деле скептики делают больше для рекламы, чем евангелисты, потому что создают рекламные возможности для опровержения
Походу нас ждёт очередная ИИ-зима? Может зимиииище. )
ну нет. инструмент останется. для себя я его вижу как умный рефактор тул типо решарпера. я все пилю. в контроллере жмякаю отрефакторить - он раскидавет код по папочкам и файликам. переименовывает по спеке и используя солиды/киссы/пыссы и еще сверху юнит тесты. но не более)
а ну еще в андройде джемини - прям очень нравится. сири здорового человека. и загуглить может и будильники поставить и в спотифай трек найти. удобно
Даже не близко. Результаты немного меньше самых оптимистичных ожиданий, вот и всё. Это некоторых мотивирует побыть немного в стадии отрицания. На практике ещё 10% не выжали из того, что есть.
Статья хорошая, спору нет, за что автору отдельное спасибо! Но такое впечатление, что эта тема уже превращается в какой-то очередной холивар. С одной стороны "революция", а с другой - "мыльный пузырь"
Мне кажется, исторически от ИИ человечество отказаться не сможет. Вопрос в том, насколько быстро и в каких масштабах ИИ будет входить в нашу жизнь. Да, на волне wow-эффекта от первых мало-мальских успехов и достижений, все бросились рисовать апокалиптические (или наоборот) прогнозы. Но для того, чтобы ИИ действительно фундаментально изменил наш мир, требуется время. И похоже, его требуется гораздо больше чем предрекали алармисты. Но от серьёзных изменений мы точно никуда не денемся.
Исторически технологии, которые действительно полезны и масштабируемы, человечество просто не способно игнорировать — ИИ явно в эту категорию входит. Правда, мне кажется, что момент «входа» ИИ в жизнь сильно отличается от момента, когда он начинает реально менять процессы и создавать ощутимую коммерческую или социальную отдачу.
То есть wow-эффект от первых LLM или чат-ассистентов привёл к бурным прогнозам, но реальные изменения требуют перестройки бизнес-процессов, стандартов работы и инфраструктуры, а это всегда затягивается на годы. Так что пока мы видим хайп и первые эксперименты, а также миллиардные инвестиции без существенного выхлопа, но фундаментальные изменения — действительно, процесс медленный, постепенный, и масштаб которого будет по-настоящему заметен только со временем.
В целом, я бы сказал, что это классический случай «эффекта на слуху» vs «эффекта на практике». На слуху — уже есть, а вот в масштабной практике — ещё не совсем.
Ор вокруг того что называют ИИ не соотвествуют действительности. Иногда попадаются статейки и всякие топы с примерами. Но пробуешь примеры туфта туфтой...
называть их ИИ - опрометчиво
Вы путаете AI и AGI.
Под понятие AI попадает очень много всего, начиная с шахматных программ, разрабатывавшихся с 1960-х.
Развитие любой отдельной технологии приблизительно имеет вид логистической кривой, то есть экспоненты, в какой‑то момент достигающей насыщения.
Развитие человечества в целом состоит из большого числа таких логистических кривых, дающих в сумме одну большую экспоненту.
И часто бывает невозможно предугадать, в какую сторону произойдёт следующий прорыв. 50 лет назад все думали, что мы живём в космический век, и что скоро на Марсе зацветут яблони, но вместо этого прорыв случился в направлении интернета, смартфонов и нейронок.
Но проводить аналогию и ожидать зимы ИИ на следующие 50 лет тоже будет опрометчиво. Можно ведь также провести аналогию с доткомами, хайп вокруг которых совершил фальстарт в 90-е, и которые лопнули в 2000-м, но буквально в следующие 10 лет переродились в виде веба 2.0.
Никто не способен представить себе облик технологий в ближайшие 10 лет. Считайте, что сингулярность уже наступила.

Но называть их ИИ - опрометчиво, хотя маркетологи и продажники пытаются изо всех сил.
Поздно. ИИ уже давно называют не только LLM но и множество разных вещей вплоть до алгоритмов управляющих NPC в играх. Для "искусственного разума" придумали отдельный термин - AGI.
Любой алгоритм (если он есть, конечно) лучше любого ML. Пусть даже этот алгоритм есть 100 конструкций
if-then-else
. Надежность такого алгоритма, его стоимость разработки и поддержки точно будут более коммерчески оправданными, чем внедрение любого ML.
Очень радикальное утверждение. Можно написать классический алгоритм практически для любой задачи. Например, для распознавания лиц. И он будет дешевле в разработке и поддержке по сравнению с ML решением. Вот только работать будет на порядок хуже.
В целом вы верно пишите. Но я специльно подчеркнул, что предметь статьи - LLM, и что то, что в масс-медиа сейчас называют ИИ - это в глазах массового обывателя и есть ChatGPT и подобные.
И мое радикальное утверждение относится именно к сравнению алгоритмов, реализованных через "if-then-else" и через использование LLM.
Наиболее близки к Настоящему ИИ ("Real AI") - это гибриды технологий LBS (Logic-Based Systems) + CESP (Cognitive Event-Driven Symbolic Processing). Системы не реагирует на запрос, а ведут диалог, ставят цели, задают уточняющие вопросы, перестраивают модель мира. Такие системы имеют внутреннее состояние, память, модель пользователя и могут учиться в процессе. LLM - это революция в генерации текста, но не в понимании, а LBS + CESP - это революция в моделировании разума.
Приведите пример, пожалуйста, хорошей системы такого рода.
Soar (University of Michigan) - один из "подвидов" CESP
А при помощи Гугл, можно найти и другие LBS, CESP системы. Вот только гибридами мало кто занимается
Еще один пример. В июне была продана в Гонконге одна CESP "заточеная" под юриспруденцию, в августе она "выиграла" первое и сразу сложное дело. А при этом, все LLM проиграли бы, так как перед и после слушания проводили "тесты". А началом этой истории было то, что данная юридическая компания хотела купить именно LLM, а ей показали возможности CESP системы чтобы просто "проконсультироваться", без мыслей о продаже
LLM-агенты приближаются к функциональности к системам типа Soar: они могут планировать, хранить внешнюю память, обучаться через RAG, использовать правила и инструменты. Проблема только в непрозрачности генерации текста LLM. Именно поэтому многие исследователи сейчас пытаются смешивать подходы: использовать LLM как «семантический модуль» внутри символических когнитивных архитектур (в т.ч. в самом Soar).
Сэр, Вы понимаете что когнитивные и логические системы - это сама память, а RAG - это костыль, который дает "видимость" того, что у системы есть память
По какой функциональности? Например что когнитивные системы дают ответ за пару секунд, а LLM за пару минут и тот не совсем точный
Обучаться? Эту шутку про "обучение" я давно уже знаю. У меня 6 Тб данных (HDD) + 2 Tб (SSD как кэш), на которых действительно обучена система. Интересно, какой мощности нужен компьютер, если это была бы LLM с 6ТБ данных? LBS+CESP данные "выцарапывают" оттуда необходимую инфу за несколько секунд и компы обычные
У меня видяшка 2060 Super, а не 5ххх (тем паче не профи видяшка), а при этом все "летает со скоростью звука".
Под капотом у нее все такая же LLM.
А как LBS и CESP коррелируют с JEPA-архитектурой, котою разрабатывт Ян Лекун в Meta? Идеи очень похожи.
Действительно, на первый взгляд идеи LBS/CESP и JEPA, Яна Лекуна, кажутся близкими, потому что обе стремятся к более глубокому, предсказательному пониманию мира без зависимости от автогрегрессии. Однако различия фундаментальны. JEPA строится вокруг идеи обучения представлений через сравнение в скрытом пространстве, она кодирует два вида одного и того же контекста, сравнивает их в латентном пространстве и учится предсказывать изменения.
LBS и CESP идут дальше, они не просто предсказывают, а моделируют интеллект как процесс, управляемый целями, с явной структурой памяти, правилами вывода и механизмом саморегуляции. В Soar или ACT-R, например, есть декларативная и процедурная память, модуль принятия решений, способность к рефлексии и обучению на основе конфликтов.Там, где JEPA учится "понимать мир" через предсказание изменений, LBS/CESP пытаются "мыслить" в этом мире, используя символы, цели и внутренние модели. То есть, JEPA - это мощный шаг к семантическому обучению без учителя, но пока без "ядра разума", тогда как LBS/CESP - попытка создать это ядро.
LBS и CESP умеют выстраивать причинно-следственные связи?
Да и это ключевое преимущество LBS/CESP перед современными LLM. Эти системы изначально строятся вокруг способности выстраивать и управлять причинно-следственными связями и не как статистическую корреляцию, а как часть своей архитектуры. В Soar, например, каждое правило в процедурной памяти имеет форму "если → то", что позволяет системе не просто реагировать, а моделировать последствия действий, планировать и переосмысливать стратегию при возникновении конфликта целей. Причинность здесь, не "побочный эффект" обучения, а основа принятия решений: система может отслеживать, почему было выбрано то или иное действие, как оно повлияло на состояние мира и что нужно изменить, если результат не совпал с ожиданием.
В CESP-архитектурах, сочетающих символические и подсимвольные уровни, причинно-следственные связи ещё более явны: они могут быть заложены в онтологию домена, обновляться через обучение и проверяться в процессе рассуждения. Такие системы способны не только сказать "А привело к Б", но и объяснить, на каком основании сделан этот вывод, можно ли его опровергнуть и какие альтернативные цепочки возможны. Это делает их особенно подходящими для задач, где важны прозрачность, ответственность и понимание, от диагностики до стратегического планирования. В отличие от LLM, которые часто имитируют причинность через языковые паттерны, LBS и CESP реализуют её как операционный принцип работы
Угу. Если бы мне года 4 назад сказали что я буду уговаривать компьютер понять меня правильно и наконец реализовать фитчу так как я задумал. Или что я могу объяснить компьютеру где у меня затык в понимании любой концепции и он реально мне поможет все понять вникая в мои заблуждения. Я бы не поверил и решил что это фантастика какая то.
А так да... Один хайп, ничего не происходит.
Понимаю вашу мысль. Но тут важно различать личный опыт и эффект в масштабе. Никто не спорит, что для отдельных специалистов это реально буст - ускоряет понимание, помогает справляться с задачами и снижает порог входа в сложные темы (при этом задумайтесь, использовало ли столько людей LLM, если бы пришлось бы платить за нее полную себестоимость, которая отньюдь не 20 и даже не 200 баксов в месяц).
И вот на уровне бизнеса, где нужны системные и измеримые результаты, пока не видно эффекта, сопоставимого с тем хайпом, что вокруг. Массового "переворота" в продуктивности компаний или целых индустрий пока не произошло. О чем и написано в статье.
Оно всегда так. Например, в компании сидели бухгалтеры и считали все на калькуляторах и в Экселе. А потом внедряется какой нибудь SAP или 1C. Шуму всегда много, а эффекта не видно. Людей надо ещё больше, трудностей тоже больше. Переворота в продуктивности не видно мягко говоря.
Но чуть позже оказывается, что тот кто не автоматизировался просто не выживет. Нигде уже не найдет бухгалтера, который может все прокрутить в Экселе. Не сможет ответить вовремя на запросы налоговых и так далее.
То же самое с AI. Убытки от AI в точности сойдутся с доходами и все останутся при своих, но мир уже станет другим. И тот кто в этом не участвует, не выживет.
Имхо. Для себя придумал 5 вопросов к задаче, которые должны в качестве rule of thumb помочь определить, годная задача для ллмизации или не.
1) входные данные, приводящие к одному результату, могут сильно варьироваться (условно приход-расход для сведения баланса- только если строки переставлять, а вот запрос, куда бы слетать в отпуск- очень большое поле того, как это можно сформулировать) и не очень поддаются стандартизации через UI?
2) выходные данные, удовлетворяющие пользователя для его входных данных, также могут сильно варьироваться (те же примеры- мне не нужно "что-то похожее на мои расходы за месяц", и даже правильный ответ, но римскими цифрами или в двоичной СС способен как минимум удивить- а вот рекомендации по отпуску я приму в куче вариантов, от простого текста до списка с приоритетами)?
3) Мала ли цена ошибки для пользователя и просто ли её найти(опять же деньги вещь критичная, а вот полететь в условно Катар вместо ОАЭ, хотя ОАЭ подошло бы лучше- да ничего особо страшного)?
4) Много ли релевантной моей задачи информации в сети и (чуть хуже) в литературе, чтобы ллм имела корпус данных для адекватного ответа вместо галлюцинаций?
5) Могу ли я придумать для этой задачи идеального мясного исполнителя- кто он, какой бэкграунд, скиллы и прочее (это скорее уже для генерации промпта, но если ответ "нет"- возможно, вы хотите странного и странное ллм вам и выдаст)?
Чем больше ответов "да" - тем ЛЛМнее задача. Собственно, кодогенерация для программиста - скорее "да" в 1 и 2(потому что тз обычно на человеческом языке со всей его неопределенностью, а сам код хотя и гораздо более детерминирован, но все равно и переменные можно называть по-разному, и одну и ту же вещь чуть по-разному закодить...), не очень уверенное "да" в 3 (ошибки могут быть критичными, но много средств их ловли до появления), твердое "да" в 4 и 5- то есть не идеально, но определенно в позитивной зоне.
И так же я не считаю внедрением ИИ на уровне компании ситуацию, когда просто каждый сотрудник в частном порядке использует ChatGPT (или ГигаЧат, как в случае со Сбером) как помощника
То есть мир кардинально изменился, но вы продолжаете утверждать, что это «не считово», так как не соответствует вашим критериям.
Вот вам пример чтобы подумать насколько изменился мир и возможна ли дорога назад:
https://vladimir-akinin.livejournal.com/67551.html
Тут акцент на "на уровне компании". Разрешить всем использовать БЕСПЛАТНЫЙ чатЖПТ для решения рабочих задач - это не есть внедрение на УРОВНЕ КОМПАНИИ. Это даже не внедрение никакое. Перефразируя пример из комментариев выше - это как разрешить бухгалтерам пользоваться калькуляторами.
Про координальное измерение мира - измерение есть. Но эволюционное, а не координальное. И не соизмеримое (пока?) с объемом хайпошума. О чем и говориться в статье.
За ссылку кстати спасибо. Интересная история
не AI, а ML (machine learning)
Это не верно. ML - это подмножество AI.
А LLM - подмножество ML. Так что если мы говорим об LLM, то термин ML ближе к истине чем термин AI. Или что вы имеете в виду?
LLM - это область AI, неверно утверждать, что "LLM - это не AI"
Если быть точным то вот так:
LLM — это уже зверёк на третьем уровне матрёшки. Вот иерархия:
AI (Искусственный интеллект) — общее направление.
ML (Машинное обучение) — подмножество AI, где алгоритмы учатся на данных.
DL (Deep Learning, глубокое обучение) — подмножество ML, где используются нейросети с большим числом слоёв.
LLM (Large Language Models, большие языковые модели) — это конкретный класс моделей внутри DL, которые обучены на текстах. Они используют архитектуру трансформеров (Transformer) и могут обрабатывать, генерировать и интерпретировать естественный язык.
Делить ИИ на "матрёшку": "AI → ML → DL → LLM" - удобно, но обманчиво. Эти уровни относятся к разным категориям: AI - цель, ML - метод, DL - инструмент, LLM - конкретная реализация. Сравнивать их как вложенность - это всё равно что сказать: "транспорт → наземный → колёсный → красный". Формально логично, но по сути - путаница. LLM - не следующий этап эволюции ML, а радикальный поворот: от "обучения с учителем" к масштабной статистической генерации без понимания. И если мы хотим не имитацию, а настоящий интеллект, стоит помнить: не всякая глубина - это путь к разуму.
Когда прошла волна хайпа, оказалось (и сейчас, спустя много лет, уже можно более-менее объективно судить об этом), что блокчейн по сути массово применяется только ... в криптовалютах, которые сами имеют узкую и специфичную сферу применения. О других сферах его массового коммерческого применения не особо слышно.
Вы бы хотя бы изучили тему сначала, погуглили или ChatGPT задали вопрос.
Вот реальные примеры применения:
1. Логистика и цепочки поставок
– IBM Food Trust (на базе Hyperledger Fabric): Walmart отслеживает происхождение продуктов (например, салата). Если возникнет заражение, они видят, с какой фермы пришёл товар, за секунды, а не за недели.
– De Beers: отслеживание происхождения алмазов, чтобы исключить «конфликтные» камни.
2. Государственные реестры
– Грузия: внедрила блокчейн для регистрации земельных участков. Теперь собственность фиксируется в неизменяемой базе, а подделка практически невозможна.
– Эстония: часть госуслуг (цифровые ID, медзаписи, судопроизводство) интегрированы с блокчейном для защиты данных.
3. Голосование
– Эстония: хотя система e-Residency и госуслуги — уже норма, для выборов они тестировали блокчейн-технологии, но осторожно, потому что анонимность и безопасность — критичный вопрос.
– Voatz (США): блокчейн-платформа для мобильного голосования, использовалась в некоторых штатах на выборах для военных и инвалидов.
4. Здравоохранение
– MediLedger (США): фармацевтические компании используют блокчейн для отслеживания поставок лекарств и борьбы с подделками.
– Estonia e-Health: медицинские записи фиксируются в распределённой системе, пациент сам управляет доступом к своим данным.
5. Игры и виртуальные активы
– Axie Infinity: игра, где персонажи — это NFT. Игроки в пике реально зарабатывали на продаже своих «аксиков».
– Decentraland: виртуальный мир, где земля и предметы — токены, принадлежащие игрокам. Земельные участки перепродают за десятки тысяч долларов.
6. Энергетика
– Power Ledger (Австралия): блокчейн для торговли электроэнергией. Владельцы солнечных панелей могут напрямую продавать энергию соседям.
– Brooklyn Microgrid (США): проект, где жители Бруклина покупают и продают электричество напрямую друг у друга через смарт-контракты.
7. Благотворительность
– Binance Charity: пожертвования фиксируются в блокчейне, любой может проверить, куда ушли средства.
– UN World Food Programme (WFP): использует блокчейн для распределения гуманитарной помощи, чтобы деньги доходили до получателей напрямую, минуя посредников.
«AI»: три года шумихи, но что дальше?