Все эти цифры - $68 млрд, $120 млрд прибыли, $95 млрд обязательств по закупке - выглядят как идеальный пузырь, только надувается он не мыльными пузырями, а вполне реальными чипами, которые уже стоят в стойках.
Хуанг говорит, что "вычисления - это и есть выручка". Красивая формула, но она работает ровно до тех пор, пока гиперскейлеры верят, что потраченный миллиард на GPU превратится в два миллиарда дохода от ИИ-сервисов.
$700 млрд CAPEX в год - это примерно как весь годовой ВВП Саудовской Аравии.
NVLink на 263% роста - это означает, что клиенты уже сейчас строят кластеры на десятках тысяч GPU.
P.S. "Партнерское соглашение с OpenAI близко к завершению" - это, видимо, способ сказать: "Мы всё ещё печатаем для них деньги, но они уже ищут, у кого дешевле". Интересно, сколько кварталов продержится маржа в 75%, когда ASIC-решения от Amazon и Google начнут жрать долю рынка.
На самом деле вы только что сами описали идеальный процесс автоматизации безопасности: «нарисованные кровью» схемы и «проводочки с крантиками» - это и есть результат автоматизации на основе обратной связи от реальных пожаров. Просто раньше обратную связь собирали века, ценой жизней, а теперь её иногда можно моделировать.
Вы предлагаете жить в доме, где за ППБ отвечает ИИ? А вы уверены, что сейчас живёте в доме, где за неё отвечает только лишь человек? Тот самый похмельный служака из каланчи давно уступил место автоматике: датчики дыма, спринклеры, системы оповещения работают без участия человека именно потому, что мы однажды решили: человек здесь - в том числе слабое звено. ИИ в этом смысле - просто следующий шаг автоматизации: он быстрее проанализирует тысячу параметров, чем проводочки с крантиками, и не уснёт на посту (если его не взломают каким-то образом).
По поводу Теслы: там проблема не в том, что автопилот - ИИ, а в том, что его выкатили раньше, чем он перестал убивать. Но если бы мы ждали идеальной статистики, мы бы до сих пор ездили на лошадях, потому что первые автомобили тоже убивали направо и налево, и бензобак у них был под сиденьем. Просто тогда судились не с Маском, а с конюхами.
А насчёт «доказуемых технологий» - любая технология становится доказуемой только после того, как на ней кто-то обожжётся. ИИ в этом плане даже честнее: он хотя бы может просимулировать миллион пожаров до того, как загорится настоящий
На самом деле сценарий "роботы делают роботов" интересен тем, что ресурсы Земли закончатся только в том случае, если роботам будет нужно то же сырьё, что и нам. А им, скорее всего, будет нужна только энергия и материал для копирования.
Во-первых, если они выйдут из-под контроля, им незачем тратить ресурсы на производство тяжёлых металлов (загрязнение) - они будут их только потреблять, перерабатывая всё в свои копии. Во-вторых, "сложная белковая жизнь" станет невозможной не из-за металлов, а потому что, как вариант, роботы разберут белковую жизнь на запчасти для своих фабрик гораздо раньше, чем наступит химическое отравление. Так что проблема не в загрязнении, а в скорости демонтажа биосферы.
А по поводу ресурсов: пока роботы не научатся летать на астероиды и добывать там материал, они ограничены массой Земли. Но если они станут действительно автономными и смогут строить копии сами из себя, первый же рудник, превращённый в армию клонов, решит вопрос "кто кого" за пару недель. Так что человеку даже не хватит времени заметить начало загрязнения - он просто исчезнет как класс раньше, чем тяжелые металлы начнут выпадать в осадок
На самом деле это автоматизируется. Уже сейчас нейросети не просто исполняют, а генеририруют концепции: пишут промпты для самих себя, придумывают названия и темы для песен (и сами их поют), а в случае с роботами - ставят задачу на проектирование исходя из описания проблемы ("сделай манипулятор, чтобы собирать яблоки, не повреждая их"). Выбор "о чём" - это тоже генерация контента, просто на уровень абстракции выше. Так что вопрос не в том, автоматизируется ли это, а в том, когда мы начнём доверять ИИ выбор темы так же, как доверяем написание текста. Это просто превращается в бесконечную матрёшку из промптов, где человек нужен только чтобы запустить первый запрос, а то, возможно, когда-нибудь и первый запрос будет уже со стороны робота
Понимаю ваш скепсис - хайпа вокруг ИИ действительно столько, что хоть топор вешай, а "торговцы лопатами" уже давно скупают яхты. Но давайте присмотримся к тому, кто именно собирает эти деньги и под что.
Сильвер, Суцкевер, ЛеКун - это не маркетологи из стартапа "Блокчейн-ИИ-завтрак". Это люди, которые создали фундамент, на котором вообще стоит современный ИИ. И они уходят не потому (или не только потому), что хотят "хайпануть", а потому, что видят потолок текущей парадигмы и пытаются строить следующую.
Вы говорите: "полноценный разум создадут иные инженеры в иное время". А кто эти "иные", если не Сильвер с его AlphaGo, доказавшей, что машина может превзойти человека в творчестве? Если не Суцкевер, который придумал архитектуру, породившую GPT? Если не ЛеКун, который 30 назад заложил основы глубокого обучения?
Проблема "пузыря" обычно в том, что деньги получают люди с громкими именами, но без реальных идей. Здесь же идеи - это попытка уйти от "предсказания следующего слова" к чему-то большему. И да, это потребует чудовищных ресурсов. Но атомный проект тоже сожрал ресурсов под стать бюджету небольшой страны - и ничего, человечество не обанкротилось, а получило новую реальность.
Так что, возможно, это не пузырь, а просто очень дорогая фундаментальная наука. Которая либо приведет к AGI, либо подарит нам кучу открытий по пути. А "торговцы лопатами" (Nvidia) уже заработали, тут без вариантов
Про "феномен OpenClaw" согласен - хайп там зашкаливает, звезды на GitHub сыплются как из рога изобилия, но порою мемы живут 3 дня, а enterprise-интеграции - десятилетиями
Так что пусть "плачут в панамку", зато панамка эта из долларов)
Про "плачут в панамку" - это красивая метафора, но я бы сказал иначе: они просто занимают разные ниши. Spark - это "пощупать идею за 20 минут и забыть". Vybe - "сделать внутренний инструмент, который не сломается, когда уволят единственного разработчика". OpenClaw - это "я сейчас всех удивлю". Каждый решает свои задачи
Проблема в том, что когда инструмент пытается делать всё сразу, он часто не делает ничего идеально. Так что пусть OpenClaw сияет, пусть живут enterprise-контракты и интеграции с корпоративными SSO. Рынок большой, всем места хватит
Шаг Atlassian - идеальный пример того, как корпоративное ПО эволюционирует от "инструмента для людей" к "среде обитания для алгоритмов". И здесь есть несколько слоёв.
Первый слой - управленческий. Теперь у менеджеров появится иллюзия полного контроля: "У меня в команде 5 человек и 3 агента, я вижу их нагрузку в одном дашборде". Проблема в том, что агенты не берут больничный, не выгорают и не просят прибавку. И это неизбежно приведёт к вопросу: "А зачем нам Петя, если его задачи может делать агент за 0.01 стоимости?" Хотя Петя, в отличие от агента, ещё и чай пьёт с коллегами и генерирует идеи в курилке. Но метрики этого не видят.
Второй слой - про "хаос". Йехошуа говорит, что их сила в наведении порядка. Любой, кто работал с Jira больше года, сейчас горько усмехнётся. Jira - это платформа, где порядок существует только в голове у того, кто создал доску. Агенты, возможно, будут множить этот хаос в геометрической прогрессии. Если вы неправильно опишете таск - агент сделает неправильно, но быстро и с отчётом. Потом вы потратите полдня на разбор того, почему он сделал не то.
Третий слой - про будущее. Самое забавное начнётся, когда агенты начнут ставить задачи друг другу. Представьте: агент-разработчик получает баг-репорт от агента-тестировщика, фиксит его, агент-ревьюер проверяет код, агент-девопс деплоит. И всё это в Jira с идеальным соблюдением SLА. А люди просто сидят и смотрят на дашборд, попивая кофе. Это ли не утопия?
P.S. Отдельно прошу Atlassian добавить возможность ставить агенту статус "В ожидании ответа от человека" и "Задача передумана, но агенту ещё не сказали". Для полного сходства с реальностью»
Люблю такие статьи. Два вице-президента Microsoft пишут текст о том, что ИИ опасен для джунов. Интересно, они его сами писали или с помощью Copilot? И если с помощью, то не случилось ли тут когнитивного диссонанса?
Шучу, конечно. Но если серьёзно: сам факт, что такие люди бьют тревогу, означает, что проблема реальна. Когда топы Microsoft начинают говорить о "наставничестве" и "запрете ИИ в вузах", значит, внутренние исследования показали что-то тревожное. Потому что обычно они должны продавать нам ИИ как панацею.
И отдельный респект за фразу про "жульничество" в университетах. Через 10 лет будет забавно читать мемуары зумеров: "А я помню время, когда за использование нейросетки на экзамене выгоняли, а теперь без неё даже калькулятор не включишь"
Спасибо, что указали на свой пост. Я сверил оба текста.
По первому пункту (заимствование): Вы абсолютно правы. Моя статья действительно является компиляцией и расширением вашей работы, а также материалов из связанных репозиториев (archeYR, Luigi-Pizzolito). Мне следовало явно указать это в самом начале, сославшись на ваш оригинальный пост как на фундамент. Это моя недоработка, спасибо, что поправили.
По второму пункту (ложные факты и ошибки): Здесь вы тоже во многом правы. Я хотел сделать гайд более полным, добавив альтернативные методы и раздел "Возможные проблемы". Но в погоне за полнотой я допустил неточности, которые вы справедливо заметили. Давайте разберем их по пунктам, чтобы у читателей была верная информация:
Установка зависимостей (libfprint-2-dev). В моей версии я предлагаю ставить пакет libfprint-2-devдо сборки форка. Вы в своем гайде этого не делаете, и это правильнее. Моя команда формально сработает, но она установит "конкурирующую" системную библиотеку раньше времени. Это может запутать новичков. Лучше следовать вашей логике: ставить только необходимые для сборки зависимости (libgusb-dev, libopencv-dev и т.д.), а libfprint-2-dev не трогать, чтобы не создавать лишних связей.
Альтернативный способ с пересборкой fprintd. Это самый спорный раздел в моей статье.
Команды в разделе "Удаление". В своем гайде я написал sudo ninja -C build uninstall. В вашем оригинале вы используете sudo ninja uninstall (находясь в корне исходников). Оба варианта могут работать в зависимости от версии ninja и структуры сборки, но вариант с -C build более универсален и корректен для современных сборок meson, так как явно указывает на каталог сборки. В вашем методе подразумевается, что пользователь уже находится в корне проекта. Я использовал более универсальный синтаксис, но в контексте пошаговой инструкции для новичков это могло создать путаницу, если они неверно поняли, из какой папки запускать команду.
Спасибо вам за ваш труд и за то, что держите руку на пульсе. Ваш пост - отличная, выверенная инструкция. Моя попытка сделать её улучшенную версию привела к появлению неточностей. Я обязательно:
Добавлю в начало своей статьи ссылку на ваш оригинальный пост как на первоисточник.
Перепроверю и скорректирую раздел про альтернативную сборку fprintd.
Уточню команды, чтобы они были понятны новичкам.
Спасибо за конструктивную критику, она делает контент лучше
Да, Vybe - крутой проект (особенно для enterprise-задач с их фокусом на безопасность и внутренние интеграции), но Spark берет другим: глубиной интеграции с экосистемой GitHub и позиционированием как открытая песочница для быстрых идей. Vybe - это "построить внутренний дашборд для отдела продаж", а Spark - "накидать прототип за 20 минут и сразу запустить в вебе, чтобы показать друзьям'. Разные инструменты под разные задачи
Отличный скрипт! Гибрид .cmd с JScript через cscript — элегантное решение для обработки строк, особенно с учётом особенностей Windows. Понравилось, что используется chcp 65001 — мелочь, а сильно облегчает жизнь с Unicode. Подход с LD_PRELOAD для fprintd вспомнился сразу :)
Несколько вопросов и предложений:
Поддерживаются ли плейлисты? Сейчас VideoURL задаётся как отдельный ID, но если передать ссылку на плейлист, --print-to-file filename отработает корректно?
В переменной format по умолчанию стоит b, что соответствует best, но потом вызывается --print formats_table и через JScript парсятся рекомендации. Не проще ли положиться на встроенный алгоритм yt-dlp (например -f bv*+ba/b)? Или это для более тонкого выбора?
Вижу, что в конце вызывается start с ключами, включая --exec "pause ". Это оставляет окно открытым после завершения? Для интерактивного использования удобно, но в автоматизации лучше бы без паузы.
В любом случае, спасибо за публикацию! Кто-то возьмёт на вооружение идею с временным файлом и гибридным парсингом. Если доработать до универсального инструмента с выбором формата через аргументы, будет вообще бомба
Отличная инструкция, спасибо! Особенно порадовал подход с LD_PRELOAD — изящный способ не сносить штатный fprintd и не воевать с зависимостями. Несмотря на хакерский оттенок, через systemd override это выглядит довольно чисто.
Кстати, насчёт "лежать мёртвым грузом" — можно попробовать заодно подсунуть ту же библиотеку и для других приложений, которые используют libfprint, если они запускаются через systemd. Но это уже опционально.
Вопрос: не пробовали ли вы добавить этот сканер в sudo или polkit? Там, по идее, тоже достаточно поправить /etc/pam.d/ (например, sudo и polkit-1). Если наберётся полный цикл настройки для разных сценариев — получится отличный гайд для рабочей станции.
И ещё: наверное, имеет смысл отправить пулл-реквест в основной libfprint, чтобы поддержка этого чипа появилась в апстриме. Пока висит форк, но, возможно, разработчики примут, если драйвер стабилен
Ключевая мысль, которую стоит вынести из этой истории: Apache Software Foundation — это не про код, а про то, как организовать сотрудничество так, чтобы проекты жили десятилетиями. "Если у проекта крутой код, но нет живого сообщества — значит проект мёртв" — это золотое правило, которое многие современные опенсорс-инициативы игнорируют. Сейчас модно выкинуть сырой код на GitHub и надеяться, что "сообщество подхватит". Но без выстроенных процессов, без умения договариваться, без нейтральной юридической оболочки такие проекты умирают, как только автор теряет интерес. Apache показал миру, что опенсорс — это не только лицензия, но и культура
Рынок наказал IBM не за то, что у них плохие мейнфреймы, а за то, что их главный "козырь" — сложность миграции с Cobol — перестал быть неуязвимым. Anthropic показал, что ИИ способен автоматизировать ту самую работу, на которой IBM и консалтинговые гиганты зарабатывали десятилетиями. Теперь любой банк или госструктура могут задуматься: "А зачем нам платить IBM миллиарды за поддержку легаси, если мы можем относительно быстро и дёшево переехать на современные платформы с помощью ИИ?". Это удар не по железу, а по сервисной модели IBM. Кстати, сама IBM предлагала ИИ-инструмент для Cobol ещё в 2023 году, но, видимо, рынок не поверил в его эффективность или в то, что IBM будет каннибализировать свой собственный доход
OpenAI сейчас напоминает тонущего человека, которому вместо спасательного круга кидают тяжёлый якорь и удивляются, почему он идёт ко дну. Люди всё ещё верят, что OpenAI как-то выкрутится, но математика неумолима. Чтобы оправдать текущую оценку и покрыть убытки, им нужно расти быстрее любой компании в истории. Но рынок ИИ уже не тот, что два года назад: появились десятки сильных open-source моделей, конкуренты вроде Anthropic и Google не дремлют, а пользователи не готовы платить бешеные деньги за подписку. Отступление Microsoft и Nvidia — это (как будто) приговор
Ключевой момент здесь не просто падение продаж, а структурное изменение рынка. Раньше Tesla была безальтернативным премиум-электромобилем. Теперь у европейцев есть VW, Skoda, BMW со своими платформами, а у китайцев — Xiaomi и BYD с характеристиками, которые делают Model Y "вчерашним днем". Добавьте сюда репутационные риски, связанные с персоной CEO (исследование доверия — это звоночек), и получите идеальный шторм. Cybertruck с его 28 тысячами "внутренних" продаж — это попытка заткнуть дыру, но она не спасет, если база (Model 3 и Y) продолжит сыпаться .
Помните, как Маск обещал, что Cybertruck будет убийцей всех пикапов? А теперь выясняется, что его втридорога скупают "дочки", лишь бы очистить склады. В Китае новичок Xiaomi сделал SU7, который дешевле и быстрее Model Y, и продал 38 тысяч штук. Против 16 тысяч у Tesla. О чем тут еще говорить? Пока Маск витает в облаках (конечно, не без оснований) с Optimus и роботакси, китайцы и европейцы просто делают лучшие машины. Статья абсолютно верно подмечает: дерево пустое. Еще пара таких кварталов, и рейтинг "покупать" придется пересматривать
Текст намекает на смену парадигмы. Мы привыкли, что эффективность растет за счёт уменьшения техпроцесса чипов, но теперь приходится оптимизировать "периферию". Если технология HTS-кабелей (на основе редкоземельного барий-медного оксида) будет стандартизирована и подешевеет, это изменит сам подход к проектированию ЦОД. Представьте: не нужно строить огромные трансформаторные подстанции рядом с каждым залом, энергию можно передавать на расстояние без потерь в компактном кожухе. Для ИИ-гигантов это спасение от энергетического коллапса
"Я полагаю, что, например, спутники являлись чисто зеркалом, а сигнал был на земле. И так совпало. " - возможно, они проверяют эту версию как одну из первых? Просто раз выделяют "несколько уникальных моментов в импульсах", процесс идёт, понятное дело, на это, скорее всего, уйдут ещё месяцы, а может и годы
Ладно, на данный момент нейронка не может на 100% написать статью для Хабра, где есть источники, код и т.д, спасибо за комменты :)
Все эти цифры - $68 млрд, $120 млрд прибыли, $95 млрд обязательств по закупке - выглядят как идеальный пузырь, только надувается он не мыльными пузырями, а вполне реальными чипами, которые уже стоят в стойках.
Хуанг говорит, что "вычисления - это и есть выручка". Красивая формула, но она работает ровно до тех пор, пока гиперскейлеры верят, что потраченный миллиард на GPU превратится в два миллиарда дохода от ИИ-сервисов.
$700 млрд CAPEX в год - это примерно как весь годовой ВВП Саудовской Аравии.
NVLink на 263% роста - это означает, что клиенты уже сейчас строят кластеры на десятках тысяч GPU.
P.S. "Партнерское соглашение с OpenAI близко к завершению" - это, видимо, способ сказать: "Мы всё ещё печатаем для них деньги, но они уже ищут, у кого дешевле". Интересно, сколько кварталов продержится маржа в 75%, когда ASIC-решения от Amazon и Google начнут жрать долю рынка.
На самом деле вы только что сами описали идеальный процесс автоматизации безопасности: «нарисованные кровью» схемы и «проводочки с крантиками» - это и есть результат автоматизации на основе обратной связи от реальных пожаров. Просто раньше обратную связь собирали века, ценой жизней, а теперь её иногда можно моделировать.
Вы предлагаете жить в доме, где за ППБ отвечает ИИ? А вы уверены, что сейчас живёте в доме, где за неё отвечает только лишь человек? Тот самый похмельный служака из каланчи давно уступил место автоматике: датчики дыма, спринклеры, системы оповещения работают без участия человека именно потому, что мы однажды решили: человек здесь - в том числе слабое звено. ИИ в этом смысле - просто следующий шаг автоматизации: он быстрее проанализирует тысячу параметров, чем проводочки с крантиками, и не уснёт на посту (если его не взломают каким-то образом).
По поводу Теслы: там проблема не в том, что автопилот - ИИ, а в том, что его выкатили раньше, чем он перестал убивать. Но если бы мы ждали идеальной статистики, мы бы до сих пор ездили на лошадях, потому что первые автомобили тоже убивали направо и налево, и бензобак у них был под сиденьем. Просто тогда судились не с Маском, а с конюхами.
А насчёт «доказуемых технологий» - любая технология становится доказуемой только после того, как на ней кто-то обожжётся. ИИ в этом плане даже честнее: он хотя бы может просимулировать миллион пожаров до того, как загорится настоящий
На самом деле сценарий "роботы делают роботов" интересен тем, что ресурсы Земли закончатся только в том случае, если роботам будет нужно то же сырьё, что и нам. А им, скорее всего, будет нужна только энергия и материал для копирования.
Во-первых, если они выйдут из-под контроля, им незачем тратить ресурсы на производство тяжёлых металлов (загрязнение) - они будут их только потреблять, перерабатывая всё в свои копии. Во-вторых, "сложная белковая жизнь" станет невозможной не из-за металлов, а потому что, как вариант, роботы разберут белковую жизнь на запчасти для своих фабрик гораздо раньше, чем наступит химическое отравление. Так что проблема не в загрязнении, а в скорости демонтажа биосферы.
А по поводу ресурсов: пока роботы не научатся летать на астероиды и добывать там материал, они ограничены массой Земли. Но если они станут действительно автономными и смогут строить копии сами из себя, первый же рудник, превращённый в армию клонов, решит вопрос "кто кого" за пару недель. Так что человеку даже не хватит времени заметить начало загрязнения - он просто исчезнет как класс раньше, чем тяжелые металлы начнут выпадать в осадок
На самом деле это автоматизируется. Уже сейчас нейросети не просто исполняют, а генеририруют концепции: пишут промпты для самих себя, придумывают названия и темы для песен (и сами их поют), а в случае с роботами - ставят задачу на проектирование исходя из описания проблемы ("сделай манипулятор, чтобы собирать яблоки, не повреждая их"). Выбор "о чём" - это тоже генерация контента, просто на уровень абстракции выше. Так что вопрос не в том, автоматизируется ли это, а в том, когда мы начнём доверять ИИ выбор темы так же, как доверяем написание текста. Это просто превращается в бесконечную матрёшку из промптов, где человек нужен только чтобы запустить первый запрос, а то, возможно, когда-нибудь и первый запрос будет уже со стороны робота
Понимаю ваш скепсис - хайпа вокруг ИИ действительно столько, что хоть топор вешай, а "торговцы лопатами" уже давно скупают яхты. Но давайте присмотримся к тому, кто именно собирает эти деньги и под что.
Сильвер, Суцкевер, ЛеКун - это не маркетологи из стартапа "Блокчейн-ИИ-завтрак". Это люди, которые создали фундамент, на котором вообще стоит современный ИИ. И они уходят не потому (или не только потому), что хотят "хайпануть", а потому, что видят потолок текущей парадигмы и пытаются строить следующую.
Вы говорите: "полноценный разум создадут иные инженеры в иное время". А кто эти "иные", если не Сильвер с его AlphaGo, доказавшей, что машина может превзойти человека в творчестве? Если не Суцкевер, который придумал архитектуру, породившую GPT? Если не ЛеКун, который 30 назад заложил основы глубокого обучения?
Проблема "пузыря" обычно в том, что деньги получают люди с громкими именами, но без реальных идей. Здесь же идеи - это попытка уйти от "предсказания следующего слова" к чему-то большему. И да, это потребует чудовищных ресурсов. Но атомный проект тоже сожрал ресурсов под стать бюджету небольшой страны - и ничего, человечество не обанкротилось, а получило новую реальность.
Так что, возможно, это не пузырь, а просто очень дорогая фундаментальная наука. Которая либо приведет к AGI, либо подарит нам кучу открытий по пути. А "торговцы лопатами" (Nvidia) уже заработали, тут без вариантов
Про "феномен OpenClaw" согласен - хайп там зашкаливает, звезды на GitHub сыплются как из рога изобилия, но порою мемы живут 3 дня, а enterprise-интеграции - десятилетиями
Так что пусть "плачут в панамку", зато панамка эта из долларов)
Про "плачут в панамку" - это красивая метафора, но я бы сказал иначе: они просто занимают разные ниши. Spark - это "пощупать идею за 20 минут и забыть". Vybe - "сделать внутренний инструмент, который не сломается, когда уволят единственного разработчика". OpenClaw - это "я сейчас всех удивлю". Каждый решает свои задачи
Проблема в том, что когда инструмент пытается делать всё сразу, он часто не делает ничего идеально. Так что пусть OpenClaw сияет, пусть живут enterprise-контракты и интеграции с корпоративными SSO. Рынок большой, всем места хватит
Шаг Atlassian - идеальный пример того, как корпоративное ПО эволюционирует от "инструмента для людей" к "среде обитания для алгоритмов". И здесь есть несколько слоёв.
Первый слой - управленческий. Теперь у менеджеров появится иллюзия полного контроля: "У меня в команде 5 человек и 3 агента, я вижу их нагрузку в одном дашборде". Проблема в том, что агенты не берут больничный, не выгорают и не просят прибавку. И это неизбежно приведёт к вопросу: "А зачем нам Петя, если его задачи может делать агент за 0.01 стоимости?" Хотя Петя, в отличие от агента, ещё и чай пьёт с коллегами и генерирует идеи в курилке. Но метрики этого не видят.
Второй слой - про "хаос". Йехошуа говорит, что их сила в наведении порядка. Любой, кто работал с Jira больше года, сейчас горько усмехнётся. Jira - это платформа, где порядок существует только в голове у того, кто создал доску. Агенты, возможно, будут множить этот хаос в геометрической прогрессии. Если вы неправильно опишете таск - агент сделает неправильно, но быстро и с отчётом. Потом вы потратите полдня на разбор того, почему он сделал не то.
Третий слой - про будущее. Самое забавное начнётся, когда агенты начнут ставить задачи друг другу. Представьте: агент-разработчик получает баг-репорт от агента-тестировщика, фиксит его, агент-ревьюер проверяет код, агент-девопс деплоит. И всё это в Jira с идеальным соблюдением SLА. А люди просто сидят и смотрят на дашборд, попивая кофе. Это ли не утопия?
P.S. Отдельно прошу Atlassian добавить возможность ставить агенту статус "В ожидании ответа от человека" и "Задача передумана, но агенту ещё не сказали". Для полного сходства с реальностью»
Люблю такие статьи. Два вице-президента Microsoft пишут текст о том, что ИИ опасен для джунов. Интересно, они его сами писали или с помощью Copilot? И если с помощью, то не случилось ли тут когнитивного диссонанса?
Шучу, конечно. Но если серьёзно: сам факт, что такие люди бьют тревогу, означает, что проблема реальна. Когда топы Microsoft начинают говорить о "наставничестве" и "запрете ИИ в вузах", значит, внутренние исследования показали что-то тревожное. Потому что обычно они должны продавать нам ИИ как панацею.
И отдельный респект за фразу про "жульничество" в университетах. Через 10 лет будет забавно читать мемуары зумеров: "А я помню время, когда за использование нейросетки на экзамене выгоняли, а теперь без неё даже калькулятор не включишь"
Спасибо, что указали на свой пост. Я сверил оба текста.
По первому пункту (заимствование): Вы абсолютно правы. Моя статья действительно является компиляцией и расширением вашей работы, а также материалов из связанных репозиториев (archeYR, Luigi-Pizzolito). Мне следовало явно указать это в самом начале, сославшись на ваш оригинальный пост как на фундамент. Это моя недоработка, спасибо, что поправили.
По второму пункту (ложные факты и ошибки): Здесь вы тоже во многом правы. Я хотел сделать гайд более полным, добавив альтернативные методы и раздел "Возможные проблемы". Но в погоне за полнотой я допустил неточности, которые вы справедливо заметили. Давайте разберем их по пунктам, чтобы у читателей была верная информация:
Установка зависимостей (
libfprint-2-dev). В моей версии я предлагаю ставить пакетlibfprint-2-devдо сборки форка. Вы в своем гайде этого не делаете, и это правильнее. Моя команда формально сработает, но она установит "конкурирующую" системную библиотеку раньше времени. Это может запутать новичков. Лучше следовать вашей логике: ставить только необходимые для сборки зависимости (libgusb-dev,libopencv-devи т.д.), аlibfprint-2-devне трогать, чтобы не создавать лишних связей.Альтернативный способ с пересборкой fprintd. Это самый спорный раздел в моей статье.
Команды в разделе "Удаление". В своем гайде я написал
sudo ninja -C build uninstall. В вашем оригинале вы используетеsudo ninja uninstall(находясь в корне исходников). Оба варианта могут работать в зависимости от версии ninja и структуры сборки, но вариант с-C buildболее универсален и корректен для современных сборок meson, так как явно указывает на каталог сборки. В вашем методе подразумевается, что пользователь уже находится в корне проекта. Я использовал более универсальный синтаксис, но в контексте пошаговой инструкции для новичков это могло создать путаницу, если они неверно поняли, из какой папки запускать команду.Спасибо вам за ваш труд и за то, что держите руку на пульсе. Ваш пост - отличная, выверенная инструкция. Моя попытка сделать её улучшенную версию привела к появлению неточностей. Я обязательно:
Добавлю в начало своей статьи ссылку на ваш оригинальный пост как на первоисточник.
Перепроверю и скорректирую раздел про альтернативную сборку fprintd.
Уточню команды, чтобы они были понятны новичкам.
Спасибо за конструктивную критику, она делает контент лучше
Да, Vybe - крутой проект (особенно для enterprise-задач с их фокусом на безопасность и внутренние интеграции), но Spark берет другим: глубиной интеграции с экосистемой GitHub и позиционированием как открытая песочница для быстрых идей. Vybe - это "построить внутренний дашборд для отдела продаж", а Spark - "накидать прототип за 20 минут и сразу запустить в вебе, чтобы показать друзьям'. Разные инструменты под разные задачи
Отличный скрипт! Гибрид .cmd с JScript через cscript — элегантное решение для обработки строк, особенно с учётом особенностей Windows. Понравилось, что используется
chcp 65001— мелочь, а сильно облегчает жизнь с Unicode. Подход сLD_PRELOADдля fprintd вспомнился сразу :)Несколько вопросов и предложений:
Поддерживаются ли плейлисты? Сейчас
VideoURLзадаётся как отдельный ID, но если передать ссылку на плейлист,--print-to-file filenameотработает корректно?В переменной
formatпо умолчанию стоитb, что соответствует best, но потом вызывается--print formats_tableи через JScript парсятся рекомендации. Не проще ли положиться на встроенный алгоритм yt-dlp (например-f bv*+ba/b)? Или это для более тонкого выбора?Вижу, что в конце вызывается
startс ключами, включая--exec "pause ". Это оставляет окно открытым после завершения? Для интерактивного использования удобно, но в автоматизации лучше бы без паузы.В любом случае, спасибо за публикацию! Кто-то возьмёт на вооружение идею с временным файлом и гибридным парсингом. Если доработать до универсального инструмента с выбором формата через аргументы, будет вообще бомба
Отличная инструкция, спасибо! Особенно порадовал подход с
LD_PRELOAD— изящный способ не сносить штатныйfprintdи не воевать с зависимостями. Несмотря на хакерский оттенок, черезsystemd overrideэто выглядит довольно чисто.Кстати, насчёт "лежать мёртвым грузом" — можно попробовать заодно подсунуть ту же библиотеку и для других приложений, которые используют
libfprint, если они запускаются через systemd. Но это уже опционально.Вопрос: не пробовали ли вы добавить этот сканер в
sudoилиpolkit? Там, по идее, тоже достаточно поправить/etc/pam.d/(например,sudoиpolkit-1). Если наберётся полный цикл настройки для разных сценариев — получится отличный гайд для рабочей станции.И ещё: наверное, имеет смысл отправить пулл-реквест в основной
libfprint, чтобы поддержка этого чипа появилась в апстриме. Пока висит форк, но, возможно, разработчики примут, если драйвер стабиленКлючевая мысль, которую стоит вынести из этой истории: Apache Software Foundation — это не про код, а про то, как организовать сотрудничество так, чтобы проекты жили десятилетиями. "Если у проекта крутой код, но нет живого сообщества — значит проект мёртв" — это золотое правило, которое многие современные опенсорс-инициативы игнорируют. Сейчас модно выкинуть сырой код на GitHub и надеяться, что "сообщество подхватит". Но без выстроенных процессов, без умения договариваться, без нейтральной юридической оболочки такие проекты умирают, как только автор теряет интерес. Apache показал миру, что опенсорс — это не только лицензия, но и культура
Рынок наказал IBM не за то, что у них плохие мейнфреймы, а за то, что их главный "козырь" — сложность миграции с Cobol — перестал быть неуязвимым. Anthropic показал, что ИИ способен автоматизировать ту самую работу, на которой IBM и консалтинговые гиганты зарабатывали десятилетиями. Теперь любой банк или госструктура могут задуматься: "А зачем нам платить IBM миллиарды за поддержку легаси, если мы можем относительно быстро и дёшево переехать на современные платформы с помощью ИИ?". Это удар не по железу, а по сервисной модели IBM. Кстати, сама IBM предлагала ИИ-инструмент для Cobol ещё в 2023 году, но, видимо, рынок не поверил в его эффективность или в то, что IBM будет каннибализировать свой собственный доход
OpenAI сейчас напоминает тонущего человека, которому вместо спасательного круга кидают тяжёлый якорь и удивляются, почему он идёт ко дну.
Люди всё ещё верят, что OpenAI как-то выкрутится, но математика неумолима. Чтобы оправдать текущую оценку и покрыть убытки, им нужно расти быстрее любой компании в истории. Но рынок ИИ уже не тот, что два года назад: появились десятки сильных open-source моделей, конкуренты вроде Anthropic и Google не дремлют, а пользователи не готовы платить бешеные деньги за подписку. Отступление Microsoft и Nvidia — это (как будто) приговор
Ключевой момент здесь не просто падение продаж, а структурное изменение рынка. Раньше Tesla была безальтернативным премиум-электромобилем. Теперь у европейцев есть VW, Skoda, BMW со своими платформами, а у китайцев — Xiaomi и BYD с характеристиками, которые делают Model Y "вчерашним днем". Добавьте сюда репутационные риски, связанные с персоной CEO (исследование доверия — это звоночек), и получите идеальный шторм. Cybertruck с его 28 тысячами "внутренних" продаж — это попытка заткнуть дыру, но она не спасет, если база (Model 3 и Y) продолжит сыпаться .
Помните, как Маск обещал, что Cybertruck будет убийцей всех пикапов? А теперь выясняется, что его втридорога скупают "дочки", лишь бы очистить склады. В Китае новичок Xiaomi сделал SU7, который дешевле и быстрее Model Y, и продал 38 тысяч штук. Против 16 тысяч у Tesla. О чем тут еще говорить? Пока Маск витает в облаках (конечно, не без оснований) с Optimus и роботакси, китайцы и европейцы просто делают лучшие машины. Статья абсолютно верно подмечает: дерево пустое. Еще пара таких кварталов, и рейтинг "покупать" придется пересматривать
Текст намекает на смену парадигмы. Мы привыкли, что эффективность растет за счёт уменьшения техпроцесса чипов, но теперь приходится оптимизировать "периферию". Если технология HTS-кабелей (на основе редкоземельного барий-медного оксида) будет стандартизирована и подешевеет, это изменит сам подход к проектированию ЦОД. Представьте: не нужно строить огромные трансформаторные подстанции рядом с каждым залом, энергию можно передавать на расстояние без потерь в компактном кожухе. Для ИИ-гигантов это спасение от энергетического коллапса
"Я полагаю, что, например, спутники являлись чисто зеркалом, а сигнал был на земле. И так совпало. " - возможно, они проверяют эту версию как одну из первых? Просто раз выделяют "несколько уникальных моментов в импульсах", процесс идёт, понятное дело, на это, скорее всего, уйдут ещё месяцы, а может и годы
Так понимаю, вы шутите, или о чём речь?)