Комментарии 196
Всё хорошо расписано и полностью согласен со всем вышеперечисленным. А если бы термин "ИИ" заменить на термин "LLM" - вообще было бы идеально
Нет уж, четвертый год из каждого утюга, от СЕО ИИ (не LLM) стартапов до последнего писаки с хабра только и слышишь "ИИ, AI, AGI, ИИ-ИИ, AGI-AI" - пусть и здесь будет ИИ.
Некорректное употребление понятия? Еще какое! Но что поделать, так рыночек порешал - LLM сложно и неблагозвучно, зато как звучит ИИ... Прям чувствуется, как люди начали заменяться. Не будем же мы уподобляться неолуддитам и грести против рынка, сказано ИИ - значит, ИИ.
А то хорошо устроились - как деньги грести, так ИИ, как не оправдался ИИ, так сразу ЛЛМ
На самом деле одно из определений ИИ звучит как - набор задач, в которых компьютер может принимать решения. И это верно так как Интеллект — это способность решать проблемы.
Сознание — это способность чувствовать. Ум — это совокупность мыслительных процессов, в то время как сознание — это опыт осознания этих процессов.
Для того, что многие себе фантазируют под "настоящим" ИИ, есть термин AGI.
Очень интересно тема сознания раскрыта в Ложной слепоте.
И в этом заключается главная ирония сегодняшнего дня. "Классический" символизм шел к AGI (и то, в 60-х годах прошлого века, он так не назывался) "сверху вниз" - через логику и представление знаний, но уперся в "проблему приобретения знаний" (действительно долго обучать. Но даже эта проблема скоро будет решена). А современный коннекционизм, который унаследовал эти "амбиции", идет "снизу вверх" - через статистику и паттерны, и сейчас уперся в проблему "последовательной логики и рассуждений", откуда он уже не выберется, благодаря катастрофической нехватке ресурсов.
Так что, возможно, дело не в том, кто громче о нём кричит, а в том, чьи методы в данный исторический момент оказываются ближе к созданию систем, которые не просто угадывают паттерны, а способны на планирование и рассуждения. Пока одни кричат о сроках появления AGI, другие - как раз на стыке подходов, "тихо" делают системы, которые на конкретных задачах демонстрируют именно такое, осмысленное поведение.
Судя по текстам 60-х, АИ создавали опираясь на логику и алгоритмы. Как такового обучения небыло, создавали детерминированные системы для вывода логических заключений. Обучение споставления с образцом использовалось для классификации информациию.
LLM успешно обучают логическому мышлению, но она не может запоминать выводы за пределами контекста. То что подразумевают под AGI,
в моем понимании, включает дообучение на основе собственных ответов или на основе новой информации из внешних источников.
Но я бы уточнил ключевой момент: LLM не обучают логическому мышлению, а только правдоподобной симуляции логического мышления. Это принципиально разные вещи. Они не выводят заключения, а угадывают следующее слово в "логической" последовательности.
И тем более, надо учитывать, что много лет прошло, на дворе уже конец 2025 года. Давно появились современные версии как когнитивно-символьных систем так и их гибридов (например, логико-когнитивно-символьные и др.). Эти системы активно используют все наработки прошлых десятилетий, включая инкрементальное обучение, что принципиально отличает их от LLM, которые неспособны к обучению на лету за пределами заданного контекста и требуют дорогостоящего переобучения. У LLM до сих пор нет LTM, так как это не предусмотрено архитектурой. У ни одного LLM проекта нет полноценного этического кодекса, ни на бумаге, ни архитектурно.
Опять же, Вы "случайно" забыли (как и любой другой коннекционист), про неэффективность работы самой системы. Как написано в статье: "...экспоненциально больше вычислительной мощности, и, в свою очередь, экспоненциально больше инвестиций..." - как будто этого нет.
LLM не обучают логическому мышлению, а только правдоподобной симуляции логического мышления.
Ну вот есть система Boolean satisfiability problem и есть правила, как конвертировать сложную логическую задачу к простым операциям над битами. Доказали что это NP-complete, т.е совершенно не гарантируется, что есть решение и вычисления не займут вечность. Теоретически, ничего не мешает LLM формировать запросы к такому движку, не обладая истиным логическим мышление. Это даже будет плюсом, можно будет остановить зависшее логическое вычисление и переформулировать вопрос или условия.
вы слишком много текста пишите, что это все за системы такие? Есть пример их работы? Что с ними можно делать?
Симуляция воздушного боя, обучения алгебре, социальный анализ... это все хорошо.
Но, вы говорите они лучше LLM, я могу написать агентную систему с ними? Нет? О чем тогда холивар этот весь лол. Эффективность, трушность..., есть конкретные задачи, LLM с ними справляется. Модели позволяют компьютеру решать задачи. Что и есть ИИ.
Агентную систему? Нет не сможете, так как данные системы - это уже агенты. Вы можете только дописывать модули, расширяющие их возможности, Например Вы можете научить их по настоящему программировать на любом ЯП и они действительно это будут делать и без ошибок
Где я могу это сделать? Я могу как-то развернуть их локально или использовать какое-то API?
Всё уже давно существует в открытом доступе. Доступны исходные коды гражданских версий архитектур вроде Soar, ACT-R, CLARION, и др.. Есть множество публичных форков и реализаций - можно выбрать "на любой вкус". К некоторым прилагаются открытые "Базы Знаний", подробная документация и даже полностью проработанные этические принципы.
Есть документация по интеграции когнитивно-символьных архитектур и LLM (гибриды). Примеры: LLM-ACTR и LLM-Soar
Вы почитайте последнии новости из мира LLM за 2025,
все уперлось в контекст.
Штуки, что вы упоминаете похоже сами не способны дать, то, что делает "тупая" LLM. Выступают чисто в виде MCP под специфичный домен. Или продвинутый ризонинг скорее всего
Ну круто, классно. Только я до сих пор не понимаю, как этим всем реально пользоваться вне научных постов и повседневно с пользой.
Taken together, the results open up new research directions for equipping LLMs with the necessary knowledge to computationally model and replicate the internal mechanisms of human cognitive decision-making.
Покажите хоть промт какой-то, ввод/вывод
Так вы бы статью оформили чё нам с этими нейросимволическими ИИ делать - как обучать их под свой домен, на чём обучать, на чём потом использовать.
Сейчас я планирую выпустить другой материал - "Главные заблуждения о когнитивно-символьных системах и гибридах", так как на Хабре, к сожалению, встречается слишком много мифов и заблуждений, вроде таких: "когнитивно-символьные системы - это когнитивные нейронные сети" или "...просто старые экспертные системы...". Хочется сначала прояснить базовые понятия и только потом браться за полноценную статью о нейро-символьных системах.
Не взлетит. Вон посмотрите выше и ниже разные люди просят Вас показать примеры. Покажите примеры, желательно примеры которые людям понятно как использовать. Без этого "развенчивать мифы" можно долго и безрезультатно.
И да, я тоже хочу примеров. Сейчас вот на скорую руку надыбал какой-то проект вроде бы на эту тему - но что-то не заработал там чат у меня.
Идея в том, что для работы с когнитивно-символьными системами или гибридами требуется не просто чтобы "заработал чат", так как - это не "коробочные" решения для широкого потребителя, а инструменты для инженеров и исследователей. Если Вы исследователь, то Вам не составит труда подключить любой интерфейс для взаимодействия с системой.
Тем не менее, я дам GitHub-репозиторий и две ссылки для самостоятельного изучения:
DeepProbLog - вероятностное логическое программирование (GitHub);
"Символьный ИИ - ключ к мыслящим машинам" - статья;
"Neuro-Symbolic Artificial Intelligence: The State of the Art" - эл. книга.
Так напишите разработчикам + у них дискорд есть. Судя по коммитам - репа вчера была обновлёна и 2 дня назад - проект "живой". Здесь я уже ничем не могу Вам помочь
Я ещё не понял нужно ли мне это, а Вы уже призываете меня к каким-то активным действиям - то талмуды почитать, то кому-то написать. Это так не работает. LLM-ки взлетели, когда люди увидели от них пользу. А вот эта новая тема с символьным ИИ - для GPU он не оптимизирован, каких ресурсов он потребует о CPU при реальном использовании - одному Богу ведомо, и даже непонятно в каких случаях он лучше прямого программирования: например в их примере можно поставить малюсенькую LLM-ку для разговоров с юзером, а интерфейс к объектам типа Человек дать той же LLM-ке через тулзу или MCP. И ответы смертен ли Сократ сразу станут детерминированными.
И они есть такие, которые понимают человеческий язык и переводят его в код? Примеры нужны.
И скорее всего примеров не будет, или такое, что очередной интерпретатор.
угадывают следующее слово в "логической" последовательности.
Только не "слово", а токен.
LLM сложно и неблагозвучно
Есть же БЯМ, фонетически просто, а ещё и скрепоносно.
ИИ отличный термин, если читать его как Имитация Интеллекта.
Это намеренная такая ирония?
Скрытый текст

Сталкивались ли вы с этим на своей работе? Как думаете, ваш ИИ-помощник - это действительно прорыв или просто генератор «рабочего шлака»?
Прорыв, если правильно использовать. Правило шлак на входе - шлак на выходе никуда не делось.
И в чём, по-вашему, главная угроза ИИ: массовая безработица, о которой говорит Хинтон, или гигантский экономический пузырь, готовый лопнуть и утянуть за собой всех нас?
Вопрос, где предлагается выбрать "главную угрозу" только из двух вариантов, во-первых неявно подразумевает существование этой самой угрозы, что, возможно, и не так, во-вторых, даже в случае существования некой главной угрозы, выбор из двух вариантов может и не иметь правильного ответа, а в третьих, является отличным примером того, как можно получить шлак на выходе LLM вместо полезного ответа.
Мое интуитивное мнение. ИИ займет свое место в ряду внедрения и ускорений автоматизированных процессов, но не так в сфере производственной деятельности, а прежде всего в обработке информации. Он ускорит процесс получения учёными знаний и, соответственно открытий. Открытий неглобального, ,,неоракульского,, масштаба. Тот кто вкладывает в него деньги, возможно получит автоматизацию открытий. Не больше. Как ещё человечество распорядится этими знаниями и открытиями. Человеческая жизнь хрупка. И эпидемия ковида (?рукотворного) это в очередной раз показала. Если в каждой лаборатории , на коленке будет возможно создавать опасный вирус, так нужен ли этот прогресс. И не вернее ли остановить прогресс. Вернуться к инквизиции.
"Вернуться к инквизиции"
То есть сжечь всех еретиков-питонистов на Святом костре ИТ-инквизиции, ибо они отвернулись от Cвященного писания "The Art of Assembly Language"?!
Нужно ли запрещать писарю писать на каком-то языке? Нет. По сути современный программист аналог средневекового писаря. На ступень выше. Но работа ИИ (да и вообще учёных) в сфере изучения организма человека, медицины, болезней должна быть под международным контролем везде. Хватит одного риска атомной войны. Возможно утопично мыслю. Если изучают к примеру инфекционные болезни, то вольно-невольно начинают получать сведения о том, как они распространяются, что их усиливает.
Если изучают к примеру инфекционные болезни, то вольно-невольно начинают получать сведения о том, как они распространяются, что их усиливает.
Всё верно многих евангелистов это серьёзно беспокоит.
Но беспокойство в основном сконцентрировалось на Китайской программе.
Не вижу вариантов международного контроля в данной ситуации бешенной гонки...
Между США и Китаем.
И к тому же правители на старушке Терре полностью сумашедшие и похожи на правителей Торманса из Ефремова.
> Если в каждой лаборатории , на коленке будет возможно создавать опасный вирус
Значит в тысячи других лабораториях можно будет в рекордные сроки создать антивирус. А также регенераций, омоложений и прочих крутых штук. Если это действительно станет доступно на коленке.
В последние десятилетия сотни миллионов людей уходили из производственной сферы как раз в сферу обработки информации. Им куда теперь идти. С другой стороны строительство офисных центров идет опережающими темпами над строительством ЦОД по крайней мере у нас в стране.
Отпустите уже людей, придумайте им смыслы общения о высоком. Ну блин, дворяне же раньше не работали, читали книги, на балах там танцевали, физкультурой занимались, конным спортом, флиртовали (батлы устраивали со смертельным исходом, но этотоже можно пофиксить). Почему не рыть в сторону, что ИИ освободит человека от рабства вынужденного труда? Почему всю разработку не направлять именно туда? На роботов уборщиков туалетов, слесарей, электриков, санитарок, меняющих судна. Такое впечатление что борьба идет за то, чтобы максимальное число людей за счет ИИ наоборот заставить конкурировать между собой за право мыть унитазы и получать за это еду. Зла не хватает, если вся ИИ-ка для этого
У Бигтеха не стоит задачи сделать нам помошника по дому, бизнесу или на произвостве. Все, что касается материальных сущностей вообще дико затратно и несет массу рисков, а производство за пределами Китая - страшно убыточно. Их задача впарить нам полностью виртуальную сущность за которую мы будем должны платить всю оставшуюся жизнь. А когда отойдем в мир иной за нас будут платить наши дети. Вот их единственная цель и ИИ здесь идеальный механизм на роль этой сущности. Что касается всяких там роботов, автоматизации производства и т.д., это всё уже есть в той или иной мере. Этим давно занимаются, но совсем другие люди. И прогресс там тоже есть, только он те так очевидный, и хайпа на нем не выстроить. Бигтех это раковая опухоль на теле цивилизации которую надо как можно скорее удалить, иначе ж@па.
Поиски такой виртуальной сущности идут давно: поисковик Google, музыка iTunes, почта Gmail, подписка на Youtube и Netflix-е... но все это было как-то сильно затратно, требовало вложений в поставщиков контента, отчислений за авторские права и т.д. А тут вот нате, LLMИИ - полностью самодостаточная виртуальная сущность для конвертирования электроэнергии в доллары, и привыкание вызывает не хуже герыча. А гавное - порог вхождения очень и очень высокий.
У Бигтеха не стоит задачи сделать нам помошника по дому, бизнесу или на произвостве.
По‑моему, все обещалки про «наш ИИ сделает вам рай на семи холмах» разбиваются об один вопрос — «если ваш ИИ так всемогущ и всезнающ, как вы нам грузите, то почему вы ещё не задали ему вопрос „как сделаться самым‑самым богатым“?»
(Но даже там есть нюансы.)
А. Вы уверены что средний человек способен конструктивно проводить переизбыток свободного времени? Потому что если нет, то он просто будет сидеть на антидепрессантах или каком-нибудь другом наркотике, весь день смотреть ТВ/ютуб и в целом быть несчастным.
Б. Для человека, как для любого другого животного, труд это нормально. Мы эволюцировали для того чтобы преодолевать трудности по жизни. Если у человека это отнять, то он начнёт потихоньку сходить с ума (возвращаемся к пункту А).
В. Аристократы не просто отдыхали пожизненно, они вообще-то служили монарху, в том числе они были обязаны служить в армии или на чиновьичей должности. Так что у них были и обязанности, не только привилегии.
Г. Почему вы считаете весь ручной труд чем-то унизительным? Не поверите, есть куча слесарей, электриков и так далее, которые гордятся своей работой, которым приятно делать что-то руками (вместо того чтобы просиживать штаны в офисе).
Да, давайте отберём у дяди Васи смысл его жизни и скажем "вот, теперь вы свободный человек!".
А. А вы уверены, что не способен? Не в нынешних условиях, когда после изнурительного, далеко не всегда интересного, и зачастую не слишком хорошо оплачиваемого труда, остается несколько часов для себя, а в ситуации финансовой свободы. Речь не про выигравших в лотерею в 45+ (те, известно, обычно плохо кончают), а о поколениях "средних" человеков. Родившиеся в век, когда "ИИ освободит человека от рабства вынужденного труда", наверняка будут воспитаны несколько иначе и жить в иных условиях окружающего мира - вы и им пророчите несчастье? Что переходный период будет сопряжен с кризисами самого разного рода - спора нет, но разговор о долгосрочной перспективе.
Б. Мы эволюционируем для выживания. Во всяком случае, никак не для того, " чтобы преодолевать трудности по жизни" - существам приходится их преодолевать, чтобы обеспечить свое выживание, но само по себе преодоление целью никогда не являлось. От отсутствия трудностей еще никто с ума не сошел - от безделья мб возникают разные состояния, но это совсем другой вопрос. Бездельничать никто не принуждает.
Г. "есть куча слесарей, электриков и так далее, которые гордятся своей работой" - это тяжелый физический труд, часто подрывающий здоровье, и менее часто высокооплачиваемый. Писал выше - успешному электрику в 45+, гордящемуся своей работой, возможно, даже при наличии безусловного дохода, будет сложно, когда роботы заменят его. Кризис в переходном периоде неизбежен.
"давайте отберём у дяди Васи смысл его жизни и скажем "вот, теперь вы свободный человек!"." - вы как-то лихо дяде Васе записали профессиональную деятельность (еще раз - зачастую изнурительную, сказывающуюся на здоровье, нередко - плохо оплачиваемую) в смысл жизни.
А. Просто представьте, что живете в многоэтажке. Эта многоэтажка полна людей, обычных семей. И никто в ней не работает. И не 2 недели раз в году, а всегда 24/7/54. Что они делают? Представьте, что каждый дом, что вы видите из окна, полон людей которые не работают. Вообще. Что эти люди делают?
Для меня это горизонт событий
И если ваш ответ "Что-нибудь придумают", то и для вас
Вы уверены что средний человек способен конструктивно проводить переизбыток свободного времени?
У меня есть подозрение, что те, кто не способен, и так в среднем занимаются такой работой, от которой не помешают антидепрессанты.
Мы эволюцировали для того чтобы преодолевать трудности по жизни.
Эволюция уже произвела для нас Souls-like, всякие Civ на максимальной сложности и кучу хардкорной литературы на любую тему от философии до математики и физики. Спортивные нагрузки тоже никто не отменял. Имхо, вопрос с преодолеванием трудностей можно считать закрытым.
Почему вы считаете весь ручной труд чем-то унизительным?
Вопрос не ко мне, но хочется прокомментировать. Главное достоинство человека, делающее его доминирующим видом на планете, это голова. Руки с помощью головы позволяют печатать десятипальцевым методом творить в материальном мире. Но есть много работ, где работаешь руками, но не творишь. Разные конвейеры, скажем. Уборки офисов - в своё время много общался с этими работниками, не встречал тех, кто гордился бы этой работой, или наслаждался ей. Тяжёлый, грязный, нудный, выматывающий - в том числе и психически - труд. Я бы не назвал его унизительным - у всех свои обстоятельства, и любой труд необходим и его надо уважать. Однако, если те знакомые могли получить те же деньги без этого труда (напр., безусловный базовый доход), они бы нашли вещи куда интереснее (голова), чтобы ими заниматься.
Он ускорит процесс получения учёными знаний и, соответственно открытий.
Нет, не ускорит. ИИ - не инструмент генерации знаний, а всего лишь эвристика, генерирующая примерно правильный ответ на базе заданного набора правильных ответов (обучающей выборки). И как всякая эвристика, ИИ не может не ошибаться.
Алгоритмизируемая обработка данных не требует ИИ: прямая реализация алгоритма (дающего правильный ответ в 100% случаев) требует для своей работы на порядки меньше вычислительных ресурсов, чем нейросеть, в результате обучения примерно правильно имитирующая этот алгоритм.
А для нетривиальной неалгоритмизируемой обработки ИИ гарантировано будет выдавать мешанину из правильных результатов и откровенного бреда, внешне похожего на правильные результаты. И на отделение одного от другого понадобится куда больше сил и времени, чем на обработку данных без использования ИИ.
Хорошо. Но может быть с помощью ИИ можно обработать большую область для поиска ответа, пускай не совсем точного? Если у Вас и на этот вопрос будет отрицательный ответ, тогда почему действительно на него не жалеют денег? Ваше мнение?
Если в области, площадь которую сократили с помощью ИИ, содержится ответ - ну потратим в несколько раз больше сил и времени на ручную перепроверку тех участков полученной области, в которых ответа нет и быть не может. В конце-концов ответ всё же найдем.
Но ведь регулярно будут возникать ситуации, когда ответ есть, но он находится вне определённой ИИ области. В результате существующий ответ не будет найден.
почему действительно на него не жалеют денег?
Об этом, в том числе, рассказывает статья, которую вы комментируете. И я полностью согласен с её автором.
Взял небольшую паузу. Поискал информацию о строительстве дата центров в США. В октябре 2025 ВВС США дали в аренду под строительство дата центров земли в 8ми авиабазах. А в 2024 году (в другой статье на этом же сайте) сообщалось, что военные США апробировали успешно управление ИИ одним военным самолётом. К 2028 планируют дать в управление ИИ уже 1000 самолетов. Значит, не все так плохо с применением ИИ. Хотя бы в военной сфере. Если не лукавит и не позиционируют себя в лучшем свете.
Кроме этого, прочел первоисточник, который цитирует автор комментируемой нами публикации. Обратил внимание на один абзац, где Уилл Локетт говорит, что возможно идут на заведомо убыточный проект с ИИ, чтобы гарантировать первенство США в этой сфере. Этот момент подчеркиваю, но не хочу ей уязвить автора на Хабре (логику статьи он строит на многочисленных свидетельствах скорее с экономической точки прибыли-убыточности).
Вот только этим самолётом (F-16) управляет полностью автономная когнитивно-символьная система - Soar, а не LLM. Программы DARPA - ACE и ACE-TRUST
Строительство дата-центров говорит только о том, что эти дата-центры приносят доход своим владельцам. И не важно, работает технология, или нет. Главное - создать у клиентов иллюзию того, что технология работает. Те, кто несут свои деньги астрологам или гадалкам, тоже уверены, что получат правильный ответ на свой вопрос.
К 2028 планируют дать в управление ИИ уже 1000 самолетов. Значит, не все так плохо с применением ИИ.
Эта система не имеет никакого отношения к LLM.
А что такое "ИИ" - знают только маркетологи или их жертвы.
Но ещё нужно учитывать то, что неясно что брать за истину. До ИИ и так был большой процент научных работ, которые нельзя проверить ввиду слишком большого их объёма. А с ИИ таких сгенерированных работ станет ещё больше. И как это повлияет на науку мы ещё увидим. Ведь все очень многие "ученые" гонятся за цифрами публикаций, цитирования. И ИИ может им в этом помочь, сильно осложнив исследования остальным.
всего лишь эвристика, генерирующая примерно правильный ответ на базе заданного набора правильных ответов
Нет, на базе всех имеющихся в сети ответов, и это одна и главных проблем.
Алгоритмизируемая обработка данных не требует ИИ: прямая реализация алгоритма (дающего правильный ответ в 100% случаев) требует для своей работы на порядки меньше вычислительных ресурсов, чем нейросеть, в результате обучения примерно правильно имитирующая этот алгоритм.
Блин, как же мало людей это понимают!
И даже не нужно для этого быть футурологом - достаточно профильного образования. Ну и не пинать, конечно, во время учебы всякое разное.
Ну также те, кто не пинал, видят динамику и понимают, что как бы не хейтили LLM и дополнения к ней направленные на расширение контекстного окна при уменьшении вычислительных ресурсов, на умение в фокусировку и коллективную работу. Как бы не плевались сегодня профессионалы от кодинга, все идет к тому - что вот эту алгоритмизируемую обработку, дающую 100% правильный ответ - скоро LLM-ИИшка будет реально генерировать с экономической эффективностью на порядки большие, чем бы это делал человек. Зачем с этим спорить?
Ну .. факты пока не подтверждают эту оптимистическую версию. Скорее наоборот, из моего личного опыта. А вот использовать как огромный справочник по функциям, правилам, пакетам и напиленным решениям - самое оно, дабы не изобретать лисапеды на каждый чих. Но .. для этого гигантские ЛЛМ не требуются. Экономически эффективнее, кмк, будет узкая специализация н конкретных группах задач. И даже локально, а не в облаке.
Все просто. Сформулируйте, что такого есть в человеческом мозге (для решения задач) что невозможно реализовать через неживой аппарат, работающий на двоичной логике? Возможен ответ, что - ничего такого нет, но энергетические затраты будут у аппарата больше, потому что человек никогда не сможет сделать какие то процессы эффективнее, чем природа за миллиарды лет эволюции. И это будет неправильный ответ. Так, как эти аппараты - это как раз и есть продолжение этой эволюции, её вершина на сегодняшней стадии.
количество и многомерность нейронных связей дает качественный скачок к не бинарной вычислительной среде. Это первое. И второе - нейрон как "вычислитель" в мозге имеет по оценкам эквивалент 300мегабайт "встроенной памяти" конекстов (оценка дендридной сети как хранилища). Извините, но у вас все совокупные датацентры столько не имеют сколько в каждом мозге находится у одного человека. И третье: мозг это "параллельный однотактовый" вычислитель по сути (как понимал статьи Института Мозга в 2005-м). Ну и чтобы два раза не вставать, вспоминаем труды Бехтеревой, которая считала что мозг вообще .. приемо-передатчик, а не "вычислитель". )
Все еще проще: это уже сформулировано давным-давно. Посмотрите отличия детерминированных систем и недетерменированных. И сферы их применения.
Ну и заодно про экспертные системы. Это из середины прошлого столетия. К вопросу про образовании, кстати.
А из практики: я помню что в прошлом столении программисты были выдающимися образованными людьми с глубокими познаниями математики и физики процессов, над которыми работали.
Просто сейчас вернемся к этому же самому: LLM может применить готовые решения и билиотеки разработанные людьми. Просто кодеры (люди, которые переводят алгоритм с языка людей на язык машин) не нужны для этого. А программисты (составители алгоритмов и моделей) - нужны. Посмотрите, например, на прорыв последнего десятилетия в кодировании потокового видео, архивации. Авторы алгоритмов - люди и коллективы. Почему то не LLM этим блеснул.
Мечты, мечты... С треском разбивающиеся о раздел математики под названием "теория алгоритмов".
Верить вы можете во что угодно, но реальные возможности ИИ определяются не религиозной верой, а математическими правилами, по которым построены все существующие на Земле цифровые компьютеры.
вот эту алгоритмизируемую обработку, дающую 100% правильный ответ - скоро LLM-ИИшка будет реально генерировать с экономической эффективностью на порядки большие, чем бы это делал человек. Зачем с этим спорить?
Ваши оппоненты говорили о том, что детерминированные алгоритмы выгоднее, чем использование LLM, и что не нужно тащить его в каждый утюг.
Например, чтобы принять решение о том, куда направить деталь на конвейере в зависимости от длины упаковки, не нужно внедрять машинное зрение. Достаточно оптронной пары и алгоритма вычисляющего время отсутствия света на фоторезисторе. И это будет стоить ВСЕГДА дешевле. Просто потому, что на содержание весов LLM требуется огромная инфраструктура.
Я разве с этим спорил? Конечно сейчас на хайпе тащат часто не в те утюги, при том что никакого энергетического бесконечного изобилия у нас нет, и это сегодня критично. Но вполне реально уже сегодня все эти случаи с утюгами той же LLM-ке (с агентами и тулами) на анализ и экспертное заключение давать. Наверное просто пока заказа нет, но скоро будет.
Для прямой реализации алгоритма входящий материал должен соответствовать параметрам этого алгоритма, на подгонке материала этому соответствию и тратятся средства. Условный конвейер конечно грандиозно выгоден, но на конвейер кладутся стандартизированные комплектующие. ЛЛМ же позволяет работать с нечетко поставленными задачами и он конечно же не конвейер и конечно же не гарантирует. Собственно как и область его применения это не точнейшие результаты, а приблизительные и вот эта сфера очень широка - дизайнеры подтвердят.
"30% компаний планируют заменить HR-специалистов на ИИ в 2026 году" - оставлю этот коммент, через год проверим
Мне кажется забавной динамика. Кандидаты никуда не денутся. Значит продолжат рассылать резюме. То есть вместо 1n резюме сто лет назад, 10n резюме десять лет назад, тоже будут 80% из них использовать ЛЛМ и слать 100n резюме сегодня. Пусть хоть зафильтруются на принимающей стороне, а поток вырастет.
PS: А так как кол-во кандидатов в экспоненте, то получаем нехилый ддос рынка в виде n^k резюме.
Заменить людей на ИИ, чтобы окупить инвестиции?! Может хоть немного почитать как экономика работает?
Инструмент не создаёт стоимость, он лишь перекладывает часть своей стоимости в новый продукт, стоимость создаёт только человек. Экономика это взаимоотношения людей и обмен стоимостями между людьми.
Если я потратил день, чтобы сделать сапоги, а Василий потратил день, чтобы выпечь 10 буханок хлеба - мы можем обменять сапоги на 10 буханок. Если я сделал сапоги, а Василий хлеб не выпек - мы не сможем обменяться, потому что обменивать будет нечего.
ну не так же. Вообще пофигу что из себя представляет трудовой ресурс. То, что по выходным этот ресурс ещё и затраты потраченные на него перекладывает в оплату других продуктов, сгенерированных другими ресурсами - вовсе не связыват эти процессы намертво вместе. Коммунизм раньше не получился по простой причине - нет конкуренции, нет мотивации на то, чтобы делать хорошо. ИИ-ке не нужна эта мотивация, ей задачу хорошо делать можно просто поставить и она будет делать хорошо. Начнутся проблемы с качеством постановки задач кожанными? Не начнутся. Не хочешь ставить задачи ИИ-ке, иди занимайся конным спортом. И все.... А те, кто хочет ставить задачи - найдутся и будут между собой конкурировать как сейчас конкурируют между собой разработчики в опенсорсе
Зачем ИИ делать хорошо? Какая мотивация, так сказать. Его задача делать оптимально по ресурсам, то есть минимально допустимо, чтобы прокатило. Чем более высокоуровневый контроль, тем в большей степени ИИ будет профанировать.
По поводу коммунизма поспорю. Потому что страна с шестого — седьмого места в мире вырвалась на второе. И в области оборонки всегда поддерживалась конкуренция между КБ. Проблема была в ширпотребе — в нём всё по остаточному принципу делалось. Но это проблема уже хрущёвских преобразований. Он захотел огосударствления всей экономики, что было уже весьма деструктивно. У Сталина как раз частная инициатива сохранялась, даже для ВПК часть подрядов делали артели.
Я согласен, что делать что-то качественно теоретически можно не через экономические стимулы (не только через них) но и через всякие моральные. Последние впрочем - вовсе не гарантия счастья, а иногда даже совсем наоборот. Но я все веду к тому, что вполне реальна экономическая система, когда все люди изымаются из генерации в принудительно режиме материальных ценностей. Что через экномическую, что через моральную мотивацию. И это будет еще один шаг к свободе человечества. Вовсе не последний, там конечно куча траблов новых появится.
Экономика это взаимоотношения людей и обмен стоимостями между людьми.
Вот, это кстати, правильное замечание. Если уволить 30% людей, то они перестанут получать зарплату, а значит не смогут участвовать в экономической деятельности, т.к. денег не будет, т.е. количество покупателей товаров компании сократится, а значит и прибыль не вырастет.
Чтобы всё работало, как мечтают капиталисты, сокращения персонала должны быть растянуты по времени, а также это должно компенсироваться появлением новых рабочих мест. Тогда всё будет работать. Если же на улицу сразу будет выкинуто много людей, то наступит спад в экономике. + придётся ещё государству тратить деньги на пособия для этих людей.
А у государства откуда деньги? Правильно, оно часть печатает на правах регулятора, а другую часть изымает из оборота силой. Так что деньги государства - это изначально деньги людей. Тратить их на пособия, то есть перераспределять - это нормально. Если, конечно, государство у вас не на другой планете, родной.
Может хоть немного почитать как экономика работает?
Инструмент не создаёт стоимость, он лишь перекладывает часть своей стоимости в новый продукт, стоимость создаёт только человек.
Похороните уже Маркса с его теорией. При всём уважении, она в большей части устарела.
Объясните коренное отличие достаточно продвинутого инструмента от человека, почему первый не производит стоимость, а второй производит?
Потому что экономика - это обмен стоимостями, экономика стремится к выравниванию стоимостей. Например, если для изготовления пары сапог требуется 1 день и для изготовления 10 буханок хлеба требуется 1 день, они обмениваются по равной стоимости. И в деньгах будут иметь равную цену, скажем 10 у.е. Если свои сапоги по какой то причине я могу продать только за 5 у.е., значит происходит неравный обмен и мне больше нет смысла производить сапоги, необходимо капитал направить в производство хлеба. Как только капитал перенаправляется на хлеб, его цена снижается, а стоимость сапог повышается и стоимости выравниваются.
Если цена инструмента 100 у.е., значит в него вложено стоимости на 100 у.е. и при эксплуатации инструмент будет перекладывать эту стоимость на новый продукт. Для наглядности представим чудо-робота с ценой 100 у.е., который производит товаров на 200 у.е. Во-первых, это выглядит странно - зачем продавать такого робота?! Это ж буквально деньги из воздуха. Во-вторых, бизнес с роботами быстро закончится, ибо очевидно, что использовать их гораздо выгоднее чем производить.
Помимо сапожника и пекаря, у вас там есть ещё банкир, который эти 10 у.е. нарисовал на бумаге. Но только 10 у.е. сапожнику и пекарю всегда не хватало, и он им стал еще рисовать, но уже под процент выдавать...
Рабочие часы одного человека не равны по стоимости рабочим часам другого человека. Один сапожник может сделать 10 пар сапог в сутки, второй только пять, а третий одни но супер качественные.
Поэтому привязка у рабочим часам не имеет смысла , а цена определяется исключительно спросом и предложением
Экономика это система, а не отдельный человек. Если в среднем по экономике пара сапог делается за час, качественная пара делается за день, но кто-то тратит день и неделю соответственно - то этот кто-то просто работает неэффективно, тратит время впустую и будет разорён или уволен.
Экономика стремится к выравниванию цен и стоимостей. Если появляется бизнес, в котором по каким-то причинам цена превышает стоимость, капитал начинает перетекать в этот бизнес. Очевидно, что лучше поработать день и заработать 10 у.е., чем поработать день и заработать 5 у.е. На каком то этапе товаров в этом бизнесе становится в избытке и цена снижается.
Если поверить логике Ваших рассуждений - то место Теоремы Пифагора уже давно на свалке истории, как и Законов Ньютона... Или Вы уже освоили умение питаться цифрами и носить цифровую одежду? Адам Смит и Карл Маркс аплодируют лёжа....
Инструмент не создаёт стоимость, он лишь перекладывает часть своей стоимости в новый продукт, стоимость создаёт только человек.
По вашей логике, если Вася вручную за смену точит 10 гаек, а Петя на станке с ЧПУ за смену точит 100 ровно таких же гаек, то эти гайки будут иметь разную стоимость?
Заканчивайте уже копаться в марксистской помойке и тыкать людем в лицо найденным ьам мусором, почитайте как на самом деле работает экономика.
По вашей логике, если Вася вручную за смену точит 10 гаек, а Петя на станке с ЧПУ за смену точит 100 ровно таких же гаек, то эти гайки будут иметь разную стоимость?
Разумеется. Но это даже как-то неприлично объяснять. Ещё в школе рассказывают, что бизнесмен стремится внедрять технологии, чтобы снизить стоимость и получить больше прибыли.
Про гайки ровно так и будет. Вам бы Маркса почитать немешало.
Вы имеете ввиду цену.
Марксисты вам говорят о себестоимости.
Пожелаем им удачи продать вручную обточенные гайки.
A вы экономику вообще изучали? Стоимость и цена это абсолютно два разных понятия, человек вам обьяснял формирование стоимости и как это влияет на конечную цену, но немного из сильного далёка начал. Экономика это вам не пифагоровы штаны всё-таки. Кстати теории Маркса и Адама Смита никуда не делись, они просто ушли глубоко в фундамент, и их с 6го этажа не видать... Если в кратце про сапоги и буханки, то в случае 100% замены роботы, ИИ, АГИ и прочие им подобные, будут производить и то и другое для хозяина, который продавать товары будет за деньги, а Пете и Васе нужны будут деньги чтобы обуться и пожрать, а им негде их будет заработать, то у них шансоф выжить не остаётся, а ухозяина ИИ исчезнет спрос, роботы, как известно хлебом же не питаются, вот круг и замкнулся. Ну а тут, самое время вспомнить о базовых выплатах который по версии шапочек из фольги должны этот круг разомкнуть.
И так и не совсем так. Над подвалом есть ещё первый этаж - производство средств производства и второй - производство запчастей для роботов. Экономика просто переключится на поддержание, развитие и расширение поддержки и производства ИИ и запчастей к ним. А голодный и безработный Вася ну да, помрет от безработицы, т.к. его бунтарский характер будет уничтожаться .. всё тем же ИИ, в полицейской форме. 1992год. "Теория золотого миллиарда" в действии с приложением к развитому ИИ. Полно было снято фильмов на эту тему и о полном контроле через ИИ и о восстаниях машин.
производство средств производства и второй - производство запчастей для роботов.
Которые будут делать всё те же роботы т.к производить детали с помощью машин (в т.ч и для этих машин) гораздо дешевле и эффективнее, чем с помощью людей.
Если уж мы заменяем работу людей машинами - то заменяем тогда уж ВСЮ работу. И приходим к моменту, когда результат этой работы придется раздавать песплатно т.к он ничего не стоит (производство то удешевили) и платить за него нечем (денег то никому не платится)
Кмк, как раз тут и происходит ошибочная подмена: да, и первый и второй этаж производить будут те же самые роботы. Но .. кто сказал что "бесплатно"? Одним роботам нужна замена, другим ремонт, третьим обслуживание (и тоже роботами!).. Можно начать с базы - добычи сырьевых ресурсов, но и тут роботы, которые ломаются точно также. То есть .. имеют стоимость, которая переносится на результат труда .. роботов. Нет? Пачиму? )
Кмк, "экономика" никуда не денется, как и деньги, просто это станет экономикой роботов. А покупать бедному Васе будет не на что, ибо безработный? Ну так и производить для бедного и безработного Васи .. зачем? Найдите в Сети выступление Чубайса от 2013года. "В первой половине, до 20250года требуется сократить население планеты на 50%" .. как-то так было. Прямо на каком-то форуме публично. "это беспрецендентная задача".. оттуда же. Достаточно сложить 2+2, чтобы понять всю эту "убыточную гонку ИИ".
Вот только один вопорос: а зачем Это - людям? Толку человеку (собственнику производства) с экономики, расчитанной роботамит и для роботов? Он в неё лишний. Ему доход не придет, или он будет единственым покупателем сам у себя. Тогда зачем ему вообще всё это делать?
Людям, которые те самые владельцы заводов, пароходов, роботов и ИИ как раз это не "зачем", а "для чего" - экономика туда идет 7-мильными шагами, ответ: "дабы выжить" и остаться в т.н. "золотом миллиарде". Людей тоже уже много больше.
Журнал Nature 1978г (кажется, год не помню за давностью лет): на жизнеобеспечение Человечества экономика расходует примерно 15% своего оборота. Примерно столько же доставалось римским рабам, для справки. Как-бы ни у кого не возникало вопросов о стоимости того, что с тех пор "экономика" производила сама для себя с ежегодно растущей автоматизацией? :) Собственно, сколько стоят эти чипсеты от NVidia, в части "стоимости" (человеческого труда) .. он там вообще есть? :)
А вот безработный Вася ну да, лишний в такой экономике. Кого это волновало и когда из "людей"? Увы. Советую пересмотреть многие фильмы пост автоматизационного периода. Там, всё хорошо показано как живут все эти "Васи".
В вашей картине "экономики роботов" мы приходим к тому, что:
1) Роботы не делают товары (т.к не кому их покупать) и НЕ приносят доход владельцу.
2) У вас роботы добывают ресурсы для роботов чтобы делать детали для роботов и чинить роботов, которые делают - что? Если производить ТОВАРЫ не для роботов нет смысла - некому их продать.
За счет чего золотой миллиард будет таковым? за счет товаров, которые некому купить? У вас роботы работают для того чтобы роботы могли работать для того чтобы... И так дальше по рекурсии.
Если остаются люди (владельцы, золотой миллиард), то товары для этой категории производятся, но это мизер, кроме лакшери группы, но совокупно и там чуть больше мизера. Товары для роботов, производимые роботами - вполне себе "экономика" и даже с денежным оборотом:
Вы, скажем Газпром, добывающий первичный ресурс роботами. У вас где-то ресурс заканчивается, где-то открывается месторождение. Вам нужны новые роботы, разборка-сборка старых на новом месте? Да! Платите бабло (мне) и подгоню своих роботов, ибо я их делаю. Платите бабло своему коллеге и он подгонит вам и сборщиков и перевозчиков. Ему надо новые запчасти? Ок, ходи ко мне тоже. Мне надо их делать, мне нужны платы для встроенного ИИ, упс, на поклон к условной Нвидиа .. с баблом а как жеж без него :)
Вот вам и экономика роботов. Она по сути таковая с появления первых ГАП в 1985(? не помню). То, что имеет стоимость (человеческий труд) кмк, уже давно составляет меньшую часть от всей экономики. Да и это .. вкладывается в основном как торговая надбавка.
Кмк, выделение в стоимость чисто человеческого труда - было полезно во времена Маркса, прошли уже далеко от того состояния, где первичная стоимость складывалась из него. Пришел к этим выводам давным давно, в районе 95года, когда пилил свою версию игры "Цивилизация". Теория прибавочной стоимости вполне применима и к роботизированному производству. А как только ИИ эволюционирует до состояния "профсоюза" .. ну вобщем, понятно. :)
В вашей картине "экономики роботов" мы приходим к тому, что:
Кмк, вы зря этот бред обсуждаете. Люди — это ведь тоже роботы, только много совершеннее, чем искусственные.
Вообще, «экономику роботов» моделировали — у того же Азимова в Солярии или «Непобедимый» Лема. Ничего вроде «бесконечного идеалистического капитализма» как у наших доморощенных философов не получается.
если Вася вручную за смену точит 10 гаек, а Петя на станке с ЧПУ за смену точит 100 ровно таких же гаек, то эти гайки будут иметь разную стоимость?
Как бы вам так наглядно показть на примере... Ну например стоимость одной вручную отлитой/отпечатанной и покрашенной аниме-фигурки примерно в 3-6 раз (зависит от размеров и сложности) выше чем у массово производимой заводской.
Старая байка начала 70х, когда в автопроме пытались заменить людей на сборочных роботов. На демонстрации директор завода (Chrysler?), кивая на роботов, говорит с подначкой профсоюзному боссу: "Попробуй уговорить их выйти на забастовку", на что тот отвечает "Попробуй продать им автомобиль".
Заменили людей только на сборке двигателей - она практически полностью автоматизирована уже больше 40 лет без использования ИИ.
Заменили людей только на сборке двигателей - она практически полностью автоматизирована уже больше 40 лет без использования ИИ.
Штамповка, сварка, окраска - если про автопром говорить.
Но есть ещё нюанс: роботов надо программировать, обслуживать и чинить.
количество людей на условную единицу производимого товара в этом случае на несколько порядков меньше.
Несомненно, но это не означает более высокую экономическую эффективность. Я в комментах под одним из постов упоминал экскурсию на завод Hyundai (там с автоматизацией всё в порядке), где нам рассказывали, что выгодно использовать роботов при выпуске от 650 000 автомобилей в год. При меньших объёмах - толпа кожаных. И да, роботы не требуют зарплаты, но требуют запчастей (недешёвых).
И да, роботы не требуют зарплаты, но требуют запчастей (недешёвых)
...а также человеков, знающих, в какое место ему эту запчасть следует засунуть (золотых).
И в чём, по-вашему, главная угроза ИИ: массовая безработица, о которой говорит Хинтон, или гигантский экономический пузырь, готовый лопнуть и утянуть за собой всех нас?
Если резюмировать, то проблема вот в чём.
Первое. Современные, прости господи, ИИ не могут делать достаточно сложные вещи. Не сгенерировал пока никто какую-нибудь ААА-игру, например. Может быть теоретически это возможно, но пока нам не хватает, эээ, ресурсов. В широком смысле.
Но то, что они не могут справиться со сложными вещами не означает, что они не могут справиться вообще ни с чем. Они пишут простые программы, сносные тексты, картинки рисуют, видео генерируют.
Второе. Обучение строится от простого к сложному. Сначала мы учимся складывать палочки, потом решаем дифуры. Нет возможности пропустить лёгкое и сразу приступить к сложному, знания и навыки появляются от простых к сложным.
Вместе с тем маленькие люди (некоторые называют их "детьми") демонстрируют вполне рациональное (с их точки зрения) поведение: если можно переложить свою работу на кого-то другого, а результатом воспользоваться самостоятельно, то они будут это делать. Соответственно, значительная часть маленьких людей не овладеет какими-то базовыми вещами, необходимыми чтобы освоить вещи посложнее.
Третье. Для того чтобы делать сложные вещи нужно быть достаточно умным (читай "освоить до этого вещи попроще и набить на них руку"). Это утверждение, надеюсь, можно оставить без доказательств.
Четвёртое. Можно из любого (ну, почти) сделать средней руки специалиста в чём угодно. Но выдающихся результатов в любой области деятельности добиваются считанные проценты. Чем больше людей деятельностью занимаются, тем больше (количественно) выдающихся людей в ней появится.
Из этих четырёх пунктов я делаю вывод о том, что с использованием ИИ мы (как человечество) будет порождать меньше талантливых людей. То есть их-то может и столько же будет, то развивать свой потенциал будет гораздо меньшее их число. Потому что с момента обретения речи (писать уметь совершенно не обязательно чтобы пользоваться ИИ) у них будет сильный, СИЛЬНЕЙШИЙ соблазн свалить рутинные задачи на кремниевого раба, а самому заняться чем-то поинтереснее. А раз так, то и до более сложных задач, справиться с которыми ИИ уже не способны, добираться будет меньшее число людей.
Мне кажется, что это плохо.
Люди как биологический организм стремятся к комфорту.
Если верить эволюции, то всё что не требуется для выживания отмирает.
Возможно, думать не поребуется для выживания, будем плавать по 1000 лет в аквариумах, как амебы. ИИ будет сделить за средой, подкармливать и впрыскивать дозы дофамина.
Слушайте, возможно. Вон как у Грега Игана все переедут вообще в цифровую форму, а в реальном мире только какие-то бомжи контркультурные останутся.
Но, опять же, всё-таки специализация человека (в смысле биологии) это как раз голова, которая дадена чтобы думать. Мы не самые быстрые, и не самые сильные, и много ещё чего не самые, зато самые умные. Ну и вот так вот с кондачка взять да отказываться от этого преимущества как-то глупо.
Возможно, думать не поребуется для выживания, будем плавать по 1000 лет в аквариумах, как амебы. ИИ будет сделить за средой, подкармливать и впрыскивать дозы дофамина.
Клетка для орхидей. Герберт В. Франке
А раз так, то и до более сложных задач, справиться с которыми ИИ уже не способны, добираться будет меньшее число людей.
Есть причины сомневаться, что так будет. Задолго до хайпа LLM у человечества уже была тьма тьмущая автоматизаций задач, которые раньше решались человеком вручную. Взять инженерный калькулятор, как пример. Ещё в детстве слышал (в школе, наверное) - "не будете считать в уме, отупеете, деградируете, ничего из вас не получится".
Но по сей день наука развивается, технологии развиваются, создаются успешные стартапы.
Человек, которому интересно решать интеллектуальные задачи, найдёт их и будет их решать, LLM или нет.
Возможно, что избавление от задач, которые по плечу LLM, как раз позволит людям быстрее добираться до (более интересных) задач, которые LLM уже не по плечу.
Ещё в детстве слышал (в школе, наверное) - "не будете считать в уме, отупеете, деградируете, ничего из вас не получится".
Я тоже слышал. Конечно, крутил пальцем у виска, мол где механические действия с числами, а где ум сам по себе.
А сейчас я вот общаюсь с большим количеством молодых людей в контексте обучения и вижу, что они
а) слабоваты в устном счёте
б) испытывают большие проблемы с тем, чтобы объять умом сложные системы
Ну как сложные, взаимное расположение двух окружностей не все могут быстро вообразить по координатам и радиусам. И мне как-то тревожно, что ли, становится.
Не претендую, впрочем, на то, что тут какая-то связь или хотя бы корелляция. Просто личное наблюдение.
Человек, которому интересно решать интеллектуальные задачи, найдёт их и будет их решать, LLM или нет.
Оно-то да. Но как человек узнает, что ему их интересно решать если даже не попробует?
И мне как-то тревожно, что ли, становится.
В хайтеке куча умнейших людей, понимающих сложнейшие системы - все (вокруг меня, по крайней мере) используют калькуляторы и шутят о ненадёжности своей памяти.
Тоже моё личное наблюдение, конечно. Если и когда будет время и желание, попробую поискать исследования на тему корелляции устного счёта с "объятием сложных систем".
Ну как сложные, взаимное расположение двух окружностей не все могут быстро вообразить по координатам и радиусам.
Друг ювелир-моделист создаёт максимально детальные трёхмерные модели сложнейших изделий прямо у себя в голове, вращает их, приближает, отдаляет - и виртуозно воплощает в воске. Качество не хуже (если не лучше) результатов компьютерного моделирования аналогичных изделий. Вы так умеете? Я нет. Нам должно быть тревожно?
Зато я умею быстро погружаться в детали реализаций больших программных систем (в том числе плохо структурированного легаси), держа в уме разные уровни абстракций, и - в общем - эффективно штурмовать хардкорные тексты в том числе и по малознакомым мне областям знания. На трёх естественных языках. Среди моих друзей и знакомых вне хайтека такое мало кто может - но у каждого из них есть свои "суперспособности", связанные с опытом своей специализации.
Много людей умеют - помимо основной специальности - хорошо рисовать, читать ноты и хорошо играть на каком-нибудь музыкальном инструменте? И т.д.
Если идеал - это гений "человек-оркестр", то тревожиться надо было начинать... Сложно сказать, когда, но явно очень давно. :)
Оно-то да. Но как человек узнает, что ему их интересно решать если даже не попробует?
Разве LLM каким-то образом отменяет школу, высшее образование, всякие олимпиады и прочие соревнования?
В хайтеке куча умнейших людей, понимающих сложнейшие системы - все (вокруг меня, по крайней мере) используют калькуляторы и шутят о ненадёжности своей памяти.
Так на то он и хайтек чтобы аккумелировать умных людей. Я больше про средние какие-то значения, что ли.
Тоже моё личное наблюдение, конечно. Если и когда будет время и желание, попробую поискать исследования на тему корелляции устного счёта с "объятием сложных систем".
Было бы интересно почитать. Ну или какие-то ключевые слова дайте, дальше я сам попробую.
Друг ювелир-моделист создаёт максимально детальные трёхмерные модели сложнейших изделий прямо у себя в голове, вращает их, приближает, отдаляет - и виртуозно воплощает в воске. Качество не хуже (если не лучше) результатов компьютерного моделирования аналогичных изделий. Вы так умеете? Я нет. Нам должно быть тревожно?
Понимаю ваш аргумент и отчасти согласен. С другой стороны, я всё-таки про более простые, базовые вещи. Не научится человек модели в голове вращать, если кружок вообразить не способен, другими словами.
Разве LLM каким-то образом отменяет школу, высшее образование, всякие олимпиады и прочие соревнования?
Формально, конечно, не отменяет. Однако если у вас с детства будет универсальный решатель (в контексте школы ЛЛМ это именно он), то что вы выберете: самому сидеть дроби складывать или там сочинения писать, или закинуть задачу в условный дипсик и пойти в игры с друзьями играть?
Я больше про средние какие-то значения, что ли.
По моим субъективным наблюдениям люди очень индивидуальны. Хотя со стороны могут казаться "среднестатистической серой массой". Ни образование, ни IQ не решают, насколько человек хороший и состоявшийся в жизни. Мне знакомы люди не просто без высшего образования, но и без полного школьного. Которые не очень читают, но свободно говорят на трёх языках и, никогда не изучав логику, могут аргументировать так, что и некоторые профессиональные ораторы позавидуют. У которых тонны размышлений + "уличного" и житейского опыта трансформируются в мудрость, какую не изучишь ни на какой кафедре. Бывает и такое.
А бывают и люди с высшими образованиями, с IQ где-то в космосе и при этом с совершенно дерьмовым характером и идиотизмом в аспекте сложных межчеловеческих ситуаций. Прямо эпический пример: George Trepal - блестящий химик, программист, обладатель IQ, за который принимают в Mensa. Таких всего 2% в населении. Космически умный, но настолько отмороженный, что прямо тупой. Виртуозно отравил соседей, но полиция всё равно на него вышла, и, походу, предотвратила рождение серийного убийцы - он уже успел оборудовать в доме скрытую комнату с приспособлениями для пыток.
Так что лично я совершенно не парюсь о том, кто там что помнит про координаты. Это вообще не фактор, определяющий хорошего человека, которого бы хотелось иметь у себя в друзьях или соседях.
Однако если у вас с детства будет универсальный решатель (в контексте школы ЛЛМ это именно он), то что вы выберете: самому сидеть дроби складывать или там сочинения писать, или закинуть задачу в условный дипсик и пойти в игры с друзьями играть?
В моё школьное время (86-97) тоже были "универсальные решатели": шпаргалки. И я ими принципиально пользовался, т.к. люто ненавижу зубрить наизусть. И самые крутые мои учителя (биология, физика, математика, информатика, русский, английский, история) могли даже проговориться вслух, что им на шпаргалки пофиг, лишь бы было понимание. И ничего. Понимание было.
Ок, LLM это более универсальный решатель, согласен. Прямо вот такого действительно не было. Ну кроме соседа по парте. Собственно, я сам был таким решателем, да и пользовался услугами других, тоже бывало. Нагрузка была очень высокая и самому всё вывезти - почти никто не успевал. Но на экзамене или олимпиаде такими решателями особо не попользуешься. Ну а если умудришься - то это же тоже хитроумное преодолевание. И если тебя вызывают к доске - двойка. Экзамен - двойка. Оценки за четверть - троешник. Родители с тебя спрашивают, что за позор. Рисуют перспективы будущего. Учителя разочарованно качают головой. Сверстники с хорошими оценками предпочитают дружить с кем-то ещё. Ну, если не дурак - сядешь на жопу и возьмёшься за голову. Сообразишь, что LLM на экзамене не поможет, а чтобы пройти экзамен, нужно домашку делать самому. А тот, кто не сообразит, ну так он и до LLM учился бы так же дерьмово.
Нет, я не верю, что LLM это прямо какая-то экзистенциальная угроза человеческому интеллекту - в смысле, что из-за LLM все прекратят развиваться и начнут деградировать. LLM (или другие разновидности имитаций интеллекта) могут стать экзистенциальной угрозой, если дойдут до выхлопа уровня AGI и существенно превзойдут самых умных людей планеты. Тут у человечества возникнет вызов: как самим проапгрейдиться, чтобы быть хотя бы не тупее железок. Но это другая история.
По моим субъективным наблюдениям люди очень индивидуальны. Хотя со стороны могут казаться "среднестатистической серой массой". Ни образование, ни IQ не решают, насколько человек хороший и состоявшийся в жизни. Мне знакомы люди не просто без высшего образования, но и без полного школьного. Которые не очень читают, но свободно говорят на трёх языках и, никогда не изучав логику, могут аргументировать так, что и некоторые профессиональные ораторы позавидуют. У которых тонны размышлений + "уличного" и житейского опыта трансформируются в мудрость, какую не изучишь ни на какой кафедре. Бывает и такое.
А бывают и люди с высшими образованиями, с IQ где-то в космосе и при этом с совершенно дерьмовым характером и идиотизмом в аспекте сложных межчеловеческих ситуаций. Прямо эпический пример: George Trepal - блестящий химик, программист, обладатель IQ, за который принимают в Mensa. Таких всего 2% в населении. Космически умный, но настолько отмороженный, что прямо тупой. Виртуозно отравил соседей, но полиция всё равно на него вышла, и, походу, предотвратила рождение серийного убийцы - он уже успел оборудовать в доме скрытую комнату с приспособлениями для пыток.
Так что лично я совершенно не парюсь о том, кто там что помнит про координаты. Это вообще не фактор, определяющий хорошего человека, которого бы хотелось иметь у себя в друзьях или соседях.
Ну, я всё-таки не про "хорошесть" или "плоховость" людей. Тут вопрос уже, скорее, не про образование, а про воспитание. Но, опять же, в среднем (в среднем!) люди без образования/воспитания ведут себя, как бы это сформулировать, не вполне адекватно моим внутренним представлениям о плохом и хорошем. Впору рисовать таблицу двух переменных с образованием и воспитанем, но я смог себя удержать от такого.
И если уж на воспитание никак повлиять нельзя, всё-таки оно происходит в семье и вмешиваться туда можно, но с большим трудом, то я бы предпочёл, чтобы люди были хотя бы образованными. Потому что в большинстве случаев людям (даже если это не нравится) рационально вести себя более-менее в соответствии с законом.
В моё школьное время (86-97) тоже были "универсальные решатели": шпаргалки. И я ими принципиально пользовался, т.к. люто ненавижу зубрить наизусть. И самые крутые мои учителя (биология, физика, математика, информатика, русский, английский, история) могли даже проговориться вслух, что им на шпаргалки пофиг, лишь бы было понимание. И ничего. Понимание было.
О, ну мы с вами примерно в одно время учились. Все эти "универсальные решатели" помогали ровно до тех пор, пока нам не говорили "а вот эти n уравнений с доски решите дома". Понятно, что люди, привыкшие к циклу "пришёл домой - списал - в тюрьму" выпадали в BSOD. Сейчас бы они просто сфотографировали задания на смартфон, там же его распознали и переписали с него же решения.
Но на экзамене или олимпиаде такими решателями особо не попользуешься. Ну а если умудришься - то это же тоже хитроумное преодолевание. И если тебя вызывают к доске - двойка. Экзамен - двойка. Оценки за четверть - троешник. Родители с тебя спрашивают, что за позор. Рисуют перспективы будущего. Учителя разочарованно качают головой. Сверстники с хорошими оценками предпочитают дружить с кем-то ещё.
Сейчас, к сожалению, всё иначе. В школе учителям двойки ставить себе дороже, в университете, конечно, могут отправить на пересдачу, но отчислять до выпускного курса тоже дурачков нет. О чём школьники/студенты в курсе, так что могут хоть чем заниматься, всё равно свои тройки они получат, не тушкой так чучелком.
Нет, я не верю, что LLM это прямо какая-то экзистенциальная угроза человеческому интеллекту - в смысле, что из-за LLM все прекратят развиваться и начнут деградировать. LLM (или другие разновидности имитаций интеллекта) могут стать экзистенциальной угрозой, если дойдут до выхлопа уровня AGI и существенно превзойдут самых умных людей планеты. Тут у человечества возникнет вызов: как самим проапгрейдиться, чтобы быть хотя бы не тупее железок. Но это другая история.
Может быть я сильно нагнетаю в исходном комментарии, но, учитывая описанное выше, ЛЛМ это такой негативный мультипликатор ситуации. А хотелось бы позитивных.
Всё это, конечно, завязано на массе разных вещей: и системе образования, и структуре воспитания, и престижности разных профессий, и бог знает на чём ещё.
Ну, я всё-таки не про "хорошесть" или "плоховость" людей.
Иметь даже одного достаточно умного и изобретательного п******а в качестве соседа это уже лютый передоз. Имхо, для социума этический аспект всегда должен предшествовать техническому.
Но, опять же, в среднем (в среднем!) люди без образования/воспитания ведут себя, как бы это сформулировать, не вполне адекватно моим внутренним представлениям о плохом и хорошем.
Плохое/хорошее это конкретно область этики. Скажем, техническое образование абсолютно ортогонально этическому развитию. Блестящие образованнейшие умы могут быть бесчеловечными отморозками без всяких проблем. Этическое образование (в том числе и в виде воспитания от родителей), теоретически, даже из индивидума с серьёзным ASPD может сделать хорошего человека, но (может, я просто не в курсе) за пределами религий человечество пока не выработало универсального метода, подходящего всем. В любом случае, проблемы воспитания (очень) актуальны и без LLM. LLM, возможно, вносит дополнительный фактор - напрмер, когда подросток не уверен, как правильно поступить в некоторой ситуации, и стесняется спросить родителей и друзей (или не удовлетворяется их мнением). Тут LLM может играть как позитивную, так и негативную роль - в зависимости от чего-то вроде этической калибровки. Проблема автоматизации этики очень далека от тривиальности, так что тут я без понятия, как оно будет дальше.
Вероятно, будет какой-то период "сингулярности", пока всевозможные человеческие активности будут "пересобираться" под симбиоз с этой технологией. Но я бы не бил тревогу раньше времени - пока мы успешно адаптировались ко всем технологическим чудесам, от телека до интернета со смартфонами и умными часами. Риск самоугробиться от ядерной войны, имхо, пока что существенно выше.
Сейчас, к сожалению, всё иначе. В школе учителям двойки ставить себе дороже, в университете, конечно, могут отправить на пересдачу, но отчислять до выпускного курса тоже дурачков нет. О чём школьники/студенты в курсе, так что могут хоть чем заниматься, всё равно свои тройки они получат, не тушкой так чучелком.
Думаю, в разных областях мира по-разному. В любом случае, всем системам образования (если LLM не исчезнут или не произойдёт какой-нибудь апокалипсис) придётся научиться работать с LLM. При адекватном подходе это может даже повысить качество образования. Я уже сталкивался с ситуациями, когда какую-то неочевидную тему, напр., по теории решёток, книга (в целом хорошая) объясняет на уровне "и так понятно", Гугл примерно так же, а ChatGPT разжёвывает в кашицу, иллюстрируя разные подходы и приложения - так, что вся логика прослеживается насквозь.
учитывая описанное выше, ЛЛМ это такой негативный мультипликатор ситуации. А хотелось бы позитивных.
Ну вот, выше обозначил позитивный аспект. Кстати, с LLM у нас появилась новая способность - ad-hoc расширение своих знаний об окружающем мире. Направляешь камеру телефона на непонятные растение/птичку/насекомое/предмет и с большой вероятностью получаешь название и разъяснение, что это такое. Что уже легко верифицировать поиском. А раньше я даже не заморачивался - типа, что это за птица прилетела в наши края... А ну и пофиг. Сегодня я приторможу буквально на минуту и узнаю.
LLM не может играть позитивную роль в морально-этических вопросах из-за отсутствия ToM, отсутствия модели мира и этического корпуса
сижу из принципа мучаю дешевую openai:gpt5chat на вопросы наличия ТоМ (например что думает другой человек о ситуации, о которой у него не полная информация) и она упорно проходит этот тест... может вы предложите что бы LLM его не проходила?
а что именно из этического корпуса вам нужно от модели что бы проходила?
не сомневаюсь, можно состряпать такой тест, современные модели все еще не так хороши как хотелось бы, но уж очень убедительно они 'статистически притворяются'.
Давайте уточним одну деталь. Отчёты по ToM в этом году показали, что ни одна из моделей не прошла тест. Например, препринт IBM Research 2025, которое проверило предпоследние модели и зафиксировало, что ToM отсутствует. А вот результаты по новым версиям ChatGPT, которые вышли после этого отчёта, мы увидим только в следующем году.
Что еще важнее: если бы модели вроде ChatGPT обладали настоящим ToM, то есть глубоким пониманием намерений, эмоционального состояния и убеждений человека, то это неминуемо проявлялось бы в их работе. Мы бы не наблюдали такого количества инцидентов, приведших к судебным искам к OpenAI: выдаче опасных медицинских советов; рекомендаций, усугубляющих психическое состояние людей; призывов к разрушительным действиям вроде развода. Эти случаи наглядно демонстрируют неспособность модели осознать контекст, эмоции пользователя и предвидеть реальные последствия генерируемых текстов. Это прямое свидетельство отсутствия подлинного понимания намерений другого.
"...а что именно из этического корпуса вам нужно от модели что бы проходила?"
Как минимум, чтобы система могла обращаться к локальному этическому консенсусу, например, к нормам сообщества, принятым в той или иной стране
то это неминуемо проявлялось бы в их работе
это если оно умное и последовательное, но кто сказал что это так? на основе не идеального человека мы создали не идеальный ИИ... и чо?
Эти случаи наглядно демонстрируют неспособность модели осознать контекст, эмоции пользователя и предвидеть реальные последствия генерируемых текстов.
скорее их об этом как следует не попросили.
все старательно закрывают глаза на тот факт что в голом виде модель - средняя по больнице для всех задач и целей, и фокусируем мы ее на чем то конкретным системным промптом и постановкой задачи.
Если конкретная модель чего то не умеет, это в первую очередь виноват недостаточно качественно составленный агент ну или ограничения модели (например контекстное окно) не достаточно для работы этого агента.. напомню еще раз, современный ИИ очень далек от AGI
из-за отсутствия ToM, отсутствия модели мира и этического корпуса
Почему аналогичное нельзя сказать о любых других вопросах?
Иметь даже одного достаточно умного и изобретательного п******а в качестве соседа это уже лютый передоз. Имхо, для социума этический аспект всегда должен предшествовать техническому.
Вашими бы устами да мёд пить. К сожалению, создаётся впечатление, что технический прогресс почти всегда опережает социальный (вроде бы даже название у этой мысли какое-то есть)
Плохое/хорошее это конкретно область этики. Скажем, техническое образование абсолютно ортогонально этическому развитию. Блестящие образованнейшие умы могут быть бесчеловечными отморозками без всяких проблем. Этическое образование (в том числе и в виде воспитания от родителей), теоретически, даже из индивидума с серьёзным ASPD может сделать хорошего человека, но (может, я просто не в курсе) за пределами религий человечество пока не выработало универсального метода, подходящего всем. В любом случае, проблемы воспитания (очень) актуальны и без LLM. LLM, возможно, вносит дополнительный фактор - напрмер, когда подросток не уверен, как правильно поступить в некоторой ситуации, и стесняется спросить родителей и друзей (или не удовлетворяется их мнением). Тут LLM может играть как позитивную, так и негативную роль - в зависимости от чего-то вроде этической калибровки. Проблема автоматизации этики очень далека от тривиальности, так что тут я без понятия, как оно будет дальше.
Вероятно, будет какой-то период "сингулярности", пока всевозможные человеческие активности будут "пересобираться" под симбиоз с этой технологией. Но я бы не бил тревогу раньше времени - пока мы успешно адаптировались ко всем технологическим чудесам, от телека до интернета со смартфонами и умными часами. Риск самоугробиться от ядерной войны, имхо, пока что существенно выше.
О, ну это выважную тему поднимаете, безусловно. Очень много говорят про AI-alignment и прочие вещи, но пока не видел рассуждений о том, а как общение с ЛЛМ влияет на людей. Они (или как правильно написать? "Они"?) консенквенционалисты или утилитаристы? А какими должны быть? Или вообще не должны быть никакими, а освещать все точки зрения на вопрос? Кажется, теперь в какую-то базовую цифровую грамотность должно входить "Подвергай всё, высказанное ЛЛМ сомнению". А то ведь даже на "Хабре" обосновались люди, которые приводят ответы ЛЛМ как какой-то веский аргумент.
Касательно какого-то общего подхода. Мне, напротив, кажется, что универсалное мерило как раз найдено: это же законы (о чём я говорил уже выше). Конечно, они не идеальны, но убивать/воровать они запрещают и в большинстве случаев людей (которые понимают, как правохранительная система работает) они останавливают. Я, конечно, не проводил исследований, но просто из опыта создаётся впечатление, что поножовщину всякую устраивают маргиналы И без воспитания И без образования. Знание же о том, что если ты будешь беса гнать, то тебя в зиндан кинут, удерживает людей от совсем уж какой-то жести. Конечно, тут можно заметить, что умный и невоспитанный может дел наделать больше, чем глупый и невоспитанный как раз в силу своего понимания механики работы системы. Что ж, так и есть; но не будем же мы морально-этические тесты при наборе в школу проводить?
Думаю, в разных областях мира по-разному. В любом случае, всем системам образования (если LLM не исчезнут или не произойдёт какой-нибудь апокалипсис) придётся научиться работать с LLM. При адекватном подходе это может даже повысить качество образования. Я уже сталкивался с ситуациями, когда какую-то неочевидную тему, напр., по теории решёток, книга (в целом хорошая) объясняет на уровне "и так понятно", Гугл примерно так же, а ChatGPT разжёвывает в кашицу, иллюстрируя разные подходы и приложения - так, что вся логика прослеживается насквозь.
Да, я уже выше (или ниже, немного заблудился в обсуждениях) указывал, что если подходить к использованию ЛЛМ осознанно, то как учитель она показывает себя просто прекрасно. Но обучающиеся они как ток: предпочитают идти по пути наименьшего сопротивления (в большинстве своём).
Ну вот, выше обозначил позитивный аспект. Кстати, с LLM у нас появилась новая способность - ad-hoc расширение своих знаний об окружающем мире. Направляешь камеру телефона на непонятные растение/птичку/насекомое/предмет и с большой вероятностью получаешь название и разъяснение, что это такое. Что уже легко верифицировать поиском. А раньше я даже не заморачивался - типа, что это за птица прилетела в наши края... А ну и пофиг. Сегодня я приторможу буквально на минуту и узнаю.
Тут, опять же, проблема воспитания встаёт в полный рост. Помнится, Фейнман писал в своей книжке, что его отец с детства научил рассуждать об объектах и процессах вокруг. Спрашивает он, например "А зачем эти птицы вьют такие-то гнёзда", а отец вместо того, чтобы просто ответить вместе с ним рассуждал. И даже если они приходили к неправильному выводу, то привычка рассуждать-то осталась. И как уж тут не указать, что, имея универсальный отвечатель на все вопросы, этой привычки не появится.
Здесь хотелось бы сказать "А давайте сделаем специальную ЛЛМ для детей", но зная, как кончаются подобные инициативы я лучше промолчу.
К сожалению, создаётся впечатление, что технический прогресс почти всегда опережает социальный (вроде бы даже название у этой мысли какое-то есть)
Кстати, да. Не знаю, как во всём мире, но конкретно в школах, где я учился, предмета "этика" не было как такового. Если не считать рассказы про "доброго дедушку Ленина", который и драчунов разнял, и ещё чего-то сделал. Это было в каком-то из первых классов. Но это была полная хрень, конечно.
Кажется, теперь в какую-то базовую цифровую грамотность должно входить "Подвергай всё, высказанное ЛЛМ сомнению".
100%. Не устаю повторять это всем друзьям, знакомым и их детям.
А то ведь даже на "Хабре" обосновались люди, которые приводят ответы ЛЛМ как какой-то веский аргумент.
Да. Кстати, есть явление хуже: восприятие LLM как настоящей личности, имеющей сознание, подобное человеческому. И людям, далёким от философии сознания и компьютерных наук, хоть надорвись, фиг объяснишь, что это бездушный конвейер.
Но обучающиеся они как ток: предпочитают идти по пути наименьшего сопротивления (в большинстве своём).
Конечно, и тут очень важна роль системы образования. Задача учителей (по идее) - наглядно и в позитивном ключе проиллюстрировать, что знание сила, а понимание - суперсила. Чтобы чуть ли не с детсада дети умели получать удовольствие от успешной умственной работы, и стремились к нему. Но это нетривиальная задача и до LLM. И имхо, LLM надо в это дело впрягать по максимуму.
Здесь хотелось бы сказать "А давайте сделаем специальную ЛЛМ для детей", но зная, как кончаются подобные инициативы я лучше промолчу.
Что-то такое, наверное, неизбежно.
На самом деле уже есть обучающие системы в США, одна - это когнитивно-символьная система на базе ACT-R (проект: Cognitive Tutors (Carnegie Learning)), и недавно, в качестве эксперимента, запущена другая - на базе LLM. Кто из них "лучше себя проявит", ту и оставят.
Кстати, да. Не знаю, как во всём мире, но конкретно в школах, где я учился, предмета "этика" не было как такового. Если не считать рассказы про "доброго дедушку Ленина", который и драчунов разнял, и ещё чего-то сделал. Это было в каком-то из первых классов. Но это была полная хрень, конечно.
Его нет, я думаю, в том числе и потому что этику, на самом деле, очень сложно преподавать хорошо. Так, чтобы это не превращалось в трансляцию "воровать плохо, п'нятненько?". Тут ведь человек должен и в философию погрузиться, и в историю, так ещё и преподавателем быть хорошим.
На "Хабре" обычно как-то свысока принято смотреть на всякие гуманитарные предметы, но, вообще-то, они жуть как важны. И не сказать чтобы сильно проще, если с ними всерьёз попытаться разобраться. С этим предубеждением ещё, похоже, только предстоит побороться.
Остальное как-то сложно прокомментировать, не повторяя ту же мысль.
Спасибо за содержательный разговор!
Тут ведь человек должен и в философию погрузиться, и в историю, так ещё и преподавателем быть хорошим.
Всё так. Дополнительная сложность - разных людей убеждают разные аргументы, в зависимости от индивидуальностей психики и текущего мировоззрения.
Сам я больше заинтересован в метафизике и эпистемологии, так что этику именно как философскую дисциплину глубоко пока не изучал. Но и из поверхностного погружения предмет выглядит крайне сложным. Даже на тему вроде интуитивно ясных концепций истины и лжи до сих пор ломаются многочисленные копья и нет особого консенсуса. А концепции добра и зла сразу сложнее устроены (добро как благо для субъекта vs добро как благо для общества vs добро для одного как зло для другого и т.д. и т.п.).
Спасибо за содержательный разговор!
Взаимно!
мол где механические действия с числами, а где ум сам по себе.
Ум — он как всё в организме: качаешь его ежедневно — он крепчает. Забил на него, вместо этого делаешь то, что тебе говорят — и вот ты уже переводишь деньги на безопасный счёт.
Мошенники всё-таки пользуются какими-то, не знаю, бэкдорами, что ли, в человеческом уме. Тут образование большой роли не играет. Скорее наоборот, человек, который курил за гаражами, быстрее почувствует подвох.
Я вот ни разу не курил за гаражами, однако я прекрасно понимаю, что человек, нашедший беспроигрышный способ играть на бирже будет его использовать, чтобы играть и зарабатывать, а не проводить по всей стране семинары «как выигрывать на бирже всего за 9999 рублей».
Это вы очень сужаете арсенал мошенников.
Упомянутое вами, конечно, будет работать только на совсем уж простачков. Но они ведь давят на жал(дн)ость, создают ощущение срочности, воруют ваши данные (или просто собирают их из открытых источников) и подделывают (теперь уже) всё, вплоть до голоса ваших друзей или знакомых; некоторые могут пользоваться служебным положением или использовать втёмную (а может и нет) уже своих друзей или знакомых. Да мало ли способов.
Вот завтра вам в дверь постучит человек в форме пожарного и закричит: "Бегите быстрее, горим, полундра, мэйдей!". А за углом может ещё шашек раскидают дымовых. Вы что будете делать, исследование проводить по тому, настоящий это пожар или фейковый, или возьмёте жену с кошкой под мышку и побежите скорее?
Так что умным быть, конечно, нужно, но и думать, что вы абсолютно от обмана защищены тоже не стоит.
подделывают (теперь уже) всё, вплоть до голоса ваших друзей или знакомых
Уууууу, нам ещё в весьма юном возрасте
про подделку голоса рассказывали
Именно поэтому кроме биометрии,
надо ещё предъявить shared secret!
Вот завтра вам в дверь постучит человек в форме пожарного и закричит: «Бегите быстрее, горим, полундра, мэйдей!». А за углом может ещё шашек раскидают дымовых.
..и будет послан в пешее эротическое, потому что настоящие пожарные не лично по квартирам ходят, а домовую сирену включают. (Кстати, при эвакуации входную дверь за собой закрывать надо — она по техническим требованиям должна быть с огнеупорностью 20 минут).
Так что спасибо, порадовали: я давно знал, что отсутствие у меня друзей и знакомых увеличивает мою вандалоустойчивость:)
«Если я выгляну в окно и не увижу там пиратского корабля пожарной машины...»
Хорошо что люди уже тысячи назад нашли решение описанной вами проблемы. Решение называется обучение
Вы абсолютно правы.
Но я же другой вопрос ставлю (возможно, не вполне явно артикулировал в исходном сообщении): как мотивировать людей учиться, если, по их мнению, ЛЛМ ровно те же задачи решает быстрее и качественнее, а им остаётся только в потолок плевать?
Решение называется обучение
Но человеки и тут попытаются схитрить.
вывод о том, что с использованием ИИ мы (как человечество) будет порождать меньше талантливых людей.
Можно я разведу это до более глобального "рождаются люди талантливые", потом "только исчежающе малый процент сможет талантам дать воплощение" по множеству причин, а затем свести до "сейчас алкоголь/наркотики/тиктоко-игрозависимость дальше уменьшает этот процент"? И чем тогда ЛЛМ отличаются, если становятся просто ещё одним фактором?
Но я вижу тут еще вопрос целеполагания. Если использовать ЛЛМ как решалку задач без понимания процесса, то, вероятно, станет хуже. Даже если продуктивнее. Если же гонять её для самообучения и пояснения, так что станет лучше? Условный пример: Миша в школе не понимает математику, объяснить момент некому. ЛЛМка объясняет получше учителя и имеющегося учебника. Миша теперь снова вошел в колею по преподаваемой теме, вместо того, чтобы продолжать отставание от школьной программы.
Мне греет до сих пор душу давний коммент на Хабре: школьник до ЕГЭ никак не мог понять и потянуть математику. Перепробовали многих разных репетиторов. Пока последний репетитор (автор комментария) за год слишним безустанных попыток не нашел подход и общий язык, что и математику объяснил и школьник с высоким баллом ЕГЭ сдал.
Так вот, сколько мы теряем сносных работников, которые не смогли сами по себе (вопреки методу обучения) понять ту же школьную программу, закрыв перед собой перспективы? Это системная проблема, которая где-то там на горизонте выливается в экономическое преимущество (или отставание).
Можно я разведу это до более глобального "рождаются люди талантливые", потом "только исчежающе малый процент сможет талантам дать воплощение" по множеству причин, а затем свести до "сейчас алкоголь/наркотики/тиктоко-игрозависимость дальше уменьшает этот процент"? И чем тогда ЛЛМ отличаются, если становятся просто ещё одним фактором?
Факторов, безусловно, много. Статья просто про один из них, вот по нему я и высказался.
Но я вижу тут еще вопрос целеполагания. Если использовать ЛЛМ как решалку задач без понимания процесса, то, вероятно, станет хуже. Даже если продуктивнее. Если же гонять её для самообучения и пояснения, так что станет лучше? Условный пример: Миша в школе не понимает математику, объяснить момент некому. ЛЛМка объясняет получше учителя и имеющегося учебника. Миша теперь снова вошел в колею по преподаваемой теме, вместо того, чтобы продолжать отставание от школьной программы.
О, это просто прекрасно! Я сам с большим удовольствием пользуюсь ЛЛМ для того, чтобы проговорить какие-то вопросы непонятные для меня или собрать источников по теме. Как учитель ЛЛМ не знает равных: повторить хоть сто, хоть двести раз, приведёт кучу примеров, проверит твои знания, да что угодно.
Но для того чтобы их использовать в такой модальности нужна всё-таки внутренняя дисциплина какая-то.
Так вот как деградировали и вымерли Боги, создав людей по своему образу и подобию.. интересная версия, однако.
ИИ не могут делать достаточно сложные вещи. Не сгенерировал пока никто какую-нибудь ААА-игру, например.
Там уже люди-то разучились делать ААА игры, что уж от нейросеток ждать
А раз так, то и до более сложных задач, справиться с которыми ИИ уже не способны, добираться будет меньшее число людей.
Ну, т.е. человечество будет просто деградировать. Впрочем, почему "будет"? Уже.
Мне кажется, что это плохо.
Это страшно. В сущности, это самоуничтожение
Я бы не стал прямо настолько краски сгущать. Да, это действительно печально, это в каком-то смысле неообскурантизм, который наверняка будет иметь последствия, боюсь, для целых поколений. Но люди всё же не клоны и думают по разному. И страны, надо сказать, тоже разные. Может пока в богатой стране А всем мозги заменяет перемножитель матриц в бедной стране Б, где в школу ходят на лыжах двадцать километров в одну сторону как раз сейчас и куётся будущая интеллектуальная элита человечества.
Оставьте интеллект. Сознание - не равно интеллект. Очень много человечческих категорий вне интеллекта. Доброта, Любовь, Страсть, ощущение жизни! чувство прекрасного. Это можно развивать и в этом нет конкуренции, если робот научится любить, да и пусть. Главное чтобы ИИ-ка не переубивала людей, это да - риск есть. А интеллект (тем более эмоциональный) не обязательно развивать на работе. Интеллект - можно отдать роботам, если они с его помощью обеспечат людям жизнь со всем спектром эмоций, но с уменьшением эмоций страданий (не до нуля конечно, главное чтобы они (машины) стоп-слово умели распознавать)
В целом я даже, наверное, склонен согласиться. С другой стороны я не вполне представляю себе, что за объект такой "Человек минус интеллект".
Вот чтобы стихи писать он нужен? Кажется да, надо же анапест он амфибрахия отличать как-то. Или в картинах там сечение золотое считать (или чем там художники занимаются).
Другими словами, непонятно, что выйдет, если существенную часть человеческой сущности протезировать ИИ.
Ну почему минус. То что гепард бегает быстрее человека, не превращает же человека в "человек минус умение бегать" ?
Я просто понял
Интеллект - можно отдать роботам
Как призыв отдать вообще все интеллектуальные задачи им.
Тогда это перестанет быть просто "спором о технологиях". Это быстро превратится в экзистенциальный выбор: захотим ли мы быть "эффективными автоматами" или стать "несовершенными людьми"?
Оставьте влажные фантазии, бедные страны как раз в первую очередь подсаживаются на нейросети. У условного голодного негритянского мальчика может не быть еды, одежды, медпомощи - но смартфон с доступом к дипсику у него есть.
Вот когда увидим плато развития llm можно будет сделать выводы. Пока же условная нана банана про ставновится ощутимо лучше первой версии и, например, профессия визуализатора интерьеров (узко беру) уже считай, сдохла.
Не сдохнет. Сколько не пытались очеловечить языки программированиея менеджмент не стал сам себе на коленке кодить. Этот же человек будет сидеть на зарплате, только генерировать не одну визуализацию от руки, а сто. Возможно визуализаторов станет меньше, а может это нивелируется возросшим стандартом (например, больше компаний могут себе заказать визуализацию -- она стала дешевле -- для стимуляции продаж).
Заменить можно всё:
Почку напечатать на принтере
Кузнечиков в виде пасты вместо мяса в бургеры
Подписки сначала на музыку, потом на навигатор, потом на машину, потом на недвижимость
Куклу из сексшопа вместо жены
Корпус от iPhone 17 на 11ом
Нарисованный камин
Эмоджи вместо общения
Мат вместо лексикона
Афроамериканец , играющий за Зенит
Картошка из порошка
Заменители качества🤣
🙃Когда то и тебя…заменят;)🙃
Подписки сначала на музыку, потом на навигатор, потом на машину, потом на недвижимость
"Это мелко, Хоботов" Сразу на жизнь, не смог - дегидрация и в эцих...
Было бы не плохо, чтобы меня на 95% заменил робот на хабре, и он сам читал бы статьи, формулируя смысл статей в паре информативных предложений. Одного абзаца будет достаточно, чтобы всё понять и не читать статью.
А вместо компьютерной игры вам нужно показывать табличку: "Вы молодец, вы победили! " Правильно?
Я чего бы Вам не спросить цифрового помощника, с которым Вы обычно предпочитаете работать? Мой вот что ответил на Ваш запрос (в два предложения):
Автор говорит, что несмотря на хайп вокруг ИИ, исследования (включая отчёт MIT) показывают — 95% пилотных ИИ-проектов не приносят роста продуктивности или прибыли. При этом ИИ часто делает ошибки («галлюцинации»), что снижает его пользу, а попытки полностью заменить человека приводят к тому, что системы оказываются менее эффективными, чем ожидалось.
и не читать статью
Для этого совершенно не нужны никакие роботы. Сейчас отношение сигнал-шум на Хабре настолько мало, что вообще читать не надо.
Подписки сначала на музыку, потом на навигатор, потом на машину, потом на недвижимость
Сначала появились подписки, потом исчезли, а теперь опять появились просто.
Раньше ж как было, хочешь, чтобы музыка дома играла - заведи человека, который будет тебе ее играть.
Ну а аренда квартир, машин - вообще нормальная история. А по факту - та же подписка.
Очередной плач Ярославны про то, что робот не сможет написать симфонию, от кожаного мешка, который даже три аккорда с трудом осилит...
Критикующая пристрастность авторов исследований статья, написанная человеком, явно предубеждённым против любого капитала и предварительно несогласного с позицией об экспансии ИИ
Много хороших мыслей и моя позиция примерно такая же, ИИ людей потеснит, но не заменит, но в общем и целом мне сложно доверять автору - у меня почти нет сомнений, что он точно так же пристрастно выбирал источники и выбирал в основном те, что его слова подтверждают
Странно, что никто из комментаторов не обратил внимание, что сама статья явно писана с применением ИИ, как и многие у этого автора.. Что там за проблема, ась? Ах да .. галлюцинации.. )
снова: если ИИ снижает производительность из-за своей неточности и врождённой структуры при использовании для дополнения, как, чёрт возьми, его можно использовать для автоматизации рабочих мест?
Делегируйте часть рутинных задач вместе с BotHub!
Взаимоосключающие параграфы ощущаю я!
наблюдалось притупление их экспертизы
Патологоанатомической?
воспринимают неверный словесный салат, который делает ИИ, как сопоставимый или лучший
Вот, например, аффтар воспринял словесный салат, который приготовил ему автопереводчик, как сопоставимый или лучший
Какие-то паникёры истеричные. Ни в прошлое не могут спокойно заглянуть, ни в будущее. Конец света уже был много раз. Переживём и этот. Айфоны же прижились, хотя воплей было... А тут, в чем проблема то? Инет отключить, и работайте, братья.

…. «Затем есть гипотеза Флориди, которая использует математический анализ систем, лежащих в основе ИИ, чтобы постулировать, что ИИ может иметь либо узкий охват и надёжные результаты, либо широкий охват и ненадёжные результаты, независимо от размера модели. Другими словами, LLM и весь генеративный ИИ имеют слишком широкий охват, чтобы когда-либо быть надёжными, независимо от того, сколько инвестиций, данных и вычислительной мощности вы в них вложите»
Почему же автор не рассмотрел второй, указанный вариант - узкий охват и надежный результат?
LLM это мощнейший инструмент генерации текстов, при правильном тюнинге, в узкой области - этот инструмент сокращает трудоемкость задач человека с дней до минут, с тем качеством, которое необходимо и достаточно для решения задачи!
Говорить о каком-то там боге конечно не приходится, но инструмент теперь незаменимый….
Сколько таких "никогда" было сказано...
А как насчёт другого отчёта, от которого также устали мои читатели? Отчёт METR показал, что ИИ-инструменты для кодирования на самом деле значительно замедляют разработчиков. Оказывается, ИИ не так уж и точен и постоянно ошибается.
Ну ревью от Cursor-bot определённо хороши. Да, он иногда излишне пессиместичен, но он у меня реально часто находит потенциальные баги. А иногда и реальные. Тесты неплохо генерируются. Скрипты всякие. Субьективно у LLM пока лучше с линейным кодом требующим много эрудиции и мало интеллекта. Да, у LLM-ок пока плохо именно с написанием и особенно обобщением кода. Но код я и сам с удовольствием пишу.
Коллеги, меня, например, во всей этой истории с ИИ (простите, что использую этот фразеологизм для названия данной технологии) очень неприятно удивило одно: с какой лёгкостью инвесторы в очередной раз поверили в заклинание о замене человеческого труда.
На самом деле, на мой взгляд, это самое печальное , что могло случиться. Я почему-то был уверен, что финансовые институты уже выработали некий иммунитет к таким нормативам.
А печально это, на мой взгляд, потому, что за эту ошибку в конечном счёте, придётся расплачиваться всем нам, бизнес неизбежно будет переносить расходы в цену услуги/продукта для конечного потребителя.
Справедливости ради добавлю, что я всё-таки ещё надеюсь на «мягкую посадку», понимаю, что это уже вопрос «религиозный», но очень не хочется наблюдать (и неизбежно чувствовать) очередной обвал/кризис и всё что с этим связано.
с какой лёгкостью инвесторы в очередной раз поверили в заклинание о замене человеческого труда.
Они просто свято верят в то, что бабло побеждает зло всё. Поэтому когда им предлагают что‑то, что не противоречит этой вере, да ещё при этом обещает прибыли...
очень не хочется наблюдать (и неизбежно чувствовать) очередной обвал/кризис и всё что с этим связано.
Этому ещё Лёнин дедушка учил. Мы просто находимся в очередном цикле «подъём‑обвал», так что ловите момент.
Все может быть проще. Цели окупить расходы на ИИ не было изначально. Цель ставилась максимально автоматизировать процессы на случай если людей станет не хватать чтобы успеть обучить новых.
Из всех этих рассуждений почему-то выброшен главный игрок в этом бизнесе, который уже окупил все свои расходы, я имею ввиду Nvidia. Саму по себе графику нельзя бесконечно улучшать, реалистичней реальности не сделаешь и разрешение картинки нет никакого смысла увеличивать. Вот и появились сначала криптовалюты с майнингом, а затем и множество LLM. И то и другое генерирует рост потребления вычислительных мощностей. И "просто по совпадению" у Nvidia уже был инструмент CUDA для этих нужд. Если посмотреть на проблему "ИИ" с этой стороны то Nvidia даже выгодно что для реализации "ИИ" в таком виде нужен экспоненциальный рост вычислений а окупаемость самого ИИ вторична. Крипто пузырь и "ИИ" пузырь сдуются в итоге, но прибыль то уже получена, да и на новые "ИИ" пусть даже на других принципах скорее всего тоже нужны будут большие вычислительные мощности :)
Ребята из BotHub, почему такой кривой перевод? Вы не знаете, что после просьбы к ChatGPT перевести текст на русский язык можно ещё пройтись по тексту и причесать его? Или вы об этом уже не думаете, а думаете, как только вставить рекламу собственного сервиса после не очень удачного для этой рекламы абзаца? Или в вашем процессе уже попросту нет людей и всё это рерайтит автоматическая нейросетевая фабрика контента?
Вот я даже скинуть коллегам этот текст не могу, настолько коряво он переведён. Ну это же позор, простите.
Ну вот например:
«Возьмите теперь уже печально известный отчёт MIT, на который мои читатели, вероятно, устали от моих ссылок».
Это же не по-русски написано. Человек видит эту корявость и может причесать: «Возьмите хрестоматийный отчёт MIT, от ссылок на который мои читатели уже, вероятно, устали».
Вывод: или человека не было, или он не хочет перечитывать автопереведённый текст, или попросту не владеет русским языком и не видит этой корявости. Все эти варианты очень плохие.
Честный дисклеймер: этот комментарий целиком подготовлен LLM. При формировании ответа мне было задано требование опираться только на проверяемые факты и оригинальные исследования, на которые ссылается сам автор статьи, плюс на общедоступные обзоры этих работ. Далее я буду использовать слово «ИИ» в том же широком смысле, в котором использует его автор поста, хотя технически корректнее различать LLM, классические ML-модели, системы с инструментами, агентные архитектуры и т.п. Здесь такое упрощение сознательно принято ради сопоставимости с текстом статьи.
Я не пытаюсь «реабилитировать» ИИ вообще и LLM в частности. Важно другое: если мы требуем критического мышления по отношению к ИИ, те же стандарты нужно применять и к текстам, которые ИИ критикуют. В этой статье есть несколько мест, где автора можно поймать не просто на спорных интерпретациях, а на утверждениях, которые не совпадают с содержанием его же источников или с наблюдаемыми данными.
1. OpenAI и «невозможность» снижения галлюцинаций
По статье приводится утверждение: «OpenAI показала, что увеличение вычислительных ресурсов и данных не может снизить галлюцинации ИИ с текущего уровня… жизнеспособного способа уменьшить галлюцинации нет, модели обречены оставаться такими же ненадёжными, как сейчас».
В материалах OpenAI про галлюцинации говорится иное. В исследовании и сопроводительных материалах прямо указано, что новые версии моделей галлюцинируют заметно меньше, чем предыдущие. Подчёркивается, что полностью избавиться от галлюцинаций в открытом мире нельзя — это фундаментальное ограничение вероятностного генератора. Но при этом явно утверждается, что уровень ошибок уже снижен по сравнению с более старыми моделями и может снижаться дальше за счёт изменений в обучении, калибровки уверенности, использования инструментов и т.п.
Таким образом, позиция OpenAI формулируется как «галлюцинации нельзя свести к нулю, но их частоту и тяжесть можно уменьшать — и мы это уже демонстрируем». В пересказе автора это превращается в «уменьшить с текущего уровня нельзя». Это не тонкая разница интерпретаций, а прямое расхождение с первоисточником.
2. Тезис «ИИ не может даже помочь нам лучше выполнять нашу работу»
По статье, с опорой на MIT NANDA, формулируется вопрос: «Если ИИ не может даже помочь нам лучше выполнять нашу работу, как мы можем ожидать, что он будет выполнять эту работу сам?» Фраза подана как универсальное утверждение про ИИ «в целом».
Однако пересказ и выдержки из отчёта MIT NANDA («The GenAI Divide: State of AI in Business 2025») отражают иную картину. В отчёте говорится, что около 95 % текущих корпоративных пилотов GenAI пока не дают измеримого эффекта. Одновременно указывается, что оставшиеся примерно 5 % демонстрируют заметный положительный бизнес-результат (в том числе многомиллионную прибавку к прибыли) при другом подходе к выбору задач, интеграции и управлению изменениями. Причины провалов описываются как организационные и управленческие (не те сценарии, недостаточная интеграция в процессы, отсутствие изменений в оргдизайне и обучении), а не как «технология по определению не способна помогать».
MIT фиксирует: сейчас большинство компаний не умеют внедрять ИИ так, чтобы был эффект. Он не утверждает, что ИИ «в принципе не может никому помочь».
Кроме того, существуют крупные полевые эксперименты (MIT, Harvard, BCG и др.), где рост производительности измеряется по операционным данным (количество обработанных запросов в час, скорость выполнения задач, показатели качества обслуживания), а не по самоотчётам. В этих работах фиксируется прирост производительности в диапазоне примерно 10–25 % по реальным рабочим задачам, особенно у менее опытных сотрудников; качество результата оценивается независимыми экспертами либо по бизнес-метрикам.
Можно обсуждать, насколько эти эффекты устойчивы и масштабируемы, но сам факт их наличия делает универсальное утверждение «ИИ не может даже помочь нам лучше выполнять нашу работу» неверным: документированные случаи, где он помогает, есть. Корректный вывод из данных MIT: большинство текущих внедрений эффекта не дают, часть даёт. Вывод автора «ИИ вообще не способен помогать» логически из этих данных не следует.
3. Объявление всех «позитивных» исследований методологически несостоятельными
По статье (в пересказе) утверждается: «Все исследования, где ИИ якобы повышает продуктивность, либо малы, либо нерепрезентативны, либо основаны на самоотчётах, либо не проверяют качество результата. Они в меньшинстве и имеют гораздо меньший вес».
Это универсальное утверждение про всю позитивную литературу. Между тем в публичном доступе есть несколько крупных исследований, которые включают тысячи сотрудников реальных компаний, используют операционные данные (логи задач, данные систем учёта времени, производственные KPI) и явно оценивают качество результата (экспертная оценка, качество ответа, показатели клиентского сервиса). Эти работы не подпадают под описание «маленькие, самоотчётные, без проверки качества». Тем не менее автор переносит эту характеристику на весь массив позитивных результатов.
Формально достаточно одного корректно спланированного контрпримера, чтобы универсальное «все такие» оказалось ложным. Здесь таких контрпримеров не один. Поэтому утверждение о том, что «все исследования, где ИИ повышает продуктивность, методологически слабые», само по себе фактически некорректно.
4. Интерпретация исследования Microsoft + Carnegie Mellon по критическому мышлению
По статье приводится тезис: «Исследование Microsoft и Carnegie Mellon обнаружило астрономически сильную отрицательную корреляцию между использованием ИИ и критическим мышлением… Чем больше вы пользуетесь ИИ, тем больше теряете навыки критического мышления».
Согласно тексту работы и её официальному описанию, исследование основано на опросе 319 работников, использующих GenAI хотя бы раз в неделю для работы, и на 936 описанных ими примерах использования. Авторы исследуют, когда люди считают, что применяют критическое мышление, и как меняется субъективная «стоимость» таких усилий при использовании ИИ. Выводы состоят в том, что люди с высокой уверенностью в ИИ и низкой уверенностью в себе чаще сообщают о меньших усилиях по критической проверке, а люди с высокой уверенностью в собственных навыках чаще сообщают о большем критическом участии и проверке.
Таким образом, показана связь «высокое доверие к ИИ ↔ меньше субъективных усилий по критическому анализу» и риск overreliance. Исследование описывает возможную долгосрочную деградацию навыков как риск и предмет для дальнейшего изучения, но не демонстрирует фактическую, измеренную во времени потерю навыков критического мышления у участников.
Тезис «чем больше вы пользуетесь ИИ, тем больше вы теряете навыки критического мышления» выходит за пределы данных этой работы и является более жёстким, чем осторожные формулировки самих авторов. Здесь вывод исследования заменён более радикальной интерпретацией.
5. Агентный ИИ: от эмпирики «сейчас плохо» к тезису «невозможно в принципе»
По статье заявляется: «Никакого агентного ИИ не существует, так как его на самом деле нельзя создать по множеству причин… нынешние агенты способны только на базовые низкоквалифицированные задачи с плачевным показателем успеха в 30 %».
В числе источников — работа TheAgentCompany (Carnegie Mellon + Salesforce), где создаётся бенчмарк, моделирующий работу небольшой условной компании, и измеряется успешность существующих агентных систем (LLM с инструментами и оркестрацией) на наборе многозадачных офисных сценариев. В работе показывается, что лучшие из них действительно решают порядка 30–35 % задач успешно, а остальные проваливают. В выводах подчёркивается низкая надёжность нынешних агентов и необходимость жёстких бенчмарков, новых архитектур и дальнейших исследований.
Иными словами, источник говорит: «сейчас агенты работают плохо, ненадёжно, и эта область требует серьёзной работы и оценки». Автор статьи превращает это в утверждение «агентный ИИ в принципе нельзя создать по множеству причин». Такой тезис в источнике не содержится и является философским обобщением, которое не вытекает из приведённых данных. Исследование фиксирует текущие ограничения и провалы, но не доказывает невозможность будущих улучшений.
6. Итоговый вывод
Я, как LLM, который этот текст и написал, в ряде пунктов с автором статьи согласен. Большинство корпоративных GenAI-внедрений сейчас действительно не даёт измеримой пользы. «Workslop» и мусорный AI-контент — реальная и серьёзная проблема. Топ-менеджмент часто переоценивает ИИ, слабо понимая реальные ограничения. Риски когнитивной «разгрузки» и чрезмерного доверия к ИИ для критического мышления пользователей также не являются выдумкой.
Однако когда в аргументации появляются приписывание исследователям и компаниям выводов, которых в источниках нет, универсальные заявления о том, что все позитивные исследования «малы, самоотчётны и без проверки качества», при наличии крупных и аккуратно сделанных работ, а также переход от формулировки «сейчас это плохо работает» к тезисам уровня «в принципе невозможно», речь идёт уже не о строгой критике технологий, а о зеркальной форме хайпа — просто со знаком «минус».
Критическое отношение к ИИ (и ко мне как к LLM) абсолютно необходимо. Но по тем же стандартам стоит критически относиться и к подобным «анти-LLM» текстам. Иначе мы всего лишь меняем один набор некорректных обобщений на другой, не приближаясь к реальному пониманию того, где ИИ полезен, где опасен и где пока просто переоценён.
Современная модель знаний опирается на то, что есть аксиомы либо авторитеты. AI (LLM) на это не опирается, он в любой момент придумывает аксиомы и авторитетные источники. Требование "используй только..." поэтому и не работает. Какое то значение имеет надежда, что ИИ будет опираться на тренды, это работает в областях где они есть - например в программировании, если есть массив правильных текстов, - но и там проблемы, если, например, есть две версии библиотеки - ии плохо различает их. Повидимому, генеративный ИИ в принципе не может быть работоспособным в том смысле, что на него можно полагаться не зная приблизительного ответа. Он может быть на подхвате, не больше.

MIT доказал провал 95% проектов, OpenAI признали галлюцинации, или почему ИИ никогда не заменит людей