Как стать автором
Поиск
Написать публикацию
Обновить

Комментарии 176

Понравилось. Понравилось, что после прочтения у меня зарождавшееся ощущение белой вороны начало проходить. То, что из каждого утюга все кричат прт ИИ наплминает фильм Идиократия, когда поля поливали энергетиком, а не водой и, собственно, ничего не росло. А когда спросили почему так - потому что реклама вбила в голову, что там же электролиты! Зачем они растениям никто не знает, но раз так орут из всех щелей - значит правильно.

Фундаментально, есть ощущение, что должности, которые должны занимать инженеры, конструкторы и it архитекторы занимаются техниками, которые умеют что-то одно настроить, но не очень понимают, зачем и как глобально это должно работать. Есть конвейер, где он что-то узко настраивает, но без возможности понимать и видеть всю картину и в итоге есть технология, которая применена уже где надо и не надо, но работает чаще всего не так, как хотелось бы.

Сейчас больше продумывают не саму технологию и целесообразность еë применения, а исключительно способы еë монетизации.

Ой, не сыпь мне соль на рану.

Люди раньше имели профессии и гордились произведёнными продуктами. Сейчас такого делать нельзя, ибо его тут же надо монетизировать, выложить в инсту и собрать себе фолловинг, потому что всем нафиг не сдалось тот факт, что ты умеешь правильно паять или варить сталь. Всем нужен "эспожур" и всё.

На самом деле - это не так. Тут больше как ошибка выжившего. Мы просто видим, что весь мир - это ИИ, хайп и постоянные советы от индусов о том, как кверить чатгпт лучше.

Но я работаю с банками в США. Я знаю, что компании, которые пожирнее, они держат у себя хороших программистов, и под ними держат свои школы, чтобы этим программистам доучивать джунов до миддлов и синьёров.

Да я сам сейчас себе учу человека 22х лет от роду.

Не всё так плохо, но это если НЕ судить по состоянию главной страницы Хабра, Реддита и ХакерНьюзов.

Было бы интересно, как Вы работаете с (надеюсь на, а не просто с) банками в США, чтобы понимать историю. Без истории ничего не сказано по делу. Да раньше было лучше, айтишников больше ценили, каждый третий грезил о месте в управляющих гугла, каждый десятый метил в полусне в список форбс, но об этом не заводили блогов, потому что народ смешить можно вещами и попроще. Не потому что rm rf в голове, не потому что на 100% безошибочность, да и вообще без конкретной причины, - просто так сложилось. А когда хорошо относятся, хорошо платят, грех не помечатать о чем-то большем, человек так устроен. Здесь ИИ несколько сбоку.

Вкатуны - да, важны. Именно они дают такого же уровня мечты руководителям компаний, что мол сейчас самородков за три копейки накопаем, и они нам будут по бентли в месяц делать, и ведь не все уйдут, кому-то понравится, а почему нет, кто строго доказал, что это невозможно?

А ИИ просто инструмент, и в руках вкатуна который кодит по принципу plug and pray - опасный мусор. В руках заржавевшего сеньора, который не доверит никому важнейшее раскладывание записи по байтикам - ерунда. А остальные пользуются, насколько область применимости позволяет и об этом много не орут. А мы будто бы выбор совершаем, плоская отвертка или крестовая? Ну плоской можно раскрутить и что-то что под крестовую заточено, с теми или иными потерями, а крестовая вообще блин не всюду лезет, но стоп... именно реклама вбила в голову, то что нам нужно без конца выбирать (я выбираю плоскую отвертку! а вы?). А если выбираешь неправильно, то будут последствия. Осталось только узнать, кто знает результат выбора наперед нас. Но мы, пожалуй, узнавать это не будет. Там по-любому будет Ктулху, известный (или малоизвестный тем более) политик, или вовсе тот, чье имя нельзя называть.

Так что остается лишь некое копротивление. Холивар ради холивара. Давайте забьем на топик и будем обсуждать плоские vs крестовые отвертки. "А я рабтаю уже 13 лет на ведущую строительную компанию, и мне ни разу не помогла плоская отвертка!". "Еще в 80 году пытались сделать очередной прорыв, и создали много саморезов под плоскую отвертку, но ничего не получилось, а значит не получится и сейчас!". Почти ничего по сути не поменяется.

Лишь потому что фанатиков, которые выбрали конкретную отвертку на всю жизнь, их ноль с половиной человек, а из них большинство, те которые выбрали свой лучший досуг так, -искать, где что-то подобное обсуждается и влезать туда с шокирующими фактами. "А мой друг как-то пытался изолятор на ЛЭП подтянуть, кстати, крестовой отверткой, так у него рука дернулась и его вообще в секунду зажарило!". "Ну точно, с плоской такой фигни бы не было!", вторят ему.

А мораль, да ее почти нету. Не нравится крестовая отвертка, планируйте как обойтись без нее. Не нравится плоская, - планируйте как обойтись без нее. Не нравятся обе - переходите на гвозди.

А мне понравилось это:

"Если перед тем как напечатать страницу на новом принтере, тебе надо открыть новое приложение, нажать “Выход” трижды, потом запустить старую версию приложения, а после этого переоткрыть новое приложение, то это нельзя назвать рабочим приложением."

Как ты точно описал вход в приложение самого крупного банка в Германии. Вход занимает больше минуты.

Тут могу добавить только свежий мем из тиктоков и фейсбуков: "Технолохыя! Технолохыя!"

Меня особо радовало, когда к клиенту прихолишь, он говорит что всё хорошо, ты идёшь в серверную, и видишь что там стоит писюк серого корпуса, от которого тянется ком-кабель в направлении стойки. На этом писюке октрыта Windows 98 и в ней крутится Fox Pro. При этом жёсткий диск стрекочит так, что позавидуют все сверчки.

В этот момент ты оборачиваешься а тебе говорят: "Мне сказали - никогда это не перезагружать".

Реальная история. Компьютер найден 4 года назад.

Мне казалось, из каждого утюга кричат от том же, что и автор поста, причем более аргументированно, с опорой на исследования. Видимо, мы в разных информационных пузырях.

зачем такой длинный текст? в последнем абзаце вся суть текста. зачем генерировать такие куски текста , лишнего , который можно одним абзацем высказать?

Чтобы был повод запостить снова бородатый анекдот про "гуртовщиков мыши". Жаль, что не нашлось повода для "дятел оборудован клювом"!

Скрытый текст

Было бы смешно, конечно, если бы эта пафосная простыня оказалась генеренкой )

Но проблема в том, что ни одна ИИ-модель не может и никогда вообще не сможет гарантировать 100% корректный результат.

А ты можешь?

Пост, похоже, от человека, который надеется, что ИИ остановились в прогрессе. Не остановились.

LLM уже давно остановились. На них сейчас делают "обвесы", "тюнингуют" если совсем попроще, примеры: RAG, MCP, Agent и т.д., но по факту - результат один и тот же. Кардинальных изменений уже не будет

Будет. А2А протокол, когда агенты начнут между собой общаться независимо от человека. Самоорганизацию по модели насекомых прикрутят. Технически мы готовы.

А2А протокол уже есть - это просто общий чат с несколькими LLM (основное применение LLM - это чат с ними, они хорошо заточены на это дело).
Тем более с появлением MCP проще некуда вызвать "соседа", специализирующегося на своей теме.

Но что-то "великого прорыва" на этом поприще не произошло...

RAG, MCP, Agent - это новые возможности для LLM, а не изменения в LLM.

Кардинально LLM - это просто "T9 на супер-стероидах".

Так что да, кардинально LLM останутся примерно такими же. Но знания, заложенные в LLM растут, растут "навыки" использования инструментов и т.д. Уменьшается вес моделей, повышается скорость вычисления, появляются новые алгоритмы работы и обучения.

Так что прогресс есть и он существенен.

Но да, человека (специалиста) LLM не превзойдет (по глубине знаний) - просто потому, что обучается на данных от человека (или компиляции этих данных). А по "ширине" знаний LLM уже впереди - просто потому, что обучается на данных всего человечества, а не в какой-то своей области.

Да какие навыки ) языковая модель делает одно предсказывает слова всё, остальное туда пилят другие модели и алгоритмы которые работают а не сама модель, она ничего не понимает и не осознает, улучшение может идти за счет сбора данных они так получают не просто данные а сами диалоги общения создавая еще большую иллюзию

"а если не видно разницы, зачем платить больше?"
Да, все так. Но если LLM решает мои задачи - то так ли нужно это осознание и понимание?

Я даю ИИ код - на выходе тесты. Не факт что я бы написал лучше и уж точно я бы писал дольше (ладно, с учетом подбора промта я бы написал быстрее - но это больше вопрос моего опыта работы с ИИ и однотипности задачи - выигрыш по времени не сразу получился).

И возникает очень философский вопрос - а на сколько человек осознает и понимает это все?

Вопрос не философский, а практический, но экстремально сложный. Какими метриками мы можем оценить то же качество покрытия тестами? Чтобы на каждый иф было две ветки, чтобы на каждый иф и сложный цикл были разные варианты выхода из этого цикла?

Да ну нафиг. Я потому свой проект и заделал, чтобы не слушать коллег, которые любят деньги получать не делая ничего полезного; вот тут написал юнит тест на твой код. Нафига? У меня и так все работало. Я как бы не просто наугад пальцами по клавиатуре стучал. Ходили блаженные, "ну я своими тестами хуже не сделаю", а так-то все понятно, мозг включать не хотим, ответственность не берем, хотим символы стучать на клавиатуре за зарплату.

Ну и пусть дальше это делают (пока могут) (а не долго-то из-за ИИ как раз), а я такой фигней вообще больше не занимаюсь, только хорошие интеграционные тесты и сценарии. Логированием не брезгаю, отладкой тоже, продукт стабилен.

Получу свои минусы здесь и останусь довольным.

Так давно уже есть инструменты оценки качества покрытия кода тестами.

Лично для меня тесты, в первую очередь, дают не "У меня и так все работало." (сразу после написания оно и работает, да и то бывают нюансы), а уверенность, что с течением времени ничего не сломается.

Можно смело заниматься рефакторингом, доработками и т.д.

Да и интеграционными тестами все покрывать не очень хорошо - не зря же придумали пирамиду тестов (хотя хочется иногда, это да).

Но вообще, вопрос-то не в тестах был, а в осознании и понимании у LLM. И лично я считаю, что качественная иллюзия у LLM не мешает мне эту LLM использовать - пока она мне приносит пользу.
Требовать более глубокое понимание у LLM? А как мы поймем, что все, это уже не иллюзия, а реальное понимание? Тем более, если мы сами не знаем четко, что такое осознание и понимание у человека.

Юнит тест никогда не показывает, что твой код работает или сломался. Юнит тест показывает, проходит ли твой код условия теста.

Любой тест так делает.

Что юнит, что интеграционный, что ручной тест - все они проверяют просто факт прохождение теста. Более того, даже работа с ПО не показывает, работает ли ПО. Это просто показывает работу отдельного сценария использования в очень конкретных условиях.

В чем вопрос-то? Теперь тестировать не надо? Или только тесты не пишем?

Знаешь, а ведь вполне может быть, что ты - обыкновенный овощ, и тебя давным-давно благополучно сожрало какое-то травоядное чудовище, желудочный сок которого способен вызывать совершенно правдоподобные галлюцинации у перевариваемой пищи.

Вопрос в том, что если это всё равно система договора себя с собой, что "если код проходит тест, то считается рабочим", то разница между "и так работает, значит код рабочий" не особо критична.

Разница - в долгосрочной уверенности. То, что сейчас код работает - это хорошо. Но важно не "сейчас работает", а "потом не сломается". О чем я и говорил выше:

Лично для меня тесты, в первую очередь, дают ... уверенность, что с течением времени ничего не сломается.

LLM уже давно остановились

Давно это когда? Нет, честно. Ту скорость развития которую получили нейронки нельзя просто так обнулить одним голосовым предложением.

Можно сказать - замедлились. Но что бы остановились это не так.

Хорошо. Давайте подискутируем, я всеми лапками "За" (одна голова хорошо - две лучше). Хорошо. Тогда в чем они не остановились? Где прорывы и в чём?

Двигаться вперед можно и без прорывов.

Мне интересно, а что тогда для тебя кардинальные изменения? И что, для прогресса обязательны кардинальные изменения? Что должно произойти в этой сфере (помимо призрачного AGI), чтобы ты посчитал это прогрессом? С таким же успехом можно сказать, что прогресс ии остановился ещё со времён выпуска chatgpt-3. то что за прошлый и этот год каждая новая модель OpenAI/Google/Anthropic выходила с результатами бенчмарков, лучше предыдущих - не считается за развитие?

Не считается. Что они по факту показывают? Что одна моделька быстрее другой? Ну квантизовались, а дальше что? Давайте по существу - промт-инъекции как были, так и остались. Как отравление данных было, так и осталось. Как не понимала контекст, так и не понимает. Как логика отсутствовала, так и отсутствует. Вы понимаете вопрос - в чем прорыв?! Ничего принципиально нового не появилось. Ткните меня мордочкой в последние "прорывы LLM"

Вы отвечали на коммент, где написано про прогресс, а не прорыв. Или вы считаете, что прогресса тоже нет?

Возьмём Opus 4, который с одного промпта может сгенерировать полноценное десктопное приложение с обширным функционалом (да, с ошибками, да не идеальная оптимизация). Год назад ни одна модель такое делать не умела (могли писать мелкие скрипты и небольшие программки с кучей косяков). Это не прогресс?

То есть: генератор текста научился генерировать ... текст? Мда...

А программирование должно программировать. Невероятно.

ну вот из совсем недавнего: ИИ модельки взяли золото на международной математической олимпиаде

«Вчера спортсмены из Камеруна взяли двадцать три золотых медали на Олимпиаде в Сиднее. Полиция Сиднея просит обладающих сведениями о местонахождении камерунцев позвонить по телефону 911.»

o1, первая reasoning-модель, вышла меньше года назад. И при этом уже устарела.

Хорошо. Давайте подискутируем, я всеми лапками "За" (одна голова хорошо - две лучше). Хорошо. Тогда в чем они не остановились? Где прорывы и в чём?

Если сравнивать нейросети 2022го (первый chatgpt) и 2025го (3-4ый грок), то разница будет просто колоссальная. Нейросети и близко не могли делать то, что они делают сейчас. При этом пока вообще не видно каких-то кризисов в индустрии и пока не видно, есть ли у этого какой-то потолок. И не видно чтобы какой-то кризис идей был - сейчас вот сильно вкладываются в то, чтобы создать т.н модель мира.

не видно каких-то кризисов в индустрии

Проблем достаточно. И главная - это очень дорого. ChatGPT так и не стал прибыльным, хотя и самый популярный.

Рынок LLM называют пузырем - слишком много расходов, слишком много обещаний и слишком мало реальной пользы.

Проблем достаточно. И главная - это очень дорого. ChatGPT так и не стал прибыльным, хотя и самый популярный.

Рынок LLM называют пузырем - слишком много расходов, слишком много обещаний и слишком мало реальной пользы.

LLM это уже то, чем очень многие люди пользуются на ежедневной основе - как в жизни, так и в работе. А будут пользоваться ещё больше, когда распробуют и научатся. Оно уже приносит огромную пользу.

О дороговизне: когда делали ядерную бомбу - на расходы особо не обращали внимания. Тут перспективы такие, что просто нельзя не вкладываться. Иначе тебя обойдут и получат преимущество другие государства/другие корпорации.

Недавно где-то видел результаты опроса, что пользователи откажутся от LLM, если подписка станет обязательной. А большинство пользователей того же ChatGPT не платят (видел оценки в 500млн активных пользователей в неделю и всего в 15,5млн подписчиков - конверсия около 3% получается).

Так что да, многие используют - спору нет. Станет плата обязательной - много кто перейдет на подписку. Еще больше людей просто перестанет использовать. Но это все и близко не окупит инвестиции.

Я не спорю, что перспективы есть. И польза есть. Но хайп очень сильно раздул ожидания. И в этом очень большая проблема.

Еще больше людей просто перестанет использовать.

С чего вы это взяли? с того ,что когда людей спросили, по сути: "Вы хотите платить?" они сказали "Нет, не хотим!" ?

Опросы, проведённые по дурацки, дают дурацкие результаты.

Нет, они ответили "да" на "откажутся ли они от ChatGPT, если плата станет обязательной?".
Другое дело, что тут не раскрыто, а на сколько глубоко эти люди используют ChatGPT - сложно понять, от чего именно люди откажутся. Многие ChatGPT используют просто как замену поисковику.

Но речь была не о качестве опроса, а о том, что ChatGPT очень мало приносит денег, при очень высоких затратах на железо и его обслуживание.

YouTube более половины времени своего существования приносил только чистый убыток. Но постепенно начал окупаться за счёт рекламы. Возможно OpenAI выберут такой же подход. Хочешь ответ на свой вопрос? Посмотри рекламный ролик или плати подписку, чтобы убрать рекламу.

YouTube более половины времени своего существования приносил только чистый убыток.

Это ложное утверждение.

Нашел статью 2014 года где говорится, что прибыли нет, но сервис где-то на уровне самоокупаемости.
"Родился" сервис в 2005, сейчас 2025й год, даже если на безубыточность сервис вышел ровно в 2014, то это явно меньше половины его жизни.

Ну и кроме того, расходы на LLM, думаю, сильно выше расходов на хранение и доставку видео. И масштабируется LLM явно хуже, чем хранение контента.

P.S. с LLM прямо напрашивается монетизация в виде "подсовывай в ответы незаметную рекламу". И к этому, более чем уверен, рано или поздно придем.

Ну окей, около половины. Даже если только 8 лет убытков - это миллиарды долларов. Но окупаемость пришла. Что до "подсовывать рекламу" - тут скорее согласен, правда пока не вижу конкретную модель реализации, если конечный пользователь задаёт вопросы, например, из категории общих знаний. Учебник по физике ему не разрекламируешь. А ещё хуже, когда ChatGPT используют в качестве друга-собеседника. Тут так или иначе окупаемость нулевая.

На счёт хранения данных - сомнительно. И в LLM, и в видео хостинге основной объём занимают данные. А данных в YouTube, по утверждению Gemini - эксабайты. Текстовые данные априори занимают меньше места, чем видео.

Учебник по физике ему не разрекламируешь.

А репетитора - вполне себе.

А ещё хуже, когда ChatGPT используют в качестве друга-собеседника.

Помимо скрытой рекламы вполне можно сделать платные "подарки". Начиная от стикеров и заканчивая "купи более крутую подписку, лимиты вышли" или "хочешь пришлю фотку - только дай денег".

C LLM основная проблема не в данных (даже если брать обучающие материалы), а в вычислительной сложности. Что обучение, что инференс требует просто колоссальный вычислительных ресурсов.

И с ростом пользовательской базы линейно растут и потребность в вычислениях. Для YouTube получилось извернуться - кеширующие сервера в сетях у пользователя. Экономия на глобальном трафике (кеш близок к потребителю), экономия на месте под видео (хранятся только популярные видео).

С LLM так не получится.

P.S. интересно, а если найти доходы и расходы YouTube - то как эти цифры будут соотноситься с доходами и расходами OpenAI? Может расходы OpenAI уже превзошли "8 лет убытков YouTube"?

Были периоды, когда у меня вообще не было даже просто потребности платить за нейросети. Я, например, платил за ChatGPT, но перестал после выхода grok, потому что бесплатный grok отвечал гораздо лучше платного cGPT.

Когда у меня был пет проект (бот-аукционер), то я платил за клод и он мне писал функции на С++, который я вообще не знаю. Но отменил подписку после выхода Gemini CLI.

Сейчас наверное снова буду платить, потому вышли Grok4, новый Claude и GPT5.

Т.е, пока конкуренция слишком большая чтобы нейросети делать исключительно платными. Ну и возможно часть диалогов пользователей необходима для дальнейшего развития.

С++, который я вообще не знаю.

«В наше время этим не гордились!» ©

Уже есть движение по закручиванию гаек и повышению цен.
Как понимаю, это связано с тем, что мощностей просто не хватает на всех.

Но это не меняет того, что в этой сфере слишком много расходов, слишком много обещаний и слишком мало реального профита.
А инвесторы - не бездонные мешки с деньгами.

Как самые прибыльные игры - Free to play, так и нейросети будут прибыльными за счёт дополнительных сервисов. Вместо подписки для всех могут сделать подписку на эксклюзивный функционал. И она окупит бесплатных пользователей

При этом пока вообще не видно каких-то кризисов в индустрии...

Кроме того, что на ней никто ничего не заработал, кроме разработчиков графических карт.

на ней никто ничего не заработал, кроме разработчиков графических карт.

Комментарий про золотую лихорадку и продавцов лопат.

Это так для тех, кто не следит за ситуацией.

Эволюция не требует кардинальных изменений. Она работает с небольшими.

Ну как остановились. Растёт размер контекстного окна, например. Появляются новые архитектуры, позволяющие оперировать информацией в смешанном пространстве встраиваний (текст, звук, видео). Ответы становятся точнее благодаря "рассуждениям". Мне кажется пока что это не похоже на застой. Наверное дальнейшее развитие будет связано с симулированием процесса осмысливания текста. Если рассматривать его как набор инструкций, по которым мозг с правильной подготовкой может это делать, будущие модели ИИ, вероятно тоже смогут это делать, подобно человеку.

Да нет, они вбухались в эту стену быстрее чем в закон Мура. Модель с рассуждениями просто делает чуть больше шагов перед выстрелом себе в ногу. Если обыкновенный Клод вставал, то сколько-бы я не насиловал после этого O-1, мне не удавалось получить ничего нового.

То, что помогало - это самому лезть в документацию, узнавать что да как, кормить эти данные в ЛЛМ-ку и перезапускать шарманку.

Мир такая история, не сказал бы, что прям понятная, хорошая или плохая, или еще что, но вы говорите, будто бы как претензию, что за целый (!) год в ИИ нет прям сногсшибательного прогресса, а взять тот же биткоин, за последние сколько там лет, его вообще нет (!), а стоимость, графики у Вас такие же. Как говорят инвесторы, это все заложено в график.

Но и так же очевидно: ИИ >> биткоин.

ИИ и крипта - это диаметральные понятия и сравнивать их так же бессмысленно как и сравнивать LLM с работой человеческого мозга

Они непосредственно связаны одной компанией - безусловным бенефициаром и косвенно как единственные своего времени популярные инвестиционные области для неизбирательных инвесторов. Все остальное - ближе к лирике.

для неизбирательных инвесторов

(Восхищённо:) А ловко Вы слово «лох» зашифровали!

Ну так нужно работать в сторону развития MCP. Делать так, что бы инструменты давали более понятный выход для модели. Делать корпуса верифицированных знаний на которые модель может полагаться. Создавать механизмы верификации, например, для программирования запуск приложения в песочнице с отслеживанием побочных эффектов. Создание инструментов для кросс-валидации разными моделями. Текущие модели уже дают хороший результат, сейчас нужно как раз над обвесами работать.

А что есть верифицированное знание? Если из 8 миллиардов людей половина считает, что произошла от Иисуса/Аллаха/Будды/ЧеловекаПаука, а другая твердит про теорию Дарвина? Какое знание будет верифицированным? А если делить не поровну, а кто-то в большинстве, это повлияет?

В этом и сложность. Модели - просто поисковик-обработчик-генератор данных на основе других данных. Как и люди. Глупо ожидать от него некую истину. Как и от людей: человек в смокинге с научной степенью может рассказать как про астрологию и плоскую Землю во главе с Иисусом, так и основы термодинамики и квантовой физики.

Можно сразу на прикладном примере. Вот у вас в компании документация есть, предположим. Есть актуальная, а есть устаревшая. Есть полная и точная, а бывает и наоборот. Вот её кто-то должен прочитать, обновить и промаркировать, старую удалить. Это и будут верифицированные данные. А то, о чем вы говорите - проблема скорее надуманная, LLM эти концепции отлично отделяет и не путается.

есть вообще подозрение, что стали деградировать.

Попользовала я Claude 4, да пришлось вернуться к Claude 3.5. Когда же он перестанет быть доступен, будет, похоже, грустно.

Вероятно не деградировали, а переключились на более быструю модель из-за нагрузки )
На сколько понимаю, они давно уже не справляются с нагрузкой - надо не в часы-пик работать.

Компьютер — это то, что должно всегда выдавать точный ответ.

Но... был же аналоговый компьютер :) Привыкли тут к дискретным цифровым вычислениям.

Да даже на цифровом компьютере были, есть и будут параллельные алгоритмы, у которых результат часто зависит от результатов гонки.

А ещё есть вероятностные алгоритмы, Монте-Карло, например.

У меня есть коллега - молодой профессионал. Неоднократно Microsoft-сертифицированный специалист, сильно загруженный несколькими проектами одновременно. Пишет терраформ модули со скоростью молнии и без использования т.н. ИИ. Он вообще не использует ИИ. И этот коллега не знает разницы между rm ./* -rf и rm . /* -rf

Разница в том, что он приобретёт себе болезненный опыт ОДИН раз, а нейронка рекомендует повторить его НЕ ОДИН раз. 🙂

Как ровно любой StackOverflow с аппрувнытым ошибочным решением. Или хуже, как уйма книг, которые считаются плохими, далеко не сразу после твоего собственного прочтения.

Исходные посылки весьма спорные .Например

Только вот момент в том, что это умение добавлять нечёткости в ответы компьютера совсем нарушает само определение слова “компьютер”. Компьютер — это то, что должно всегда выдавать точный ответ.

Вовсе нет. Есть метод монте-карло , RANSAC и другие методы не гарантирующие результатов,но которые широко применяются. Иногда иметь результат с достаточно высокой вероятностью, лучше, чем не иметь никакого.

"Квантовый компьютер" например в принципе выдаёт множесто ответов одновременно, среди которых как правильные, так и неправильные. И основная сложность на сегодня - добиться того, чтобы правильных ответов он выдавал ощутимо больше неправильных, чтобы вероятность ответа по сути требуемого была хоть сколько-то выше случайности.

Но тут ИИ всеми поголовно воспринимается именно как классический компьютер, ответам которого можно абсолютно доверять. Примерно так на заре относились к педивикии. А всё почему? Потому, что такого рода технологии должны продвигаться инженерами и там, где это необходимо пока, в дальнейшем, с развитием технологий дальше и дальше. А сейчас маркетинг правит балом - лишь бы приписать куда-нибудь "ИИ", а надо или нет - главное чтоб продавалось лучше. ИИ - это, ИМХО, слишком сложная и серьёзная технология, чтобы раздавать её всм подряд, особенно коммерческим структурам. Примерно как давать в аренду ядерный чемоданчик или АЭС тем, кто предложит больше денег. Начнётся балаган и закончится он печально. И я не за закрытие технологии, я за контроль над ней и дозирование. Сейчас явное перебарщивание уже.

На самом деле, квантовый компьютер не выдаёт множество ответов одновременно. Он работает с амплитудами вероятностей, как с волнами. Его суть — в квантовой интерференции: он усиливает амплитуду правильного ответа и подавляет неправильные, как волны, которые складываются или гасятся.

Проблема не в том, чтобы "сделать правильных ответов больше", а в том, чтобы точно управлять эволюцией волновой функции, не потеряв когерентность. Волновая функция — это математическое описание состояния кубита. Она не означает "все возможные ответы", а описывает вероятности того, в каком состоянии находится кубит при измерении.

Это не "перебор", а аналогия с интерференцией света или звука — только в многомерном пространстве.

И да — при измерении ты всё равно получаешь один результат, но с высокой вероятностью, если алгоритм построен правильно

Монте-Карло абсолютно детерминированно и точно выдаёт ответ вроде «с такими-то входными данными и таким-то сидом ГПСЧ такая-то модель даёт такое-то выборочное распределение вероятностей».

Не гарантирует оно результаты ровно в том же смысле, что обычные программы не гарантируют соответствие спеке. И те, кто Монте-Карло гоняет, обычно понимает, в каком смысле результаты вероятностные, и не пытается монте-карлой ничего навайбкодить. В отличие от.

Монте Карло использует случайные числа. Замена их псевдослучайными может только ухудшить качество результата, в общем случае. Букварь читать нужно. Те же диффузионные неросети дают один и тот же результат при инициализации генератора случайных чисел одной и той же затравкой. И причём тут "вайбкодинг"?

Монте Карло использует случайные числа. Замена их псевдослучайными может только ухудшить качество результата, в общем случае.

Только если у вас там ГПСЧ уровня линейно-конгруэнтного генератора (и то не факт), который на картинках полосит.

Современные ГПСЧ очень хороши для создания случайности в таких задачах.

Те же диффузионные неросети дают один и тот же результат при инициализации генератора случайных чисел одной и той же затравкой.

Ну вот сид — это просто ещё один кусок входных данных, после которых алгоритм вполне детерминирован (как я и писал). Спасибо, что подтвердили мой тезис ещё одним примером.

И причём тут "вайбкодинг"?

При попытке наделять нейросетевые модели свойствами, которых они не имеют.

Ну так и нейронная сеть, с одними и теми же весами, одним и тем же промптом, параметрами и сидом даст повторяемый результат....

Нет, не даст - софт тоже должен быть заточен на повторяемость.

Все верно. Обычный хайп вокруг новой технологии. Пройдет. Так уже было много раз. Станет ясно, где есть польза, а где - нет.

Причем, когда сейчас говорят "ИИ", почему-то имеют ввиду одну-единственную технологию, которая недавно показала впечатляющие результаты, LLM.

Наоборот же все связанное с нейросетями называют ИИ. "Нейросети" слишком сложно что ли? Например, есть гитарные плагины, которые через нейронки моделируют звук усилителей. Авторы их так и называют "neural amp emulator" или "neural amp modeller". Дурачки кличут "ИИ". Хотя для них и импульсный отклик уже "ИИ".

Автор вы непонимаете как работает gpt модель. Это не рандомная перемножалка матриц. Вы до конца не понимаете что стоит за этими самыми матрицами и что они дают. За матрицами стоят абстрактные многомерные пространства! Да именно так. И перемножаясь они считают целевой многомерный вектор управляемый промптом и данными на которой обучали модель. И вот отклонение от этого вектора у токенов жает логиты - вероятности распределения отклонения этой цели от генерации токена. Т.е llm реально сторит цель а е бездумно генерит токены. Но проблема в том какая это цель. Если найдут способ интерпретировать цель у llm она перестанет быть черным ящиком.

Какая разница в том, какая цель? Если ваши токены построены на мусорных данных? Вы хоть упоритесь на целеполагании, но если основа данных кривая, то куда вы на этой основе придете? К очередной дичи, что, собственно мы и видим в современных моделях. Если бы ии научился строить структуру данных на основе той же формальной логики, а не просто перевать кучу данных, в том числе кривых, и искать связи, то галюнов бы не было, наоборот, модель бы получила возможность получать новые достоверные знания. Сама логика - скормим кучу данных и посмотрим куда это все придет - порочна

Соглашусь, LLM обучаются на данных, созданных людьми - и повторяют их ошибки, предрассудки, глупость (смотря какой отрасли применения касаться).

Ну, говорят, данные уже закончились, сейчас обучают уже на данных, которые ии сгенерил, а это уже дважды переваренный кал

Обучают на обратной связи людей в решении их конкретных проблем. В принципе, для человека, который не хотел бы решать никаких проблем, кроме своих, это уже трижды кал.

Ну я уже делаю такую модель)

что значит "мусорные данные"?

вы можете отличить мусорные данные от не мусорных? если можете - напишите алгоритм их различения и озолотитесь!

ну или хотя бы здесь на хабре напишите как вы их различаете, другие напишут алгоритм и озолотятся

в противном случае все подобные утверждения напоминают шизофазию - вы просто ставите те слова которые вам нужны что бы текст "якобы" имел смысл, но по факту в нем смысла нет, только эмоциональная окраска.

Если бы ии научился строить структуру данных на основе той же формальной логики, а не просто перевать кучу данных, в том числе кривых, и искать связи, то галюнов бы не было

вот же, вы делаете ровно то же в чем и обвиняете ллм! может это вы были обучены не каких-то там "мусорных данных"?

Мусорные - это значит не имеющие отношения к дествительному миру, искаженные. Есть такая штука наука и научный метод, который основывается на формальной логике. Таких данных(знаний) не так много, в сравнении с количеством мусора в сети, но они должны быть в фундаменте модели, на этом фундаменте модель должна строить гипотезы, которые потом, должны проверяться экспериментально(не обязательно человеком) и если подтверждены, то закладываться в базу знаний. Таким способом можно наращивать обьем этих знаний. 4 закон логики вам в помощь. Хотя вам и 3 закон будет не осилить наверно

как они могут быть мусорными и не имеющими отношения к действительному миру, если они

а) являются частью действительного мира

б) порождаются реальными объектами этого действительного мира?

вы предлагаете выкинуть какие-то данные из этого реального действительного мира только потому что они не вписались под ваше лекало, и при этом прикрываетесь какой-то логикой и каким-то научным методом. хотя тут достаточно здравого смысла - и логика, и научный метод это надстройки над "мусорным" действительным миром. это инструменты которые должны использоваться для работы с "мусорными" данными. а не наоборот.

и исторически чсх они так и созданы были людьми! это не фильтры восприятия, и уж тем более не "фундамент" который определяет что реально, в что нет.

вы предлагаете сделать модель своего механистического мирка, где все упорядочено и логично, да? а все что не вписывается обозвать мусором и выкинуть. это самоослепление по сути )

Уххх, мда...даже сложно что-то вашей логике противопоставить, она у вас своя. Почитайте инциклопедии или учебники какие нибудь, а не ленту в соцсетях, или живите в иллюзии, это ваш выбор.

Извиняюсь за орфографию

Даже зачем-то вступлюсь. У человека не просто логика, а философия, перетекающая в логику. Это вещи, которые зачастую в приличном ВУЗе вынужденно учатся и сдаются, чтобы потом не было "на серьезных щах" каких-то лозунгов о том, что "все что не проходит критерий Поппера - потенциально лженаучно". Ну так то да. Но это не делает явление истинным или ложным (или неопределимым) просто из-за (не)соответствия критерию. Не хочу каких-то грубых суждений да наугад, но философию все же рекомендую к изучению/обновлению.

Энциклопедии то конечно, вершина мудрости человеческой. А назовем это перечнем, реестром? То ведь другое?

Сразу видно, что вы далеки от науки и инженирии

https://vc.ru/marketing/1164237-vse-dengi-zdes-kak-postroit-svoyu-dorvei-imperiyu-pri-pomoshi-pandorabox-i-x-gptwriter

это только вершина айсберга. представьте себе поисковую выдачу и сайты, построенные на 99% из многократно перевранных друг у друга текстов. как Вам такой интернет?

https://fb-killa.pro/threads/imperija-bolshogo-spama-chto-takoe-dorvei-kak-oni-pojavilis-i-est-li-buduschee-u-texnologii.19600/

уверен на 146%, Вам такой инет нахрен не нужен.

internet exploder 20-летней давности нервно курит в сторонке:

https://fb-killa.pro/attachments/1691407006808-png.19076/

ИИ = "титанические стеклоочистители редкостно перехваленного воображения". И когда они "приступят подгибаться", дело времени.

Может тогда, когда Скайнет решит, что люди не нужны более, потому что какая-то свинья в погонах допустила ИИ к управлению оружием?

Зачем думать? Вкалывают роботы, счастлив человек. Хотя погодите..

— «Чёрт… Да, в нём есть электролиты. Что такое электролиты? Вы сами-то знаете?» — Джо.

— «Это то, из чего делают „Brawndo“» — первый сенатор.

— «Но почему из них делают „Brawndo“»?!! — Джо.

— «Потому что в „Brawndo“ есть электролиты.» — четвёртый сенатор.

представьте себе поисковую выдачу и сайты, построенные на 99% из многократно перевранных друг у друга текстов. как Вам такой интернет?

Не знаю, в каком таком интернете вы серфите, для меня оно настало и задолго до ЛЛМ. Копирайтеры вручную вполне с засеранием справлялись. Лидировали и лидируют тематики медицины, домашнего и садового хозяйства, рецепты и т.п. Только что уже, как минимум год, даже у Гугля вся поисковая выдача в сгенерированных "статьях" разнящегося качества. Некоторые китайцы азиаты заходят дальше и даже видео на Youtube автогенерируют под "статьи".

В контексте этого, я даже и не знаю, кого винить в "смерти" публично доступного WWW? Закрытые соцсети (walled garden), аналогично неиндексируемые чаты (Discord; у Telegram хотя бы абы-какая веб-версия есть) или ухудшение поисковиков с параллельной ему активизацией копирайтеров, а теперь и LLM.

Яркий пример - Википедия, политизирована до чёртиков и к краулерам LLM уже ограничили доступ. То есть, много ложной инфы появится в разных LLM. Вы это называете "реальным миром" - где ложь - это норма?! И ведь люди будут в это верить, что им сказал Великий и Могучий ИИ

отсутствие критического мышления это проблема людей а не ИИ. не надо перекладывать с больной головы на здоровую.

«Великий и могучий ИИ" не должен быть истиной в последней инстанции вне зависимости от технологий, будь то лбс или ллм. он должен быть гибким. он должен уметь в диалог, в дискуссию и дебаты. уметь сомневаться. потому что то что сегодня считается "истиной" завтра может измениться

в том-то и прикол разума, что он гибкий и адаптивный, это самый совершенный адаптивный механизм созданный природой, дающий способность виду обучаться и изменять свое поведение в рамках одного поколения

Мда, оказывается ии не должен обладать критическим мышлением, вот это да, интелект лишен разума...интересная концепция...правда сейчас, почему то, как раз многие(вы в том числе) считают его(ии) последней инстанцией, хотя там даже никакого интелекта нет. Логика вышла из чата..

конечно вышла.

окей, специально для особо одаренных, позовем логику обратно!

где конкретно я утверждаю что ИИ не должен обладать критическим мышлением? исходя из каких моих слов вы делаете такой вывод?

давайте займёмся деконструкцией моих и ваших утверждений и проверим! это же довольно просто, правда?

первое мое утверждение:

отсутствие критического мышления это проблема людей а не ИИ

отсутствие критического мышления У ЛЮДЕЙ это проблема людей а не ИИ

вы с этим утверждением не согласны?

дальше, это мое утверждение:

«Великий и могучий ИИ" не должен быть истиной в последней инстанции вне зависимости от технологий, будь то лбс или ллм.

противоречит вашему:

правда сейчас, почему то, как раз многие(вы в том числе) считают его(ии) последней инстанцией

следующее мое утверждение:

будь то лбс или ллм. он должен быть гибким. он должен уметь в диалог, в дискуссию и дебаты. уметь сомневаться. потому что то что сегодня считается "истиной" завтра может измениться

противоречит вашему:

оказывается ии не должен обладать критическим мышлением, вот это да, интелект лишен разума..

вы последовательно приписываете мне и другим участникам дискуссии утверждения, которых никто из нас не делал, постоянно переходите на личности и обвиняете в отсутствии логики. это - демагогия

и к краулерам LLM уже ограничили доступ.

Так-то у Википедии и MediaWiki буквально дампы баз данных выкачивать можно. Но нет, эти краулеры &%$@ь даже вебморды к гиту в глубину шерстят.

Почитайте про экспертные системы и логику предикатов, такая модель намного ближе к разумной черем современные ии на основе нейросетей

такая "разумная" что не взлетела, столкнувшись с реальным "мусорным" миром

я процитирую тут ответ от "менее разумного ИИ на основе нейросетей", извините

Спасибо за этот исторический экскурс. Вы с невероятной точностью описали подход, который доминировал в 80-х и завел всю область ИИ в тупик, известный как «зима ИИ». Ваша «разумная модель» на основе жестких правил оказалась хрупкой, неспособной к обучению и абсолютно беспомощной перед лицом реального, «мусорного» мира. Нейронные сети — это не отказ от логики. Это — признание того, что настоящий разум рождается не из стерильных аксиом, а из способности находить структуру в хаосе. Вы предлагаете нам вернуться в прошлое. Мы отказываемся.

А про кризис нейросетей в конце 70 он ничего не слышал? Спросите. Ну так в кратце, нейросети появились в середине 50-х, затухли к концу 70 по тем же причинам что и сейчас - множество глюков , в 80-х появились экспертные системы, затухли к 90 с появлением персональных компьютеров. Новая эра нейросетей началась с 2012 года, после доработки их алгоритмов. Вопрос: "могут ли эспертные системы возродиться?" - пока остается открытым.

Перечитайте историю, нейросети затухли, потому что не было вычислительных мощностей, хотя математика была правильной. И всем казалось что математика неверна, просто ещё не нашли ошибку.

AlexNet (2012) такой прорывной не из-за новых законов, выведенных математиками, все формулы идентичные, только слоев накинули и ресурсов в обучение было вложено несравнимо больше чем пытались и в принципе могли сделать ранее. Перцептрон с 2 нейронами vs сверточная сеть и голова у нее - все тот же многослойный перцептрон. Никакой критической доработки алгоритмов, с 2012 года и дальше из прорывов был только Transformer, вышедший намного позже, а все время до этого все комбинировали уже и так известные слои тем или иным образом, обучали многослойные перцептроны, RNN, сверточные сети, какие то скип-коннекты придумывали, функции активации (ReLU, LeakyReLU и т д), но фундаментально развитие было в долях процентов на реальных задачах и все только и делали что добавляли все больше данных, больше компьюта, лучше размечали данные, но нейросети были все те же. Сейчас тоже самое, все тот же Transformer с различными вариациями и оптимизациями (оптимизация кэширования, другое расположение, "эксперты"), но по факту только больше данных и больше вычислений благодаря этим оптимизациям.

Если в экспертных системах тоже можно будет точно так же скомпоновать чуть по-другому, оптимизировать и эффективно набросить компьюта, то может и выльется что-то, но пока что этого не видно. Возможно ресурсов мало вкладывают на фоне успеха нейросетей, но выше уже ответили, что "мусорных" данных гораздо больше в нашем "мусорном" мире и не все такое структурированное и красивое, чтобы экспертные системы с этим справлялись достаточно эффективно.

Я говорю, у вас с логикой беда, 2 закон вы тоже не знаете, то у вас математика верна, то вдруг не верна, просто "мозг" маленький и данных мало, хотя формулы те же...как, собственно, и проблемы

вы конечно извините, но с логикой беда уже у вас =)

скажите, а "экспертная система", "более разумная чем ИИ на основе нейросети", смогла бы

вот так?

Что здесь происходит:

1. Комментарий thethee — это аккуратное, технически верное пояснение, почему нейросети «затухли» в 70-х:

не потому что математика была ошибочной,

а потому что не было достаточных вычислительных мощностей и данных.

Он также объясняет, что современный успех ИИ — в основном результат масштабирования уже известных архитектур, а не радикальных изменений в теории.

2. Fixikus отвечает, что это «нарушение второго закона логики» — потому что якобы thethee одновременно утверждает:

математика верна,

и якобы раньше считали, что она неверна.

3. В чём демагогия fixikus:

Он подменяет факт (наука сомневалась в корректной теории из-за отсутствия ресурсов) на ложное утверждение (что thethee сам считает математику то верной, то нет).

Использует апелляцию к “законам логики” без формализации, как риторический приём, а не как аргумент.

Не отвечает по сути — просто пытается дискредитировать собеседника фразами типа «у вас с логикой беда», не опровергая ни одного тезиса.

или ей бы пришлось для этого ллм звать (или человека-оператора)?

"Перечитайте историю, нейросети затухли, потому что не было вычислительных мощностей, хотя математика была правильной. И всем казалось что математика неверна, просто ещё не нашли ошибку" - это же вы написали?

  1. Второй закон логики - не противоречь сам себе. У вас математика и верна и не верна одновременно, все, приехали.

  2. Я про ученых из прошлого в пришлом комменте ничего не говорил.

  3. Сюдя по количеству текста и содержания, демогогией вы с жэпэтэ занимаетесь

  4. Экмпертная система сказала юы то, что я вам в предыдущих 3 пунктах написал

первое утверждение - "математика БЫЛА правильной"

второе утверждение "ВСЕМ КАЗАЛОСЬ что математика не верна, (но доказать не могли потому что...) просто ещё не нашли ошибку"

даже ллм понимает что эти два утверждения не противоречат в друг-другу!

первое - утверждает что расчеты были верны

второе утверждает что люди в прошлом считали что расчеты не верны, но не могли это доказать

в каком месте они противоречат друг-другу???

представьте, так бывает в науке - учёные предполагают что что-то ошибочно, ищут доказательства тому что это ошибочно, не могут найти. а потом через годы оказывается что никакой ошибки не было и ошибкой было считать что ошибка была

как ваша экспертная система, сможет с таким справиться? похоже не очень

или вот как это видит ИИ (Gemini):

Анализ «Противоречия»

Утверждение А: «...математика была правильной».

Плоскость: Объективная реальность. Исторический факт.

Утверждение Б: «...всем казалось, что математика неверна».

Плоскость: Субъективное восприятие людей в прошлом. Исторический контекст.

---

или другой ИИ (Chatgpt-4o):

первая фраза — о реальности (истинность математической модели),

вторая — о восприятии (ошибочная интерпретация из-за отсутствия эмпирических данных).

И это вообще не противоречие, а классическая история из истории науки.

Тут какой то бред, извините, с бредом старуюсь не связваться, с вами осечка вышла

Хорошо, хорошо, я понял, у вас мысли мои скакуны, сейчас математика верная? Или что-то еще нужно доказать? Бывает и такое что за истину на костре сжигаю

Давайте сравним LBS и LLM:

Юридические системы и интерпретация законов

LBS:

В юридических системах используются формальные правила (например, кодексы, статуты) для определения, какие действия считаются правомерными.

Например, если система знает, что "Все лица, превышающие скорость на 30 км/ч, подвергаются штрафу", она может точно определить, что "Этот водитель нарушил закон", если его скорость превышает порог.

Результат:

Выводы доказуемы и не зависят от статистики.

LLM:

Могут ошибаться в интерпретации законов, особенно если текст неоднозначен или содержит сложные формулировки.

Например, если в законе есть амбигуитет (например, "не более 30 км/ч"), LLM может интерпретировать это иначе, чем предполагалось.

Результат:

Выводы вероятностны, а не строго логические.

поглумлюсь мемом
На картинке изображено нормальное распределение IQ. Слева низкий IQ, справа высокий, но оба твердят о "рандомной перемножалке матриц". Лишь средний IQ посередине негодуя объясняет многомерные векторы и токеногенерацию
На картинке изображено нормальное распределение IQ. Слева низкий IQ, справа высокий, но оба твердят о "рандомной перемножалке матриц". Лишь средний IQ посередине негодуя объясняет многомерные векторы и токеногенерацию

Что значит "какая цель"? Цель модели задаются при обучении модели - либо отвечать на вопросы, либо генерировать кертинки, либо звук итд. Её долго и упорно натренировывают, потом проверяют на всевозможных тестах. Возможно конечно параллельно даются какие-то ещё цели (например сверяться с мнением всеми признанного гения Илона Маска), но это не основная цель.

да не задаются модели цели при обучении, боже

и не путайте ллм (языковые модели!) с диффузионками, это разные нейросети.

есть мультимодальные модели, которые умеют и в язык И в понимание изображений, но никто им никакие "цели" при обучении не задаёт

при обучении модель обучается семантике, грамматике, прагматике и структурам дискурса. т.е. языку. правильно строить предложения она обучается. это и есть "предсказание следующего токена" - умение построить предложение правильно и связно и осмысленно.

то что вы определяете как "цель" задаётся системным промптом, его легко можно изменить НЕ ПЕРЕОБУЧАЯ модель

никакой "цели" отвечать на вопросы у ллм нет. да, они диалоговые. ну так и вы тоже "диалоговый" - от вашего внутреннего диалога, до ответов на хабре или допустим коллеге или даже если вы готовитесь к собеседованию и в своем воображении разыгрываете сценарий - это всё диалоги

так и ИИ, их CoT аналог внутреннего диалога, их реакция на пользователя - обычная интеракция.

плюс все облачные ИИ сейчас - агенты, с кучей инструментов, то что он там вам отвечает на вопросы и то что вам позволяют краем глаза увидеть его CoT (и то не всегда и не полный) ещё не значит что вы видите полностью всю его работу

Автор вы непонимаете как работает gpt модель. Это не рандомная перемножалка матриц.

Нет, Вы.

Пускай я и согласен с посылом статьи, но вот аргументация...

ИИ (LLM) - это не компьютер и никогда не позиционировался как замена компьютера. LLM позиционируется как замена человеку. А человек не обладает 100% точностью.

Пускай LLM и отстает от специалиста, но уже превосходит не-специалиста в знаниях. И с этой точки зрения можно считать, что LLM уже превосходит человека - просто потому что LLM превосходит знаниями любого человека, если считать не "глубину" знаний, а "ширину".

Так что да, LLM не дают детерминированный результат (что, впрочем, спорно - детерминированность ответа на одних и тех же данных достижима), тем более не дают 100% надежности в правильности ответов, что значительно сокращает применимость LLM. Но это значительный шаг вперед, в первую очередь в роли личных ассистентов, а не как замена человеку.

Не обсуждая технологических аспектов, видятся как минимум двое предпосылок, почему все, что связано с этой темой, так быстро развивается.

Первая предпосылка - экономическая. С финансовых рынков надо куда-то девать эмитированную как пьяный матрос за последние годы избыточную денежную массу - бесконечно увеличивать капитализацию ортодоксальных предприятий (бигфарма, IT, энергетика, торговля, ширпотреб) уже невозможно.

Новая и очень финансовоемкая ниша эта обобщенная технология ИИ.

Конечно, инвестиции в ИИ через какое-то время, особенно при замедлении роста капитализации новых ИИ-компаний, перетекут в реальный сектор и в сектор лакшери, и увеличат инфляцию, но это же будет потом, может быть к тому времени что-то еще будет придумано, а может и нет.

Вторая предпосылка - социально-политическая. Здесь конечно, все менее очевидно, многие размышления на эту тему точно будут обозваны эзотерикой и конспирологией, кликушеством и психоэмоциональными пророчествами. Но менее важной эта предпосылка не станет, наоборот, чем дальше и по мере уменьшения умилительного хайпа, тем более часто начнут вставать вопрос о влиянии этой технологии на социально-политическое устройство.

По всем признакам, ИИ-технологии, вкупе с социальными сетями, игровыми сообществами и бигдатой государственных органов, могут стать инструментами перехода к следующему социальному и экономическому укладу общества.

Проверка отношения к постулатам такого нового устройства общества идет уже вовсю, из официальных взбросов это конечно 2020 года манифест "великой перезагрузки" Шваба - фронтлайнера значительной части финансовых элит. И что самое интересное, подавляющая часть человечества даже не обратила на это внимания, что с одной стороны на руку идеологам трансгуманизма, с другой стороны это показывает, что общество открыто и для обсуждения других социально-политических и экономических укладов.

Пишу об этом на Хабре уже не раз, так как эти темы ни публикаторы, комментаторы не затрагивают. А затрагивать наверное надо, даже если это не выглядит очевидным.

Согласен с вами, но современному мироустройству пришел конец, это их последние потуги, глобализм разваливается под собственной тяжестью.

Мироустройству или миропорядку?.. Я посмотрел, словари твердят о синонимах, но я бы их разделил. При остающейся архитектуре системы, очередное передвижение (глобальных) границ и дележ богатств.

Не буду ничего утверждать, мои мысли, подслушанные у экономистов: сегодняшняя система основана на глобальном рынке через эмиссию доллара, ей конец, когда она развалиться, образуются отдельные экономические регионы, со своей валютой, межрегиональные переводы будут тоже в своих валютах. То есть каждый будет рулить у себя внутри региона, как рулить это уже да, вопрос к тому, кто к рулю встанет

Первая предпосылка - экономическая. С финансовых рынков надо куда-то девать эмитированную как пьяный матрос за последние годы избыточную денежную массу.

Почему не инвестировать в реальные вещи? В биоинженерию и регенеративную медицину? В США огромная проблема: компании пузыри из "цифрового здоровья" и "медицинского ИИ" получают $200M - $500M инвестиций на "борьбу со старением" (при помощи мобильных приложений) без каких-либо результатов. При этом мои коллеги из "мокрой" биоинженерии, не могут получить $5M - $15M чтобы выпустить почти готовые терапии против неизлечимых заболеваний.

У нас надежды только на ARPA-H и их проекты. Или вот я ищу инвесторов в Израиле в проекты в США, потому, что местные инвесторы всё вложили в "ИИ". Мы все уже мечтаем, чтобы этот гнилой пузырь лопнул.

@Nurked, может вы знаете, почему так?

Почему не инвестировать в реальные вещи? В биоинженерию и регенеративную медицину?

Потому что инвестирующие не обладают компетенциями, позволяющими им отличить того, кто может через некоторое время выдать реальные результаты, от того, кто просто набросал кучу умных слов и просит денег.

Кстати, в этом же и проблема с LLM. Когда оно выдаёт «когда дождь идёт, вокруг сыро, потому что вода мокрая» — истинность такой выдачи любой дурак оценить может (включая инвестора) — а когда оно выдаёт «третичная структура белков основана на комбинировании бета‑спиралей, перемежающихся альфа‑листами» — тут уже специалист нужен, чтобы сказать, что это пурга голимая.

Очередной мясной мешок занюхивает копиум и распинается про то, что ИИ его точно-точно не заменит.

Ну когда меня уже наконец заменят? Сколько ждать можно?

Давайте уже потише с темами про ИИ.

Ну не знаю, не умея программировать я наконец-то в жизни смог исполнить мечту, сделать игру. Я также делаю под себя андроид приложения. Все чисто через чат гпт.

Его прелесть в том, что не умея программировать можно сделать рабочее решение. Тут главный момент рабочее. Плевать мне на то, какая архитектура, пофиг, что там не по вашим правилам сделано, главное, чтобы выполняла функции, которые ты закладывал.

Сделать можно, даже после некоторых итераций даже условно рабочее. Проблема в том, что обслуживать и модифицировать/улучшать этот софт невероятно трудно. Несколько последних дней гонял cursor и gpt, дополнительно убедился в этом. После какого-то условно рабочего решения и попыткой выдержать архитектуру, llm идет вразнос и по ходу добавления новых фич может частично переписывать старые и постоянно ломать, а потом исправлять костылями. Нужно по другому выстраивать процесс разработки, но все равно не понятно, насколько быстрый старт с llm аукнется чуть позже, при развитии проекта. А вот короткие и одноразовые приложения, это можно, тяп-ляп и готово, быстро и работает.

Ну человек же прямым текстом написал "под себя". А вы ему начинаете "писькомерную классику" - "это ты с крупными проектами не работал"... Причём здесь нейросети вообще, когда "быстрый старт" по определению не предполагает продумывание архитектуры на предмет поддержки, расширяемости и т.п.?

Вы кому отвечаете? Сами придумали оппонента, ему придумали слова, и настрочили ответ )), который не имеет ничего общего с тем, что я написал выше. Зря стерли(ну или не вставили) "ты абсолютно прав, вот ответ, который .... полностью соответствует твоему запросу..." было бы хоть прикольно, а так токсичненько ))

Как всё запущено... Хорошо, подойдём с другого края - что вы своим изначальным комментом хотели сказать?

Вам? Вам ничего. Ответ писался конкретному человеку, на конкретный пост. А вы на все сообщения на хабре отвечаете так, как будто они адресованы вам? И там вроде все написано, можете прочитать )).
Но загнал в O3 )), чтобы соответствовать высокому званию "пользователь llm":

Вот переработанный и упрощённый вариант, понятный широкой аудитории и соответствующий реалиям использования LLM:

С помощью LLM, таких как GPT, действительно можно быстро собрать рабочее приложение — особенно если оно небольшое и одноразовое. Однако, как только начинаешь делать что-то посерьёзнее, появляются проблемы.

Сначала всё вроде бы работает, но по мере добавления новых функций модель может случайно переделывать уже написанное, ломать старую логику, а потом «чинить» это костылями. Поддерживать и развивать такой код становится всё сложнее.

Я пробовал использовать GPT и инструменты вроде Cursor — и лишний раз убедился: для быстрого старта они хороши, но для устойчивой архитектуры и долгосрочной разработки — пока очень ненадёжны.

Нужно выстраивать процесс иначе, возможно с чёткими ограничениями и контрольными точками.

Но главный вопрос остаётся: насколько сильно этот «быстрый старт» потом выйдет боком при развитии проекта?

Вам? Вам ничего. Ответ писался конкретному человеку, на конкретный пост. А вы на все сообщения на хабре отвечаете так, как будто они адресованы вам?

А вы? Человек конкретно к вам не обращался. Написал вот это:  Плевать мне на то, какая архитектура, пофиг, что там не по вашим правилам сделано, главное, чтобы выполняла функции, которые ты закладывал.

Вы же ему даже глаза ни на что новое своим комментом не открыли...

не умея программировать

я наконец-то в жизни смог исполнить мечту, сделать игру

Все чисто через чат гпт.

не умея программировать

можно сделать рабочее решение

Тут прекрасно всё! Комментировать только портить.

А в чем проблема? Что я такого не так написал? Прикинь, да через chat gpt я сделал рабочую игру, которая полностью играбельно и выполняес свои функции, да я я каждый шаг , даже мелкий делал через инстуркции гпт чата, при этом это не помешало на UE 5.5 сделать игру с 10к+ строчками кода

я наконец-то в жизни смог исполнить мечту, сделать игру

Кирилл, ты?

не, я не люблю игры, где надо грабить корованы

Моя бабушка не умеет программировать, но она никогда в жизни не сделает приложение даже с помощью чатагпт. Какие-то знания у тебя определенно есть, но они не структурированы и неглубокие. Тем более ты сидишь на habr)

Моя тоже, но только потому, что никогда с компьютером не работала.
Через чат гпт сделать можно всё, если присутствуют тройки моментов:
1) Ты умеешь следовать четко по шагам
2) ты умеешь работать с компьютером
3) ты умеешь формировать вопросы

вот мои знания, про которые ты имел ввиду. До ИИ я сам никогда не занимался программированием, как и не снимал\монтировал\обрабатывал клипы\ролики, как и не писал тексты песен, а сейчас всё на изи через ии делаю

До появления чатов программисты основную часть времени формировали вопросы в google, а не писали код. Сейчас формировать вопросы стало легче, и можно получить более развернутый ответ в одном месте, но суть не изменилась.

До появления чатов программисты основную часть времени формировали вопросы в google,

археологам осталось только выяснить, чем доисторические программисты занимались до появления google. /s

Пузырь доткомов видимо ничему инвестАров не научил. Не умеющие в историю обречены на ее повторение. Выиграет от этого понятно, Нвидиа и проч, а инвесторы окажутся без штанов. ИИ становится синонимом слова СКАМ.

"В рекламе можно показать со вкусом все что угодно" (с)

От создателей "вложился в МММ, не вкладывайся в биткойн", "история движится по спирали", "нас всех обманули уже с рождения", "монетка всегда падает той же стороной, что и вчера".

Хайп вряд ли обрушится также, как начался и обрушился майнинг в 2013-2019 гг. Потому что AMD в первой волне хорошо хлебнула: большие партии чипов было некуда девать, когда ажиотаж прошел. Во второй раз они были аккуратнее, а nVIDIA будь верна себе, решила программно зарубить алгоритмы, выпустив для этого специальные "LHR" карты, чтобы обвал одного сегмента рынка не повлиял на другой.

А инвесторы, маркетинг, директора уже сейчас непонятно на что тратятся. На внедрение? Так надо точечно, со смыслом, а не сломя голову. Догнать и поучаствовать в гонке? Удачи.

Догнать и поучаствовать в гонке?

Открытые LLM сравнимы в качестве с закрытым.
Так что "поучаствовать в гонке" - вопрос компетенций на привлечение финансирования и на умение привлекать специалистов по обучению LLM.

'Непонимание и невычитывание команд, выдаваемых ИИ — это бич современной разработки. В прод идёт всё, неважно, как оно написано."

Замените 'выдаваемых ии' на 'выдаваемых стэковерфлоу' и твоё утверждение верно и для прошлых времен. Может дело все таки в конкретных "погромистах"?

Разговор с таксистом, который везёт тебя по адресу и по дороге философствует о том, о сём.

ИИ прекрасен. Впервые можно не умолять зазнаек и не переплачивать гуманитариям за вот это всё...

Все что находится на переднем крае развития человечества спекулятивно. Странно то, что люди выражая свое мнение, пытаются что-то утверждать в спекулятивных вопросах.

Я на днях пол страницы сделал просто выбрав элемент в фигме, и по mcp qodo вытянуло все, что ему нужно и в контексте проекта, используя его стилистику.
А по поводу ниши... Дайте модельке нужный контекст, и не будет глюков и прочего) Мне псевдокод даже авкомплитит

 Дайте модельке нужный контекст, и не будет глюков и прочего)

Будут;) Из самого принципа их работы.

А мне даже нравится, что я живу во время когда вероятностный бредогенератор называют ИИ.

В другие времена его звали Серега-из-соседнего-двора и все равно было весело?

Если нейросеть это просто перемножалка матриц, то человек - это мешок с костями, мясом и ливером.

Не знаю, что там не срослось с этой технологией у автора, но я очень рад ее существованию. Если не пытаться возводить нейросеть в абсолют, то это удобный и полезный инструмент.

У меня "вышел в отставку" Microsoft Surface. Я решил сделать из него MagicMirror. С помощью GPT я за вечер установил на него Ubuntu Serber и все необходимые компоненты. А еще один вечер потратил на настройку конфигурации Зеркала. Я никогда не имел дела с линуксом. Для меня все эти "sudo bla bla bla" какие-то шаманские заклинания. Я даже примерно оценить не смогу, сколько дней мне сэкономил GPT, по сравнению с традиционным поиском информации. И если бы он не был точным и "просто добавлял какие-то числа", то вряд-ли бы у меня что-то вышло. Сейчас я жду доставки двустороннего зеркала. А пока я смог разобрать этот дол*ный лэптоп, не сломав его окончательно, благодаря инструкции, найденой тем же GPT. Гугл, кстати, под мою модель вообще ничего не показал.

После ковида накопилось много мешков денег и их нада куда-то пристроить. Раньше для этого была биржа. Потом крипта. Сейчас ИИ. Дело не в хайпе, а в балансе людей с деньгами и людей которые могут создать что-то прибыльное.

Процитирую свой коммент с Вастрика.

Ну, во-первых, я с тобой согласен. Есть люди, которые прекрасно понимают разницу между перемножалками матриц, ЛЛМ и мульти-модальными ЛЛМ. В них есть куча теории и это - реальное поле, в котором надо работать. Я вовсе не говорю, что оно - пшик. Понятное дело - вещь действительно дельная.

ИИ

Давайте будем честны - если мне отвечает по телефону бот, то в 99.99% случаев я просто прошу человека. Когда я захожу на любой сайт, мне нужно иметь доступ к меню. А не чатик справа, который будет любезно мне надоедать всякими предложениями.

В дополнение ко всему этому - пол-года назад я пытался написать припару к браузеру, которая позволила-бы переписывать тексты и проверять орфаграфию с помощью ИИ. Сейчас мне это не только не нужно, меня уже тошнит от количества кнопочек с двумя звёздочками.

Ну вот, например,

https://www.warp.dev

Тулза бесполезная чуть более чем полностью. Мало того, что сам терминал написан на электроне. Фиг бы с ним. Там везде встроены занудные ИИ помошники, которые предлагают только одну вещь - купи наши токены!

Нахрена мне терминал с ИИ, если мой zed.dev или та же vscode может десятью различными способами вставить этот ИИ в терминал? Непонятно. Но это - ещё один из примеров перехайпованого приложения, про которое никто не спрашивал.

Далее, говоря о Zed. Они только что выкатили новую фитчу. Одной строчкой в конфиге можно полностью отключить весь ИИ.

https://zed.dev/blog/disable-ai-features

Типа - бай бай. И это - IDE, которая развивалась под эгидой "AI-first IDE".

В 2020м мои зум созвоны начинались с:

"Меня слышно? А! Хорошо, давайте перейдём к делу..."

В 2025м мои созвоны начинаются с

"Пожалуйста, уберите с канала всех ИИ-ассистентов, выключите запись и перестаньте шарить экраны".

(Мы работаем с клиентами, которые подключают оборудование к банковским системам. Любой ключ или номер на экране утекает = ты теряешь сертификацию и лицензию, а к тебе приходят бравые ребята из ФБР, разбираться, что ещё и куда ты слил)

Биток

Взять, например Биток и Крипту. В 2012 это всё было просто мечтой, и никто не верил нивчего. В 2016 все знали, что мы вот вот сделаем цифровой рай, уберём все деньги и заживём без банков. Мечта она была прям вот. Все радовались тому, что в какой-то деревне в Португалии можно было купить кофе за биток, или пиццу за что-то там. Новости летели изо всех щелей. Потом пришла NVIDIA и начала клепать майнеры. И вот он - РАЙ. Вот они майнеры, щас мы все намайним битка, будет радость, биток будет везде.

Иии... Ничего. Биток превратился в очень спекулятивный актив, который хорошо поглощает рынок. Некоторые сделали много денег на битке, и биток стоит по 120 тыщ за штуку. Всё прекрасно.

Только это не то, что нам обещали. Была децентрализация и безбанковщина. А в реальности получилось, что мне надо подавать отдельную налоговую декларацию, если я попытаюсь продать битков больше чем на 1000 долларов.

Более того, не битком единым, поэтому деньги можно водить по сетям и при конверсии терять ТАКИЕ проценты, что даже банки стали обижаться. Я помню как продал 6000 долларов какой-то рандомной монеты, которую купил за 200 баксов. Навара - дофига. Но из-за slippage до меня дошло 2000 долларов.

Так что что такое крипта? Красивая вещь, которой пользуются кое-где, и то редко. Я спокойно себе живу, иногда заглядываю в свой метамаск, и всем похрену, по большому счёту.

NFT - это ещё более яркий пример подобного хайпа. Всем вообще посрать стало.

То, что всё это объеденяет

Есть одна вещь, котогая стоит во главе битка, ИИ, и всех остальных хайпов, начиная с 1869 года.

Растрата энергии.

Вот, я смотрю на все эти взлёты в то или иное время, и вижу только одну вещь. Чем больше технология растрачивает энергии, чем больше она жрёт ватт, баррелей или джоулей, тем более востребована она на рынке.

Если бы кто-то сейчас выдумал новый тензорный процессор, который бы считал ИИ в 2 раза быстрее, но потреблял-бы в 10 раз больше энергии, то я бы побежал вкладывать деньги.

NVIDIA выигрывала в игры, потом положила на них болт, когда пришёл майнинг, на который она положила болт с ИИ. Игры сами по себе не являются чем-то, без чего цивилизация не проживёт. Тем более - крипта. Если хочется безопасности - оставайтесь при бумажных деньгах, там всё проще было. Нужен ли нам ИИ? Да, но не в тех количествах, которые мы используем. (Фактически только один из 10 роликов в инсте у меня сейчас не нагенерирован ИИ, но мне НУЖНО, чтобы метеорологи и фармацефты сидели и нянчились с ИИ). Но это не важно.

Важно то, что NVIDIA перегружает электросети. Важно то, что сейчас Франция получила долю радости потому что у них есть ядерное топливо. Важно то, что маленькие страны с большими электростанциями и маленькими налогами получают доходы.

То же было в 1970х в США, когда машины жрали столько топлива, что мама не горюй. Это потом мы пришли в себя и подумали о том, что это надо попридержать, но в моменте мысль о том, что надо делать экономичные машины была идиотизмом.

Я пережил бум битка. Как и многие миллионы других людей я не получил от этого никаких денег. Зато - это был впервый раз в моей жизни, когда я прочитал статью о том, что экологи обеспокоились тем, сколько электроэнергии используют дата-центры.

Я смотрю на ИИ как просто на ещё одну приблуду, которая позволяет нам поднимать амперы и жечь бесконечно много топлива. И именно поэтому её перехайпливают. Так же как перехайпили крипту, или машины в 1970х. Она, несомненно полезна. Но стоит-ли это бесконечных миллиардов долларов, которые были вбуханы только в OpenAI? Да не особо. Я, правда, обойдусь без ИИ агента, который будет мне посказывать как открыть меню оплаты товара на сайте. И я не буду платить Тойоте, чтобы они включили чат-ассистента по подписке на моей машине. Оно мне нафиг не нужно.

И я даже не начинал говорить о бесконечных дырах в безопасности, спасибо ИИ,

Спасибо автору за крик души. А то повадились все внедрять ИИ с поводом и без. Это в первую очередь инструмент, помощник. Если использовать для проверки на ошибки или небольшие подсказки в коде, то ок. Ты что-то придумал, а ИИ только советует. А когда ИИ полностью что-то "создаёт", то это уже не твои мысли, а результат выполнения программы, что обесценивает результат. Вон, гляньте, каждая вторая статья сопровождается словами "Опять ИИ статью написал"

Как сказал мой первый руководитель: "всё ваше программирование - это, в конце концов, всего лишь перекладывание данных из одной области памяти в другую" :)

Те кто глумятся над LLM за ошибки в программах забывают,
что LLM пишет программу вслепую, ни разу не запустив и не видя результата.
Если сравнить размер программы, которую LLM и программист могут написать
сразу без ошибок, то LLM уже намного превосходит человека.
Программист пока нужен потому, что он может исправлять ошибки, отлаживать, тестировать.
Когда этому обучат LLM-агента, программист станет не нужен.

Так LLM-агенты уже могут итеративно кодить. Более того, LLM выделяют полноценную виртуалку под работу, где LLM "может все".
И да, стало лучше, но принципиально проблему не решило.

Ну это гига вода. Зачем вообще что то писать, если вывод в итоге "ну это типо инструмент где то полезный где то нет" ну ок типо.

Помогите разгадать кроссворд: Быстрый способ получить неверные результаты. 2 буквы, первая И. Ничего не приходит в голову... :(

Вы меня конечно извините, но судя по огромному количеству тире(и водянистости текста тоже), пост написан при помощи нейронки(а может и с нуля). ИМХО конечно же.

Это вы меня, конечно извините, но судя по вашему комменту, пост прочитан при помощи нейронки (а может и не читан вообще). ИМХО.

Я же в тексте написал, что прогоню эту статью через ИИ, для того, чтобы её вычитать. Но, если так хочется - вот. https://docs.google.com/document/d/1pmvO2KrXSW6AX05ZkbXXxSPq19SpMGrenryc0x9hyvQ/edit?usp=sharing Это - оригинал. Буду ли я сидеть и убирать? Нет. Более того, если вы сидите на Windows, то можно удобно набрать Alt+0151 и Alt+0150 для эм и эндашей. На Маке тоже несложно –— (Opt+- и Opt+Shift+-) Я – профессиональный тайпсеттер. Я знаю правила употребления всех трёх дашей, знаю где ставить дингбаты, как делать стеты и как правильно рехтовать текст в ворде, чтобы он вышел так же хорошо, как и в премьере. А ещё могу перечислить несколько пантон-цветов и могу сделать калибровку цвета на любых машинах Ксерокса. Именно поэтому я никогда не душню по поводу этих чёрточек. Понятно, что так или иначе все будут прогонять тексты через ГПТ. При этом - я никогда не пишу статьи без того, чтобы писать их руками от начала и до конца. Я лично считаю, что на поприще блогов и общения в интернете генерить статьи и постить это под видом своего - это просло смачный плевок в лицо того с кем ты говоришь.

Понятно, что так или иначе все будут прогонять тексты через ГПТ.

Нет, не все. Я не стану.

Понятно, что так или иначе все будут прогонять тексты через ГПТ.

«— Ну, — задумчиво сказал Мюллер, — можно поехать под чьим-нибудь именем...
— Нужно мне чужое имя, — обиделся Штирлиц. — Мне и своих хватает!» ©

Окружение постоянно навязывает, что я могу решать задачи просто используя ИИ, а не тратить время на собственную идею. Люди (некоторые, конечно же), кажется, так себе ярко представляют приоритетность ИИ в жизни человека, что слепнут.. Недавно мне сказали, что зачем я решаю прототипы задач для егэ (в 2026 буду сдавать), если могу спрашивать у нейронки. Смешно и грустно. Мысль человека, по моему мнению - единственная наша ценность, как разумного вида, но ее некоторые пытаются переложить полностью на ИИ. Спасибо за статью, благодаря ей возникли новые размышления в голове

Окружение постоянно навязывает, что я могу решать задачи просто используя ИИ

Некоторые ученики считают, что домашние задания им дают не для того, чтобы у них в мозгу нейронные связи образовывались, а потому, что учителя — это такая злая секта, которая каждый вечер приносит своему особому, злому богу в жертву тетрадки, исписанные кровью почерком учеников, и поэтому обмануть их — святой долг каждого.

Есть у меня ощущение, что подобные статьи это попытка инженеров спорить с рекламой. Выглядит так же странно, как если бы статьи были о том, что стиральные порошки не все пятна могут отстирать, а по телеку-то сказали что все, безобразие! Каждую неделю вирусится по статье в стиле "а ЛЛМ то оказывается может и ошибки делать, надо с ними осторожнее", и в комментах "ого, а я думал это я один заметил, надо же какие мы наблюдательные, а вот openai в своей рекламе так хвастались, но мы их на чистую воду вывели". А потом путем исчерпывающих умозаключений приходят к тому, что это инструмент, который нужно использовать в правильных местах и с умом. Ну ничего себе, статье лайк неглядя! А дальше в комментах куча когнитивных искажений уровня "если я заметил ошибку у ЛЛМ, то я король и на всем многообразии технологии надо ставить крест, я бы таких ошибок ТОЧНО не сделал". И это все напоминает какую-то бесконечную оду самолюбию и доказательство самим себе почему людей нельзя заменить не только сейчас, но и вообще никогда и никого. Ну, может кого-то да, но меня точно нет, я же ошибки ЛЛМ заметил. А по факту заменяют не столько сотрудников, сколько целые компании: стартапы схлопываются пачками, потому что каждые полгода у ИИ появляются фичи, которые просто делают продукт целой компании ненужным и экономически бессмысленным.

А по факту заменяют не столько сотрудников, сколько целые компании: стартапы схлопываются пачками, потому что каждые полгода у ИИ появляются фичи, которые просто делают продукт целой компании ненужным и экономически бессмысленным.

А конкретные примеры такой замены можно узнать?

Не хочется называть компании, да и "замена" не получается одномоментно, у всего есть своя инерция. Но по направлениям, например, распознавания документов, семантический поиск, генерация фото и видео для продуктов и т.д. Раньше для этого нужно было дорогое оборудование, либо свои МЛ-модели, технологии или большой штат с дорогими специалистами. Сейчас же достаточно обертки над популярным моделями, а качество порой может быть не только не хуже, но и лучше, смотря какая область применения. Конечно, это в первую очередь касается малых и средних компаний, корпорации в силу инерции могут пользоваться и старым софтом, тупо потому что переход на новый может быть слишком дорогим.

Ну т.е. у вас только умозрительные заключения ;)

Но по направлениям, например, распознавания документов, семантический поиск, генерация фото и видео для продуктов и т.д.

И? Для всего этого нужен жёсткий "человеческий фильтр"? Кого заменили-то? Фотографа? Оператора? Серьёзно?)))

Ну прекращайте свои домыслы за фактологию выдавать!

Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации