Pull to refresh

Comments 35

Интересно, а за какие провинности блокируют в Claude аккаунты?

Думаю достаточно работы из РФ и это наш вариант, а причин в политике у них хватает

за использование проприетарных агентов

Ну это же не про AI, а про любой вендор лок. Представим, что в команде все документы были в Google Docs/Sheets/Drive, а почта в Gmail. Или все рабочие чаты в Телеграме/Слаке и файлы заодно там же и держали (а чего их сохранять). А таких историй куда больше, чем тех, кто ужé на AI подсел.

Согласен, все верно, вендор лок штука известная, но тут кмк другое. Google Docs хранилище, Слак канал коммуникации, когда они падают ты теряешь доступ, но как специалист остаёшься прежним. AI встраивается в само мышление, ты думаешь в связке с ним. Когда его убирают падает не доступ к файлам, а пропускная способность мозга. Разный масштаб эффекта.

Это да, но в статье-то убрали не AI в целом, а конкретные инструменты от конкретного вендора.

Ну да, но принцип тот же, это как проприетарные IDE, вызывающие зависимость. Навроде продуктов жеп-брейнс. Сперва вам впаривают "очень нужные" функции с закрытым движком, а в итоге, сами вынуждены придумывать новый очень нужный язык (какой-нибудь Kotlin), чтобы их IDE нормально работали (потому что они не могут будучи закрытыми и негибкими)... А и заблочить инструменты какому-нибудь программусту или даже целому государству - с них станется. Однако люди не только подсели, они ещё и нахваливают - старо как мир ПО. Вы правы, что теперь это - на более глубоком уровне. Однако по сути, это происходило и раньше - обычное проприетарное г-но.

да обычная работа, ничего необычного, файлы, эксель, моделирвоание, текста, анализ. Была волна целая банов аккаунтов именно в РФ, у нас в компании только штук 20-30 забанили

с этой точки зрения ИИ-агенты, которые помогают люядм выполнять задачи, это как "электричество". Тот, кто перестрил производство на автоматизированный конвеер, получит такое же когнитивное состояние при отключении электричества. Тот, кто завязал бизнес на интернет, получит такой же удар при его отсутствии.

Если рассматривать бизнес-риски, то это проблема бизнес модели. Благо у нас сейчас есть возможность выбрать "несколько провайдеров" и размазать риски.

Самое необратимое, это то, что люди начинают реально без ИИ работать медленнее, уходят в ту самую фрустрацию и депрессию. Когда научился быстро решать задачи с ИИ, то внезапная отмена ИИ и отказ в доступе, это необходимость вернуться в "прошлый век". Делать вручную то, что научился делать "по ходу" и "не обращая на это внимания". Что научился и решился делегировать ИИ-агентам и ко-пилотам.

и в этой части я бы даже не столько боялся за эту привычку, это просто использование инструментов нового времени.

Как по мне, то самое страшное тут, что без "процесса своими руками", без детальной и вдумчивой сборки, без прохождения всех этих ошибок "своим лбом"... Мы не научились бы так решать эти задачи. И вот это мы можем потерять. Если за нас весь мелкий код будет писать ИИ-агент, а мы будем только "управлять"... то не ровен час, и базовые компетенции исчезнут из навыков людей и стать только машинными навыками... И вот тут, как по мне, скрыты самые большие риски и потенциальные проблемы...

P.S. Как будто следует ввести просто для самого себя правило, что "какие-то проекты нужно все еще собирать своими руками", чтобы не потерять уходящее в прошый век "ремесло"

Если ИИ будет доступный как калькулятор то этим ремеслом пренебрегать.

А пока данные сливаются хер пойми куда это все такое.

так он уже доступен как калькулятор. 400 баксов в месяц и у тебя на сервере свой калькулятор, собственный. за 800 можно иметь даже +- не базовую модельку.

как только люди допрут, что все те мощности, которые сейчас "считают хеш биткойнов" нужно направить на расчет результатов ИИ моделей, то мощностей высвободится колоссальное количество.

Не уверен, что асики смогут эффективно запускать ИИ модели

О, какой прекрасный русский язык Вы "настроили", любо, вы мне именно такой рекомендуете? :-) Хотелось бы как-то прокомментировать и мысль, но к сожалению, из вашей речи непонятно, что вы хотели сказать.

Это LLM - "электричество". А "Агенты", одно из двух - либо проприетарный генератор суеты и нейрослопа, либо ещё и плохой и кривой генератор суеты и нейрослопа. И это неизвестно ещё, что хуже. LLM могут быть полезны, если применяются системно, и с помощью мозга. "Агенты" на данном этапе малополезны, а чаще даже вредны. Просто они на хайпе, ибо - мечта некомпетентных лентяев.

ну это как первый самолет. Когда о только полетел, у него еще не было промышленного применения. Так и сейчас, агенты еще обучаются. Нужно накопить "Техническую уверенность и обвязку", нужно пройти первый промышленный тест и потом еще упаковать в рабочую технологию... И пока мы с вами это тут обсуждаем, все вышеперечисленные шаги уже пройдены первопроходцами и упаковываются в продукты. Пока еще узкоспециализированные продукты, но это лишь зарождение технологии. Готов вернуться к обсуждению летом 2027 года, уверен, использование агентов уже станет ии-стандартом в бизнесе

Вроде всё логично, но - теория автоматов устарела уже? Согласно ТА, с агентами есть фундаментальные проблемы, в частности - стохастичность и отсутствие каузальности... И "внезапно" это - те же проблемы, что и в работе с людьми, на которых стараются сделать агентов похожими (антропоморфизм). Однако, все вот эти влажные сны о "прекрасном будущем с гуманоидами", разбиваются о суровую реальность, которую признают уже даже сами пропагандисты агентного подхода - а именно, что ЭТО НЕ РАБОТАЕТ.

Понимаете ли, я не на пустом месте пишу то, что пишу - уже больше год разворачиваю различные MAS, съёв несколько стай собак. А в то же время, создал несколько инструментов (Carriage/Atlas/Lore) утилизирующие возможности LLM более разумным способом, а ещё выработал МЕТОД, что и рекомендую использовать с помощью мозга.

Агенты - способ потратить тонны нефти, чтобы в рилтайме имитировать ненаписанное вами ТЗ и невыстроеные вами процессы. Это тоже самое, что и с людьми работать без ТЗ и процессов.

в работе с людьми проблемы те же, но решают их иначе. В работе с людьми решение - делегирование ответственности, когда человека ставят в условия, где ему нужно самостоятельно научиться следовать правилам и "держать баланс качества и количества". Не выдержал - юридическая ответственность (юридическая даже в социальном плане).

С ИИ моделями "Юридическая ответственность" не работает. И она не сможет решить проблемы "неуправляемости" и "галлюцинаций", Потому тут решение:
- математическая строгость (проектирование архитектуры и алгоритмов)
- передача исключительно проверенных функций, которые прошли промышленное тестирование и всяческие стресс-тесты на устойчивость (причем без делегирования ответственности, либо под гарантию производителя)

но в целом я с Вами полностью согласен. Сейчас агенты - это игра и забава, ну и стартапы, которые внедряют ИИ лишь потому, что им "нечего терять". Сильные компании, внедряющие ИИ, половина добивается успеха, половина банкротится (пропорция может быть иной, суть не меняется)

однако я искренне уверен, что через год такого "всеобщего теста" уже определенно появятся "устойчивые прототипы", которые будут в "своем поле инструментов" работать на ура.

P.S. И все еще я не говорю о делегировании ответственности. До этого еще лет 15-20, как по мне.

Просто нужно разделять LLM и Агенты. У большинства в голове это смешано, и они не представляют, как можно использовать открытые инструменты и техники, и меточдично наращивать компетенции, вместо того, чтобы подвисать на вызывающих зависимость фреймворках...

Неоднократно уже повторяли и не устану, пока хоть кто-то не поймёт: Проблема основная не в LLM. Настоящая проблема - проприетарные агенты! И также агентный воркфлоу через чатик. И про дофаминовую петлю мы писали уже год назад, и когнитивный офлоадинг. Хорошо выстроеный рабочий процесс, позволяет достигать качественных результатов БЕЗ ИСПОЛЬЗОВАНИЯ АГЕНТОВ. Чатик с агентом - лишь способ преодолеть некомпетность оператора, а не необходимость. Правильный процесс может использовать LLM для генерации одних документов из других, но агент, как принимающая решения сущность, при таком процессе не обязателен. Если интересно, как делать иначе, ряд статей и также МЕТОД/ПУЛЬТ и опенсорсный станок carriage поверх Emacs - в тг: t me gnu_emacs_ru

Отличная манипуляция, но для начала настройте свой русский язык

В чём манипуляция, уважаемый? В вашем сообщении манипуляция присутствует, да, и при том - низкого пошиба. А вот на мой русский пожаловались... как бы не в первый раз за 40 лет? Вы, наверное, очень грамотный, ну так расстрайтесь пояснить. И да, минусаторы неуважаемые, ссылка не тг-канал для заработка, что очевидно любому - мы ничего не продаём. Это блог, место где можно прочитать, если вы умеете читать, несколько актуальных текстов, да забрать полезного открытого кода. Вот нафига вам это минусовать? Я дело говорю, и по теме статьи. Впрочем, местная публика никогда не отличалась ни разборчивостью, ни компетентностью. Хабр есть Хабр, что 15 лет назад, что сейчас.

По поводу минусов это не ко мне. Я вас осуждаю в открытую.

да, однако, неясно в чем?

без бумажки ты букашка ... а был ли мальчик т.е. были ли мозги ?

Возражу по выводам. Видите ли, с сохранением "продуктов жизнедеятельности" AI все очень плохо. Пробовал, оно быстро портится, в этом быстро захлебываешься, перебирая тонны не пойми какой по качеству и согласованности хрени у себя в заметках. Вскоре становится нужным AI чтобы понять что наделал AI и т д. А еще напрягает мысль, что чем больше у нас проблем от AI тем это выгоднее их провайдерам, т. к. туда вход рубль, а выход десять.

Это так, особенно, если нет системы. И нет МЕТОДа. Вот потому в соседнем каменте и пишем - эти их "агенты" вредны больше чем полезны. Агенты - расхайповый способ генерировать суету. Ещё и проприетарный, и вызывающий зависимость. А пользу приносят автоматы - предсказуемые. LLM полезен, но только в контуре конечного автомата, и сам он полезен более всего, именно как стохастический и гибкий интерпретатор а не генератор лжи.

Чем отличается автомат от агента?

Очень точное замечание. Потому что "агент", конечно, тоже автомат. Однако, автомат не классический. Классический автомат - устройство, имеющее конечное число состояний, чётко определённые правила переходов, и не обладающее субъективностью или сложной автономией. Агент же стохастичен и может быть реактивным, рассудочным, прорефлексивным, обучающимся, обладающим планированием итп, а также может быть частью MAS, что есть - отдельный род безумия... Помимо того, обратная связь с агентом обычно “мягкая”, а действие необратимо плодит мусор - артефакты без проверок!

Мой поинт в том, что когда оператор обладает способностями к самоорганизации и знает теорию, то ему "агенты" почти и не нужны. А если не обладает способностями и не знает теории, то лучше бы ему такому и агентов не трогать, а пойти почитать теорию автоматов. Ведь создание "раскачанных" агентов однозначно приводит к росту энтропии и информационной зависимости!

Суть анти‑агентного подхода в МЕТОДЕ, в том, что вы до генерации текста организуете материал так, чтобы LLM работал как стохастический интерпретатор, а решения принимал человек максимально явно (HDS и МЕТОД см. t me gnu_emacs_ru)

Надо стараться работать на своих локальных моделях и компьютерах, пусть и с лагом по качеству моделей, любое облако - это чужой компьютер. В любой момент времени тебя могут отрубить от него по тем или иным причинам. Я вижу отставание локальных моделей, которые можно развернуть на средненьком сервере за 500к - 6 месяцев. В общем, не критично.

Поставщиков моделей - масса, это просто ресурс. Вы молодец, но согласитесь, не так уж критиично, иметь LLM у себя, когда альтернативных LLM масса? Как мы считаем, настоящая роблема - в АГЕНТАХ. И странно, но почему-то никто не говорит про проприетарность агентов. А ведь им уже и кредитные карты свои отдали, и диски... Как сговорились! Более того, наблюдаю, что ещё и минусуют идеи за свободу ПО. Которые идеи актуальны как никогда. Вот из классики, https://www.gnu.org/philosophy/free-software-even-more-important.ru.html

Автор переключился на ChatGPT с теми же локальными файлами и получил посредственный результат. То есть проблема не в потерянных диалогах. Проблема в том что за месяцы подстроил стиль работы под конкретную модель - знаешь когда ей доверять, как формулировать, где перепроверять. Эта калибровка не экспортируется. Мультипровайдерность из выводов звучит разумно но на практике работать с двумя моделями одинаково глубоко мало кто будет

если что, минусовал не я, но позвольте полемизировать. Разве, если ваш процесс заточен под одну модель, её "особенности", проблема не именно в этом? Т.е. да, безусловно, у моделей есть "особенности", но разве должны они влиять на эффективность достижения результата?

Вы используете ИИ генеративный заменяя себя (так что в этом процессе особенно не нужны и легко заменимы). Но это может быть ассистент - другой расклад. Когда мозг вспухает и приходит отупление-отдупление пора остановиться и сделать сброс.

Sign up to leave a comment.

Articles