В статье приводятся факты, но не от комбинаторов, а реальных бизнесов.
Я лично сколько не пробовал "ИИ", на задачах чуть сложнее 2х2 код просто НЕ КОМПИЛИТСЯ. Ну может в JS/Python по другому. ...да, там вообще компилить не надо.
Если вы думаете, что ЛЛМ, это ИИ - нет, это не так. Это ИИ только в значении, 'продам, за дорого'. Или обучение ИИ, это как обучение человеков? Нет - в ЛЛМ нету вообще логики, и обучение - это подбор параметров нейросети.
Можно найти скрины примеров про '9.09<>9,10', там видно, что ЛЛМ знает про десятичные дроби, но не понимает и не применяет это знание.
Произошла типичная подмена понятий - то что 'продают', как ИИ, это ЛЛМ-чатбот. Да, в чем-то полезный, но от этого интелектом, и зачатками логики он не стал. АГИ - вроде должен быть уже тот интелект, но нет, ЛЛМ в него не эволюционирует. Хотя, инструменты ЛЛМ (кластеризация, генерация), вполне могут использоваться, как и другие программы.
Эмуляция визуализации логики и размышления, не то же самое, что наличие этой логики.
Был пример с 9.09 и 9.1, ллм упорно говорил, что 9.09 больше, пока его не 'натренировали' на правильный ответ, хотя здесь явно видно отсутствие логики в ллм, и наоборот - если человек понимает принцип десятичных дробных, то он не будет ошибаться в этой задачи. Отсюда вывод, если на логику десятичных дробных нужно дополнительно 'обучать', то чему вы ее вообще обучали, на гиговатах потраченной энергии?
ЛЛМ будет тупить на любой новой логической задачи, пока его на эту задачу не натренируют,.
После внедрения ИИ, эффективные манагеры уволят эти 30%, получат премию за снижение затрат, и свалят (то как было на заре аутсорса), в итоге производительность еще больше упадет.
для меня раннее тестирование это: от ТДД, до развертывания окружения (всех серверов, баз, итд) для изолированного end_to_end тестирования фича бранча до PR merge. Вот здесь есть тема: разверывать под каждую фичу т.е. бранч=env, или использовать готовые Х_feature_env, вместо одного "dev" для параллельной разработки несколько фича бранчей?
извините, но у вас этого нет, совсем.
Зато у вас есть планирование, которое вы упорно называете груминг, который вообще, причесывание (дословный перевод) баклога по сложности реализации (или, "о, а мы это уже сделали"), не анализ, и даже не изменение приоритета, ибо это делает PO/PM по бизнес требованию.
требуют оформленной и проработанной документации
вы с аджайлом знакомы? это, как-бы прямое противоречие.
Как много интересных и важных инструментов вы перечислили.
микросервисы - это спорное архитектурное решение, гарантирующее в первую очередь job security архитектору (ни чего другого микросервисы не могут предложить, чего другая архитектура не может).
микросервисы без tracing сервисов? - выстрел в ногу.
бакенд на питоне (не датабрикс / спарк), тоже спорное решение для не пет проектов?
питон без 100% покрытия юнит тестов, это все равно что деплоить не компилящийся код, - выстрел во вторую ногу.
Вы предлагаете микросервисы на питоне без тестов, и трейс логов? ...ну удачи
JPA подразумевается JPA 2 или JPA 1 ?
В статье приводятся факты, но не от комбинаторов, а реальных бизнесов.
Я лично сколько не пробовал "ИИ", на задачах чуть сложнее 2х2 код просто НЕ КОМПИЛИТСЯ. Ну может в JS/Python по другому. ...да, там вообще компилить не надо.
ваше сэкономил прямо противоречит https://www.opennet.ru/opennews/art.shtml?num=63573
поддерживаю! меньше джунов, больше зарплата сеньйорам! /сарказм
Кто это использует? ни разу компилящийся код не получился! Может JS/Python где не надо компилировать?
ага, гугль говорит есть такое:
federation_domain_whitelist
должно получиться типа как в ФИДО было ;)
два вопроса, я думаю многим будет интересно:
наружу через clouflare или подобное можно прикрутить?
соединение с дружественными matrix серверами для обмена/сессиями профилями - там вроде такое есть?
может кто пробовал https://element.io/ со своим matrix сервером?
Если вы думаете, что ЛЛМ, это ИИ - нет, это не так. Это ИИ только в значении, 'продам, за дорого'. Или обучение ИИ, это как обучение человеков? Нет - в ЛЛМ нету вообще логики, и обучение - это подбор параметров нейросети.
Можно найти скрины примеров про '9.09<>9,10', там видно, что ЛЛМ знает про десятичные дроби, но не понимает и не применяет это знание.
Произошла типичная подмена понятий - то что 'продают', как ИИ, это ЛЛМ-чатбот. Да, в чем-то полезный, но от этого интелектом, и зачатками логики он не стал. АГИ - вроде должен быть уже тот интелект, но нет, ЛЛМ в него не эволюционирует. Хотя, инструменты ЛЛМ (кластеризация, генерация), вполне могут использоваться, как и другие программы.
Поясню проще. Есть два варианта:
ИИ он умный! Но, десятичному счету его обучить забыли.
ИИ, это эволюция Т9 и логики там нет.
Эмуляция визуализации логики и размышления, не то же самое, что наличие этой логики.
Был пример с 9.09 и 9.1, ллм упорно говорил, что 9.09 больше, пока его не 'натренировали' на правильный ответ, хотя здесь явно видно отсутствие логики в ллм, и наоборот - если человек понимает принцип десятичных дробных, то он не будет ошибаться в этой задачи. Отсюда вывод, если на логику десятичных дробных нужно дополнительно 'обучать', то чему вы ее вообще обучали, на гиговатах потраченной энергии?
ЛЛМ будет тупить на любой новой логической задачи, пока его на эту задачу не натренируют,.
Во первых: Spark/Databriks.
Во вторых: https://www.coursera.org/specializations/deep-learning сам брал для базы, или новее.
Обещали +30..40%, получили -19%.
После внедрения ИИ, эффективные манагеры уволят эти 30%, получат премию за снижение затрат, и свалят (то как было на заре аутсорса), в итоге производительность еще больше упадет.
Бубль лопнет и в плюсе останется только Nvidia.
Наличие Питона в энтерпрайзе, не фрагментарное (лямбды, MLки), а тяжелый проект, должно сопровождаться процентом покрытия тестами.
Чем меньше покрытия, тем больше шансов деплоя на прод не скомпилированного кода.
перевод интересный, но зачем на свой вебсайт делать musl?
для меня раннее тестирование это: от ТДД, до развертывания окружения (всех серверов, баз, итд) для изолированного end_to_end тестирования фича бранча до PR merge. Вот здесь есть тема: разверывать под каждую фичу т.е. бранч=env, или использовать готовые Х_feature_env, вместо одного "dev" для параллельной разработки несколько фича бранчей?
извините, но у вас этого нет, совсем.
Зато у вас есть планирование, которое вы упорно называете груминг, который вообще, причесывание (дословный перевод) баклога по сложности реализации (или, "о, а мы это уже сделали"), не анализ, и даже не изменение приоритета, ибо это делает PO/PM по бизнес требованию.
вы с аджайлом знакомы? это, как-бы прямое противоречие.
это сарказм? ни одного инструмента я не называл
тема интересная! но извините, где про TDD? - это в чистом виде раннее тестирование.
Или ваше раннее тестирование, это про Stress Test на dev env?
Или unit test coverage ->99% до релиза? или functional test, integration, e2e?
Или ваше раннее тестирование, это "развертывание окружения (всех серверов, баз, итд) для изолированного тестирования фича бранча до PR merge"?
Кстати, а познее тестирование? т.н. canary deploy.
или personalized feature toggle на проде. Тоже своего рода тесты.
микросервисы - это спорное архитектурное решение, гарантирующее в первую очередь job security архитектору (ни чего другого микросервисы не могут предложить, чего другая архитектура не может).
микросервисы без tracing сервисов? - выстрел в ногу.
бакенд на питоне (не датабрикс / спарк), тоже спорное решение для не пет проектов?
питон без 100% покрытия юнит тестов, это все равно что деплоить не компилящийся код, - выстрел во вторую ногу.
Вы предлагаете микросервисы на питоне без тестов, и трейс логов? ...ну удачи
всегда было Test-driven development