Я с 1С не работаю с 2005 года, с восьмёркой почти не работал, ушёл в Oracle и занимался только интеграциями с другой стороны . Провалился на незавимых регистрах сведений и на втором вопросе. 5 и 3 выглядят как совсем очевидно даже через 20+ лет.
На этой неделе 2 дня посетил подобной задаче. У меня не было ограничений по выбору модели. Использовался Open Router.
На реальных PR лучше всего показала себя архитектура, когда одна модель проверяет результаты другой модели. Число ложно положительных срабатываний уменьшается в 4 раза.
Так же не получается использовать в лоб разные модели с одинаковыми параметрами. Например, при ограничении на число вызовов инструментов в 5 на диф Sonet пропускает очевидные вещи, а модели от Google отлично справляются.
Моё резюме: дёрнуть API с похожими параметрами недостаточно, чтобы сравнить качество моделей для задачи. Ещё бы неплохо добавить стоимость и время. 2-6 USD и 15 минут могут выйти за ваши не функциональные требования. Особенно, если дифы генерятся LLM в огромном количестве.
Ну вот не вижу я преимуществ кожаных мешков. Пишут медленно, требования не читают. Сделал простое код ревью на LLM в рамках корпоративного хакатона буквально вчера. Из тестовой выборки 40% pr не покрывают часть требований в задаче. Это про контекстное окно человека. Один писал, второй делал код ревью, третий тестировал и всё равно часть требований пропустили. LLM за счёт грамотных подходов отлично держит фокус, планирует и тестирует. Вероятность галюцинаций топовых моделей уже меньше 5% на ответ и она легко умножается для критичных задач.
ТГ очень крут и удобен на самом деле. Кейс с удалением внешних участников или отдельным разрешением на их участие решается простеньким ботом. Основной риск - блокировка. И что-то даже при блокировках все поголовно включают VPN, но в альтернативным сервисом не пользуются.
У меня простейший MCP к БД + примеры запросов к ней. Достаточно стабильно генерит отчёты. Косячит не больше, чем аналитик, который год с этими данным и работает. С DWH чуть посложнее. Там мусора больше и потенциальный разбег по запросам больше.
MCP не нужно передавать в модель все данные. Это просто API, который может вызывать модель. Например, пишите в mcp функцию, которая возвращает баланс по клиенту или формирует акт сверки за последний месяц. Получать все данные из ERP такое себе.
Вот пытаюсь вспомнить когда мне пригождался связанный список. Только для баловство будучи школьником в 1992-м году. C++, рисовалка 4х мерных фигур на мониторе с 16ю одновременно выводимыми цветами, очень мало памяти и плиморфная коллекция элементов, которая в память иногда не влезала. Каждый объект был на порядки больше указателей в 16 бит. Лагало страшно!
Сейчас в тех же условиях просто отказался бы от ООП и использовал массив для локального кэша элементов.
Странно. У меня ровно наоборот. ИИ позволяет попробовать несколько подходов к одной задаче. Например, прогоняю ретро данные за месяц и смотрю, какой подход даёт лучшие результаты. С тестами по аналогии. Можно взять эталонные кейсы с прода, на которых ловили не тривиалтные баги или для которых пилили отдельные фичи. Пример из статьи это классический тест на отвяжись, коих большинство. ИИ здесь ни при чём.
Что то не похоже, что автор читал Гумилёва. У него описывается как эти пассионарии размножаются и становятся новой нацией. И вот к этой части больше всего вопросов.
Ещё есть множество примеров, что они это делают по фану и движимы обычно славой, местью или завистью. И после их кончины всё, что они сделали, чаще всего разваливается.
Да нормально всё. Бывало и похуже. После августа 1998-го я устроился на полставки на завод разработчиком и доход упал раз в 6 до 2000 рублей в месяц. На старой работе были только бесплатные консультации по телефону, которые не оплачивались.
Как то сменил стэк с 1С на Oracle EBS. Потерял в деньгах в 3 раза, пойдя на первую линию поддержки на старте. Отрос обратно за 3 месяца с хорошими перспектива и.
В 2014-м какие то чудаки сбили боинг. Это стоило мне разорванного контракта по ставке 900 евро в день с компанией из Нидерландов. С тех пор я даже близко таких денег не видел.
Пока вы можете заработать курьером 150К в месяц с голода не помрёте как и ваши дети. А сидеть тухнуть на нелюбимой работе больше полугода такое себе. Я такую глупость пару раз делал. Чревато проблемами со здоровьем, застоем в развитии и высоким уровнем стресса.
А сколько здесь присутствующих всё ещё пишут руками? Судя по риторике автора статьи у него в команде это считается единственно достойным способом. Подсказать как правильно использовать современные инструменты тоже было некому. Если в ценности и стандарты вашей команды он не вписался, то расставание логично. Успехов в поисках замены.
Статья отличная. Для уменьшения контекста ещё помогает писать код максимально независимыми модулями сверху вниз. Прямо аля паскаль. И тогда можно открывать как проект папку с отдельным модулем, в котором только тесты и сам модуль + что - то вложенное в него. Так и дешевле и быстрее, более красиво по архитектуре.
Но есть более качественное и универсальное решение.
Я тоже долго без него мучился и изголялся. И даже Sonet при отладке выходил дороговато. А потом стал платить 60 вместо 20 и как то веселей стало работать. Особенно при проверке гипотез или дебаге. Через пару месяцев упёрся, что мне не хватает и 60. Теперь у меня корпоративный аккаут и это не совсем мои проблемы в рамках разумного, конечно.
Ну думаю почитаю сейчас вдохновляющие примеры. Miro, Avito, Skyeng... Сам обожаю сделать что то новое инновационное. Если оно потом живёт 10+ лет без моего участия, то прямо успешный успех.
При чём здесь выбор дистрибутива, например? При чём здесь архитектура на века? Большинство успешных компаний не стоило архитектуру на века, а изменяло её в процессе, адаптируясь под бизнес требования, конкурентов, технологии.
Ну и роль неких руководителей сильно приувеличена. Ютуб, Google, Open AI, WhatsApp, Amazon, Meta, FIGMA.. Это истории не про боссов или архитектуру, а про предпринимателей.
Windows пришло на замену MS DOS, плавно вытесняя её с поддержкой совместимости. Опять про бизнес. UNIX тогда бесплатный был и сносно работал, только вот по пользовательскому опыту и прикладному ПО близко не доганял даже MS DOS, не то что Windows.
В общем, завязывайте с циклом статей непонятно про что.
Я даже не подумал, что можно перебирать все возможные пары или сортировать массивы. Давайте что-нибудь более элегантное. С обработкой строк 1000+ таких примеров.
На текущем месте я был 14-м кандидатом на единственном собеседований после минимального HR скрининга. Офер прислали на следующее утро с суммой заметно больше, чем я просил. Предыдущие кадидаты его не прошли. Дороговатый найм получается. Зато относительно быстрый.
Каждый этап это воронка. И на каждом этапе она стоит всё больше. Если у вас на входе 500 кандидатов на позицию, то можно позволить себе отсеять достаточно много подходящих, если при отсеве увеличится доля подходящих. Если кандидат потратил несколько месяцев на прокачку скила для прохождения интервью именно в вашей компании, то он уже показал большую вовлечённость и желание работать именно у вас. Но это в теории. На практике я 2 раза устраивался через много-много этапное интервью и оба раза прока от меня было кратно меньше, чем обычно. Возможно, у меня просто плохо и иерархией, ачивками и бюрократией.
Я с 1С не работаю с 2005 года, с восьмёркой почти не работал, ушёл в Oracle и занимался только интеграциями с другой стороны . Провалился на незавимых регистрах сведений и на втором вопросе. 5 и 3 выглядят как совсем очевидно даже через 20+ лет.
На этой неделе 2 дня посетил подобной задаче. У меня не было ограничений по выбору модели. Использовался Open Router.
На реальных PR лучше всего показала себя архитектура, когда одна модель проверяет результаты другой модели. Число ложно положительных срабатываний уменьшается в 4 раза.
Так же не получается использовать в лоб разные модели с одинаковыми параметрами. Например, при ограничении на число вызовов инструментов в 5 на диф Sonet пропускает очевидные вещи, а модели от Google отлично справляются.
Моё резюме: дёрнуть API с похожими параметрами недостаточно, чтобы сравнить качество моделей для задачи. Ещё бы неплохо добавить стоимость и время. 2-6 USD и 15 минут могут выйти за ваши не функциональные требования. Особенно, если дифы генерятся LLM в огромном количестве.
Ну вот не вижу я преимуществ кожаных мешков. Пишут медленно, требования не читают. Сделал простое код ревью на LLM в рамках корпоративного хакатона буквально вчера. Из тестовой выборки 40% pr не покрывают часть требований в задаче. Это про контекстное окно человека. Один писал, второй делал код ревью, третий тестировал и всё равно часть требований пропустили. LLM за счёт грамотных подходов отлично держит фокус, планирует и тестирует. Вероятность галюцинаций топовых моделей уже меньше 5% на ответ и она легко умножается для критичных задач.
ТГ очень крут и удобен на самом деле. Кейс с удалением внешних участников или отдельным разрешением на их участие решается простеньким ботом.
Основной риск - блокировка. И что-то даже при блокировках все поголовно включают VPN, но в альтернативным сервисом не пользуются.
Почитал про левайс. Ну такое себе. Только N как то не вдохновляет. Если дом многоквартирный, то удручает.
Микро тик он такой:) Сам иногда придумаю что-нибудь и зависнуть с ним на несколько вечеров. У меня роутер + пара точек доступа.
Идея переключения через смену wifi подключения очень красивая!
Что то мне подсказывает, что можно было попроще. Например, на основе мака xbox подсунуть нужный VPN. Но это не так увлекательно:)
У меня простейший MCP к БД + примеры запросов к ней. Достаточно стабильно генерит отчёты. Косячит не больше, чем аналитик, который год с этими данным и работает. С DWH чуть посложнее. Там мусора больше и потенциальный разбег по запросам больше.
MCP не нужно передавать в модель все данные. Это просто API, который может вызывать модель. Например, пишите в mcp функцию, которая возвращает баланс по клиенту или формирует акт сверки за последний месяц. Получать все данные из ERP такое себе.
Вот пытаюсь вспомнить когда мне пригождался связанный список. Только для баловство будучи школьником в 1992-м году. C++, рисовалка 4х мерных фигур на мониторе с 16ю одновременно выводимыми цветами, очень мало памяти и плиморфная коллекция элементов, которая в память иногда не влезала. Каждый объект был на порядки больше указателей в 16 бит. Лагало страшно!
Сейчас в тех же условиях просто отказался бы от ООП и использовал массив для локального кэша элементов.
Странно. У меня ровно наоборот. ИИ позволяет попробовать несколько подходов к одной задаче. Например, прогоняю ретро данные за месяц и смотрю, какой подход даёт лучшие результаты. С тестами по аналогии. Можно взять эталонные кейсы с прода, на которых ловили не тривиалтные баги или для которых пилили отдельные фичи. Пример из статьи это классический тест на отвяжись, коих большинство. ИИ здесь ни при чём.
Что то не похоже, что автор читал Гумилёва. У него описывается как эти пассионарии размножаются и становятся новой нацией. И вот к этой части больше всего вопросов.
Ещё есть множество примеров, что они это делают по фану и движимы обычно славой, местью или завистью. И после их кончины всё, что они сделали, чаще всего разваливается.
Откуда здесь отдельные лидеры - большой вопрос.
Да нормально всё. Бывало и похуже. После августа 1998-го я устроился на полставки на завод разработчиком и доход упал раз в 6 до 2000 рублей в месяц. На старой работе были только бесплатные консультации по телефону, которые не оплачивались.
Как то сменил стэк с 1С на Oracle EBS. Потерял в деньгах в 3 раза, пойдя на первую линию поддержки на старте. Отрос обратно за 3 месяца с хорошими перспектива и.
В 2014-м какие то чудаки сбили боинг. Это стоило мне разорванного контракта по ставке 900 евро в день с компанией из Нидерландов. С тех пор я даже близко таких денег не видел.
Пока вы можете заработать курьером 150К в месяц с голода не помрёте как и ваши дети. А сидеть тухнуть на нелюбимой работе больше полугода такое себе. Я такую глупость пару раз делал. Чревато проблемами со здоровьем, застоем в развитии и высоким уровнем стресса.
А сколько здесь присутствующих всё ещё пишут руками? Судя по риторике автора статьи у него в команде это считается единственно достойным способом. Подсказать как правильно использовать современные инструменты тоже было некому.
Если в ценности и стандарты вашей команды он не вписался, то расставание логично. Успехов в поисках замены.
Статья отличная. Для уменьшения контекста ещё помогает писать код максимально независимыми модулями сверху вниз. Прямо аля паскаль. И тогда можно открывать как проект папку с отдельным модулем, в котором только тесты и сам модуль + что - то вложенное в него. Так и дешевле и быстрее, более красиво по архитектуре.
Но есть более качественное и универсальное решение.
Я тоже долго без него мучился и изголялся. И даже Sonet при отладке выходил дороговато. А потом стал платить 60 вместо 20 и как то веселей стало работать. Особенно при проверке гипотез или дебаге. Через пару месяцев упёрся, что мне не хватает и 60. Теперь у меня корпоративный аккаут и это не совсем мои проблемы в рамках разумного, конечно.
Начали за здравие...
Создавать, а не внедрить и мигрировать...
Ну думаю почитаю сейчас вдохновляющие примеры. Miro, Avito, Skyeng... Сам обожаю сделать что то новое инновационное. Если оно потом живёт 10+ лет без моего участия, то прямо успешный успех.
При чём здесь выбор дистрибутива, например? При чём здесь архитектура на века? Большинство успешных компаний не стоило архитектуру на века, а изменяло её в процессе, адаптируясь под бизнес требования, конкурентов, технологии.
Ну и роль неких руководителей сильно приувеличена. Ютуб, Google, Open AI, WhatsApp, Amazon, Meta, FIGMA.. Это истории не про боссов или архитектуру, а про предпринимателей.
Windows пришло на замену MS DOS, плавно вытесняя её с поддержкой совместимости. Опять про бизнес. UNIX тогда бесплатный был и сносно работал, только вот по пользовательскому опыту и прикладному ПО близко не доганял даже MS DOS, не то что Windows.
В общем, завязывайте с циклом статей непонятно про что.
Автор точно про высоконагруженные приложения пишет?
Внешние ключи и индексы на каждый чих убьют любую БД и Postgre здесь не исключение.
Высокая нагрузка почти всегда требует денормализации, а про это ни одного пункта не увидел. После FK и индексов на каждый чих дальше просто пролистал.
Автору рекомендую скрыть статью, пока минусов не нахватал.
Я даже не подумал, что можно перебирать все возможные пары или сортировать массивы. Давайте что-нибудь более элегантное.
С обработкой строк 1000+ таких примеров.
На текущем месте я был 14-м кандидатом на единственном собеседований после минимального HR скрининга. Офер прислали на следующее утро с суммой заметно больше, чем я просил.
Предыдущие кадидаты его не прошли. Дороговатый найм получается. Зато относительно быстрый.
История с поиском идей понятная и достаточно стандартная в своём подходе. Но что с результатами бизнеса или хотя бы метриками по конверсии с сайта?
Каждый этап это воронка. И на каждом этапе она стоит всё больше. Если у вас на входе 500 кандидатов на позицию, то можно позволить себе отсеять достаточно много подходящих, если при отсеве увеличится доля подходящих.
Если кандидат потратил несколько месяцев на прокачку скила для прохождения интервью именно в вашей компании, то он уже показал большую вовлечённость и желание работать именно у вас.
Но это в теории. На практике я 2 раза устраивался через много-много этапное интервью и оба раза прока от меня было кратно меньше, чем обычно. Возможно, у меня просто плохо и иерархией, ачивками и бюрократией.