Зачем это нужно? Вот если код написн с помошью vibeciding это круто время экономит и никого не смушает особо, если работает. А если текст писал не человек (что тоже не совсем так, тк учили сетку изначально на человеческих текстах) , то все пропало даже если текст нормальный(а раз нужен спец детектор, то текст точно нормальный)? Где логика? Конкуренты посмышленнее могут использовать это у себя и быстрее выводить предложения на рынок.
Те выходит что оператор not in (null, 1, 2) по идее всегда будет пустой датасет отдавать, потому что первое сранение всегда дает null, а дальше включается лен вая логика расчета логических выражений и проверок с 1 и 2 уже не будет?
Бездоказательно. Быстрая сортировка требует n log n операций на n элементов, а merge еще n операций на мерж, те условно n*(1+ log n) операций, а сколько потребует операций вычисление хеша для каждого из n элементов? Тут может быть совсем не проще и не быстрее.
А для каких объемов данных это актуально? Для того с чем нормально справляется python наверное отсортировать два множества и пройтись по ним аналогично merge sort оставляя только отсутствующие элементы в одном из списков, будет скорее всего не медленее вычисления хэшей для каждого элемента.
Тут уже не про parsint. Я пытаюсь понять чем цикл по символам строки с проверкой на вхождение в диапазон '0'-'9' медленее регэкспа. В любом же случае нужно пройти все символы строки минимум родин раз. При этом регжксп имеет оверхед на построение конечного автомата.
Если так просто, то можно было бы вытаскивать co2 из воздуха на платформах в океане (там вроде ветра и солнца в избытке чтобы энергию генерить) и полученный сухой лед складывать на дне в глубоких впадинах, где высокое давление 1000 бар и низкая температура (около 4 С) по идее оно там должно почти не сублимироваться и храниться очень долго не попадая обратно в атмосферу. Чем не способ бороться с парниковыми газами.
Ну я это к тому, что сам факт состоит строка только из цифр или нет сам по себе не очень ценен, следом же скорее всего будет вызван конверт в число, а тут сразу имеем это число или эсцепшен, когда не число.
Так приходится вносить правки в большее количество мест в коде, как минимум в репозиторий и еще в то место где нужен новый метод, это может быть не очень удобно.
Я в фин техе. И тут за любую фичу нужно прям зуб давать, что она стоит столько сколько оценили. Казалось бы банкиры богатые, но вот нифига. Просто душу вынут за минимальный перезаклад.
Только часто манагер приходит с этим к своим разрабам, а не к клиенту и получает ровно такой же ответ, но при этом своих легко давить чем клиента, если что можно и в выходные народ вывести. А в итоге выводы не сделаны, и в следующем проекте все повтряется.
Есть ощущение что VO с его валидацией может не полностью решить проблему корректности данных в поле таблицы в БД, так как в слое записи в БД(репозиторий) в значение сущности могут быть внесены изменения. Ну или как обыгрывать ситуацию получения из БД не валидного значения сущности с точки зрения валидации в VO.
25 минут — это среднее время, которое нужно мозгу для полного погружения в задачу. Однако любое внешнее отвлечение — например, просьба коллеги «на минутку» — нарушает этот процесс. После мозгу вновь потребуется то же самое время, чтобы вернуться в исходное рабочее состояние. Частые переключения не только замедляют выполнение задач, но и существенно истощают когнитивные ресурсы, повышая уровень усталости и стресса.
Это наверное очень среднее значение или умноженное на pi. На своем опыте могу сказать, что частые отвлечения больше 'бесят', чем замедляют переключения.
Ну максимум 2-3 минуты нужно повтыкать, чтобы вернуться в контекст. Правда это при условии, что до отвлечения ты был в контексте.
Мы с мелкой собирали робоконструктор с камерой. Умеет ездить и транслировать видео по цене в районе 10К рублей. Правда он блютуз только, но можно и wifi прикрутить, там все на esp
Зачем это нужно? Вот если код написн с помошью vibeciding это круто время экономит и никого не смушает особо, если работает. А если текст писал не человек (что тоже не совсем так, тк учили сетку изначально на человеческих текстах) , то все пропало даже если текст нормальный(а раз нужен спец детектор, то текст точно нормальный)? Где логика? Конкуренты посмышленнее могут использовать это у себя и быстрее выводить предложения на рынок.
Не совсем так. GCC без входных данных (исходников) ничено не сгенерит, а чтобы написать исходники мозги нужны.
Те выходит что оператор not in (null, 1, 2) по идее всегда будет пустой датасет отдавать, потому что первое сранение всегда дает null, а дальше включается лен вая логика расчета логических выражений и проверок с 1 и 2 уже не будет?
Это лечится включением параметра ANSI_NULLS на MS SQL. Добавлено было очень давно, где в 2008 версии.
Бездоказательно. Быстрая сортировка требует n log n операций на n элементов, а merge еще n операций на мерж, те условно n*(1+ log n) операций, а сколько потребует операций вычисление хеша для каждого из n элементов? Тут может быть совсем не проще и не быстрее.
А для каких объемов данных это актуально? Для того с чем нормально справляется python наверное отсортировать два множества и пройтись по ним аналогично merge sort оставляя только отсутствующие элементы в одном из списков, будет скорее всего не медленее вычисления хэшей для каждого элемента.
Даже если таблица создана как unloggable?
Филантропы и государство, врядли кто-то еще захочет.
Тут уже не про parsint. Я пытаюсь понять чем цикл по символам строки с проверкой на вхождение в диапазон '0'-'9' медленее регэкспа. В любом же случае нужно пройти все символы строки минимум родин раз. При этом регжксп имеет оверхед на построение конечного автомата.
Если так просто, то можно было бы вытаскивать co2 из воздуха на платформах в океане (там вроде ветра и солнца в избытке чтобы энергию генерить) и полученный сухой лед складывать на дне в глубоких впадинах, где высокое давление 1000 бар и низкая температура (около 4 С) по идее оно там должно почти не сублимироваться и храниться очень долго не попадая обратно в атмосферу. Чем не способ бороться с парниковыми газами.
А за счет чего быстрее выходит?
Глобально, в любом случае, нужно пройти всю строку и каждый символ чекнуть на принадлежность диапазону >= '0' and <= '9'.
Тут сравнивается скорость скомпиленного в натив кода с кодом выполненным виртуальной машиной?
Ну я это к тому, что сам факт состоит строка только из цифр или нет сам по себе не очень ценен, следом же скорее всего будет вызван конверт в число, а тут сразу имеем это число или эсцепшен, когда не число.
А всякие Int32.Parse насколько хуже чем регулярки?
Так приходится вносить правки в большее количество мест в коде, как минимум в репозиторий и еще в то место где нужен новый метод, это может быть не очень удобно.
Я в фин техе. И тут за любую фичу нужно прям зуб давать, что она стоит столько сколько оценили. Казалось бы банкиры богатые, но вот нифига. Просто душу вынут за минимальный перезаклад.
Только часто манагер приходит с этим к своим разрабам, а не к клиенту и получает ровно такой же ответ, но при этом своих легко давить чем клиента, если что можно и в выходные народ вывести. А в итоге выводы не сделаны, и в следующем проекте все повтряется.
При ребалансе может нарушаться.
Есть ощущение что VO с его валидацией может не полностью решить проблему корректности данных в поле таблицы в БД, так как в слое записи в БД(репозиторий) в значение сущности могут быть внесены изменения. Ну или как обыгрывать ситуацию получения из БД не валидного значения сущности с точки зрения валидации в VO.
Это наверное очень среднее значение или умноженное на pi. На своем опыте могу сказать, что частые отвлечения больше 'бесят', чем замедляют переключения.
Ну максимум 2-3 минуты нужно повтыкать, чтобы вернуться в контекст. Правда это при условии, что до отвлечения ты был в контексте.
Мы с мелкой собирали робоконструктор с камерой. Умеет ездить и транслировать видео по цене в районе 10К рублей. Правда он блютуз только, но можно и wifi прикрутить, там все на esp