Все еще хуже: у IRS лимит $600 (на семью, 300 индивидуально) в год на вычитание пожертвований из дохода. Все остальное - это вполне посленалоговые деньги.
Ну это же все же эксплуатация функции поиска (не предназначенного для перечисления пакетов). При наличии локальной базы всех пакетов и уверенности, что эта база действительно содержит все пакеты оно даже наверно как-то сработает. Если поиск возвращает действительно все результаты.
Но в нугете нет локальной базы. Поиск есть (Web API), но так же есть скрытые пакеты, которые поиском найти нельзя, и у результатов есть ограничение по глубине. Кроме того, в нугете есть пакеты, название которых состоит из одних цифр. В идентификаторах пакетов можно использовать практически любые Unicode символы. Ну и поиск там не по регэкспу. Замучаетесь придумывать поисковые запросы, которые покроют действительно все.
О, мы на 120 до сих пор сидим потому, что на 130+ поменяли правила приведения типов и у нас запросы, что ORM генерирует, начинают некорректные результаты возвращать.
У клиента нет задачи перечислить все пакеты, кода, который это делает там просто не существует. Он пользуется RegistrationsBaseUrl/3.6.0 для получения метаданных пакетов, указанных как зависимости по идентификатору и версии пакета.
Клиент работает используя документированный протокол, изучаеть его код стоит разве что для более полного понимания, что конкретно он делает.
Кроме того, пакеты можно скрывать. На скрытые пакеты ссылок нет в принципе и в коде соответствующих страниц указаны инструкции поисковикам игнорировать их.
Расскажите лучше про то, как сбор и хранение логов организованы. Как они собираются с узлов сети? Как устроено хранилище, которое может писать логи с достаточной для обработки крупных проектов скоростью? Какая задержка между обработкой запроса и его появлением в логах?
У меня фильтров нет и пленки не видел уже очень давно. Но и накипи в чайнике не образуется.
А, ну или файлить itemized tax return.
Все еще хуже: у IRS лимит $600 (на семью, 300 индивидуально) в год на вычитание пожертвований из дохода. Все остальное - это вполне посленалоговые деньги.
Какие электромобили из Китая в США продаются? От чего эти пошлины должны защитить?
Ну это же все же эксплуатация функции поиска (не предназначенного для перечисления пакетов). При наличии локальной базы всех пакетов и уверенности, что эта база действительно содержит все пакеты оно даже наверно как-то сработает. Если поиск возвращает действительно все результаты.
Но в нугете нет локальной базы. Поиск есть (Web API), но так же есть скрытые пакеты, которые поиском найти нельзя, и у результатов есть ограничение по глубине. Кроме того, в нугете есть пакеты, название которых состоит из одних цифр. В идентификаторах пакетов можно использовать практически любые Unicode символы. Ну и поиск там не по регэкспу. Замучаетесь придумывать поисковые запросы, которые покроют действительно все.
Вы так говорите, как будто это что-то плохое.
Ну как нормальный… нормальным он станет когда перестанет считать одинарный перевод строки как новый абзац.
О, мы на 120 до сих пор сидим потому, что на 130+ поменяли правила приведения типов и у нас запросы, что ORM генерирует, начинают некорректные результаты возвращать.
del
Пакетов сотни тысяч (не считая индивидуальных версий, с ними - миллионы). Какой use case у этой команды был бы? У какого пакетного менеджера она есть?
Весь FAANG активно загоняет людей обратно в офисы.
У клиента нет задачи перечислить все пакеты, кода, который это делает там просто не существует. Он пользуется
RegistrationsBaseUrl/3.6.0
для получения метаданных пакетов, указанных как зависимости по идентификатору и версии пакета.Клиент работает используя документированный протокол, изучаеть его код стоит разве что для более полного понимания, что конкретно он делает.
А в рейт-лимиты можно просто в браузере вляпаться, если слишком активно бегать по сайту:
https://www.nuget.org/packages?page=1501&sortBy=relevance - попробуйте нажать next. Посчитайте, сколько вы перечислите таким образом.
Кроме того, пакеты можно скрывать. На скрытые пакеты ссылок нет в принципе и в коде соответствующих страниц указаны инструкции поисковикам игнорировать их.
Существуют страницы для каждого пакета, но не на каждую такую страницу есть ссылка.
Плюс, цель была - не привлекать внимание санитаров. Если сайт долбить запросами, сайт вам скоро отвечать станет неохотно.
Видели мы эту генерацию в Старфилде…
Как диагноз, синдром Аспергера не ставится лет 10 уже как.
Расскажите лучше про то, как сбор и хранение логов организованы. Как они собираются с узлов сети? Как устроено хранилище, которое может писать логи с достаточной для обработки крупных проектов скоростью? Какая задержка между обработкой запроса и его появлением в логах?
С каких пор возможность совместной работы из экселя исчезла?..
Тогда собеседованя не работали бы совсем. И соревнования по программированию не существовали бы.