Спасибо! Отличная мысль с годом постройки так как уже в данных есть поле с типовым проектом домов чтобы отличать здания панельный дом 60х от башни Вулыха итп.
Браво за ваши выдумку и умения, зато в общаге послужило!!!
Свой первый HP DeskJet 400 когда заканчивались чернила заправлял советской синькой, чтобы печатать лабы в универе. Но иногда сопла картриджа забивались и приходилось копить на новый картридж, отказывая себе в веселье.
С профилированием сложнее всего в распределенных системах. И измеряющий производительность должен как минимум осознавать разницу между сэмплирующим и инструментирующим код профилировщиком.
А еще профилирование позволяет бороться с коллегами усложняющими проект там где не надо.
SQLite действительно живее всех живых и является предком DuckDB.
Можете рассматривать DuckDB как SQLite для аналитики, так как модели данных у них и подход к построению базы отличаются. Как минимум лучше чтобы делать запросы быстрее работающие с агрегацией данных и работать с форматами данных из Big Data мира: parquet, arrow, iceberg.
Ну, на самом деле тут как с метро. Я бы не хотел бы жить рядом с Ашаном. Потому что возле соседнего со мной после открытия рядом метро теперь почти всегда толпы народу. В то же время, то что он находится в пешей доступности (несколько условной - 30 минут) это очень и очень приятно.
Вводишь в поле "Что ищем:" на сайте дистанцию и тип объекта. В поле "Что не хотим:" вводишь так же дистанцию и объект к которому ты не хочешь жить близко. Можно комбинировать логические условия or/and/not с доступными полями из датасета. Результата получаешь на карте тем цветом, который указал. Основные предикаты я привел в пример здесь. Любой запрос - за счет вашего браузера)
Похоже нет правильного решения. Есть работающие решения, зависящие от субъективных предпочтений исследователя. Вы предпочитаете решать через name, я через brand, а у кого-то свой магический рецепт из комбинации тегов.
Нет, нормализацию и причёсывание приходится делать потребителям данных, а найденные косяки по возможности исправлять.
За последние 12 лет в Москве почти на каждом здании появились адреса - это существенный прогресс (видимо независимые таксопарки и софт для тарификации помогли, а так же логистика и доставка сделали это).
За прошедшие три года я не увидел значительных улучшений, например, по тегам метрополитена в Москве. По обозначению подъездов, по актуализации POI.
И что я вижу происходит в реальности - ретейл и конторы геоаналитики делают свой локальный производный OSM с уточнениями и не делятся этими данными, а мэпперы реагируют на сигналы интересующих их валидаторов и у каждого свое хобби.
И поле "operator" тоже часто импортированное. Для сетевых магазинов в этом есть и преимущество. Например есть Rocketdata. Они актуализируют OSM данные на основе данных своих клиентов. Не думаю что сеть супермаркетов шлет им не существующие локации. Уж клиенты и обозначение в Maps.Me и навигаторах им нужнее. И это всего лишь один из поставщиков.
неймы заполняют люди с полей
Кто нибудь регулярно следит за ними, нормализует и меняет е на ё итп?
Не жестче работы на заводе. Как раз тут недавно "Приходите к нам на завод, у нас тяжело". Там еще турникеты, непрерывность производства и особая дружеская атмосфера.
Вообще популярная нынче тема зазывать в кочегарку! К чему бы это?
Спасибо! У меня к вам вопрос, всегда ли количество обозначает качество? Есть ли уверенность что мгазины крупных сетей, где указан name но не указан brand - актуальны и существуют на данный момент времени?
Сознательно не трачу время на подготовку к алгоритмическим интервью, leetcode и работе в таких компаниях. Обычно где желающих очередь, там и отношение к сотрудникам как к легко заменяемому ресурсу.
Спасибо! Отличная мысль с годом постройки так как уже в данных есть поле с типовым проектом домов чтобы отличать здания панельный дом 60х от башни Вулыха итп.
Вы либо слишком прямолинейный человек, либо "засланный казачок" на этот ресурс. Или разработка программ это не ваше?
Хорошо, если Вася будет наблюдать рекорд Вити за кружкой нефильтрованного)
Вот так всегда - как бежать, так снова Вася!) Мотивация за его добросовестность.
Ждем когда нейросетки заменят кодирование - стабильно работая без больничных и отпусков.
Напомнило когда мой коллега шутил под руку, когда я на test env какие-то админские задачи выполнял. Ну и в какой-то момент случился rm -rf
Браво за ваши выдумку и умения, зато в общаге послужило!!!
Свой первый HP DeskJet 400 когда заканчивались чернила заправлял советской синькой, чтобы печатать лабы в универе. Но иногда сопла картриджа забивались и приходилось копить на новый картридж, отказывая себе в веселье.
Есть три вида лжи: ложь, наглая ложь и бенчмарк.
Конечно: https://benchmark.clickhouse.com/ А можно начинать с документации что это и зачем.
С профилированием сложнее всего в распределенных системах. И измеряющий производительность должен как минимум осознавать разницу между сэмплирующим и инструментирующим код профилировщиком.
А еще профилирование позволяет бороться с коллегами усложняющими проект там где не надо.
SQLite действительно живее всех живых и является предком DuckDB.
Можете рассматривать DuckDB как SQLite для аналитики, так как модели данных у них и подход к построению базы отличаются. Как минимум лучше чтобы делать запросы быстрее работающие с агрегацией данных и работать с форматами данных из Big Data мира: parquet, arrow, iceberg.
Не знаю, я проходил лидом в берлинский стартап - job offer так получал.
Нужно понимать алгоритмическую сложность, понимать как работает то что используешь и обходить стороной тех кто пишет свои велосипеды для аналитики...
Хорошо, подход более инженерный чем у всех остальных кандидатов!
Было бы интересно увидеть как вы решили бы эту же задачу на Polars и DuckDB в Python. И в сравнение и область применимости panda/polars/duckdb
Вводишь в поле "Что ищем:" на сайте дистанцию и тип объекта. В поле "Что не хотим:" вводишь так же дистанцию и объект к которому ты не хочешь жить близко. Можно комбинировать логические условия or/and/not с доступными полями из датасета. Результата получаешь на карте тем цветом, который указал. Основные предикаты я привел в пример здесь. Любой запрос - за счет вашего браузера)
Или вы имели ввиду что-то другое?
Самые веселые define, что можно придумать. exception прекрасен!
Ссылка на репозиторий проекта
Похоже нет правильного решения. Есть работающие решения, зависящие от субъективных предпочтений исследователя. Вы предпочитаете решать через name, я через brand, а у кого-то свой магический рецепт из комбинации тегов.
За последние 12 лет в Москве почти на каждом здании появились адреса - это существенный прогресс (видимо независимые таксопарки и софт для тарификации помогли, а так же логистика и доставка сделали это).
За прошедшие три года я не увидел значительных улучшений, например, по тегам метрополитена в Москве. По обозначению подъездов, по актуализации POI.
И что я вижу происходит в реальности - ретейл и конторы геоаналитики делают свой локальный производный OSM с уточнениями и не делятся этими данными, а мэпперы реагируют на сигналы интересующих их валидаторов и у каждого свое хобби.
И поле "operator" тоже часто импортированное. Для сетевых магазинов в этом есть и преимущество. Например есть Rocketdata. Они актуализируют OSM данные на основе данных своих клиентов. Не думаю что сеть супермаркетов шлет им не существующие локации. Уж клиенты и обозначение в Maps.Me и навигаторах им нужнее. И это всего лишь один из поставщиков.
Кто нибудь регулярно следит за ними, нормализует и меняет е на ё итп?
Не жестче работы на заводе. Как раз тут недавно "Приходите к нам на завод, у нас тяжело". Там еще турникеты, непрерывность производства и особая дружеская атмосфера.
Вообще популярная нынче тема зазывать в кочегарку! К чему бы это?
Спасибо! У меня к вам вопрос, всегда ли количество обозначает качество? Есть ли уверенность что мгазины крупных сетей, где указан name но не указан brand - актуальны и существуют на данный момент времени?
Хорошо, как удостоверюсь что это не просто PR - возьмут на испытательный без этих олимпиад, так возможно и пересмотрю свое отношение...
Сознательно не трачу время на подготовку к алгоритмическим интервью, leetcode и работе в таких компаниях. Обычно где желающих очередь, там и отношение к сотрудникам как к легко заменяемому ресурсу.
Хотя мне иногда все же приходится освежать знания и использовать асимптотическую сложность алгоритмов при решении своих задач. Последний пример из своей практики для задач маршрутизации описал в Онлайн визуализация алгоритмов: жадного, Дейкстры, A* и двунаправленного поиска