Не совсем согласен с введенным вами термином "Парето-предела". Вероятно тут подразумевается "принцип Парето 80/20", говорящий о том что обычно большая доля эффекта (80%) зависит от меньшей доли причин (20%). Но вообще то это про другое. Типичный перекос распределения причин/эффектов к "невозможности улучшить всё одновременно" напрямую не относится.
Если вас не устраивает процесс найма, то, скорее всего вас не устроят и коллеги, нанятые по этому процессу.
Не вижу прямой связи. Есть коллеги которые работают со дня основания компании. Есть - нанятые другим, более адекватным эйчаром. Автор скорее сетует на проблему субъективности в оценках отдельных HR-менеджеров. От паршивой овцы - все стадо страдает. Имел опыт общения с одной такой.
Интересный подход, спасибо за разбор! Но возникает закономерный вопрос — зачем реализовывать такую логику на C#, если даже базовые SQL-движки справляются с задачами декартова произведения и агрегаций на порядок быстрее?
Например, аналогичная операция в SQL Server (декартово произведение 1 млн × 1 млн и выборка первых 1 млн строк):
WITH T1 AS (
SELECT TOP (1000000) ROW_NUMBER() OVER (ORDER BY (SELECT NULL)) - 1 AS a
FROM sys.all_objects AS a
CROSS JOIN sys.all_objects AS b
),
T2 AS (
SELECT TOP (1000000) ROW_NUMBER() OVER (ORDER BY (SELECT NULL)) - 1 AS b
FROM sys.all_objects AS a
CROSS JOIN sys.all_objects AS b
)
SELECT TOP (1000000) *
FROM T1
CROSS JOIN T2;
У меня этот запрос выполняется за ~4 секунды.
А вот эквивалент для ClickHouse (1 млн × 1 млн, первые 1 млн. строк):
SELECT *
FROM
(
SELECT number AS a
FROM numbers(1000000)
) AS t1
JOIN
(
SELECT number AS b
FROM numbers(1000000)
) AS t2
ON 1 = 1
LIMIT 1000000;
На ClickHouse — ~0.12 сек.
Понятно, что у DaxSharp немного иная цель — эмулировать семантику DAX и SUMMARIZECOLUMNS в .NET-приложениях. Но если говорить исключительно о производительности и объёмах, SQL-инструменты всё ещё выглядят значительно предпочтительнее.
Лично я практически перестал ходить на Stack Overflow, когда модераторы заблокировали несколько моих ответов, которые я по незнанию новых правил отредактировал в ChatGPT. Да нейронка помогла мне их оформить и привести в приличный вид, но идеи то были мои. Видимо детектор все же их зарубил. К тому же информация была просто удалена с сайта, и копии у меня не осталось. Это показалось мне несправедливым, от чего пропало желание вообще посещать это веб-ресурс. Через какое-то время администрация сайта видимо опомнилась и вроде бы разрешила ответы от ИИ, но было уже поздно. Народ вовсю переходил на помощь от LLM.
Не совсем согласен с введенным вами термином "Парето-предела". Вероятно тут подразумевается "принцип Парето 80/20", говорящий о том что обычно большая доля эффекта (80%) зависит от меньшей доли причин (20%).
Но вообще то это про другое. Типичный перекос распределения причин/эффектов к "невозможности улучшить всё одновременно" напрямую не относится.
Еще одна версия гибели динозавров?
Так может так и будет. Тонкости процесса вряд ли кто расскажет.
Не вижу прямой связи. Есть коллеги которые работают со дня основания компании. Есть - нанятые другим, более адекватным эйчаром. Автор скорее сетует на проблему субъективности в оценках отдельных HR-менеджеров. От паршивой овцы - все стадо страдает. Имел опыт общения с одной такой.
ага, а перед этим банк открыть)
Думаю все сгорит при первой же молнии неподалеку. Или есть защита?
Летать и опылять - это хорошо. Но вот когда она мёд давать начнёт — вот это я понимаю будет технология!
Всегда хотел узнать - правда ли что они голову в песок прячут? Ну или хотя бы пытаются?
Интересный подход, спасибо за разбор! Но возникает закономерный вопрос — зачем реализовывать такую логику на C#, если даже базовые SQL-движки справляются с задачами декартова произведения и агрегаций на порядок быстрее?
Например, аналогичная операция в SQL Server (декартово произведение 1 млн × 1 млн и выборка первых 1 млн строк):
У меня этот запрос выполняется за ~4 секунды.
А вот эквивалент для ClickHouse (1 млн × 1 млн, первые 1 млн. строк):
На ClickHouse — ~0.12 сек.
Понятно, что у DaxSharp немного иная цель — эмулировать семантику DAX и SUMMARIZECOLUMNS в .NET-приложениях. Но если говорить исключительно о производительности и объёмах, SQL-инструменты всё ещё выглядят значительно предпочтительнее.
Сканер криптобирж.
🔗 https://github.com/Alex-ok2005/crypto-arbitrage-scanner
🔗 https://habr.com/ru/articles/911056/
Она выбрала быть счастливой...
На самом деле в статье нет ответа на свой же поставленный вопрос. Этот пост как раз все и проясняет. Респект.
Возможно смысл в том, чтобы испытать на максимальной скорости, но не строить длинную трассу для ее достижения.
может все таки дофамин
Так ему ИИ и тесты написал )
Да, но они сначала приняли их, и ответы провисели некоторое время. Удалили без предупреждения, точнее написали уже по факту.
Лично я практически перестал ходить на Stack Overflow, когда модераторы заблокировали несколько моих ответов, которые я по незнанию новых правил отредактировал в ChatGPT. Да нейронка помогла мне их оформить и привести в приличный вид, но идеи то были мои. Видимо детектор все же их зарубил. К тому же информация была просто удалена с сайта, и копии у меня не осталось. Это показалось мне несправедливым, от чего пропало желание вообще посещать это веб-ресурс.
Через какое-то время администрация сайта видимо опомнилась и вроде бы разрешила ответы от ИИ, но было уже поздно. Народ вовсю переходил на помощь от LLM.
Это как кризис физики конца XIX века. Когда многие учёные считали, что основные законы природы уже открыты, а осталось лишь уточнить детали.
Надо на гитхабе посмотреть, может уже есть готовые. ))
Не совсем понял, вы котировки получаемы с mexc переводите на protobuf? Зачем?