Внутри транзакции указывается slippage tolerance ? Если нет, то как проводится эта транзакция если бот видит нужную транзакцию, посылает свою с большим MEV , но потом транзакция жертвы отменяется из за slippage tolerance.
Почему я спрашиваю , на uniswap понажимал , и вижу что проверка slippage tolerance просто перед транзакцией стучится на какой то API и возвращается ответ. Тоесть работает только на клиенте?!
Меня всегда забавляли моменты копошения в пикселях (что будет если 1 - "1"), вместо осознания кругозора человека, уровней его абстракций, построения сложных систем, процессов, выбор технологий и .тд. )))
Я извиняюсь , а как это масштабируется ? Я правильно понимаю никак? Если 1 миллион пользователей одновременно нажмут одну кнопку , они все будут последовательно по очереди обрабатываться?
Ох какое сильное влияние и крепость старых подходов культуры и ценностей, у нас давно многие стартапы в долине абсолютно другой подход культуры выстраивают.
Почти так, но вы пропустили этапы .net core до 3.0 , но не суть.
Контекст как вы описали жил еще во времена IIS когда , контекст был жестко привязан в flow цепочки обработки. Сейчас контекст живет как обычный объект в разрезе жизни потока и сборщика мусора.
Пример с замыканиями описал тут (ниже) , когда контекст живет после отдачи клиенту ответа и закрытия соединения:
Ну не знаю ребят насчет "неправильного использования" , всетаки такие изменения были .net core 2.1 для улучшения многопоточности , как я помню они убрал какие то локи в ситуации: когда внутри asp.net на запрос создавался системный поток , а потом пользователь внутри создавал свой поток без блокировки, и системный отпускался, отдавался Response клиенту и вызывался Dispose на МемориЧеч , ПРИ ЭТОМ Меморич использовался и внутри системного потока , так и внутри пользовательского потока (замыкание на мемчеч).
Не увидел как это масштабируется ? Внутри кода есть потоки ? если 1миллион пользователей вызовут 1 метод, они все будет последовательно по очереди обрабатываться ?
Здесь бы хорошо услышать как реализован massstransit скалинг . Т.к. у кафки это партиции , а у рэбита можно подключать N клиентов к одной очереди.
Самый интересный момент "massstransit" же абстракция, как же эта абстракция работает НАД абсолютно разными типами из перечисленных выше системах (кафка\рэбит) в плане масштабирования?
Допустим Кафка и Микросервис развернут в кибернетусе. Мы увеличиваем у очереди партиции, как сделать так чтобы Кубер это понял и поднял еще инстансы под количества партиций автоматически.
Помню в 2010 читал пост про план развития или от Gnome или от подобных. Их план на 10 лет заключался в показатели 10% рынка десктоп пользователей должно занимать Linux+Gnome. Итог на 2020 как понимаю все знаем...
Посмотрим что теперь у более "бизнес" Canonical из этого получится.
ну я ИлонМаск который через бота веду свой блог. В Боте можно лайкать , из него репостить , голосовашки разные, добавлять комменты.
Аудитория 150 млн человек. После поста в первые 20 секунд больше лайков чем у Леди Гаги около ~270k + прибавляем все остальные выше перечисленные действия.
Что я должен делать? Твой код подойдет для меня (ИлонМаска)?
Если как ты пишешь ""вопрос-ответ", то что миллионы пользователей будут жать на кнопку , ничего не будет происходить т.к. они все встанут последовательно в очередь на ответ?
Тут конечно как я понял автор специально шилит поиск постргри, т.к. если добавить в эти графики результаты от ElasticSearch , там в сотни, а то в тысячи раз быстрей.
Кстати что за программа которая рисует последний план ?
Меня больше в таких программах интересует параллельное выполнение, и многопоточность (ведь как я понял тут "закидываются" в твой код на колбэки, не дожидаясь ответов?!)
Являются ли все созданные объекты от этой библиотеки потокобезопасными?
По поводу Front-running
Внутри транзакции указывается slippage tolerance ? Если нет, то как проводится эта транзакция если бот видит нужную транзакцию, посылает свою с большим MEV , но потом транзакция жертвы отменяется из за slippage tolerance.
Почему я спрашиваю , на uniswap понажимал , и вижу что проверка slippage tolerance просто перед транзакцией стучится на какой то API и возвращается ответ. Тоесть работает только на клиенте?!
Интересно сколько у них ЗП если всего вся прибыль делится на 32 лица )
Меня всегда забавляли моменты копошения в пикселях (что будет если 1 - "1"), вместо осознания кругозора человека, уровней его абстракций, построения сложных систем, процессов, выбор технологий и .тд. )))
Меня больше бесит что нету автоматического уведомления "вам ответили."
Т.к. пишешь в какойнибудь не популярной статье , через месяц тебе там отвечают , а ты если не подписался , то даже и не вспомнить .
Я извиняюсь , а как это масштабируется ? Я правильно понимаю никак? Если 1 миллион пользователей одновременно нажмут одну кнопку , они все будут последовательно по очереди обрабатываться?
Ох какое сильное влияние и крепость старых подходов культуры и ценностей, у нас давно многие стартапы в долине абсолютно другой подход культуры выстраивают.
Почти так, но вы пропустили этапы .net core до 3.0 , но не суть.
Контекст как вы описали жил еще во времена IIS когда , контекст был жестко привязан в flow цепочки обработки. Сейчас контекст живет как обычный объект в разрезе жизни потока и сборщика мусора.
Пример с замыканиями описал тут (ниже) , когда контекст живет после отдачи клиенту ответа и закрытия соединения:
https://habr.com/ru/articles/755778/#comment_25933458
Ну не знаю ребят насчет "неправильного использования" , всетаки такие изменения были .net core 2.1 для улучшения многопоточности , как я помню они убрал какие то локи в ситуации: когда внутри asp.net на запрос создавался системный поток , а потом пользователь внутри создавал свой поток без блокировки, и системный отпускался, отдавался Response клиенту и вызывался Dispose на МемориЧеч , ПРИ ЭТОМ Меморич использовался и внутри системного потока , так и внутри пользовательского потока (замыкание на мемчеч).
Интересное название KQL , т.к. у 3го уровня абстракции кафки - есть KSQL , не запутайтесь )
Не увидел как это масштабируется ? Внутри кода есть потоки ? если 1миллион пользователей вызовут 1 метод, они все будет последовательно по очереди обрабатываться ?
Здесь бы хорошо услышать как реализован massstransit скалинг . Т.к. у кафки это партиции , а у рэбита можно подключать N клиентов к одной очереди.
Самый интересный момент "massstransit" же абстракция, как же эта абстракция работает НАД абсолютно разными типами из перечисленных выше системах (кафка\рэбит) в плане масштабирования?
Я так понимаю ДрагонФлай просто обертка над форком многопоточного редиса - LevelDB?
И странный вопрос в общем у топика если давно есть LevelDB , многие им пользуются .
И еще "Итог" в середине статьи - это конечно...
Конечно такое себе..
Я ожидал такой юз кейс:
Допустим Кафка и Микросервис развернут в кибернетусе. Мы увеличиваем у очереди партиции, как сделать так чтобы Кубер это понял и поднял еще инстансы под количества партиций автоматически.
кто финансирует Vivaldi ?
"Проблема затрагивает пикапы F-150 2021"
2 года с этим шумом ездят? )
Помню в 2010 читал пост про план развития или от Gnome или от подобных. Их план на 10 лет заключался в показатели 10% рынка десктоп пользователей должно занимать Linux+Gnome. Итог на 2020 как понимаю все знаем...
Посмотрим что теперь у более "бизнес" Canonical из этого получится.
ну я ИлонМаск который через бота веду свой блог. В Боте можно лайкать , из него репостить , голосовашки разные, добавлять комменты.
Аудитория 150 млн человек. После поста в первые 20 секунд больше лайков чем у Леди Гаги около ~270k + прибавляем все остальные выше перечисленные действия.
Что я должен делать? Твой код подойдет для меня (ИлонМаска)?
Если как ты пишешь ""вопрос-ответ", то что миллионы пользователей будут жать на кнопку , ничего не будет происходить т.к. они все встанут последовательно в очередь на ответ?
Тут конечно как я понял автор специально шилит поиск постргри, т.к. если добавить в эти графики результаты от ElasticSearch , там в сотни, а то в тысячи раз быстрей.
Кстати что за программа которая рисует последний план ?
Меня больше в таких программах интересует параллельное выполнение, и многопоточность (ведь как я понял тут "закидываются" в твой код на колбэки, не дожидаясь ответов?!)
Являются ли все созданные объекты от этой библиотеки потокобезопасными?
в отличии от придирчивости @lair
Tailwind потрясающий когда ты пишешь компоненты как единный файл , например как у VUE .
А UI Framework DaisyUI я считаю идеальный вариант на основе Tailwind.