Не то, чтобы дорогое, просто стоимость распределена иначе. Там, где в централизованной системе нужны высоконагруженные шины сообщений, протоколы консенсуса, распределённые транзакции и тд, децентрализованная система может довольно просто и быстро обмениваться дельтами между любыми двумя любыми узлами
практически любые) Web 3.0 - дорогое удовольствие, так еще и более медленное. Но есть и такие спорные моменты как у Вас. Кстати, я тут посмотрел - правильно понимаю, что hyoo - Ваш проект? Впечатлило. Также впечатлила и децентрализованная бд. Можете пожалуйста рассказать в ЛС о том, что Вы использовали и как это все создавали? Я просто очень интересуюсь Web 3.0, поэтому и статью эту написал. Может что-то новое из Вашего рассказа подчеркну)
В конце сказано, но вот прямее: переносить все на Web 3.0 - нет смысла. Есть задачи, которые следовало бы переместить на новый интернет, но их достаточно, но не сильно много
Пусть, привязываясь к определённому провайдеру, мы и отходим от основных принципов web 3, данные все равно оставляем в защите. Насчёт latency и throughput - Вы правы, но поэтому в конце статьи и был сделан вывод: web 2 никуда не уйдёт. Про скорости он лучше, так как все хранится на сервере, но есть и куча моментов, когда нужно выбирать: скорость или конфиденциальность. Может быть в скором времени web 4 появится, где все это будет совмещено и решено XD. Кто знает, кто знает...
Ну, оригинальная концепция и вправду была немного другой. Но причину называть это скамом, да и к тому же КРИПТОскамом найти не могу. Может статью стоило прочитать?)
Мы бы конечно хотели быстрые и при этом читаемые программы, и это зачастую возможно. Но когда программист начинает говорить «Я бы мог сделать это на несколько наносекунд быстрее, используя используя массив вместо словаря и вычисляя индекс с помощью младших битов ключа!», важно подумать о том, что мы отдаём взамен на наносекунды.
Об этом тоже сказано в статье) На самом деле у меня была похожая с вашей сутуация, что нужно было парсить тысячи пользователей ВК, так еще и все это в бд сохранять. Работало больше 10 минут - точно не скажу, потому что на 10 минутах я понял, что это как-то долго) добавил горутин - все стало выполняться меньше минуты. В данном случае горутины - спасение, так как данные не взаимодействуют между собой или с одними и теми же переменными, но бывают ситуации похуже, там уже как-будто бы go сильно не спасет)
И, конечно, существует много разных специализированных и встраиваемых систем, где скорость имеет значение, например: драйверы ввода‑вывода, спутники и промышленные системы управления. Я допускаю все эти исключения, но утверждаю, что эти задачи не типичны для Go.
Я подумаю над тем, что бы написать про memory models, happens-before и т.д, но мне кажется, что такое уже могли написать, нет? И ещё, если я напишу про такое, Вы будете первым читателем?)
Как по мне, один из лучших ноутбуков - это ThinkPad. Сам им пользуюсь (x390) и очень доволен. Единственный для некоторых минус - это не изменяемая озу, но это именно в моей модели. Для моих задач 8 гигов хватает с головой, учитывая, что у меня стоит арч и пользуюсь я вимом
Arch - твой выбор
тоже верно! Спасибо, что поделились статьей!!
Вообще - я подумываю написать в ближайшем времени статью с бОльшим углублением во все это
практически любые) Web 3.0 - дорогое удовольствие, так еще и более медленное. Но есть и такие спорные моменты как у Вас. Кстати, я тут посмотрел - правильно понимаю, что hyoo - Ваш проект? Впечатлило. Также впечатлила и децентрализованная бд. Можете пожалуйста рассказать в ЛС о том, что Вы использовали и как это все создавали? Я просто очень интересуюсь Web 3.0, поэтому и статью эту написал. Может что-то новое из Вашего рассказа подчеркну)
В конце сказано, но вот прямее: переносить все на Web 3.0 - нет смысла. Есть задачи, которые следовало бы переместить на новый интернет, но их достаточно, но не сильно много
Вот в этом то и проблема. Появилась куча людей, которые хотят на этом заработать. Вместе с этим появилось и искаженое представление о веб 3.0
отличный пример!
Пусть, привязываясь к определённому провайдеру, мы и отходим от основных принципов web 3, данные все равно оставляем в защите. Насчёт latency и throughput - Вы правы, но поэтому в конце статьи и был сделан вывод: web 2 никуда не уйдёт. Про скорости он лучше, так как все хранится на сервере, но есть и куча моментов, когда нужно выбирать: скорость или конфиденциальность. Может быть в скором времени web 4 появится, где все это будет совмещено и решено XD. Кто знает, кто знает...
Ну, оригинальная концепция и вправду была немного другой. Но причину называть это скамом, да и к тому же КРИПТОскамом найти не могу. Может статью стоило прочитать?)
Что именно?
В данном случае медленный код - код, над которым Вы не пыхтели в погоне за скоростью, быстрый - наоборот
Вас же цитирую. Зачем спрашивать, если сами знаете?)
Об этом тоже сказано в статье)
На самом деле у меня была похожая с вашей сутуация, что нужно было парсить тысячи пользователей ВК, так еще и все это в бд сохранять. Работало больше 10 минут - точно не скажу, потому что на 10 минутах я понял, что это как-то долго) добавил горутин - все стало выполняться меньше минуты. В данном случае горутины - спасение, так как данные не взаимодействуют между собой или с одними и теми же переменными, но бывают ситуации похуже, там уже как-будто бы go сильно не спасет)
Добавлено)
интересно получается, я тоже занимаюсь бекендом и с firefox с кучей вкладок, dbeaver, neovim, возможно еще chromium - еще минимум 3 гига остается
Я подумаю над тем, что бы написать про memory models, happens-before и т.д, но мне кажется, что такое уже могли написать, нет? И ещё, если я напишу про такое, Вы будете первым читателем?)
Не нужна тебе эта ссылка)
Как по мне, один из лучших ноутбуков - это ThinkPad. Сам им пользуюсь (x390) и очень доволен. Единственный для некоторых минус - это не изменяемая озу, но это именно в моей модели. Для моих задач 8 гигов хватает с головой, учитывая, что у меня стоит арч и пользуюсь я вимом
Думаю, что нет, не утратило. Спасибо на указание, исправил