Я так понимаю это не подходит к бэкенду который мультитенант и где тупо открыто 10 коннекшенов например в пуле с креденшиалс никак не связанных с юзером который дергает напирмер апишку? Сессия к базе открыта же и просто шарится между всеми через пул, и юзер который это делает не имеет юзера в базе, так что current user не имеет связи с ним.
особенно на начальном этапе разработки в стартапах
---
Ну вот примерно так мы и пилили стартап, а он взял и не умер. Теперь не может выкопаться из количество проблем и тикетов от пользователей. Особенно саязаннвх с распилом монолита...
Я долго присматриваюсь с Сагам. Пока что думаю запилить их но без компенсаций. Но боюсь предлагать то в чем сам не уверен.
Слишком много у нас процессов по принципу "дернул и забыл". И даже это не самое плохое. Самое плохое это что не трэкается состояние процесса. По любой проблеме нужно лезть глубоко в логи и копаться.
Статью еще не читал, но может прояснит мне пару моментов и мне будет не так страшно предложить натянуть как-нибудь сагу на существующий код.
Давайте возьмем бизнес который не шаверма, а нормальный такой бизнес. Который деньги делает.
Без межсервисного взаимодействия бизнес работать просто не будет. А так как обычно процессы начинаются в одном департаменте а заканчиваются в другом, то увы, тут либо саги, либо 2х фазные коммиты, либо костыли.
Или все объедините в одну базу, в монолит, и под одну транзакцию?
Понятно что крадовский апи на движок ведения блога саги не нужны.
И я не понял как ослабление консистентности позволяет избежать саг? Типа, дернем апишку, а там будь что будет? Или имеется в виду что просто не будем думать о компенсациях, но все равно будет где то трекать состояние процесса? Потому что если нет, это как-то очень плохо выглядит.
Сколько не пытался VS использовать. Нет, я понимаю что на вкус и цвет... но после Webstorm хочется плакать. Ровно на 5 минут меня хватает... и возвращаюсь к тяжелому вебсторму. Хотя на M3 и 32 памяти вебсторм летает...
Ну вот в доках конкретно написано на что заголовок влияет. А тут в статье не понятно. Может я поиграться хочу, нужно мне думать про embedding и защищаться?
Это что то на low level... И как я понял в сорсах линукса такого кода много и он кому-то мешает.
Попросил claude объяснить...
Вот пример с переполнением:
unsigned int a = UINT_MAX; // Максимальное значение для беззнакового целого числа
unsigned int b = 1;
if (a + b < a) {
// Произошло переполнение целого числа
// Обработать переполнение соответствующим образом
printf("Произошло переполнение!\n");
// ...
} else {
// Переполнения нет, продолжить нормальное выполнение
printf("Переполнения нет.\n");
// ...
}
В этом примере a присваивается максимальное значение для беззнакового целого числа (UINT_MAX), а b присваивается значение 1. При сложении a и b результат превышает максимальное значение, вызывая переполнение. Условие if (a + b < a) оценивается как истинное, указывая на то, что произошло переполнение, и выполняется код внутри блока if для соответствующей обработки переполнения.
Мы как раз занимаемся интеграцией Istio. Но вот есть проблемка и спецы говорят что простого решения нету.
Проблема что у нас уже есть где-то 1000 сервисов. Часть из них разговаривают по http. Бывают даже цепочки вызовов.
Так вот есть какое-то ограничение что если я один сервис добавляю в мешь, что другой сервис который не в мешь не сможет до него достучаться.
Какой сервис должен быть занесен первым в мешь на данный момент узнать не возможно. Может быть topological sort все х сервисов может помочь но не уверен есть циклы).
Задеплоить все и сразу в мешь это надо делать downtime. Не можем.
Девопсы предлагают делать копии сервисов, заносить их в мешь и так по цепочке... и менять хотсны к копиям сервисов у тех сервисов которые к ним стучатся. Мне кажется это не реально и криво...
Приходилось ли кому интегрировать мешь в существующую систему? Не верю что нет подхода по-проще.
Самой большой проблемой загрузки файлов была всегда связка browser-server.
Я помню времена когда загрузчики писались на флешь, что бы можно было много файлов загружать, делать resume.
Конечно сегодня дела обстоят лучше. Но вот у меня стоит задача сделать загрузку до 3k файлов с браузера. Все еще не решил, идти в сторону обычного загрузчика с браузера, или все таки упороться в маутинг хранилища как диска в операционке. Но кажется задача не простая.
Я в этой индустрии лет 7, и по моим наблюдениям нет конкуренции между отелями и квартирами на съем.
И сегодня отели сдают комнаты на airbnb.
Я так понимаю это не подходит к бэкенду который мультитенант и где тупо открыто 10 коннекшенов например в пуле с креденшиалс никак не связанных с юзером который дергает напирмер апишку? Сессия к базе открыта же и просто шарится между всеми через пул, и юзер который это делает не имеет юзера в базе, так что current user не имеет связи с ним.
Или я ошибаюсь?
Я не понял нахрена все это. Особенно когда сегодня почти любая модель жпт тебе и запрос напишет, и дтошки создаст, и тестами покроет и т.д.
Зачем все это?
особенно на начальном этапе разработки в стартапах
---
Ну вот примерно так мы и пилили стартап, а он взял и не умер. Теперь не может выкопаться из количество проблем и тикетов от пользователей. Особенно саязаннвх с распилом монолита...
Я долго присматриваюсь с Сагам. Пока что думаю запилить их но без компенсаций. Но боюсь предлагать то в чем сам не уверен.
Слишком много у нас процессов по принципу "дернул и забыл". И даже это не самое плохое. Самое плохое это что не трэкается состояние процесса. По любой проблеме нужно лезть глубоко в логи и копаться.
Статью еще не читал, но может прояснит мне пару моментов и мне будет не так страшно предложить натянуть как-нибудь сагу на существующий код.
Давайте возьмем бизнес который не шаверма, а нормальный такой бизнес. Который деньги делает.
Без межсервисного взаимодействия бизнес работать просто не будет. А так как обычно процессы начинаются в одном департаменте а заканчиваются в другом, то увы, тут либо саги, либо 2х фазные коммиты, либо костыли.
Или все объедините в одну базу, в монолит, и под одну транзакцию?
Понятно что крадовский апи на движок ведения блога саги не нужны.
И я не понял как ослабление консистентности позволяет избежать саг? Типа, дернем апишку, а там будь что будет? Или имеется в виду что просто не будем думать о компенсациях, но все равно будет где то трекать состояние процесса? Потому что если нет, это как-то очень плохо выглядит.
Какая-то чатжптшная статья. Бред какой-то, но написан умно.
Это какой-то новый уровень спама?
Тут на реддите его разоблачили - https://www.reddit.com/r/golang/s/ZNyc3JQ10E
Как раз жаваскрипту никакой бабел не нужен для этого. Там можно мокать как душе угодно в рантайме без единой дополнительной библиотеки.
Сравнили х... с пальцем 😑
В динамических языках можно что угодно делать и без библиотек.
В компилируемых, даже через рефлексию не всегда можно выкрутиться. Поэтому самое просто и в лоб это интерфейс.
Сколько не пытался VS использовать. Нет, я понимаю что на вкус и цвет... но после Webstorm хочется плакать. Ровно на 5 минут меня хватает... и возвращаюсь к тяжелому вебсторму. Хотя на M3 и 32 памяти вебсторм летает...
Ну вот в доках конкретно написано на что заголовок влияет. А тут в статье не понятно. Может я поиграться хочу, нужно мне думать про embedding и защищаться?
Только у меня упоминание "
Cross-Origin-Opener-Policy" в этой статье вызывает вопросы? Кто-то не почистил ответ чатжпт?
Это что то на low level... И как я понял в сорсах линукса такого кода много и он кому-то мешает.
Попросил claude объяснить...
Вот пример с переполнением:
В этом примере
a
присваивается максимальное значение для беззнакового целого числа (UINT_MAX
), аb
присваивается значение 1. При сложенииa
иb
результат превышает максимальное значение, вызывая переполнение. Условиеif (a + b < a)
оценивается как истинное, указывая на то, что произошло переполнение, и выполняется код внутри блока if для соответствующей обработки переполнения.Мы как раз занимаемся интеграцией Istio. Но вот есть проблемка и спецы говорят что простого решения нету.
Проблема что у нас уже есть где-то 1000 сервисов. Часть из них разговаривают по http. Бывают даже цепочки вызовов.
Так вот есть какое-то ограничение что если я один сервис добавляю в мешь, что другой сервис который не в мешь не сможет до него достучаться.
Какой сервис должен быть занесен первым в мешь на данный момент узнать не возможно. Может быть topological sort все х сервисов может помочь но не уверен есть циклы).
Задеплоить все и сразу в мешь это надо делать downtime. Не можем.
Девопсы предлагают делать копии сервисов, заносить их в мешь и так по цепочке... и менять хотсны к копиям сервисов у тех сервисов которые к ним стучатся. Мне кажется это не реально и криво...
Приходилось ли кому интегрировать мешь в существующую систему? Не верю что нет подхода по-проще.
Смотю на наш легаси с node 8 и плачу =))
Самой большой проблемой загрузки файлов была всегда связка browser-server.
Я помню времена когда загрузчики писались на флешь, что бы можно было много файлов загружать, делать resume.
Конечно сегодня дела обстоят лучше. Но вот у меня стоит задача сделать загрузку до 3k файлов с браузера. Все еще не решил, идти в сторону обычного загрузчика с браузера, или все таки упороться в маутинг хранилища как диска в операционке. Но кажется задача не простая.
Жава вроде и так кросс платформенная... зачем?
Где работающему человеку взять время на все эти сертификации? ?
Я когда то пилил проектына реакте + експресс.
Сегодня пилю на nest.js бэк, под фронт на реакте который пилится другими людьми.
Для чего конкретно придуман Next.JS?
Т.е. оборачивать логгером все вызовы функций? =))
Потому как имея
err := MyFunc();
if err != nil {
log(line, err);
}
не скажет вам в каком месте в MyFunc была ошибка если там
MyFunc() {
err := func1()
if err != nil {
return err;
}
err := func2()
if err != nil {
return err;
}
err := func...N()
if err != nil {
return err;
}
}
А в каждой такой функции есть еще функции функции... а там внутри еще и опенсорсные пекеджи...
Что только не сделаешь в отсутствие стэка.