Да, индексирования нет, но ничего не мешает внутри грейна использовать, например, данные из базы
Тогда получается дублирование функций хранилища грейнов. И основной плюс (грейны могут обрабатывать БОЛЬШЕ событий из разных источников, чем чтение\запись в базу) исчезает.
Так же исчезает второй плюс - не нужно ручками ничего писать (никакой инфраструктуры, с сохранением индексов и проч).
И чем это лучше, чем просто кучи акторов, связанные персистентными шинами? Ничем.
Для Игрового Лобби, Miro, сервиса сокращения URL - да, отлично подходит.
1) Как искать документы (акторы/Grain, Rich Domain Model) не только по ID (как Id матчей и т.д)? Через другой актор?
У меня мой ConcurrentDictionary потянет 10к RPS, а потянет ли сеть до Silo? :)
2) Могу ли я добавить\изменить поле
3) Как делать транзакции
4) Что с дедлоками
5) Куда и как это сохраняется
6) И т.д
И надо книгу читать )
Вторая проблема не так очевидна — это так называемая цепная реакция. Когда пользователь поднимает какой-то грейн, а тот в свою очередь может неявно поднять другие грейны в системе. Как это происходит: пользователь получает свои состояния, а у пользователя есть друзья и он получает состояния своих друзей. Таким образом, вся система держит все свои грейны в памяти и если у нас 1000 пользователей, и у каждого 100 друзей, то 100 000 грейнов могут быть активны просто так. Такого случая тоже нужно избегать — как-то хранить стейты друзей в какой-то общей памяти.
В этом плане просто шины и кучи stateless обработчиков данных из шин гораздо проще в плане разработки\отладки\поддержки\масштабируемости.
Мы завалили проект и у нас развалился весь флоу и пошли копипасты логики. Но вы хотите взять какой-то Orleans! Кто это все делать будет?
К сожалению, даже понять что такое декартов квадрат и почему модели не могут делать Зелененький Глазковыколупыватель вместо Сиреневенькового - не вышло.
Даже "Рассуждения" и зачем они нужны статистически - понять не удалось :)
Но многих буквально трясет, когда они слышат об успехах рекламных фирм, или простых геев-иудеев Сэров Альтманов.
Там нового ничего нет, последние прорывы (будет актуально и через 10-20 лет):
1) machine learning/симуляция с более абстрактной моделью (Симуляция пены: центр пузыря, радиус\объём - ethz)
2) либо "мы взяли и заменили кусок функции приближением\таблицей" - почти 9\10 публикаций по этим самым научным вычислениям (десятая публикация - новый фреймворк с новой топологической сортировкой, с integer/linear programming. Иногда сложной эвристикой на основе нейросети :) ).
Многие любят брать нейронные сети и заменять участки функций данными с нейросети.
3) Автоматизация выдвижения\проверки гипотез (автонаука :) ) - уже можете скачать бесплатно(Thinking mode). Тут при разработке чудо-NLU-AGI все ведущие ВУЗы дружно встали )
А фреймворк для симуляции (который они на свой суперПК поставили) вы скорее всего выучите там, они все похожи . Главное иметь представление о параллельной обработки данных (GPU OpenCL).
Т.е. мистером Хиггсом стать не получиться :) (даже с магнитной левитацией/сверхпроводимостью уже разобрались :))
Идите в кибергенетику, там хоть можно с завода много чего утащить :)
Хотя там тоже не густо:
1) Модели биндинга сделаны плохо и не учитывают того, что mRNA\протеин может участвовать не в регуляции трансляции, а взаимодействовать с таким же протеином\mRNA\Хим. веществом. Там не нужна нейросеть. И персептрон тоже не поможет :) (ethz)
2) Функциональный анализ не для гениев генетики - если вы принесете PhD Cover Letter, где напишете про фильтр Блума применительно к симуляциям (белки/mRNA идут только в соседние ячейки! О боже!) - у вас просто украдут идею, и спасибо не скажут (ethz)
3) Генетики до сих пор не знают про ФП.
Что при редактировании РНК можно сначала находить нужные участки одними белками\участками РНК , а заменять - другими
OpenAI уступает OpenSource системам (и будет уступать)
А о "Гениях" DeepMind Вам расскажет абсолютно любой технический эксперт )
Да и большая часть этих инвестиций (xAI, OpenAI, DeepMind, прочие Отцы) - и уходит на рекламу чудо-поделок (статьи на Reddit/habr/бложик) )
Единственная фирма, готовая платить зарплату - Мета.
Т.к. фирма тоже рекламная (как и FTX Google), они прямо совсем ничего не теряют (в плане экзистенциальных рисков - не понравятся "именитые эксперты" - удвоят ЗП найдут других)
Ой, т.е. триллионы долларов уйдут из рекламной индустрии?
А создатели этих нейросетей - рекламные фирмы.
Какая ирония )
А цифровые повестки?
https://coub.com/view/3fazw
Тогда получается дублирование функций хранилища грейнов. И основной плюс (грейны могут обрабатывать БОЛЬШЕ событий из разных источников, чем чтение\запись в базу) исчезает.
Так же исчезает второй плюс - не нужно ручками ничего писать (никакой инфраструктуры, с сохранением индексов и проч).
И чем это лучше, чем просто кучи акторов, связанные персистентными шинами? Ничем.
Для Игрового Лобби, Miro, сервиса сокращения URL - да, отлично подходит.
Для ЭДО - абсолютно не подходит.
В акка состояние акторов не сохраняется (актор обрабатывает сообщения, отсылает сообщения). Т.е. в akka актор - прямо функция из ФП.
В Orleans - Grain это богатый обьект (есть Grain без состояния, почти как актор в Akka).
В Orleans нет индексирования (кроме полуофициального репозитория без Nuget пакета).
Т.е. работать с обьектами можно очень быстро (они в оперативной памяти), а так же сразу из нескольких мест, так же это все можно масштабировать.
Найти нужный обьект, кроме как по Id - нельзя :)
Поэтому просто взять и использовать Orleans в СЭД - нельзя, придется городить кучу костылей.
Мороки много, для документооборота
1) Как искать документы (акторы/Grain, Rich Domain Model) не только по ID (как Id матчей и т.д)? Через другой актор?
У меня мой ConcurrentDictionary потянет 10к RPS, а потянет ли сеть до Silo? :)
2) Могу ли я добавить\изменить поле
3) Как делать транзакции
4) Что с дедлоками
5) Куда и как это сохраняется
6) И т.д
И надо книгу читать )
В этом плане просто шины и кучи stateless обработчиков данных из шин гораздо проще в плане разработки\отладки\поддержки\масштабируемости.
Слишком страшная документация
А вообще - а зачем мне состояние в акторах? (Grains)
А сохранять состояние акторов?
А я не устану это отлаживать?
upd:
нашел статью по DDD+Orleans, сейчас почитаю
https://habr.com/ru/articles/535452/
Беда в том, что этот Hangfire не нужен.
Маленькое Singlethread приложение - семафоры.
Большие приложения - Akka. (https://getakka.net/articles/actors/dispatchers.html)
И все бесплатно :)
Просто появляется еще одна непонятная конфигурация (приложение, деплой, конфигурация контейнера, конфигурация Джобов(!))
Уже 10 лет, как сам Сэр Альтман вместе с другими лидерами корпораций пытается запустить T-9(Transformer).
Патентов с 200 млрд $ по-прежнему нет.
(но удалось построить Earth Simulator)
К сожалению, даже понять что такое декартов квадрат и почему модели не могут делать Зелененький Глазковыколупыватель вместо Сиреневенькового - не вышло.
Даже "Рассуждения" и зачем они нужны статистически - понять не удалось :)
Но многих буквально трясет, когда они слышат об успехах рекламных фирм, или простых
геев-иудеевСэров Альтманов.А, у вас скорее всего сфера неправильно нарисована
Из-за этой ошибки вы не сможете объяснить, почему у вас сфера(!) ужимается в диаметре в 1.5(!) раза.
Пусть и многомерная.
Сфера по определению - множество точек, находящихся на одном расстоянии от центра.
И тут БАЦ - разные расстояния!
Как (не) наглядно, как (контр)интуитивно.
https://www.youtube.com/watch?v=qIZL5qeEKj0
https://henders.one/2022/05/09/lost-4D-rotation/
Вы не можете вращать вокруг двух осей сразу (увы).
Хотя длины векторов останутся теми же.
Вы потеряете много важных свойств такой операции.
А, и про параллельщину -
Там нового ничего нет, последние прорывы (будет актуально и через 10-20 лет):
1) machine learning/симуляция с более абстрактной моделью (Симуляция пены: центр пузыря, радиус\объём - ethz)
2) либо "мы взяли и заменили кусок функции приближением\таблицей" - почти 9\10 публикаций по этим самым научным вычислениям (десятая публикация - новый фреймворк с новой топологической сортировкой, с integer/linear programming. Иногда сложной эвристикой на основе нейросети :) ).
Многие любят брать нейронные сети и заменять участки функций данными с нейросети.
3) Автоматизация выдвижения\проверки гипотез (автонаука :) ) - уже можете скачать бесплатно(Thinking mode). Тут при разработке чудо-NLU-AGI все ведущие ВУЗы дружно встали )
А фреймворк для симуляции (который они на свой суперПК поставили) вы скорее всего выучите там, они все похожи . Главное иметь представление о параллельной обработки данных (GPU OpenCL).
Т.е. мистером Хиггсом стать не получиться :) (даже с магнитной левитацией/сверхпроводимостью уже разобрались :))
https://coub.com/view/2o7o44
Идите в кибергенетику, там хоть можно с завода много чего утащить :)
Хотя там тоже не густо:
1) Модели биндинга сделаны плохо и не учитывают того, что mRNA\протеин может участвовать не в регуляции трансляции, а взаимодействовать с таким же протеином\mRNA\Хим. веществом. Там не нужна нейросеть. И персептрон тоже не поможет :) (ethz)
2) Функциональный анализ не для гениев генетики - если вы принесете PhD Cover Letter, где напишете про фильтр Блума применительно к симуляциям (белки/mRNA идут только в соседние ячейки! О боже!) - у вас просто украдут идею, и спасибо не скажут (ethz)
3) Генетики до сих пор не знают про ФП.
Что при редактировании РНК можно сначала находить нужные участки одними белками\участками РНК , а заменять - другими
https://coub.com/view/1s3e37
Еще 3-5 лет назад писал, что вы уже никогда не одолеете DreamCoder или любой другой SMT Solver.
А транслировать lisp в C# умеет любой "ИИ".
А уж извлекать данные из NL и подавно.
там в 3-5 раз меньше вакансий.
Паралельщина (это уже научный персонал):
1) вам быстро надоест, и, как думаете, почему научный персонал уезжает?
За границей стипендии по 400к (против 12к тут)
2) Практически негде работать, только если вы пойдете в Институт За Границей, и будете их разрабатывать и применять там.
3) какая крутая физика-то? диффуры? :) Рунге-Кутты? :)
Или вы хотите на коллайдер, по автосгенерированным Features проверять есть Бозон Хиггса или его нет? Гипотезы ставят теоретики.
По микроконтроллерам:
За ЗП juniour+ с Вас захотят:
1) Знать все ARM (прерывания, таймеры, шим, весь фарш какой есть)
2) Знать AVR/PIC (потому что проектирование-то очень экономически оправданное, лишний раз лишние 3$ не добавляем к проекту)
3) Все интерфейсы, какие есть (физические, логические)
4) Расчеты ОУ, и всего остального (PushPull преобразователи и т.д.)
5) Аналоговая\цифровая схемотехника
6) Популярные RTOS(!)
7) А, пиши нам еще на своем C#/Python программы для конфигурирования всего этого
Да, можно все делать в рантайме (с оговорками на горизонтальную масштабируемость)
Но зачем?
Это не дает представления о кодогенерации, не позволяет легко все отлаживать и смотреть на результат (с подсветкой синтаксиса) и т.д.
В общем - даже работа по добавлению файлов идет через отдельный интерфейс.
И сканирование сборок тоже (и работает даже с System.Reflection).
Поэтому, когда (если) мне понадобится генерировать все в рантайме, я получу всю выгоду от SOLID.
Мне не нужно динамически (без пересборки приложения) что-либо изменять (я просто показываю как избавиться от boilerplate кода в своем DDD проекте).
Вот это новость
Я про состояние метро )
И всякие Injection Sites, в общем, Канада далека от образа Европейской Страны)
https://www.canada.ca/en/health-canada/services/substance-use/supervised-consumption-sites/explained.html
Потому что автор - кобольщик на мейнфрейме.
Секрет благополучия - не смотря на интеграцию РФ с Мировым Рынком, ЗП в Канаде соответствуют Мировому Рынку. (А в РФ нет)
30 лет назад это объясняли необходимостью Модернизации и Повышением Эффективности.
(Мол, с низкими ЗП сейчас понаделаем конкурентных продуктов и Ура. )
Теперь делать нечего, не из чего и не на чем.
Да бросьте, в Канаде вроде как даже в метро не смогли.
Да и большинство программистов из этих Канад и США - странные.
(Пришли советовать не пойми что)
ВУЗ-ы Канады еще круче, чем метро - Да они просто не отвечают
Даже на вопросы Что есть по PhD, стипендии\гранты?
Это 7-11.
Не КГБ КНР.
Поэтому отдельный вагон вряд-ли
Какая родословная?
OpenAI уступает OpenSource системам (и будет уступать)
А о "Гениях" DeepMind Вам расскажет абсолютно любой технический эксперт )
Да и большая часть этих инвестиций (xAI, OpenAI, DeepMind, прочие Отцы) - и уходит на рекламу чудо-поделок (статьи на Reddit/habr/бложик) )
Единственная фирма, готовая платить зарплату - Мета.
Т.к. фирма тоже рекламная (как и
FTXGoogle), они прямо совсем ничего не теряют (в плане экзистенциальных рисков - не понравятся "именитые эксперты" - удвоят ЗП найдут других)