новые результаты в области термодинамических расчетов состава ионов в условиях холодной и горячей (нормальной) плазмы
Ионный состав плазмы с 1920 года успешно рассчитывают по формулам Саха. В аннотации к оригиналу про методику расчетов ничего не написано, а статья как водится за paywall (нет чтобы в MDPI опубликовать )) ).
Может кто-нибудь сведениями про методику расчета поделиться? Ну или ссылками на предыдущие работы по теме из открытого доступа?
Сокращаем количество партиций - уменьшаем потребление ресурсов координатором - избавляемся от latency. Тут понятно, спору нет.
Удаляем индекс - экономим время на перестройке индекса при каждой операции записи - повышаем скорость записи. Тоже все понятно.
Меня другое интересует. Вот загрузку данных (то есть запись) вы оптимизировали. Скорость чтения этих самых данных не пострадала у вас из-за этого? Потому что индексы и партицирование не просто так придумали, а для оптимизации операций чтения.
Оригинальная статья за paywall, а было бы интересно прочитать про вклад каждого соавтора. Сейчас в большинстве рецензируемых журналов такое требование, насколько я понимаю.
Особенно как были распределены обязанности между представителями династии Бобковых (Ирина, Александр, Григорий)
Если что, я не прикалываюсь )) просто понять как это работает
на Фортране я писала программу для моделирования ЭВМ «Электроника 100 И» на ЕС-1020
А мама может рассказать поподробнее как на Фортране моделировать ЭВМ?
Имеется в виду трансляция машинного кода ЕС в машинный код на других архитектурах?
Приходили на ЕС, писали программы при помощи Фортрана, отлаживали, а потом они переводились в коды мини-ЭВМ и шли на них. Если было нужно, мы их дорабатывали
А вот баги опен сорс проектов - сложные непонятные задачи, какой-то обучающей выборки у нейронки на проблемы такого рода почти нет, зато примеров crud api или стилей разных кнопочек - напротив много
Утверждение спорное, мягко говоря. Приведу пример - перечень проектов с открытым кодом на Go, использующих Web-фреймворк Gin. Один из самых популярных, наряду с Echo, Fiber и еще парой-тройкой. HTTP API, вот это все. Попробуйте найти в этом перечне хоть что-нибудь уровнем сложнее домашней студенческой работы. Чему тут обучаться и на чем? А вот исходный код Prometheus, Grafana, etcd, istio и еще тучи вполне зрелых проектов в открытом доступе, качай и обучай. В том числе на pull request'ах, которые тот или иной инцидент закрывают. Вот инцидент, вот pull request, учись, дурак железный )) Разве нет?
Эскпериментально установлено что "агенты" предпочитают обходить стороной баг-трекеры любого общеизвестного open source проекта, а вместо этого творить чудеса под прикрытием "NDA". Или "исключительных прав работодателя/заказчика". Или под прикрытием еще чего-то, но так, чтобы их волшебный код ни один "нео-луддит" не смог бы увидеть. Исключения - Hello World, To Do List, и такие же поделия сопоставимого уровня
Хотя казалось бы - напустили бы сэм с амодеем своих "агентов" в репозиторий Redis, к примеру. Там прямой сейчас в разделе Issues 2.2k инцидентов в статусе Открыто. Закрыли бы разом все две с лишним тысячи. Ну или не надо все, один хотя бы. Тут бы все "нео-луддиты" и треснули бы от зависти и злости. А корпоративные заказчики поувольняли бы в момент всех разработчиков, и подписались бы массово на "агентов"
Возможно, связано с тем, что ребята напилили свое поделие поверх ChatGPT, Сэм их принудительно перевел на версию 5.0, а эта версия как известно за жизнь трындеть не хочет, вместо этого отправляет пользователей за профессиональной психиатрической помощью
Вот так стартапчик и прикрылся на ровном месте ... ))
Для участия регистрируйтесь по ссылке. Там же вы найдете программу и другие подробности.
Программу по ссылке не нашел, только фотки докладчиков и "примерные темы докладов и дискуссий". Или чтобы программу увидеть надо сначала билет купить? ))
Проект, который раньше развивала целая команда из 7 спецов, уже сейчас развивается одним аналитиком с тех бэкграундом. Целиком и полностью от ТЗ до сопровода
Copilot в агентском режиме пробовал. Не уверен что солевые наркоманы в процессе прихода изъясняются ровно так, но ощущение именно такое ))
Возможно что проблема в ограничении ресурсов для бесплатной версии. Хотя по открытым данным он и на максималках зажигает
Я сейчас пытаюсь сравнить цены, по которым OpenAI и Anthropic продают токены напрямую своим пользователям, и сколько оно стоит у "перекупщиков" (Cursor и JetBrains, к примеру). Ощущение такое что у Cursor после введения новых цен токены стали дороже чем у OpenAI/Anthropic, а вот JB пока перепродает с существенным дисконтом. Поэтому и интересно как быстро AI Credits расходуются при выполнении обычных задач. Спасибо за пример в предыдущем сообщении, он кстати почти сходится с тем что сам поставщик заявляет. Редкий случай, как по мне ))
Уважения заслуживают разработчики Prometheus, Grafana, Yugabyte, и несметного числа других проектов, используемых множеством сервисов и приложений во всех практически областях человеческой жизни.
Уважения заслуживают десятки миллионов безымянных безвестных разработчиков / девопсов / админов, днями и ночами работающих для того, чтобы остальные люди могли купить билет на самолет или поезд, забронировать гостиницу, позвонить или написать сообщение родным и близким, купить какую-нибудь нужную или на самом деле ненужную вещь, записаться к врачу, посмотреть фотки или видео, прочитать рецепт чего-то вкусного и/или полезного, поделиться отзывом про все на свете, проверить свои знания, найти информацию о чем угодно, и так далее.
Продавцы счастья по формуле "LLM и стажер заменили N разработчиков", не показавшие при этом ни единой строчки кода, никакого уважения не заслуживают. Среди разработчиков ПО, во всяком случае.
Не получится. Они всегда под NDA ))
старого кобеля не отмоешь добела
Хотя (пусть и запоздалое) признание очевидного факта - уже прогресс
Ионный состав плазмы с 1920 года успешно рассчитывают по формулам Саха. В аннотации к оригиналу про методику расчетов ничего не написано, а статья как водится за paywall (нет чтобы в MDPI опубликовать )) ).
Может кто-нибудь сведениями про методику расчета поделиться? Ну или ссылками на предыдущие работы по теме из открытого доступа?
Сокращаем количество партиций - уменьшаем потребление ресурсов координатором - избавляемся от latency. Тут понятно, спору нет.
Удаляем индекс - экономим время на перестройке индекса при каждой операции записи - повышаем скорость записи. Тоже все понятно.
Меня другое интересует. Вот загрузку данных (то есть запись) вы оптимизировали. Скорость чтения этих самых данных не пострадала у вас из-за этого? Потому что индексы и партицирование не просто так придумали, а для оптимизации операций чтения.
Я считаю что широкому кругу посетителей ресурса это тоже будет интересно.
Поэтому пожалуйста передайте вопрос маме, а сюда запостите ответ. Если ей удастся восстановить в памяти ту историю.
Спасибо
Оригинальная статья за paywall, а было бы интересно прочитать про вклад каждого соавтора. Сейчас в большинстве рецензируемых журналов такое требование, насколько я понимаю.
Особенно как были распределены обязанности между представителями династии Бобковых (Ирина, Александр, Григорий)
Если что, я не прикалываюсь )) просто понять как это работает
А мама может рассказать поподробнее как на Фортране моделировать ЭВМ?
Имеется в виду трансляция машинного кода ЕС в машинный код на других архитектурах?
Или что-то еще?
Удалили индексы, сократили число партиций - скорость записи выросла. Результат не сказать что неожиданный ))
На скорость чтения это как повлияло?
А если написать
и на
sometable
накинуть соответствующий функциональный индекс?Шо опять?
А что по этому поводу говорят разработчики PostgresPro? Это by design или как?
На ванильной Postgres этот кейс воспроизводится?
Утверждение спорное, мягко говоря. Приведу пример - перечень проектов с открытым кодом на Go, использующих Web-фреймворк Gin. Один из самых популярных, наряду с Echo, Fiber и еще парой-тройкой. HTTP API, вот это все. Попробуйте найти в этом перечне хоть что-нибудь уровнем сложнее домашней студенческой работы. Чему тут обучаться и на чем? А вот исходный код Prometheus, Grafana, etcd, istio и еще тучи вполне зрелых проектов в открытом доступе, качай и обучай. В том числе на pull request'ах, которые тот или иной инцидент закрывают. Вот инцидент, вот pull request, учись, дурак железный )) Разве нет?
Эскпериментально установлено что "агенты" предпочитают обходить стороной баг-трекеры любого общеизвестного open source проекта, а вместо этого творить чудеса под прикрытием "NDA". Или "исключительных прав работодателя/заказчика". Или под прикрытием еще чего-то, но так, чтобы их волшебный код ни один "нео-луддит" не смог бы увидеть. Исключения - Hello World, To Do List, и такие же поделия сопоставимого уровня
Хотя казалось бы - напустили бы сэм с амодеем своих "агентов" в репозиторий Redis, к примеру. Там прямой сейчас в разделе Issues 2.2k инцидентов в статусе Открыто. Закрыли бы разом все две с лишним тысячи. Ну или не надо все, один хотя бы. Тут бы все "нео-луддиты" и треснули бы от зависти и злости. А корпоративные заказчики поувольняли бы в момент всех разработчиков, и подписались бы массово на "агентов"
Но нет. Что то мешает. Ждем-с ...
Возможно, связано с тем, что ребята напилили свое поделие поверх ChatGPT, Сэм их принудительно перевел на версию 5.0, а эта версия как известно за жизнь трындеть не хочет, вместо этого отправляет пользователей за профессиональной психиатрической помощью
Вот так стартапчик и прикрылся на ровном месте ... ))
минусы?
Программу по ссылке не нашел, только фотки докладчиков и "примерные темы докладов и дискуссий". Или чтобы программу увидеть надо сначала билет купить? ))
тынц
На сегодняшний день есть только голословные заявления тех кто якобы попробовали, научились, пользуются и повышают свои и проектную эффективность
И ни одной строчки кода уровнем выше Hello World в подтверждение этих заявлений. Потому что все под NDA
Copilot в агентском режиме пробовал. Не уверен что солевые наркоманы в процессе прихода изъясняются ровно так, но ощущение именно такое ))
Возможно что проблема в ограничении ресурсов для бесплатной версии. Хотя по открытым данным он и на максималках зажигает
Я сейчас пытаюсь сравнить цены, по которым OpenAI и Anthropic продают токены напрямую своим пользователям, и сколько оно стоит у "перекупщиков" (Cursor и JetBrains, к примеру). Ощущение такое что у Cursor после введения новых цен токены стали дороже чем у OpenAI/Anthropic, а вот JB пока перепродает с существенным дисконтом. Поэтому и интересно как быстро AI Credits расходуются при выполнении обычных задач. Спасибо за пример в предыдущем сообщении, он кстати почти сходится с тем что сам поставщик заявляет. Редкий случай, как по мне ))
Уважения заслуживают разработчики Prometheus, Grafana, Yugabyte, и несметного числа других проектов, используемых множеством сервисов и приложений во всех практически областях человеческой жизни.
Уважения заслуживают десятки миллионов безымянных безвестных разработчиков / девопсов / админов, днями и ночами работающих для того, чтобы остальные люди могли купить билет на самолет или поезд, забронировать гостиницу, позвонить или написать сообщение родным и близким, купить какую-нибудь нужную или на самом деле ненужную вещь, записаться к врачу, посмотреть фотки или видео, прочитать рецепт чего-то вкусного и/или полезного, поделиться отзывом про все на свете, проверить свои знания, найти информацию о чем угодно, и так далее.
Продавцы счастья по формуле "LLM и стажер заменили N разработчиков", не показавшие при этом ни единой строчки кода, никакого уважения не заслуживают. Среди разработчиков ПО, во всяком случае.
Talk is cheap, show me your code