Потому что решение (почти) всех задач "олимпиадного уровня" выложено в интернете - поэтому и "решают". Раньше это называлось "списывать". А теперь - LLM ))
В данном случай "языковая модель" сработала как лексический парсер. Которым сто лет в обед. Ну или семьдесят, как минимум. Если это называть ИИ - тогда следует признать, что ИИ появился в середине 50х, вместе с первыми языками программирования высокого уровня
Data Lake — подход к архитектуре, в котором создается промежуточное хранилище, куда сваливаются сырые данные из всех источников. Внутри этого хранилища они обрабатываются, агрегируются, декомпозируются, композируются, нормализуются и улетают в базу данных. Данные собираются со всех источников, потом складываются в Data Lake. Далее они преобразуются и отправляются в основное хранилище, где все это хранится в красивом виде, без лишней информации. В то же время, учитывая, что сохраняется копия данных, всегда можно к ним вернуться. Если трансформация получилась плохой, есть данные из источника, к которым можно сходить, и еще раз пересобрать.
А чем, собственно, тогда Data Lake отличается от старого-доброго "промежуточного слоя" (Staging Area)?
зависимость стоимости в центах от конфигурации сервера и оптимизатора
Эти "центы" в случае использования BAO включают в себя затраты на работу нейросетки? Родной оптимизатор СУБД ведь явно дешевле с точки зрения требуемых ресурсов.
С временем исполнения оптимизированного запроса понятно:
совокупное время работы каждого оптимизатора в минутах, включая время на формирование плана, обучение и выполнение запросов
Стоит четырехэтажный дом, в каждом этаже по восьми окон, на крыше - два слуховых окна и две трубы, в каждом этаже по два квартиранта. А теперь скажите, господа, в каком году умерла у швейцара его бабушка?
скармиливал я этому preview задачу по электростатике из университетского учебника по физике
не зашло ему ))
несите следующего
Потому что решение (почти) всех задач "олимпиадного уровня" выложено в интернете - поэтому и "решают". Раньше это называлось "списывать". А теперь - LLM ))
Чтобы твои акции за два года подорожали в десять раз и не такие мысли выскажешь
В данном случай "языковая модель" сработала как лексический парсер. Которым сто лет в обед. Ну или семьдесят, как минимум. Если это называть ИИ - тогда следует признать, что ИИ появился в середине 50х, вместе с первыми языками программирования высокого уровня
Маяковский "Мое открытие Америки"
Сто лет прошло, ничего не меняется
Статья на каком языке написана?
А чем, собственно, тогда Data Lake отличается от старого-доброго "промежуточного слоя" (Staging Area)?
Вообще-то удваивается до определенного предела capacity, а дальше в зависимости от размера исходного слайса применяется таблица коэффициентов:
И это начиная с версии 1.18, а до этого просто начиная с capacity 1024 применялся множитель 1.25
Эти "центы" в случае использования BAO включают в себя затраты на работу нейросетки? Родной оптимизатор СУБД ведь явно дешевле с точки зрения требуемых ресурсов.
С временем исполнения оптимизированного запроса понятно:
А с "центами" как?
... лучше сразу на защиту диссертации ))
Один только вопрос - фотка чья?
UPD. А, увидел в десктоп-версии:
не можешь предотвратить - возглавь
postdoc имеется в виду?
Зависит, наверное, от области исследования? Прикладная математика? Физика? Mechanical/Electrical Engineering?
Правильный вопрос ))
Но поскольку как избавить нейронки от галлюцинаций пока еще не придумали, решили на выхлоп из нейросетей натравить еще одну нейросеть:
Azure AI Content Safety is an AI service that detects harmful user-generated and AI-generated content in applications and services
Почему за математиков больше?
Что будет с теми кто не успеет (или не захочет) отползти - гуглим по ключевому слову Theranos
ну да ))
Для начала, как мне кажется, стоит задать себе вопрос - а надо ли это куда-то переписывать?
Понятно что в мире к сегодняшнему дню написаны тонны г@внокода. Его точно переносить куда-то надо?