В NumPy (насколько я понимаю) для этого есть функция vectorize. В Jax, соответственно jax.vmap и jax.numpy.vectorize.
Проблема, однако, в том, что для получения такой "векторизированной" функции, принимающей на вход дискретный массив значений, надо этой самой vectorize скормить обычную "формульную" функцию. Получается замкнутый круг.
В физике (и механике в том числе) тензор это нечто, компоненты которого преобразуются заданным образом при повороте / отражении / инверсии пространства. А не просто многомерный массив.
Кстати хороший вопрос - пусть нам надо решить краевую задачу для уравнения теплопроводности, у нас в идеальном газе коэффициент теплопроводности от температуры не зависит, в идеальной плазме зависит как T^(5/2). А в плазме с резким градиентом температуры поток пропорциональный этому самому градиенту получается больше чем "баллистический поток", то есть чистая беспримесная лажа. Как нам нейронная сеть поможет уравнение теплопроводности в общем виде решить?
Такой подход получает решение довольно быстро, но его основная трудность заключается в том, что, чтобы получить хорошую точность решения, обучающих пар наблюдений {aj, uj}Nj=1 должно быть много. В этом случае, как уже было сказано выше, мы используем традиционный солвер, чтобы получить решения uj, со всеми сопутствующими сложностями.
По сути вся эта деятельность сводится к интерполяции / экстраполяции решений, полученных обычными численными методами ("солверами"). А если есть работающие методы - зачем тогда нейронки? Вычислительные мощности экономить и время расчета сокращать? Не факт.
Про Навье-Стокса вообще анекдот, решения сильно нелинейных систем уравнений неустойчиво по малым (и даже бесконечно малым) отклонениям начальных и граничных условий, чтобы погоду предсказывать приходится эти начальные/граничные условия методом Монте-Карло варьировать и потом по полученной выборке решений предсказывать "вероятность осадков в HH часов MM минут XX процентов". А тут вжух и вот вам решение.
В любом университетском курсе матанализа присутствует теорема Кантора ("функция непрерывная на компакте равномерно непрерывна на ём"). Как с этим дальше жить и надо ли с этим что-то делать - не знаю
Если я правильно понимаю, даже для сверхпроводимости в ВТСП-керамиках до сих пор убедительного теоретического объяснения не придумали. А ведь сорок лет скоро будет этой истории.
узкие места в пропускной способности и реальном количестве обрабатываемых подключений к PostgreSQL
Можете привести примеры (можно обезличенные) миграции приложений с PostgreSQL на Tarantool? Это внутренние проекты VK, или приложения внешних пользователей облака?
Четыре года назад была история с какой-то "Моникой", которую сначала выставили из модераторов, потом другие модераторы начали в знак протеста массово покидать ресурс, или просто игнорировать свои обязанности как модераторов, и в итоге это закончилось тем, что с "Моникой" заключили некое соглашение (https://meta.stackexchange.com/questions/340906/update-an-agreement-with-monica-cellio).
Возможно что наблюдаемый спад как-то связан и с этими событиями. Хотя лаг в три года как бы и не подтверждает.
Ну и да, согласен, реакция модераторов и пользователей на дурацкие вопросы часто бывает быстрой и при этом жесткой. Особенно касается множества вопросов от уроженцев страны, омываемой одноименным океаном. Ну так вопросы надо нормальные задавать, а еще гуглить перед этом, потому что понятно почему.
мимо ресторана, которому за его оригинальную форму местные жители дали меткое название «Поганка»
Было дело в 1990 году, участвовал в некой конференции по лазерной физике, в Доме Ученых проходили устные и стендовые сессии, а в Поганке обеды. Тем не менее, обошлось без безобразий ) Хотя как, завтраки и ужины проходили в ресторане гостиницы Золотая Долина, на третий день вечером в ресторане вышла из строя плита, оставив товарищей ученых и даже иностранных гостей без ужина.
В расположенном в том же здании магазине мы купили несколько бутылок бутылок пива
К 1990 возможность придти в магазин и "купить пива" отсутствовала в принципе, возможно отсутствие безобразий было связано именно с этим
Все ровно то же самое можно получить, задав точно такие же вопросы в поисковой строке Google (или Bing, или Yandex, или любого другого более или менее нормального поисковика).
Единственное отличие - не надо тыкать в первую ссылку в выдаче. Хотя и этот процесс можно автоматизировать.
Пока никакого added value от Chat GPT в данном контексте не усматривается.
Первые два шага (из трех) в обучении GPT включают работу "разметчиков", на первом шаге они вручную завершают предложенные им фразы (ну или фрагменты кода), на втором - выбирают наиболее предпочтительные варианты продолжения из предложенных моделью ИИ, обученной на данных шага 1. Чтобы эта работа могла быть выполнена и успешно завершена ограниченной группой людей в разумные сроки, код должен быть написан на ЯП высокого уровня. Ну не машинный же код они будут сочинять и ранжировать.
Теоретически (наверное) можно результаты обучения на ЯП высокого уровня транслировать в язык ассемблера / машинный код / байткод, и шаг 3 "обучение с подкреплением" (reinforcement learning) выполнять уже для этого кода. В этом случае да, код в формате, понятном человеку, тут особо уже и не нужен. Проблема заключается в том, что даже если 99% такого кода будет работать как надо, ошибки, вызываемые оставшимся 1% надо будут как-то кому-то анализировать и исправлять. А человечество уже лет 70 как ушло от программирования в машинных кодах, и вряд ли станет к этому возвращаться.
Автор публикации (https://levelup.gitconnected.com/chatgpt-will-replace-programmers-within-10-years-91e5b3bd3676), с которой, собственно, весь это разговор и начался, на вопрос про исправление ошибок отвечает "ну живые разработчики ведь тоже ошибки допускают, и что?" А то, что в 9999 случаях из 10000 (условно) для исправления найденной ошибки не нужно лезть в машинный код или байткод, все делается средствами разработки и отладки ЯП высокого уровня.
Поэтому возможно что
в конечном итоге языки программирования в привычном нам виде развиваться больше не будут
Благодаря это посту я узнал про
fmt::format:)Спасибо добрые люди!
В NumPy (насколько я понимаю) для этого есть функция vectorize. В Jax, соответственно
jax.vmapиjax.numpy.vectorize.Проблема, однако, в том, что для получения такой "векторизированной" функции, принимающей на вход дискретный массив значений, надо этой самой
vectorizeскормить обычную "формульную" функцию. Получается замкнутый круг.В физике (и механике в том числе) тензор это нечто, компоненты которого преобразуются заданным образом при повороте / отражении / инверсии пространства. А не просто многомерный массив.
Рекламная служба Русского Радио, 913-99-63
Кстати хороший вопрос - пусть нам надо решить краевую задачу для уравнения теплопроводности, у нас в идеальном газе коэффициент теплопроводности от температуры не зависит, в идеальной плазме зависит как T^(5/2). А в плазме с резким градиентом температуры поток пропорциональный этому самому градиенту получается больше чем "баллистический поток", то есть чистая беспримесная лажа. Как нам нейронная сеть поможет уравнение теплопроводности в общем виде решить?
По сути вся эта деятельность сводится к интерполяции / экстраполяции решений, полученных обычными численными методами ("солверами"). А если есть работающие методы - зачем тогда нейронки? Вычислительные мощности экономить и время расчета сокращать? Не факт.
Про Навье-Стокса вообще анекдот, решения сильно нелинейных систем уравнений неустойчиво по малым (и даже бесконечно малым) отклонениям начальных и граничных условий, чтобы погоду предсказывать приходится эти начальные/граничные условия методом Монте-Карло варьировать и потом по полученной выборке решений предсказывать "вероятность осадков в HH часов MM минут XX процентов". А тут вжух и вот вам решение.
jax.grad с
allow_int = Trueне пробовали?В любом университетском курсе матанализа присутствует теорема Кантора ("функция непрерывная на компакте равномерно непрерывна на ём"). Как с этим дальше жить и надо ли с этим что-то делать - не знаю
"Краевые сети" - это о чем?
https://youtu.be/VqC-0MN_BVo
Если я правильно понимаю, даже для сверхпроводимости в ВТСП-керамиках до сих пор убедительного теоретического объяснения не придумали. А ведь сорок лет скоро будет этой истории.
Что уж говорить про более новые открытия.
Можете привести примеры (можно обезличенные) миграции приложений с PostgreSQL на Tarantool? Это внутренние проекты VK, или приложения внешних пользователей облака?
Что именно в Go вы считаете "нелепыми костылями из старых языков"?
Про ООП согласен. Про дженерики тоже.
Четыре года назад была история с какой-то "Моникой", которую сначала выставили из модераторов, потом другие модераторы начали в знак протеста массово покидать ресурс, или просто игнорировать свои обязанности как модераторов, и в итоге это закончилось тем, что с "Моникой" заключили некое соглашение (https://meta.stackexchange.com/questions/340906/update-an-agreement-with-monica-cellio).
Возможно что наблюдаемый спад как-то связан и с этими событиями. Хотя лаг в три года как бы и не подтверждает.
Ну и да, согласен, реакция модераторов и пользователей на дурацкие вопросы часто бывает быстрой и при этом жесткой. Особенно касается множества вопросов от уроженцев страны, омываемой одноименным океаном. Ну так вопросы надо нормальные задавать, а еще гуглить перед этом, потому что понятно почему.
ну как бы [вот](https://ru.wikipedia.org/wiki/Учение_о_припоминании#:~:text=Учение о припоминании (теория припоминания,которое осуществляется разумной частью души.), к примеру
Было дело в 1990 году, участвовал в некой конференции по лазерной физике, в Доме Ученых проходили устные и стендовые сессии, а в Поганке обеды.
Тем не менее, обошлось без безобразий )
Хотя как, завтраки и ужины проходили в ресторане гостиницы Золотая Долина, на третий день вечером в ресторане вышла из строя плита, оставив товарищей ученых и даже иностранных гостей без ужина.
К 1990 возможность придти в магазин и "купить пива" отсутствовала в принципе, возможно отсутствие безобразий было связано именно с этим
Как и COBOL до того. И как UML с кодогенерацией после того. Почему-то упорно не заходит.
Все ровно то же самое можно получить, задав точно такие же вопросы в поисковой строке Google (или Bing, или Yandex, или любого другого более или менее нормального поисковика).
Единственное отличие - не надо тыкать в первую ссылку в выдаче. Хотя и этот процесс можно автоматизировать.
Пока никакого added value от Chat GPT в данном контексте не усматривается.
... а потом в какой-то момент и люди станут неуместными.
Да, было такое кино
Первые два шага (из трех) в обучении GPT включают работу "разметчиков", на первом шаге они вручную завершают предложенные им фразы (ну или фрагменты кода), на втором - выбирают наиболее предпочтительные варианты продолжения из предложенных моделью ИИ, обученной на данных шага 1. Чтобы эта работа могла быть выполнена и успешно завершена ограниченной группой людей в разумные сроки, код должен быть написан на ЯП высокого уровня. Ну не машинный же код они будут сочинять и ранжировать.
Теоретически (наверное) можно результаты обучения на ЯП высокого уровня транслировать в язык ассемблера / машинный код / байткод, и шаг 3 "обучение с подкреплением" (reinforcement learning) выполнять уже для этого кода. В этом случае да, код в формате, понятном человеку, тут особо уже и не нужен. Проблема заключается в том, что даже если 99% такого кода будет работать как надо, ошибки, вызываемые оставшимся 1% надо будут как-то кому-то анализировать и исправлять. А человечество уже лет 70 как ушло от программирования в машинных кодах, и вряд ли станет к этому возвращаться.
Автор публикации (https://levelup.gitconnected.com/chatgpt-will-replace-programmers-within-10-years-91e5b3bd3676), с которой, собственно, весь это разговор и начался, на вопрос про исправление ошибок отвечает "ну живые разработчики ведь тоже ошибки допускают, и что?" А то, что в 9999 случаях из 10000 (условно) для исправления найденной ошибки не нужно лезть в машинный код или байткод, все делается средствами разработки и отладки ЯП высокого уровня.
Поэтому возможно что
но