Обновить
6

Пользователь

0,1
Рейтинг
1
Подписчики
Отправить сообщение

Благодаря это посту я узнал про fmt::format :)

Спасибо добрые люди!

В NumPy (насколько я понимаю) для этого есть функция vectorize. В Jax, соответственно jax.vmap и jax.numpy.vectorize.

Проблема, однако, в том, что для получения такой "векторизированной" функции, принимающей на вход дискретный массив значений, надо этой самой vectorize скормить обычную "формульную" функцию. Получается замкнутый круг.

В физике (и механике в том числе) тензор это нечто, компоненты которого преобразуются заданным образом при повороте / отражении / инверсии пространства. А не просто многомерный массив.

Рекламная служба Русского Радио, 913-99-63

Кстати хороший вопрос - пусть нам надо решить краевую задачу для уравнения теплопроводности, у нас в идеальном газе коэффициент теплопроводности от температуры не зависит, в идеальной плазме зависит как T^(5/2). А в плазме с резким градиентом температуры поток пропорциональный этому самому градиенту получается больше чем "баллистический поток", то есть чистая беспримесная лажа. Как нам нейронная сеть поможет уравнение теплопроводности в общем виде решить?

Такой подход получает решение довольно быстро, но его основная трудность заключается в том, что, чтобы получить хорошую точность решения, обучающих пар наблюдений {aj, uj}Nj=1 должно быть много. В этом случае, как уже было сказано выше, мы используем традиционный солвер, чтобы получить решения uj, со всеми сопутствующими сложностями.

По сути вся эта деятельность сводится к интерполяции / экстраполяции решений, полученных обычными численными методами ("солверами"). А если есть работающие методы - зачем тогда нейронки? Вычислительные мощности экономить и время расчета сокращать? Не факт.

Про Навье-Стокса вообще анекдот, решения сильно нелинейных систем уравнений неустойчиво по малым (и даже бесконечно малым) отклонениям начальных и граничных условий, чтобы погоду предсказывать приходится эти начальные/граничные условия методом Монте-Карло варьировать и потом по полученной выборке решений предсказывать "вероятность осадков в HH часов MM минут XX процентов". А тут вжух и вот вам решение.

В любом университетском курсе матанализа присутствует теорема Кантора ("функция непрерывная на компакте равномерно непрерывна на ём"). Как с этим дальше жить и надо ли с этим что-то делать - не знаю

Он идеально подходит для ... работы с краевыми сетями

"Краевые сети" - это о чем?

Если я правильно понимаю, даже для сверхпроводимости в ВТСП-керамиках до сих пор убедительного теоретического объяснения не придумали. А ведь сорок лет скоро будет этой истории.

Что уж говорить про более новые открытия.

узкие места в пропускной способности и реальном количестве обрабатываемых подключений к PostgreSQL

Можете привести примеры (можно обезличенные) миграции приложений с PostgreSQL на Tarantool? Это внутренние проекты VK, или приложения внешних пользователей облака?

Что именно в Go вы считаете "нелепыми костылями из старых языков"?

Про ООП согласен. Про дженерики тоже.

Четыре года назад была история с какой-то "Моникой", которую сначала выставили из модераторов, потом другие модераторы начали в знак протеста массово покидать ресурс, или просто игнорировать свои обязанности как модераторов, и в итоге это закончилось тем, что с "Моникой" заключили некое соглашение (https://meta.stackexchange.com/questions/340906/update-an-agreement-with-monica-cellio).

Возможно что наблюдаемый спад как-то связан и с этими событиями. Хотя лаг в три года как бы и не подтверждает.

Ну и да, согласен, реакция модераторов и пользователей на дурацкие вопросы часто бывает быстрой и при этом жесткой. Особенно касается множества вопросов от уроженцев страны, омываемой одноименным океаном. Ну так вопросы надо нормальные задавать, а еще гуглить перед этом, потому что понятно почему.

Мы полюбовались ... Домом Учёных

мимо ресторана, которому за его оригинальную форму местные жители дали меткое название «Поганка»

Было дело в 1990 году, участвовал в некой конференции по лазерной физике, в Доме Ученых проходили устные и стендовые сессии, а в Поганке обеды.
Тем не менее, обошлось без безобразий )
Хотя как, завтраки и ужины проходили в ресторане гостиницы Золотая Долина, на третий день вечером в ресторане вышла из строя плита, оставив товарищей ученых и даже иностранных гостей без ужина.

В расположенном в том же здании магазине мы купили несколько бутылок бутылок пива

К 1990 возможность придти в магазин и "купить пива" отсутствовала в принципе, возможно отсутствие безобразий было связано именно с этим

Как и COBOL до того. И как UML с кодогенерацией после того. Почему-то упорно не заходит.

Все ровно то же самое можно получить, задав точно такие же вопросы в поисковой строке Google (или Bing, или Yandex, или любого другого более или менее нормального поисковика).

Единственное отличие - не надо тыкать в первую ссылку в выдаче. Хотя и этот процесс можно автоматизировать.

Пока никакого added value от Chat GPT в данном контексте не усматривается.

... а потом в какой-то момент и люди станут неуместными.

Да, было такое кино

Дальше критерии для обучения будут меняться

Первые два шага (из трех) в обучении GPT включают работу "разметчиков", на первом шаге они вручную завершают предложенные им фразы (ну или фрагменты кода), на втором - выбирают наиболее предпочтительные варианты продолжения из предложенных моделью ИИ, обученной на данных шага 1. Чтобы эта работа могла быть выполнена и успешно завершена ограниченной группой людей в разумные сроки, код должен быть написан на ЯП высокого уровня. Ну не машинный же код они будут сочинять и ранжировать.

Теоретически (наверное) можно результаты обучения на ЯП высокого уровня транслировать в язык ассемблера / машинный код / байткод, и шаг 3 "обучение с подкреплением" (reinforcement learning) выполнять уже для этого кода. В этом случае да, код в формате, понятном человеку, тут особо уже и не нужен. Проблема заключается в том, что даже если 99% такого кода будет работать как надо, ошибки, вызываемые оставшимся 1% надо будут как-то кому-то анализировать и исправлять. А человечество уже лет 70 как ушло от программирования в машинных кодах, и вряд ли станет к этому возвращаться.

Автор публикации (https://levelup.gitconnected.com/chatgpt-will-replace-programmers-within-10-years-91e5b3bd3676), с которой, собственно, весь это разговор и начался, на вопрос про исправление ошибок отвечает "ну живые разработчики ведь тоже ошибки допускают, и что?" А то, что в 9999 случаях из 10000 (условно) для исправления найденной ошибки не нужно лезть в машинный код или байткод, все делается средствами разработки и отладки ЯП высокого уровня.

Поэтому возможно что

 в конечном итоге языки программирования в привычном нам виде развиваться больше не будут

но

не так скоро все будет. А пока кодить будем сами

Информация

В рейтинге
3 894-й
Зарегистрирован
Активность