Да, скорее он соотносится с Answer Set Programming. Пролог — это general purpose programming language, а минизинк специфичен для комбинаторных задач и задач комбинаторной оптимизации.
Мне кажется, момент непростой в связи с пандемией местный рынок чутка колбасит — мы это видим по всем каналам взаимодействия с клиентами и текущими проектами, но вроде бы все медленно приходит в норму и должно ожить к весне.
Ну как бы скорее наоборот логично, вы 10 лет пилили статьи и разбирались с тем, как это технически работает (Михаил, кажется, трудился в Келдыше и Курчатовском). На мероприятии организованном НТИ встретили людей, которые готовы дать денег под проект-продукт-исследования и знают других людей, которые готовы работать над темой. У них же есть админ ресурс оформить это при университете в виде лаборатории (где вы, например, могли уже читать спецкурсы и просто уже знать людей).
Я тут однажды помогал делать простой тест на питоне для Хабра и ребята такие говорят, неплохо получилось, мы разговорились и оказалось, что я с ними почти одними темами занимался в исследованиях (последние лет так 7) — позвали преподавать в MADE при mail.ru и вместе пишем заявку на крупные исследования по теме.
Всего-то нужно было оказаться в одном месте и поговорить. И так в общем-то устроены почти все конференции.
Как человек из Бельгии — эт так, да. У нас очень прозрачно со статистикой — см. Sciensano, которые руководят научной стороной и консультируют правительство
Скорее насколько закономерности проявляются в новых статьях. Мы же не оцениваем картины, нарисованные ИИ, по тому, появились ли абсолютно идентичные, сделанные людьми
То есть, если взять Ведомости, РБК и Коммерсант, то по вашей логике выходит исследование на трёх мышах.
И вообще на всю Россию выходит мышей 20 более менее нужного размера для исследований (медуза порядка 67 тысяч статей). Это звучит для вас как адекватная аналогия?
А статья впервые даёт численную оценку того, как часто СМИ ссылаются на Телеграм. Мы уже знаем, что ссылаются — нам нужно по собранным данным оценить ряд параметров. Статья открыто и подробно обсуждает какие данные и как именно они использовались.
И это откровенный детский сад писать «извините, мы кроме медузы ничего не можем» — статья описывают фундаментальные вычислительные трудности связанные с этой оценкой — фундаментальные именно в том смысле, что не «мы не можем», а любой, кто будет заниматься этой задачей должен будет их решить.
Любая научная или научно-популярная работа основывается на доказательной базе (evidence в англоязычной литературе) в пользу или контра определенной гипотезы. Здесь доказательная база абсолютно открыта — датасет и вся мета-информация опубликована на github, более того в самой статье подробно описана необходимость исследования других СМИ — тут, простите, вы совершенно ничего нового не добавили — это первое (!!!) предложение в описании того, что нужно сделать (это вообще серьезно?) для получения более точной оценки.
Простая аналогия — биологи используют мышей, а биохимики E. coli — и они честно и подробно описывают первые испытания на материале, с которым легко экспериментировать. Также и здесь, опубликованы результаты «на мышах» и об этом честно и подробно написано — если что до ката прямо под обсуждением вопроса. Поэтому вернусь к вашему вопросу «нормально ли оценить так тренд?» — да, люди оценивают тренд применения и эффективности условного лекарства на мышах прежде чем давать его людям — особенно прежде чем давать его сотням и тысячам людей, и это абсолютно нормально. Потому что это численная оценка, а не истина в последней инстанции. И если эффект положительный — люди продолжают исследования, а если нет — направляют свои силы в другое перспективное русло.
Более того, как и в любом исследовании — описано не только что сделано, но и как конструктивно продолжить работу.
Это один из подходов: многие Proof Assistant, например Isabelle, используют внутри вариант логического программирования. Идеи там очень сильно перекликаются с Прологом, насколько мне известно.
Есть и другие, завязанные на функциональное программирование (в том числе Haskell).
> Вообще хотелось бы статью на хабре о системах проверки доказательств.
Я бы тоже её с радостью почитал :)
Не, теорема об универсальном аппроксиматоре немного не об этом.
Я тут однажды помогал делать простой тест на питоне для Хабра и ребята такие говорят, неплохо получилось, мы разговорились и оказалось, что я с ними почти одними темами занимался в исследованиях (последние лет так 7) — позвали преподавать в MADE при mail.ru и вместе пишем заявку на крупные исследования по теме.
Всего-то нужно было оказаться в одном месте и поговорить. И так в общем-то устроены почти все конференции.
По поводу suspected cases — гуглится примерно за минуту:
www.npr.org/sections/coronavirus-live-updates/2020/04/22/841005901/why-belgiums-death-rate-is-so-high-it-counts-lots-of-suspected-covid-19-cases
Великолепно!
Если будете в этом году – надо будет пингануться, и заскочу заскочу помочь, чем смогу :)
Нужна новая нейросеть для этого :)
А с какой целью? Это был скорее интересный проект визуально посмотреть, а что она вообще сгенерит – будет ли похоже на правду.
Ответ: иногда :)
Скорее насколько закономерности проявляются в новых статьях. Мы же не оцениваем картины, нарисованные ИИ, по тому, появились ли абсолютно идентичные, сделанные людьми
Эксперименты по seq2seq в целом говорят, что очень похожие результаты
Нет, всё статьи были равнозначны
То есть, если взять Ведомости, РБК и Коммерсант, то по вашей логике выходит исследование на трёх мышах.
И вообще на всю Россию выходит мышей 20 более менее нужного размера для исследований (медуза порядка 67 тысяч статей). Это звучит для вас как адекватная аналогия?
Начнем с того, что СМИ уже идут за контентом в Телеграм: это и Ведомости, и Коммерсант, и РБК, да даже Комсомольская правда.
А статья впервые даёт численную оценку того, как часто СМИ ссылаются на Телеграм. Мы уже знаем, что ссылаются — нам нужно по собранным данным оценить ряд параметров. Статья открыто и подробно обсуждает какие данные и как именно они использовались.
И это откровенный детский сад писать «извините, мы кроме медузы ничего не можем» — статья описывают фундаментальные вычислительные трудности связанные с этой оценкой — фундаментальные именно в том смысле, что не «мы не можем», а любой, кто будет заниматься этой задачей должен будет их решить.
Любая научная или научно-популярная работа основывается на доказательной базе (evidence в англоязычной литературе) в пользу или контра определенной гипотезы. Здесь доказательная база абсолютно открыта — датасет и вся мета-информация опубликована на github, более того в самой статье подробно описана необходимость исследования других СМИ — тут, простите, вы совершенно ничего нового не добавили — это первое (!!!) предложение в описании того, что нужно сделать (это вообще серьезно?) для получения более точной оценки.
Простая аналогия — биологи используют мышей, а биохимики E. coli — и они честно и подробно описывают первые испытания на материале, с которым легко экспериментировать. Также и здесь, опубликованы результаты «на мышах» и об этом честно и подробно написано — если что до ката прямо под обсуждением вопроса. Поэтому вернусь к вашему вопросу «нормально ли оценить так тренд?» — да, люди оценивают тренд применения и эффективности условного лекарства на мышах прежде чем давать его людям — особенно прежде чем давать его сотням и тысячам людей, и это абсолютно нормально. Потому что это численная оценка, а не истина в последней инстанции. И если эффект положительный — люди продолжают исследования, а если нет — направляют свои силы в другое перспективное русло.
Более того, как и в любом исследовании — описано не только что сделано, но и как конструктивно продолжить работу.
www.sigops.org/s/conferences/sosp/2009/papers/klein-sosp09.pdf
Есть и другие, завязанные на функциональное программирование (в том числе Haskell).
> Вообще хотелось бы статью на хабре о системах проверки доказательств.
Я бы тоже её с радостью почитал :)