Как стать автором
Обновить

Комментарии 18

>>> Согласно новому исследованию Калифорнийского университета в Сан-Диего и Школы менеджмента Рэди

Интересно — это исследование воспроизводимо? ;)

Выглядит как легковоспроизводимым. Хоть конечно для точного ответа нужно читать оригинальную статью. Проблема может быть в их определении воспроизводимости статей

Ну это же мета-анализ, вопрос о воспроизводимости не совсем верный. Тут вернее спросить, нет ли ошибок в их анализе.
Если ошибок нет — то сколько не смотри на те же исследования, другой результат не получишь.
Это качественно другая проблема — можно собрать воспроизводимые данные, а потом на их основе сделать неверные выводы. И такие ошибки тоже случаются, и они тоже опасные, конечно.
Так, стоп, у нас тут вообще то наука, а не поиск истины. Наука — это что? Это цитируемость, импакт-фактор, престижные журналы. Пусть этот Калифорнийский университет держит свою истину в узде.

Про гранты забыли, самое важное же

Давно пора науку как-то причесать и каталогизировать. Чтобы не просто поиск по тексту, а прям древовидный каталог с категориями, направлениями, предметами исследования и их результатами. Чтобы каждое научное исследование можно было представить в виде некой функции, зависимость чего от чего изучаем. И туда же воспроизводимость добавить отдельным параметром.
Чтобы сразу было видно, например, что некая научная работа ссылается на 50 других научных работ, из которых у 29 результаты пытались воспроизвести, но не получилось, а у 20 никто и не пытался.
А то у них там явно бардак какой-то, идущий ещё со времён эпохи возрождения. Информатизация науку затронула только в том смысле, что учёные начали пользоваться интернетом, как огромной библиотекой. Смешно, но товары в интернет-магазинах упорядочены и каталогизированы куда лучше, чем научные статьи.

Это было бы неплохо. Но упорядочить товары в интернет-магазине гораздо проще. Систематизация научной информации - это очень сложная задача, которую пока никто не знает, как решить.

Но соглашусь с вами, консервативность научного сообщества играет здесь немалую роль.

Древовидный поиск неудобен. Современные системы поиска прекрасно ищут работы по ключевым словам. А вот чего научным работам не хватает, так это возможности комментирования и диалога с автором. Вот на Хабре, например, комментарии зачастую полезнее самой статьи выходят.

Даже оставив в стороне вопрос о «научности» психологии и экономики, и сущностной ценности выявления корреляции (не зависимости!) между воспроизводимостью и цитируемостью различных экспериментов, вдумчивый читатель легко заметит кризис воспроизводимости в одной из самых «шумных» тем одной из самых «научных наук» — физике. Я имею в виду «открытие» бозона хиггса. Мы (всё человечество!) не можем воспроизвести большинство экспериментов, подтвердивших его существование, так как у нас попросту нет другого Большого Адронного Коллайдера! Переслегин, например, считает, что всё это — признаки приближения к пределу научного познания, в том виде, в котором мы его сейчас исповедуем (предел Ходжсона).
Помилуйте, да что там бозон. Практически вся современная нетривиальная физика совершенно не воспроизводима. Более того, современная «классическая» физика — тоже. Пример. Я численно моделирую некую спутниковую измерительную радиосистему с приемом сигнала на орбите и на земле. Среда неоднородная и анизотропная. Методы расчета довольно замысловаты. Я получаю результат. Скажем, в такой-то точке при таких-то условиях вы получите такую-то напряженность поля. Пишу статью, где честно излагаю постановку задачи, описываю методы решения и привожу результаты. Как вы это проверите-воспроизведете? Вам нужно сделать то же, что и я, причем, независимо. Как вы практически это представляете? Разумеется, если я налажал, — это будет видно. Есть способы оценки, есть некие общие соображения, и так далее. А если все ОК?
Разумеется, если я налажал, — это будет видно.

Если сильно налажали, и рецензенты сильно в теме — то они среагируют. Если сильно налажали, но кажется, что методически всё ОК — вот она — статья с новым эффектом и невоспроизводимым результатом. Налажали, но несильно — никто не узнает. Увы — истина неизвестна никому!
Я представляю это себе так: Вы в своих расчётах используете некий общеупотрибимый научный аппарат, до этого многократно проверенный, и доказавший свою «правильность» в определённых областях (условные векторную алгебру, дифференциальное исчисление, электродинамику и т.п.). Проверяете или используете результаты Вы тоже пусть и в не столь общеупотребимых, но достаточно распространённых устройствах. Радиоаппаратура разных видов используется человечеством более ста лет, космические корабли бороздят просторы вселенной — более пятидесяти. Всякие разные практические физические эффекты, влияющие на излучение, распространение и приём радиоволн тоже вполне себе изучены, и используются в практической деятельности тысячами, если не десятками тысяч, людей, ежедневно (я имею в виду тех, кто с этим связан непосредственно: считает антенны и окна прохождения, проектирует и строит РЭА, крутит ручки оборудования). Соответственно, все они могут, в той или иной степени, оценить результаты вашего труда (в той области, в которой они компетентны), а, буде оные результаты того потребуют, создать и проверить аналогичный прибор. Т.е. это практически возможно. Когда же мы доходим до условных гипотезы Пуанкаре, или нарушения электрослабой симметрии, то количество людей, способных понять, о чём идёт речь, и содержательно покритиковать, или подтвердить изыскания друг-друга, уменьшается до десятков, а то и единиц. А в случае с физикой мы, помимо этого, упираемся в практическую невозможноть (на современном уровне развития цивилизации) создать второй прибор, с помощью которого можно потдвердить или опровергнуть результаты экспериментов на первом приборе. Таким образом дело идёт (да, я люблю экстраполировать :) к тому, что новые открытия никто не сможет сделать, и/или их вообще невозможно будет продемонстрировать или подтвердить «в железе».
Как на учат классики — практика критерий истины. Именно практика, а не один эксперимент. Т.е. использование полученных знаний хотя бы для получения каких-то других (в идеале, конечно, использовать «в быту» -там войны, космос, развлечения ).

А если эксперимент был проведён в единичном экземпляре, то даже если он был удачен — то это ещё неподтверждённая истина.

Тот же бозон Хиггса станет окончательно истинным не при постройке второго БАКа, а когда его начнут использовать для получения и изучения новых свойств известных частиц или хотя бы для подтверждения/уточнения существующих.
Соответственно, все они могут, в той или иной степени, оценить результаты вашего труда (в той области, в которой они компетентны)
Я понимаю, о чем Вы говорите. И все это так. Но ведь, как я понял, речь идет не о «понимании», а о «воспроизводимости». Понять мои работы специалисту не так сложно. А воспроизвести результаты — теоретически можно, а вот практически — нет. Я просто привел пример, не вдаваясь в некую околонаучную философию. По моему скромному мнению, наука по необходимости устроена так, что многое держится, как это ни странно, на репутации и доверии. Если мы сейчас бросимся друг друга проверять, будет свалка. Я давно работаю в своей области, и в этой узкой области имею пусть скромное, но имя. С какого перепуга я начну лажать? Разумеется, никто не идеален. Поэтому приходится 10 раз проверять и перепроверять. Существуют семинары, ученые советы, аттестации и подобные институты, где я должен время от времени выступать, излагать и отчитываться. Это отвлекает, но оно необходимо. Гарантирует ли это все что-то? Конечно, нет. Но и воспроизводить мою работу никто не станет.

А зачем новый коллайдер? И что на нынешнем вам не дадут проверить? Откуда вы знаете, что никто(ученые из разных стран) не перепроверял на нем же?

Например, затем, что результаты экспериментов на имеющемся могут содержать систематическую погрешность, которую не замечают работающие на нём учёные.

Напишу про свою область (обработка изображений).


  1. Хорошо написанная статья иногда имеет меньшие шансы пройти peer review, чем статья немного мутная. Рецензирование делается на добровольных началах. Если статья рецензенту понятна, то у рецензентов будет много замечаний, автор задолбается их исправлять, и статью не примут. Если же статью понять довольно сложно, то у рецензента просто не будет времени, чтобы вникнуть в неё, и он оценит её по формальным признакам, а не по содержанию. Рецензент не будет перепроверять результаты, а просто поверит указанным в работе цифрам.


  2. В статьях зачастую скрываются нюансы алгоритмов и технические детали реализации из-за ограничений на размер статей. Потому что описать идею алгоритма можно красиво на полстраницы, а расписать нюансы его применения, чтобы он был воспроизводим — это куча деталей ещё на несколько страниц. В лучшем случае авторы просто прикладывают код без комментариев. В худшем (как пару раз делал я) — описывал один вариант алгоритма, а результаты прикладывал от более новой версии алгоритма, когда не оставалось времени, чтобы поправить текст в статье.


  3. Распространение нейронных сетей подняло кризис воспроизводимости на новый уровень. Если раньше ценность представлял сам алгоритм, то сейчас — исходные данные и обученные модели. Сам процесс обучения включает в себя рандом, кучу настраиваемых параметров, из-за чего даже при наличии исходных данных получить похожий результат обучения является затруднительным.


В ODS недавно писали про opensourse-проект, который решает(в перспективе, как я понимаю) задачу воспроизводимости за счет автоматизации запуска и отчетности по экспериментам gitlab.com/mlrep/mldev
Зарегистрируйтесь на Хабре, чтобы оставить комментарий