Как стать автором
Обновить

Комментарии 6

Мда уж. Тут дьявол, однако, в деталях. На какой выборке обучали? На какой выборке проверяли? Какие именно препараты смогла угадать сеть (в том смысле, а насколько отличаются формулы в обучающей выборке от того, на чём тестировали)? Каков проент был угадывания и насколько он отличается просто от случайного? Те «новые» формулы, которые не попали в тестовую выборку, они вообще реальным химическим веществам, которые создать можно, соответствуют?

Ну и ссылка на подробное описание эксперимента не помашеала бы.

Как-то это всё… Эмс. Такое ощущение, что настоящая наука и поиск настоящих знаний сейчас активно будет подменяться такими вот «исследованиями». А IT-шники станут специалистами во всех областях знаний сразу. Грустная картинка.
ссылка на подробное описание эксперимента не помашеала бы.
Может, вот тут есть?
Результаты опубликованы в рецензируемом журнале Оncotarget.


ощущение, что настоящая наука и поиск настоящих знаний сейчас активно будет подменяться такими вот «исследованиями»
Если это и правда было исследованием, без кавычек, то это вполне в духе времени. Современная наука продвинулась настолько далеко и глубоко в большинстве сфер знаний, что скоро «рядовым» учёным будет всё сложнее открывать что-то принципиально новое, так как чтобы дойти до конечной грани уже имеющихся исследований нужно потратить очень много времени на обучение, а потом после этого ещё тратить время на более глубокие исследования. Возможно, что в [не]отдалённом будущем учёным только и останется, что работать над тем, чтобы попытаться понять результаты научных достижений, сделанных нейронными сетями.
Интересно, мне одному кажется странной методика тестирования результатов? Эмс… Они же даже не получили никаких конкретных соединений, только распределение вероятностей, в которые попали какие-то уже известные соединения. Или я чего-то не понимаю?

AAE was trained on fingerprint, LCONC and GI data for 6252 compounds profiled on MCF-7 cell line. After that we sampled 640 vectors from prior distribution n latent layer with 640 GI values from normal distribution
N (5,1). Based on this data, we used decoder to generate 640 probability vectors with corresponding LCONC values. Then we extracted the set of probability vectors with LCONC < -5.0 M. In total, we obtained 32 vectors. We screened 32 vectors them against a library of 72 million compounds derived from Pubchem [25] (Figure 2). We sed the maximum likelihood function to select top 10 hits for each of the 32 vectors.


Если это и правда было исследованием, без кавычек, то это вполне в духе времени. Современная наука продвинулась настолько далеко и глубоко в большинстве сфер знаний, что скоро «рядовым» учёным будет всё сложнее открывать что-то принципиально новое, так как чтобы дойти до конечной грани уже имеющихся исследований нужно потратить очень много времени на обучение, а потом после этого ещё тратить время на более глубокие исследования. Возможно, что в [не]отдалённом будущем учёным только и останется, что работать над тем, чтобы попытаться понять результаты научных достижений, сделанных нейронными сетями.

Да. Это серьёзная проблема, но, обычно, эта проблема в науке решается выработкой нового языка, который позволяет обобщить имеющиеся результаты и двигаться дальше. Нейронные бы сети пригодились в выработке этого языка, потому что они как раз нацелены на обобщение. Но пытаться получить качественно новые результаты на статистике из прошлого, ну, это, как минимум, весьма странное желание.
Лично меня при чтении текста смутило, что они используют обучение с подкреплением, хотя в статье ни о каком динамическом процессе речи не идёт, лишь о статичных данных по веществам, которые ужимаются автокодировщиком, затем скрытый слой оптимизируется и разворачивается декодером в надежде получить нечто осмысленное. Видимо, надо почитать оригинал.
Это техника обучения сетей такая. Ну, то есть, там действительно обучение с подкреплением.
Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации

Истории