Комментарии 15
самостоятельно формулировать гипотезы
Мне кажется, что конкретно эта цель довольно хорошо звучит. Выдвижение новых гипотез - это один из главных двигателей.
"...сравнивают его выводы с выводами начинающих аспирантов, которые склонны делать поспешные или не совсем точные заключения".
Перевожу.
Эти заключения являются:
а) банальными,
б) бредовыми,
в) содержащими ошибки о которых все знают, но никто не говорит, потому что это очевидно тем кто знает. )))
---
Но вообще очень интересно, наш постаспирант использует ChatGPT в качестве ментора, говорит так программируется гораздо быстрее.
К чёрту детали! Как, блин, LLM может делать эксперимент? Ну нормальный, скажем, биологический, с пробирками.
В общем, статью писал либо LLM, либо "мальчик, воспитанный компьтером" - реальный мир находится снаружи интернета, а не внутри.
Может описывать эксперимент и разбивать на шаги, чтобы его отростки-лаборанты его выполняли и передавали результат эксперимента обратно в LLM? Эта-то часть вопросов не вызывает.
Да как бэ эксперименты делали автоматический ещё до ЛЛМ.
https://lenta.ru/news/2009/04/03/robot/amp/
Вынуть старую, запихнуть новую. Запускаем, крутим. Аппаратное обеспечение уже давно создано
...либо ИИ с мальчиком
наш постаспирант
postdoc имеется в виду?
использует ChatGPT в качестве ментора, говорит так программируется гораздо быстрее
Зависит, наверное, от области исследования? Прикладная математика? Физика? Mechanical/Electrical Engineering?
У Британских учёных появился серьёзный конкурент. /sarcasm
Исследователи создают ИИ-ученых, и это получается лучше, чем ожидалось
Один из исследователей признался, что им удалось снизить количество галлюцинаций только до десяти процентов. «Мы считаем, что десять процентов — это всё равно неприемлемо».
Расходимся, опять кликбейт.
Давайте честно, данный подход просто обнажил множество проблем этих научных работ.
Приведу два примера из своей практики.
1) исследования связанные с ЭЭГ. Передо мной лежит файл на 35 тыс исследований с использованием ЭЭГ. Там столько мусорных исследований, когда провели на 8 испытуемых и сделали вывод. Это мало данных, выводы притянуты за уши, отбирают нужные данные отсеивая не то мешают результату.
2) исследования речи на уровне формант и влияния на эмоции. Куча исследований, а по факту мусорные. Потому что, когда начинаешь на практике проверять то оказывается что данные по своему усмотрению исследователи отсеяли, и результат как гадалка (видим что часто встречается).
И я могу приводить множество областей. Давайте честно, многие научные работы делаются ради публикации и часто не не сут смысла или могут нести ерунду.
Со временем начинаешь отличать такие работы, сомневаясь в их результате.
А насчёт chatGPT и других, помню как потратил 2 недели пытаясь использовать в опытах. Лютый бред. Не умение абстрагировать, например, нужно было сделать растворимый слой. Мне пришло в голову в итоге аналог изморози, потому что вспомнил как покрывается ею окно и железные вещи. Это абстрагирование и перенос опыта в другую область. У LLM этого нет.
Исследователи создают ИИ-ученых, и это получается лучше, чем ожидалось