Комментарии 6
А кто определял коэффициент ошибок, если эксперты не справились?
Допускаю, что эффективность сравнивалась на уже изученных образцах: между ИИ и, скажем, студентами предвыпускного курса.
Скорее всего используется нормальный полный текст, где искусственно вынимаются куски.
Мне кажется, есть два варианта: 1) считать правильным тот ответ, который посчитало правильным большинство экспертов. 2) тестировать на искусственном датасете, из которого убрали заранее известные буквы.
Deepmind использовали второй подход, тем более у них было всего 2 phd студента.
Deepmind использовали второй подход, тем более у них было всего 2 phd студента.
Consequently, in order to generate a ground-truth sequence, we artificially removed part of the input text and treated this as the ground-truth sequence.
...with the help of two doctoral students with epigraphical expertise...
Для археологов то же ИИ пригодится… а то у них постоянно квест после сбора осоклков керамики под названием «ну вот ты собрал кучу осколков — как будешь собирать?»)))
Интересно пазлы первыми то же археологи придумали?
Интересно пазлы первыми то же археологи придумали?
Зарегистрируйтесь на Хабре, чтобы оставить комментарий
ИИ DeepMind расшифровывает древнегреческие тексты лучше, чем учёные-люди