Как стать автором
Поиск
Написать публикацию
Обновить

Комментарии 4

Фича "Study and learn" выглядит интересной и хотелось бы подобного функционала в Gemini… однако есть некоторые опасения на тему как эта фича работает. Например, как-то просил ChatGPT сделать мне тест на изучаемую мной тему, а потом прислал ему ответы к этому тесту и попросил проверить. Чаще всего он корректно проверял ответы. но иногда отмечал "правильно" там, где по факту была ошибка… Если "Study and learn" работает также криво, то смысла в этом совсем нет кмк.

Это надстройка над уже существующими моделями (вроде 4o и o4-mini), поэтому там, где они ошибались - ошибутся и с этой функцией. Судя по шумихе в X, до выхода GPT-5 максимум несколько недель - будем надеяться, что новая модель станет допускать меньше ошибок.

Я вот не очень могу понять: если чему-то пользователя учить, то нужны знания, а не предположения. Скажем, рассказать про квантовую физику понятно для ребенка: тут не про ошибки, а про четкое понимание темы, и про умение объяснить.

Другое дело, что объяснять нужно еще уметь (а это из тех навыков, который можно эмулируют, но вот прямо разобраться, и своими словами пересказать - это, как понимаю, LLM напрямую не могут), да и тему понимать - это все же не просто вектор поискать в базе (те модель ум должна приложить), но здесь, вроде, галлюцинировать поле меньше...

Правда, чем текущие модели хуже на тему рассказать про физику ту же?

"но вот прямо разобраться, и своими словами пересказать - это, как понимаю, LLM напрямую не могут "

Могут и очень хорошо, один из основных навыков, который широко используется.

Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Другие новости