А можно как-то сравнить только одну модель? С чем тогда её сравнивать?
Принцип сравнения тут собственно на том, что вы проверяете разницу ответов.Вообще термин сравнение - процесс количественного или качественного сопоставления разных свойств двух или более объектов. Вопрос странный.
AGI в каком понимании? В понимании уровня фантастов?
Вот у меня тут вопрос, по сути, что мы назовем AGI то им и будем считать. Нет же условно-четких критериев обозначения AGI. Да-да, там есть косвенные признаки, но их имитацию пришить не трудно. Опять же, сейчас люди забывают, что LLM всего лишь предикативная машина, по сути пытающаяся удовлетворить запрос человека перебором слов в определенной последовательности.
o-1 и прочие, что-то формата саморазмета варианта ответов, конечно это похоже на прототип мышления, но все равно, какие-то критерии понимать хотелось бы)
Хм, ну тут понятно, что ждать от предикативных машинок текущих реального концепта AGI с логикой не стоит. Тут скорее про интересность интерпретации вероятности ответа некоторыми моделями. Да и мы ж в конце-концов не в серьез обсуждаем факт того, что LLM будут решать судьбы (надеюсь).
Но логика ответов у некоторых интересная тем не менее.
Хотя опять же, уже на текущем этапе ищут применение LLM даже в законотворчестве и в целом некоторый оптимизм отдельных заявителей скорее настораживает)
Принцип сравнения тут собственно на том, что вы проверяете разницу ответов.Вообще термин сравнение - процесс количественного или качественного сопоставления разных свойств двух или более объектов. Вопрос странный.
AGI в каком понимании? В понимании уровня фантастов?
Вот у меня тут вопрос, по сути, что мы назовем AGI то им и будем считать. Нет же условно-четких критериев обозначения AGI. Да-да, там есть косвенные признаки, но их имитацию пришить не трудно. Опять же, сейчас люди забывают, что LLM всего лишь предикативная машина, по сути пытающаяся удовлетворить запрос человека перебором слов в определенной последовательности.
o-1 и прочие, что-то формата саморазмета варианта ответов, конечно это похоже на прототип мышления, но все равно, какие-то критерии понимать хотелось бы)
Хм, ну тут понятно, что ждать от предикативных машинок текущих реального концепта AGI с логикой не стоит. Тут скорее про интересность интерпретации вероятности ответа некоторыми моделями. Да и мы ж в конце-концов не в серьез обсуждаем факт того, что LLM будут решать судьбы (надеюсь).
Но логика ответов у некоторых интересная тем не менее.
Хотя опять же, уже на текущем этапе ищут применение LLM даже в законотворчестве и в целом некоторый оптимизм отдельных заявителей скорее настораживает)