Comments 7
Люди и свечки похожи больше, чем вы думаете. У нас тоже есть масса, длина, потребность в кислороде и всё остальное /srcsm/
А можно без философских мыслей, а доказывать гипотезы?
Вы выдвигаете гипотезу. Собираете доказательную базу на своих или чужих исследованиях. Она должна быть повторяемая. Иначе, это все на уровне "личное мнение".
Учёные: а давайте сделаем компьютер, который думает, как человек.
Олег с Хабра: смотрите! Человек думает, как компьютер!
Ждём новых статей "Люди выглядят, как фотографии", "Человеческий голос похож на диктофонную запись".
Почему не «фантазии» или «творческое воображение»
Вопрос невероятно странный.
Когда LLM предлагает вызвать из библиотеки метод, который там никогда не существовал, это не творческое воображение.
Очень вольное оперирование терминами. Контекст у ИИ это всё, что передаётся после обучения в промпте, включая её собственную выдачу. Системный он или несистемный - не суть важно, незначительно меняет приоритеты. Нейросети в настоящее время как правило не обучаются в процессе генерации, хотя это направление и активно исследуется. В этом смысле для человека контекстом будет вся жизнь даже ещё до его рождения. Где-то мама что-то не то съела или выпила, это уже могло отразиться на каких-то базовых нейронных связях. Или можно по-другому рассматривать, обучение у человека происходит всю жизнь и никакого контекста вообще нет тогда. Такого строгого разделения как для искусственных нейросетей тут нельзя провести.
А, и насчёт галлюцинаций. Нет, это не фантазии. Когда я прошу выдать мне список слов с сочетанием "cci" и он упорно выдаёт помимо правильных Sufficiency, Accessory и Acclimate, то это никак не фантазия богатая.
"смоделировать и личность у модели" - пожалуйста не забывайте, что как утверждают классики: "Активность - генерализующий атрибут личности". Может вначале тормоза смоделируете?
Люди и LLM похожи больше, чем вы думаете. У нас тоже есть системный промпт, контекст и всё остальное