Comments 13
с кодом у гпт так вообще беда:
"какой метод можно использовать в библиотеке ХХХ?"
"метод abc()"
"но там есть только метод ааа() и bbb()!"
"да, вы правы, прошу прощения за путаницу. для того, чтобы выполнить вашу задачу нужно использовать метод abc() из библиотеки XXX"
"..."
У него нет мнения. Он просто генерирует текст, пытаясь угадать следующее слово.
Я не на качество работы этого ИИ хотел обратить внимание. А на то, что этот ИИ не просто ошибается и несет чушь, а он и этой своей чуши не хочет придерживаться.
Пока все выглядит как поисковик, который делает вид что что-то знает но при этом выдает просто очевидную чушь. И дальше лучше не станет. Чисто статистически создает мнение на основе информации, которую он не в состоянии проверить на корректность
А по моему это фича. Если чатгпт будет упорствовать, то как тогда его заставлять выдавать ТРЕБУЕМЫЙ текст? В примере с Луной может потребоваться написать фантастическую статью и тут гибкость мнения ИИ очень кстати.
Фича в том, что оно переобувается по вроде как всем понятной и известной теме?
Как политик? Ну возможно
Это связано со знанием и опытом. У нейросетей их в реальности нет. Реальными знаниями и опытом обладают только люди. А еще теперь к проблеме добавляются и нейросетевые галлюцинации. Это тупик. Бессмысленно надеяться на возможность отловить все галлюцинации, поскольку нейросети достигли превосходства над любым самым умным человеком. Это начало потенциальной катастрофы в информационном мире. Решение может быть только в области противопоставления фейковой информации и информации непротиворечивой с имеющимися научными знаниями, поскольку только научные знания непротиворечивы, а значит имеют право претендовать на достоверность. Вот только беда, системы для анализа на непротиворечивость у вас нет. Как нет больше ни одного человека, обладающего всей полнотой достоверной информации. А доверять сертификатам достоверности государств и корпораций больше нельзя. Поэтому задача может быть решена только с помощью нейросети коллективных знаний всего человечества, в которой люди смогут делиться своим реальным опытом и совместными усилиями выявлять фейки, которые ему противоречат. Мы сейчас как раз запускаем прототип такой информационной системы. Если кому интересно - вэлкам в личку.
Опять искусственный интеллект, господибожемой…
На текущий момент в мире не существует искусственного интеллекта, а ChatGPT, про который вы пишете в статье, является языковой моделью, цель которой - предугадывать следующий символ или слово.
Вы общаетесь с генератором текста, поэтому и видите такие ответы. Тут нечему удивляться.
Ну языковая модель или нет речь не об этом. А в том, что ОНО генерирует противоположные выводы после минимального воздействия, хотя основа модели неимоверного размера
ChatGPT как объект манипуляций. ИИ на сегодня совсем не уверен в себе. На примере гипотезы о том, что Луна — полая