Pull to refresh

Comments 13

с кодом у гпт так вообще беда:

"какой метод можно использовать в библиотеке ХХХ?"

"метод abc()"

"но там есть только метод ааа() и bbb()!"

"да, вы правы, прошу прощения за путаницу. для того, чтобы выполнить вашу задачу нужно использовать метод abc() из библиотеки XXX"

"..."

UFO landed and left these words here

Да что-то не похоже что НЕ сырой ИИ вообще возможен. Пока ИИ не может отличить фальшивки от настоящей информации. И полностью не способен ничего создать нового в смысле науки.

UFO landed and left these words here

У него нет мнения. Он просто генерирует текст, пытаясь угадать следующее слово.

Мнения то конечно нет. Поддержу такой подход

Я не на качество работы этого ИИ хотел обратить внимание. А на то, что этот ИИ не просто ошибается и несет чушь, а он и этой своей чуши не хочет придерживаться.
Пока все выглядит как поисковик, который делает вид что что-то знает но при этом выдает просто очевидную чушь. И дальше лучше не станет. Чисто статистически создает мнение на основе информации, которую он не в состоянии проверить на корректность

А по моему это фича. Если чатгпт будет упорствовать, то как тогда его заставлять выдавать ТРЕБУЕМЫЙ текст? В примере с Луной может потребоваться написать фантастическую статью и тут гибкость мнения ИИ очень кстати.

Фича в том, что оно переобувается по вроде как всем понятной и известной теме?
Как политик? Ну возможно

Это связано со знанием и опытом. У нейросетей их в реальности нет. Реальными знаниями и опытом обладают только люди. А еще теперь к проблеме добавляются и нейросетевые галлюцинации. Это тупик. Бессмысленно надеяться на возможность отловить все галлюцинации, поскольку нейросети достигли превосходства над любым самым умным человеком. Это начало потенциальной катастрофы в информационном мире. Решение может быть только в области противопоставления фейковой информации и информации непротиворечивой с имеющимися научными знаниями, поскольку только научные знания непротиворечивы, а значит имеют право претендовать на достоверность. Вот только беда, системы для анализа на непротиворечивость у вас нет. Как нет больше ни одного человека, обладающего всей полнотой достоверной информации. А доверять сертификатам достоверности государств и корпораций больше нельзя. Поэтому задача может быть решена только с помощью нейросети коллективных знаний всего человечества, в которой люди смогут делиться своим реальным опытом и совместными усилиями выявлять фейки, которые ему противоречат. Мы сейчас как раз запускаем прототип такой информационной системы. Если кому интересно - вэлкам в личку.

Опять искусственный интеллект, господибожемой…

На текущий момент в мире не существует искусственного интеллекта, а ChatGPT, про который вы пишете в статье, является языковой моделью, цель которой - предугадывать следующий символ или слово.

Вы общаетесь с генератором текста, поэтому и видите такие ответы. Тут нечему удивляться.

Ну языковая модель или нет речь не об этом. А в том, что ОНО генерирует противоположные выводы после минимального воздействия, хотя основа модели неимоверного размера

А разве изначальная цель языковой модели была в поиске истины? Может она в создании "истины", другими словами, в создании максимально правдоподобных языковых конструкций?

Sign up to leave a comment.

Articles