All streams
Search
Write a publication
Pull to refresh
1
0
Send message

А мне кажется, что современные языковые модели похожи на попугая. Вы можете научить попугая говорить. Можете научить его таблице умножения. Можете посадить двух попугаев рядом и заставить их говорить друг с другом обучаясь. Но попугай все равно не поймет по-настоящему что он говорит никогда.

Когда мы говорим "стакан", мы представляем реальный объект стакан, у нас в голове есть образ стакана, есть модель стакана, мы осознаем физические свойства этого объекта. Зачем это надо?
На стене сидит паук, его надо убрать. Ты видишь стакан. Стакан подойдет для этой цели, потому что тебе надо какую-то емкость с плоским срезом, чтобы прислонить его к стене и изолировать внутри паука, а затем взять лист бумаги, подсунуть его под стакан, принести это к окну и выбросить паука в окно. Эта логическая цепочка возможна только если ты представляешь реальные объекты.
Для LLM слово стакана - это просто набор букв, токен, у которого вероятность быть следующим после другого токена такая-то, а после того токена другая. Все. Он не может с этим ничего сделать. Он просто натренирован на больших массивах текста для вычисления коэффициентов.
Понятно пропасть между реальным мышлением и угадыванием слов на освное предыдущих?
P.S. И не надо у чатГПТ спрашивать этот конкретный пример. Очевидно где-то есть такие инструкции и он на них натренирован. Это для понимания просто.

Мы можем научить попугая говорить. Можем ли мы научить его думать и рассуждать? Очевидно, что нет. Современные LLM - это просто говорящие попугаи. Там не может ничего рассуждать впринципе. Попугай выучил таблицу умножения. Понимает ли попугай почему 4 умножить на 5 будет 20, а 9 разделить на 3 будет 3? Вряд ли. И он не может впринципе понять это, в отличии от человека, пропасть тут огромная в самой сути.
Просто нас всех вводят в заблуждение слова вроде "обучение, неросети, интеллект". Кажется они значат тоже самое, что и у людей. Но если заменить слово "мы обучили нейросеть" на " мы обновили таблицу коэффициентов вероятности слов на основе предыдущих" то уже не так потрясающе звучит.

Information

Rating
Does not participate
Registered
Activity