Обновить

Директор по робототехнике NVIDIA: языковые модели — тупик, будущее за «моделями мира»

Время на прочтение1 мин
Охват и читатели24K
Всего голосов 13: ↑10 и ↓3+10
Комментарии16

Комментарии 16

Редкий случай, когда человек из большой корпорации публично говорит: возможно, мы копали не туда.

Продавец лопат говорит: "возможно, вы копали не туда".

Скорее "Не теми лопатами копаете, вот вам новые более правильные лопаты")

Скорее "Лопаты это прошлый век. Будущее за экскаваторами".

-"Но нам только маленькую ямку выкопать."
-"Копайте экскаватором! Лопаты это прошлый век."

Экскаватор это всего лишь большая лопата, а тут человек говорит, что надо не открытым методом добывать, а шахты рыть.

нужно создать ЧУДОВИЩНЫЕ экскаваторы

Чтобы зарыть побольше денег

человек из большой корпорации публично говорит

что нужно продолжать надувать пузырь.

Это или кривой перевод, либо — сильная недосказанность. Нахрена ChatGPT физика? И какое он имеет отношение к роботам? А то что роботы должны программироваться эволюционными алгоритмами — это даже ежам было понятно.

Наверное нужно и то и то, одна думает, другая делает.

Нахрена ChatGPT физика?

Тут суть в том что "Нахрена роботу ChatGPT для взаимодействия с физикой"

И какое он имеет отношение к роботам?

Системы которые управляют роботами строятся поверх LLM, условно как если бы ваши глаза словами вам рассказывали что они видят, а вы потом словами давали команды своему телу что сделать

интересно, а как они собираются заставить ии делать сложную интеллектуально работу непосильную для человека, и при этом чётко слушаться его? не будет ли человек просчитан и занесен в модель как часть внешнего мира и объект для оптимизационных манипуляций, а не как единственный источник смысла , команд и запросов?

Аргумент с приматами хороший, по кажется ложный, это ведь автоматизация, она не разумна особо

Хотя ее надо как-то достичь, вопрос как, если без слов.

Как черт возьми, Карл!

Richard Sutton писал в блог посте The bitter lesson что когда мы пытались формализовать какие-то правила и эвристики из существующего человеческого опыта для решения проблем например для распознавание голоса, или для шахмат. Мы получали худшие результаты чем если бы мы давали машине самой выяснить правила, хотя это и потребляло больше вычислительных ресурсов.

С ллмками как будто та же история. Они фундаментально ограничены тем что в лучшем случае они могут идеально предсказывать наиболее вероятный следующий токен.

Если обратиться к технике скорочтения, то одно из первых, чем занимаются при обучении скорочтению — это остановка внутреннего диалога, потому что именно этот внутренний голос, который проговаривает текст, является тем самым тормозом при чтении. Этот внутренний голос ограничивает скорость чтения скоростью, с которой он проговаривает текст. Так что я думаю, что утверждение, что будущее за моделями мира, а не языка — верно.

В обоих случаях информация на входе - текстовая, только во втором случае убирается лишняя трансформация текста в звук, а звука в смысл.
Как ваше утверждение подкрепляет вывод "будущее за моделями мира, а не языка"?

Наконец то они поняли это.

Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Другие новости