Comments 8
В тоже время AlphaGo обыграла человека в куда более сложную модель, скажете вы. Правильно, но для этого ей пришлось сыграть миллионы с RL, чтобы набрать в параметры все возможные варианты игры. При этом стоит чуть изменить доску для игры и AlphaGo проваливается.
Интересные у Вас аргументы. А Вы в курсе, что после AlphaGo была AlphaGo Zero и даже AlphaZero?
19 октября 2017 года команда Deepmind опубликовала в Nature статью, краткая суть которой сводится к тому, что их новая модель AlphaGo Zero не только разгромно обыгрывает прошлые версии сети, но ещё и не требует никакого человеческого участия в процессе тренировки.
И это все было в далеком прошлом, 8 лет назад.
Вы спросите: а почему о нейронных сетях, которые учатся самостоятельно без всякого участия человека не вещают из каждого утюга как вещают о ChatGPT? А потому, что если сеть обучается исключительно сама, без участия человека, она человеком и никак не контролируется, кроме главного рубильника, но его еще надо успеть вырубить...
Так что велика вероятность, что мы узнаем, что компьютеры оказываются могут мыслить как люди и даже намного лучше людей (и примерно в миллион раз быстрее!) , непосредственно перед концом света.
Вы читали статью от автора: "Почему LLM не мыслят как люди"?
Дэвид Форбс (David Forbes), доклад: "The Limits of Deep Learning" (архив докладов AI Research) - "Нейросети не могут выделять общие закономерности, если они не явно представлены в данных. Это делает их уязвимыми к шуму и случайным изменениям"
Llm просто кирпичик для agi. Это транслятор языка в знания и обратно. Именно так я использую его в проекте в системе agi. Если интересно пишите)
Если вы изучите код llm Вы поймете что там не просто вероятность. А работает вычисление цели как многомерного вектора большей мощности чем эмбеддинг.
В поисках алгоритма интеллекта — тезисы и комментарии. Часть 1