Насчет ноу-хау не знаю, есть же open-source модели.
То, что упрощение, не спорю. Но, согласитесь, первые GPT (включая 3.0) появились именно как программы, решающие задачу предсказания следующего слова. И хотя файн-тьюнинг в сегодняшнем понимании тогда еще не использовался, они уже проявляли определенные интеллектуальные способности, могли, например, генерировать статьи, которые было сложно отличить от человеческих.
На мой взгляд, чтобы убедиться в том, что языковая модель способна генерировать новую информацию, достаточно попросить ее найти аналогию между вещами или процессами. Она легко проводит аналогии по структуре, по функциональности, по другим признакам. Маловероятно, что всё это она это "прочитала" в обучающей выборке. В целом, создают ли LLM что-то новое — это фундаментальный вопрос, простого ответа на который не существует и консенсус не достигнут.
Человеческий мозг тоже работает на электрических импульсах и химических реакциях, но благодаря своим системным свойствам способен обрабатывать различные виды информации.
"Машины могли работать..." я понимаю так, что пользователь машины (человек) может дать ей задачу, содержание которой он сам интерпретирует как, например, "графику" или "звук", а машина, произведя какие-то операции, выдаст понятный для него результат. Калькулятор не может обрабатывать видео, хотя тоже оперирует числами. Это вопрос понимания формата и наличия ресурсов и алгоритмов для обработки.
Хотелось бы конкретики.
Нейронки тут ни при чем. Всё "душное" — мое.
Насчет ноу-хау не знаю, есть же open-source модели.
То, что упрощение, не спорю. Но, согласитесь, первые GPT (включая 3.0) появились именно как программы, решающие задачу предсказания следующего слова. И хотя файн-тьюнинг в сегодняшнем понимании тогда еще не использовался, они уже проявляли определенные интеллектуальные способности, могли, например, генерировать статьи, которые было сложно отличить от человеческих.
На мой взгляд, чтобы убедиться в том, что языковая модель способна генерировать новую информацию, достаточно попросить ее найти аналогию между вещами или процессами. Она легко проводит аналогии по структуре, по функциональности, по другим признакам. Маловероятно, что всё это она это "прочитала" в обучающей выборке.
В целом, создают ли LLM что-то новое — это фундаментальный вопрос, простого ответа на который не существует и консенсус не достигнут.
Человеческий мозг тоже работает на электрических импульсах и химических реакциях, но благодаря своим системным свойствам способен обрабатывать различные виды информации.
"Машины могли работать..." я понимаю так, что пользователь машины (человек) может дать ей задачу, содержание которой он сам интерпретирует как, например, "графику" или "звук", а машина, произведя какие-то операции, выдаст понятный для него результат. Калькулятор не может обрабатывать видео, хотя тоже оперирует числами. Это вопрос понимания формата и наличия ресурсов и алгоритмов для обработки.
Согласен. Исправил.