Конечно, стоят, если это статья в Nature. Но так раньше было. Сейчас уровень рецензирования статей в научных журналах достаточно низкий. Поэтому и пропускают материалы на уровне библиографического обзора начинающего аспиранта, как вот обсуждаемая статья.
Возможно и так. В научной работе есть разные методы и способы проверок гипотез, в том числе и эксперименты. Здесь авторы выполнили метаанализ проведенных исследований, а вернее, сделали обзор других работ и не согласились с другими выводами с очень спорными аргументами, если не сказать, безосновательными.
Абсолютно верно. При всем уважении к когда-то авторитетным изданиям, они тоже скатываются в "желтые кликбейтные" дебри. Авторы не выполнили самостоятельной научной работы в виде тестов, экспериментов и тд., но сказали, что другие ошибаются и AGI нет. Но по им же самим приведенным определениям AGI, это совершенно не аргументированно.
У современных моделей нет "гибкости и способности обобщать"? Они это серьезно?
По математике тоже интересно - модели не умеют создавать новые решения, а используют только существующие подходы. Получается, у Эйнштейна тоже был какой-то "недоразвитый интеллект", когда он соединил геометрию Римана и законы Ньютона и предложил общую теорию относительности?
Нет, как раз понимание смысла у современных моделей есть и ещё какое. Вы попробуйте с ними поговорить о каких-то темах, где нет четких и однозначных ответов, например, об истории или литературе. Да и в технических вопросах, в программировании невозможно писать код, не понимая, что именно в нем происходит. В широком смысле AGI уже есть или почти есть (какие критерии?), но это не тоже самое, что искусственное сознание или искусственная личность, вот именно в этом сейчас большой вопрос - есть ли у этих последних больших моделей самосознание или какие-то признаки этого.
Очень большое заблуждение, представлять LLM как "генераторы текста на основе статистики". Возможно, так и было 10 лет назад, но сейчас это принципиально другие механизмы.
Конечно, стоят, если это статья в Nature. Но так раньше было. Сейчас уровень рецензирования статей в научных журналах достаточно низкий. Поэтому и пропускают материалы на уровне библиографического обзора начинающего аспиранта, как вот обсуждаемая статья.
Возможно и так. В научной работе есть разные методы и способы проверок гипотез, в том числе и эксперименты. Здесь авторы выполнили метаанализ проведенных исследований, а вернее, сделали обзор других работ и не согласились с другими выводами с очень спорными аргументами, если не сказать, безосновательными.
Абсолютно верно. При всем уважении к когда-то авторитетным изданиям, они тоже скатываются в "желтые кликбейтные" дебри. Авторы не выполнили самостоятельной научной работы в виде тестов, экспериментов и тд., но сказали, что другие ошибаются и AGI нет. Но по им же самим приведенным определениям AGI, это совершенно не аргументированно.
У современных моделей нет "гибкости и способности обобщать"? Они это серьезно?
По математике тоже интересно - модели не умеют создавать новые решения, а используют только существующие подходы. Получается, у Эйнштейна тоже был какой-то "недоразвитый интеллект", когда он соединил геометрию Римана и законы Ньютона и предложил общую теорию относительности?
Нет, как раз понимание смысла у современных моделей есть и ещё какое. Вы попробуйте с ними поговорить о каких-то темах, где нет четких и однозначных ответов, например, об истории или литературе. Да и в технических вопросах, в программировании невозможно писать код, не понимая, что именно в нем происходит. В широком смысле AGI уже есть или почти есть (какие критерии?), но это не тоже самое, что искусственное сознание или искусственная личность, вот именно в этом сейчас большой вопрос - есть ли у этих последних больших моделей самосознание или какие-то признаки этого.
Очень большое заблуждение, представлять LLM как "генераторы текста на основе статистики". Возможно, так и было 10 лет назад, но сейчас это принципиально другие механизмы.