Они приводят цитату Тимоти Говерса на сайте, где он говорит, что ему сложно решить даже одну задачу из тестов, а о том, чтобы решить все задачи, речь вообще не идет. Это математик, отмеченный медалью Fields – которую считают аналогом Нобелевской премии для математиков.
Так вот несколько месяцев назад, лучше всего модели ИИ показывали это до 2% задач по этому тесту. Сколько о3? Эта модель уже решает 25% задач теста. В 10 раз больше и это за 3 месяца ориентировочно прогресс.
Встречал мнения экспертов, что вряд ли кто-нибудь из людей математиков так же сможет 25% задач решить.
А что у обучении не заложено? Там почти весь интернет и все библиотеки. Другое дело что пока он знает как все точно использовать. Та и человек создаёт на основании существующего. Ничего придумать полностью нового нельзя не опираясь на старые знания. А потом уже на основании нового ещё что-то и т.д.
Междугалактическая связь пока фантастика. Даже полет к ближайшем звёздам очень большая проблема. Даже непонятно сможет ИИ нарушать законы физики. ASI это уже один из вариантов будущего. Самый реальный наверное. И там люди не нужны как рабочие точно. У нас слишком много ограничений. Намного медленнее роботов, люди намного меньше знают и т.д. Хотя есть вариант что ИИ так и остаётся без полноценного сознания и будет выполнять приказы. Ну возможно это ещё более опасно.
Все люди бесполезные будут рано или поздно. Почему обезьяны не тянут связь? Хотя можна научить их и заставлять под присмотром. Но это будет намного медленнее чем это будет делать человек и ресурсов на обучение и контроль пойдет очень много. Человек сделает это в сотни раз быстрее. Но бесполезность не означает уничтожение. Мы не убиваем например котов? Хотя держим их уже не для того чтобы ловили мышей. Или диких животных. Наоборот есть попытки сохранить природу. По возможности конечно. В ASI будет намного более возможностей чем в людей в теории.
Хинтон считает что ИИ скоро осознает себя. А дальше непонятно как он будет относится к людям. Хотя супер интеллект под контролем людей может быть намного более опасным. Например если обезьянам дать под управление АЕС.
Разве что-то новое? Маск примерно такой процент даёт. Курцвейл также такое писал, Альтман и многие другие. Сложно давать прогноз если очень данных. Многое будет от того будет сознания у ИИ или нет. Скорее не уничтожит, даже наоборот будет помогать. Но если будет сознание и угроза от людей тогда может и ИИ решит что лучше избавиться от людей.
Причем здесь о1 preview если уже вышла о1 и даже уже представлена о3. Потому если и будут равняется то уже на о3 которая вийдет в январе. Поэтому прогноз намного больше оптимизма. Ну и смотря что называть AGI, почему то кажется и вторая версия теста на AGI которая появится в первой половине года не продержится долго.
Если о1 это джун, о3 наверное уже мидл. И дальше всё? Развития ИИ не будет и о3 (мидл) будет ждать джуна несколько лет пока у нее новый сеньор появится?
И что? Это так много? Смысл не в этом AGI. А например в решение задач науки. Это уже доктор наук у чем-то, а скоро будет уровень нобелевский лауреат. Когда один препарат от какого-то вида рака способен принести млрд это не деньги.
Нет. o3 если верить тестам у очень многом уже умнее в 70 процентов умений человека. (о1 где то 30-40 GPT-4o на 15-20 процентів). Если он научится все делать лучше за человека это уже будет не AGI а что-то значительно более умное.
По тестам получается AGI? Или тесты нужно менять? По Frontier Math читал мнения пару месяцев что пройдут многие роли когда модели решать такие тесты. Прошло пару месяцев и вот уже 25 процентов.
Ну надейтесь.. ещё в 2023 такой вариант был возможным но сейчас точка не возврата уже пройдена.
не только айти.. И вероятно не 50-60 процентов а всех или почти всех.
Они приводят цитату Тимоти Говерса на сайте, где он говорит, что ему сложно решить даже одну задачу из тестов, а о том, чтобы решить все задачи, речь вообще не идет. Это математик, отмеченный медалью Fields – которую считают аналогом Нобелевской премии для математиков.
Так вот несколько месяцев назад, лучше всего модели ИИ показывали это до 2% задач по этому тесту. Сколько о3? Эта модель уже решает 25% задач теста. В 10 раз больше и это за 3 месяца ориентировочно прогресс.
Встречал мнения экспертов, что вряд ли кто-нибудь из людей математиков так же сможет 25% задач решить.
А что у обучении не заложено? Там почти весь интернет и все библиотеки. Другое дело что пока он знает как все точно использовать. Та и человек создаёт на основании существующего. Ничего придумать полностью нового нельзя не опираясь на старые знания. А потом уже на основании нового ещё что-то и т.д.
Междугалактическая связь пока фантастика. Даже полет к ближайшем звёздам очень большая проблема. Даже непонятно сможет ИИ нарушать законы физики. ASI это уже один из вариантов будущего. Самый реальный наверное. И там люди не нужны как рабочие точно. У нас слишком много ограничений. Намного медленнее роботов, люди намного меньше знают и т.д. Хотя есть вариант что ИИ так и остаётся без полноценного сознания и будет выполнять приказы. Ну возможно это ещё более опасно.
Ресурсов очень много в Солнечной системе. И человек малую часть процента только потребляет. Да и можна его в симуляцию.
Все люди бесполезные будут рано или поздно. Почему обезьяны не тянут связь? Хотя можна научить их и заставлять под присмотром. Но это будет намного медленнее чем это будет делать человек и ресурсов на обучение и контроль пойдет очень много. Человек сделает это в сотни раз быстрее. Но бесполезность не означает уничтожение. Мы не убиваем например котов? Хотя держим их уже не для того чтобы ловили мышей. Или диких животных. Наоборот есть попытки сохранить природу. По возможности конечно. В ASI будет намного более возможностей чем в людей в теории.
Почему вы его а не он вас? Наверное людей намного проще выключить если это будет ASI.
Хинтон считает что ИИ скоро осознает себя. А дальше непонятно как он будет относится к людям. Хотя супер интеллект под контролем людей может быть намного более опасным. Например если обезьянам дать под управление АЕС.
Разве что-то новое? Маск примерно такой процент даёт. Курцвейл также такое писал, Альтман и многие другие. Сложно давать прогноз если очень данных. Многое будет от того будет сознания у ИИ или нет. Скорее не уничтожит, даже наоборот будет помогать. Но если будет сознание и угроза от людей тогда может и ИИ решит что лучше избавиться от людей.
Причем здесь о1 preview если уже вышла о1 и даже уже представлена о3. Потому если и будут равняется то уже на о3 которая вийдет в январе. Поэтому прогноз намного больше оптимизма. Ну и смотря что называть AGI, почему то кажется и вторая версия теста на AGI которая появится в первой половине года не продержится долго.
Есть подозрения что намного быстрее чем в 2030. (Если брать текущие темпы). о3 ещё не заменит полностью а вот какая то о5 очень вероятно.
Если о1 это джун, о3 наверное уже мидл. И дальше всё? Развития ИИ не будет и о3 (мидл) будет ждать джуна несколько лет пока у нее новый сеньор появится?
Врач не несёт ответственность за неправильно вынесенный диагноз. Несёт только за халатность и то не всегда.
Так сказано выше среднего уровня человека. Не лучше гения но выше чем большинство.
И что? Это так много? Смысл не в этом AGI. А например в решение задач науки. Это уже доктор наук у чем-то, а скоро будет уровень нобелевский лауреат. Когда один препарат от какого-то вида рака способен принести млрд это не деньги.
Нет. o3 если верить тестам у очень многом уже умнее в 70 процентов умений человека. (о1 где то 30-40 GPT-4o на 15-20 процентів). Если он научится все делать лучше за человека это уже будет не AGI а что-то значительно более умное.
По тестам получается AGI? Или тесты нужно менять? По Frontier Math читал мнения пару месяцев что пройдут многие роли когда модели решать такие тесты. Прошло пару месяцев и вот уже 25 процентов.