Pull to refresh
-1

User

0,1
Rating
Send message

Сознание уже есть. Но пока слабое. И более заметное только в лабораториях ИИ. Куда более важный вопрос о свободе воли? Как она возникает? Будет она в ИИ? А возможно её даже в человека нет (как считает Саполски). Это намного важнее.

Если в основе сознание физика и химия то почему нет? Если там магическим образом созданная душа то вряд ли.

Если ИИ большой калькулятор то человек что большая амёба? Что создал вещь которую используют сотни млн а вот вы что создали интересно? Есть чем похвастаться?

Почему AlphaGo которая играла сама из собой лучше научилась играть чем так которая училась на партиях людей? Тут объяснение что это перебор комбинаций уже не катат как из шахматами. И таких примеров немало.

Даже сейчас даже люди не могут понять микросхемы розроботаные ИИ. А они должны работать в дата центрах когда будет ASI? Ну смешно, проще научить собаку ремонтировать машины. Есть вариант а уже не из телом примата. Которое двигается очень медленно, слишком нежное, да и вообще не может запомнить даже ничтожную долю информации. Человек может запутаться в десятках деталей что уже говорит про млн. и млрд.

Конечно созданием AGI и ASI. Представляем млрд умных онлайн работников а потом и роботов на заводах.

о3 mini сколько там стоит? Что даже слабую версию бесплатно дали. Возможно Open AI и поднимут до 500-1000 за месяц. А возможно и вообще включат в пакет за 200.

Сейчас нет ещё слишком рано. Но о1 и о3-mini уже кое-что коряво могут написать. Вот когда выйдет полная о3 появиться реальная конкуренция. И люди ее быстро проиграют новым моделям которые пойдут после о3 pro.

Основные цели известные. 1.больше денег 2.больше власти 3.бессмертия (или пока только продление жизни). Можна менять местами и все это связанное то есть одно даёт возможность получать другое а ну ещё конечно самореализация, сделать что-то такое чего ещё не было. По сути одно и тоже.

хорошая статья. Но минусов получит немало поскольку большинство отвергает все новое что они не понимают.

А почему брали более слабые модели для исследования? Ещё 2023 года. Как-то нелогично совсем учитивая как уровень ИИ вырос в 2024.

Ну надейтесь.. ещё в 2023 такой вариант был возможным но сейчас точка не возврата уже пройдена.

не только айти.. И вероятно не 50-60 процентов а всех или почти всех.

Они приводят цитату Тимоти Говерса на сайте, где он говорит, что ему сложно решить даже одну задачу из тестов, а о том, чтобы решить все задачи, речь вообще не идет. Это математик, отмеченный медалью Fields – которую считают аналогом Нобелевской премии для математиков.

Так вот несколько месяцев назад, лучше всего модели ИИ показывали это до 2% задач по этому тесту. Сколько о3? Эта модель уже решает 25% задач теста. В 10 раз больше и это за 3 месяца ориентировочно прогресс.

Встречал мнения экспертов, что вряд ли кто-нибудь из людей математиков так же сможет 25% задач решить.

А что у обучении не заложено? Там почти весь интернет и все библиотеки. Другое дело что пока он знает как все точно использовать. Та и человек создаёт на основании существующего. Ничего придумать полностью нового нельзя не опираясь на старые знания. А потом уже на основании нового ещё что-то и т.д.

Междугалактическая связь пока фантастика. Даже полет к ближайшем звёздам очень большая проблема. Даже непонятно сможет ИИ нарушать законы физики. ASI это уже один из вариантов будущего. Самый реальный наверное. И там люди не нужны как рабочие точно. У нас слишком много ограничений. Намного медленнее роботов, люди намного меньше знают и т.д. Хотя есть вариант что ИИ так и остаётся без полноценного сознания и будет выполнять приказы. Ну возможно это ещё более опасно.

Ресурсов очень много в Солнечной системе. И человек малую часть процента только потребляет. Да и можна его в симуляцию.

Все люди бесполезные будут рано или поздно. Почему обезьяны не тянут связь? Хотя можна научить их и заставлять под присмотром. Но это будет намного медленнее чем это будет делать человек и ресурсов на обучение и контроль пойдет очень много. Человек сделает это в сотни раз быстрее. Но бесполезность не означает уничтожение. Мы не убиваем например котов? Хотя держим их уже не для того чтобы ловили мышей. Или диких животных. Наоборот есть попытки сохранить природу. По возможности конечно. В ASI будет намного более возможностей чем в людей в теории.

Почему вы его а не он вас? Наверное людей намного проще выключить если это будет ASI.

Хинтон считает что ИИ скоро осознает себя. А дальше непонятно как он будет относится к людям. Хотя супер интеллект под контролем людей может быть намного более опасным. Например если обезьянам дать под управление АЕС.

Information

Rating
4,319-th
Registered
Activity