Pull to refresh
0
0

Пользователь

Send message

Философия как СССР - там секса нет. Но наука подглядывает за философией.

Вопрос «Могут ли машины мыслить?» слишком бессмыслен, чтобы его обсуждать.

Вот это верно. Доказательств наличия души, никаких быть не может ни у людей ни у машин, кроме себя самого (здесь всё явно). Я думаю, что это не "трудная проблема", а непостижимая. Об этом стоит только петь: "Flёur - Равновесия нет".

а это потребует новой архитектуры внутренних представлений и управления когнитивным напряжением

Согласен с вами. Сейчас, видимо, LLM работает только на вероятностях. А что является источником творчества - неопределенность. Просто говорю сам себе: "я умею делать гравицапу" и потом делаю. Первый шаг может быть ЛЮБОЙ, если есть вера (вероятность). Когда сталкиваюсь с тем, что нет вероятных решений, чтобы верно решить подзадачу - снова использую неопределенность (надежду) и так делее. Имхо, здесь самое сложное баланс между вероятным и невероятным.

как создать системы, способные осознавать не только факты, но и собственную зону неопределенности

Очень просто: вместо обычных весов применить комплексные числа, где мнимая часть - неопределенность. Я не спец по данным, и представления не имею насколько сложно переделать матчасть.. говорил с дипсиком об этом:

Ваш вопрос затрагивает ключевую проблему: откуда брать информацию о неопределенности, если данные (тексты из интернета) её не содержат? Давайте разберем возможные подходы, включая вашу идею о второй модели, и альтернативные варианты.

1. Источники информации о неопределенности

Неопределенность может возникать из:

  • Конфликта в данных (противоречивые контексты: "кофе полезен" vs. "кофе вреден"),

  • Редких паттернов (мало примеров для определенного утверждения),

  • Многозначности контекста (например, слово "ключ" в предложении),

  • Ограничений модели (недостаток знаний или параметров).

    ... и так далее

    Заключение

    Ваша идея о фокусе на внутренние слои крайне перспективна. Комплексные числа во внутренних представлениях могут стать "языком" для разделения абстракций и мета-информации об их надежности. Это открывает путь к:

    • Более осознанному AI, способному оценивать свои ограничения,

    • Улучшенной калибровке предсказаний,

    • Нейросетям, которые "понимают", чего они не понимают.

Ну это широко известное понятие в философии, вместе с технологической сингулярностью. Кол-во изобретений и научных открытий за определенный промежуток времени. С ИИ ещё интереснее: если человек сможет сотворить интеллект умнее себя, то и этот новый сможет сделать тоже самое. Для меня вопрос неясен, много неопределенности, а вы считаете это утопией? Но почему?

Пандора? Её предупреждали - не открывай ящик, но она из-за любопытства открыла. Беды и несчастья хлынули в мир и на дне осталась только надежда. Я бы не открывал, вы считаете и Человечество сможет не открыть? Там может быть бессмертие и полеты в другие миры и века магии. Искушение ASI очень велико. Стоит открыть только лишь на краю гибели.

Если верить в нелинейное ускорение научно-технического прогресса - как раз не глупо. Правда, я не историк, и мне кажется это всё просто маркетинговой заморочкой. Термояда как не было 50 лет назад так и нет. Атом был 50 лет назад и сейчас есть. В космос летали и раньше. Что изменилось - компы и мобильники в каждом доме. Больше ничего. Ну да, еще LLM появился - весело. В общем, для меня, немного неоднозначно. Через 10 лет, думаю, станет яснее.

Но смысл в том, что есть хайп и соперничество. Если "истинный ИИ" находится недалеко от LLM - его найдут быстро. Повторять сложный человеческий мозг совсем не нужно. Самолеты крыльями не машут, но летают быстрее птиц. Достаточно понять суть живого интеллекта. Может это и сложно, а может стоит лишь заменить веса LLM комплексными числами, где мнимая часть - неопределенность для каждой вероятности, плюс сделать новую матчасть. Что-то в этом роде.

Насколько мне известно, сейчас всё крутится вокруг одного и того же - трансформеры с механизмом внимания. Их незначительно модифицируют и получают небольшие улучшения. А я говорю, о концептуальном изменении архитектуры ИИ. Вот тогда может произойти значительный прорыв.

Как-то интересно многие думают на Хабре: вот ИИ уже с нами, нас не завоевал (всё норм), строим прогнозы.

Дело в том, что на этой ниве - непаханое поле.. Сейчас нашли некоторую "соль", "трансформеры с механизмом внимания" - получили LLM. Но учёные активно работают над изменением архитектуры ИИ. Чтобы найти более "ценную соль". Многие люди, здесь повторяют даже, что у нас нет ИИ, LLM это не ИИ. Нынешние LLM это лишь свет в конце туннеля, это то что сделало хайп. И сейчас многие работают, чтобы сделать истинный ИИ. Ищут более ценную "соль" среди возможных архитектур. Когда "истинный ИИ" будет найдет - никто не знает что будет. Правда, также совершенно непонятно, когда его найдут.. завтра или через 100 лет. Но если завтра найдут - я футурологам не завидую.

В результате очень скоро нейросети станут бесполезными, так как будут выдавать больше бреда, чем обычно, и в целом точность их ответов сильно снизится — короче, они деградируют.

А мы хотим, чтобы люди, которые разрабатывают нейросети, их изменили таким образом, чтобы сети не деградировали, а стали умнее и стали способны распознавать эти нюансы.

Я не понимаю разницу между верой, доверием и субъективной вероятностью.. Разве что вера - это то, что человек понял сам. Доверие, это то насколько он принял доводы оппонента. А субъективная вероятность, - это то как человек транслирует свое отношение другим в числовом эквиваленте. Но по сути, это одно и тоже для меня.

Я вас понимаю и поддерживаю. Быть "желе" плохо, но иметь "закостенелое" мышление старика (который бросил учиться) тоже не фонтан. Просто всё немного сложнее. Я как-то написал здесь статью про веру-надежду-любовь, но меня не поняли. Если бы я считал себя человеком имеющим хорошую научную интуицию (уверенности в этом нет), я бы сказал так: центральные слои LLM должны содержать комплексные числа `a + ib`, где a - вероятность (то что сейчас имеется в LLM), b - неопределенность для "каждой вероятности". Интеллект же работает так: основная логика функционирует на основе вероятностей, но иногда мышлению нужна капля неопределенности (как капля яда), это прототип "надежды", источник творчества и поиска новых смыслов. Самое сложное понять алгоритмически что такое любовь. Она - балансер между вероятным и невероятным. Яд (неопределенность) нужна как дыхание жизни, но перебарщивать нельзя.

Тоже самое и с нашими пограничными "желе" и "закостенелость" - сердце знает в каждом случае отдельно, этим управляет любовь. Это делает людей живыми.

у науки есть критерий достоверности

Вы говорите про критерий научности. Если эксперимент повторяем, то обоснование научно, так как описание его логично. Но это совсем не означает, что, например, ОТО истина последней инстанции, и его логическое обоснование тем более. Мы только знаем, что эксперимент повторялся всё время. Метафизика и религии не такие, да. У них нет повторяемых экспериментов.

В народе бытует стереотип, что вера прерогатива религий. Но это не так. Вера - основа всего! Вы утром хотите заварить еспрессо.. Вы знаете что заварите или верите? Знаете? А если эл-во отключат?

религиозных систем больше чем одна, какая из них более достоверна?

Вы можете считать, что религии написали люди. Но логично ли считать (на 100%), что творца не существует, основываясь только на этом? Нет, это просто один аргумент для вас, в этом вопросе, чтобы сместить вашу субъективную вероятность в какую-то сторону.

Вот, что ещё кажется интересным - LLM работают, тоже на основе вероятностей. Но дело в том, что кроме субъективной вероятности (веры) у людей, есть ещё "тень неопределенности" для каждой веры. Человеческий ум, кажется, всегда хочет проставить субъективную вероятность, даже когда она "вилами по воде писана".. Возможно, это то чего не хватает современным LLM - второго параметра для каждой вероятности - уровня неопределенности. Примеры: чашка кофе утром: бинарная вероятность (да/нет), что выпью 97% (могут свет выключить), неопределенность 2%. Теизм, вера в творца: вероятность 51%, неопределенность 90%.

Скорее "когнитивные ошибки" проявляются в неверном просчёте "уровня неопределенности".

... любые убеждения ограничивают. Вера и есть чушь, которую нужно отбросить.

Это дико звучит. Имхо, здесь попутаны сущности (я про веру). Убеждения ограничивают - согласен (нормально звучит). Здесь дело в том, что субъективную вероятность (веру), скажем в 90%, иногда принимают за 100% знание, вот тогда есть проблема.

А вера - основа любого интеллекта и жизни вообще. Вы утром включили кофеварку, чтобы выпить кофе.. выпили.. Но ведь, в этот день, она могла и поломаться и вы остались бы без дозы. Я хотел сказать, что мы мало что знаем. Мы в основном, только верим.

Так что проблема не в вере как таковой, а в низких когнитивных способностях, которые ошибочно расставляют субъективные вероятности. Проблема в "закостенелости" интеллекта. Но если всю жизнь учиться, это будет способствует тому, чтобы интеллект был гибким.

Имхо, следующий прорыв в нейронках должен быть в области генерации неожиданных вещей.

Сейчас LLM работают используя вероятности (веру). Чтобы выдавать "неожиданные вещи", нужно в алгоритм добавить "надежду" - принятие решений (скатывание в нестандартный поток мыслей) с высоким уровнем неопределенности или вопреки вере. И любовь, походу, нужна как балансер, между вероятным и невероятным. Последнее, кажется самым сложным, чтобы уложиться в практическую схему.

Слог у вас хороший. Но я читал и думал, когда будет кульминация. Но хоп.. рассказ окончен. Оказывается кульминацией были муравьи. Намерено ограничивали свою фантазию? У меня бы так не получилось, если бы я умел писать.

Почему все гипотезы симуляции, которые я слышу, полагают что вся Вселенная симулирована полностью? Может и так, но...

Дело в том, что симуляции может быть подвержена только материя. А все остальные процессы могут происходить исконно истинно.

Ведь, что такое симуляция? Это когда нечто реальное, симулирует красивую выдумку, после чего, нереальное становится реальным. Красивой выдумкой, может быть материя, которая реальна только благодаря механизму симуляции. Но какое это истинное, из которого построен механизм симуляции? На это сложно ответить.

Приведу простейший, тривиальный пример, когда компьютер не требуется. Возьмите чистый лист бумаги и проведите ручкой линию. Вы только что создали новый простой мир, который рухнул. Здесь механизм симуляции: бумага, ручка и усилие человека.

А у кого-нибудь есть инфа, про использование ИИ для полета человека в стиле "Икар 2.0"? Взлететь с места как птица, видимо пока не хватает технологий, но уверенно планировать, где ИИ корректирует положение крыльев должно быть не проблема.

AGI это пипец, которого все ждут, но боятся. ASI это пипец в квадрате. Вероятность, что эти штуковины появятся низкая, но это не точно.

У Fleur есть песня: "Равновесия нет". В этом главный секрет.

Эх.. хотелось бы в это верить.

Острота второй половины меча - фикция. А острая часть, чья?

Основной вопрос - а оно нам надо?

Так-то так. Вопрос сложный. Но есть неумолимая конкуренция, прогресс "прёт" как танк, его не остановить. Вот в чём проблема, и получается важнее другой вопрос "кто первый".
У верблюда два горба, потому что жизнь - борьба (с).

Насчет "Терминаторов"... Притча:
Дедушка рассказывал внучку: в человеке изначально два зверя. Добрый и злой. "А какой побеждает?" спросил внучёк. "Тот которого кормишь".

Ну вот, вначале "еду" дают люди, а потом AGI будет делать себе еду сам. И тут важно, что фундаментально добро или зло, в том, что мы считаем оппонентом хаоса - разумом. Боюсь, что ответ может быть сложнее, чем кажется. Бинарная логика: "любое утверждение либо истинно либо ложно, третьего не дано", может быть лишь "красотой нашего мира". А фундаментально, может существовать третье - неопределенность.

Information

Rating
6,687-th
Location
Украина
Registered
Activity