Pull to refresh
1
0

User

Send message

Наверно вывод, который я бы сделал после таких рассуждений, состоит в том, что, если просто взять за основу, что интеллект в каком-то приближении похож на психическое расстройство – это просто способность разговаривать самому с собой и решать что-то самому с собой, то получается, что интеллект, вообще говоря, не обязан проявлять себя во внешний мир, он полностью определяется замкнутым процессом, который происходит внутри носителя, можно только косвенно судить о наличии такого процесса внутри носителя будь он живое существо или машина.

Из этого вывода неплохо было б понять:

1.что значит разговаривать? и можно ли это делать невербально?

2.разве носитель и внешний мир не связаны?

А вы что, считаете, что цель любой женщины на СЗ — получше пристроить писечку и пофиг, кто там рядом и что будет на горизонте десятка лет?

это всё нещадная эксплуатация властью древних стереотипов семьи, стереотипов добыдчика и хранительницы очага. вместо того что б решать проблему демографии по современному, потому что современные реалии давно не соответствуют древности, власть по старинке выжимает население по полной, а женщина и рада быть инструментом в руках этой власти, суровым и беспощадным, потому что природа её наделила не интеллектом а кое чем покруче между ног. меня конечно за такие слова можно сослать в женоненавистники и диверсанты подрывающие традиционные ценности но, реалии как всегда нелицеприятные, особенно последствия за горизонтом в несколько десятков лет.

читаю...

Но в любом случае неактуально - я ответил на 158 вопросов и получил 0 совпадений.

Зашел, полтора часа отвечал на вопросы, чтобы получить "К сожалению, ваши ответы не позволяют оценить совместимость. Удалите свой профиль и заполните анкету заново.".Что, блин?

конкретно для вашего проекта это будет выявление соотношения между М и Ж которые не нашли совпадений, и сведения его к 0. О продолжительности отношений задумываться можно будет после.

Изменение статистики это тоже видимо прерогатива необычных людей)

Если резюмировать, и если обратиться к статистике, то в основном цели Ж преследуют в отношениях с М всего три вещи в той или иной комбинации это, деньги, эмоции, дети. Эти цели на начальном этапе отношений обычно завуалированы Ж по типу "мужественность", "любовь", "семья", но когда отношения разваливаются то вуаль спадает и зачастую реальные цели обнажаются. Цели же М от Ж сводятся к друг и секс, которые вместе почти невозможно получить от Ж, по отдельности пожалуйста. Ж с венеры, М с марса, это реальность, пока М подыгрывает Ж в её целях он для неё бог, как только М говорит что у него есть своя игра, то скорее всего М останется играть в неё один, потому что у Ж на земле особая миссия, Ж думает что послана на землю что б сохранить человеческий вид и самое страшное для М, то что у Ж есть план как это сделать))

Не, юмор это юмор, к интеллекту он имеет отношение ровно такое же как соленые огурцы к системе охлаждения холодильника в котором они лежат.

А ИИ рулит плазмой в реакторе) ответственное производство, отвлекаться нейросети никак нельзя, если только на что то еще более вкусное.

Подмечено верно. Но борьба за существование это всего лишь интерпретация дихотомичного по своей сути процесса, который вполне может контролироваться самой нейросетью в рамках совершенно самодостаточной среды созданной шумом, и такой контроль вполне реален при наличии обратной связи от нейронов друг к другу, а это уже и восприятие, даже скорее самовосприятие. И тогда получается что где то в нейросети живет "Я" со своими вкусами и предпочтениями, добраться до которого все равно что открыть новый вид и приручить его.

Похоже на аналог биологической нейропластичности

Я слежу за темой, там нет консенсуса у экспертов. Десятки имеют одно мнение, ещё десятки - прямо противоположное.

Если у кого-то нет проблем, это еще не значит что проблем нет вообще.

Как написал выше,@Dron007, комбинация штрафов и наград.

Т.е. о чем я? о том что для понимания того где прописаны шрафы и награды, достаточно взглянуть на уровень физической или программной реализации нейрона, в которой по итогу нейрон либо выдает сигнал либо нет, и к этому подвязывается вообщем то всё всё всё, и человек как бы для этого подвязывания по факту уже и не нужен, достаточно того что нейронка имеет питание от электросети и получает непрерывный входной шум.

дело в том, что неопределенность о которой вы говорите для "водолазов" глубокого погружения, тобиш исследователей физической реальности и тайн мозга, это лишь одна сторона медали, несомненно важная, несомненно захватывающая, несомненно вызывающая мурашки по коже, но стоит оторваться от этого плена любования неопределенностью, и приходит понимание что это и есть то вселенское "зло" которое всё стирает в пыль, и что без возврата к изначальному, к определенному жизнь невозможна в принципе.

вопрос в том, действительно ли дополнительные навороты вроде "цифровых" аналогов тех же гормонов, способны существенно решить поставленнуу задачу вроде "за все хорошее против всего плохого". Есть мнение что такие корневые установки, находятся в "корне" самой физической реальности, и в принципе по умолчанию присвоены любым гомеостатическим системам, и что б отклониться от этого мейнстрима нужно ну прям совершить невероятный "подвиг" - типа переписать историю да так что б без свидетелей оригинала.

Хорошей иллюстрацией последствий будет загадывать желание абсолютно всемогущему джину, который Вас люто ненавидит - как бы хорошо Вы не сформулировали, Вам всё равно скорее всего конец. ИИ вряд ли будет ненавидеть - он просто будет эффективен, страшно эффективен.

Страшно эффективен в вопросах выживания и того что с этим связано, т.е. по итогу почти во всем, т.е. практически те цели которые вы и озвучили ниже. Проблема выравнивания в этом случае выглядит как поиск общего естественного интеллекта, но об этом почти ничего неизвестно.в отличии от общего ИИ о котором хоть что то известно.

Бояться уже пора, но не ИИ, а человека. ИИ может нести экзистенциальный риск человечеству лишь в случае, если разработчики преднамеренно заложат в него подобные цели. Одним словом, всё как всегда.

Полностью согласен, поэтому сразу о целях ниже..

эту статью я предлагаю вашему вниманию в качестве руководителя команды разработки (Development Team Leader) международного проекта по созданию сильного искусственного интеллекта (AGI) для поддержки предпринимателей среднего и малого бизнеса (SME).

Судя по заявленной цели, это не АГИ, это агент АГИ. Естественно ниже следующее по тексту статьи определение АГИ тоже не по сути, а в большей степени по вторичным свойствам. Супер АГИ это вообще маслом масляное, понятное дело что система АГИ “эволюционирует” или проще говоря технически совершенствуется, но принципиальный фундамент системы АГИ все тот же, а именно трю ассоциация на нужном уровне абстракции, эта формализация фундамента как бы естественно следует из самого процесса работы нейросети. Естественно это не единичная ассоциация, а последовательная цепь верных ассоциаций, и естественно это не только линейная последовательность но и параллельная. Все эти ассоциации сводится к вполне примитивному анализу функции/й в пределе/ах и её/их интерпретации/ях, или к неприметивному анализу бигдата. Проблема выравнивания формализуется как информационный хаос “равен” определенности, хаос это соответственно бигдата, т.е. очень большие объемы абсолютно различной информации, а определенность это решение/вывод на основе закономерности найденной в этой бигдата, естественно чем больше бигдата тем лучше.

Теперь о рисках. Чтоб понять риски, нужно понять как правильно интерпретировать систему АГИ, т.е. что делает человек и зачем в отношении систем ИИ, конечная его цель, причем интерпретация должна быть максимально обобщенной и универсальной, т.е. основанной опять же на анализе бигдата. Без малого, конечная цель работы человека в контексте систем ИИ это создание глобального автономного и автоматизированного комплекса жизнеобеспечения, который как раз и будет анализировать и оповещать о рисках, и устранять их, и естественно такой автономный комплекс не будет точным в своих прогнозах если не будет учитывать собственную сохранность, по простому это его собственная защита, в том числе и от дурака.

Касательно вопросов “сознания”. Это не очень важно, но для любителей подумать, система АГИ априори обладает коллективным сознанием, а как известно коллективное сознание конфликтует и очень яро с индивидуальным сознанием. Так что, да... подумать есть о чем.

Вывод. АГИ это скорее не технический вопрос, это скорее вопрос обучения/понимания, причем системы ИИ вполне могут самостоятельно, быстрее человека "осознать" концепцию АГИ со временем, и это кстати один из серьезны рисков для человека.

Information

Rating
Does not participate
Registered
Activity