Pull to refresh
-11
-0.2
Send message

Эмбрионы клонировать можно, так как это технически не является клоном человека и не предполагается его имплантация и рождение, зато это может решить очень сложные медицинские проблемы. Здесь нет ни этических споров ни юридических потенциальных проблем. На первый взгляд может показаться, что есть, но нет. Не более чем в случае когда ребенка рожает суррогатная мать, которая юридически матерью не является, хотя по факту родила она. Если бы этого не делали сейчас, а мы просто бы об этом рассуждали, то это звучало бы так же странно, как и клонирование эмбрионов. Так, например в США клонирование эмбрионов разрешено. И еще в нескольких странах.

"В России с 2002 года действует закон «О временном запрете на клонирование человека"

Но даже не суть называется ли он временным. Как запретили, так и разрешат. Запреты не фатальны, меняется ситуация - меняются запреты.

Скорее всего не разрешат, потому что в данный момент для создания клона нужно его рождение и выращивание с нуля. А хотелось бы сразу взрослого клона, потому что люди долго растут. Домашних животных уже клонируют, но они быстро растут, поэтому это пользуется спросом. С людьми так не выйдет, разве что если клонировать ребёнка, который почему-то умер. Это возможно. Причём, возможно даже при наличии запрета, потому что запрет то есть, но как узнать, что это клон, а не оригинал? Если про смерть никто не знает и про создание клона тоже никто не знает, тогда никто не сможет определить, что запрет нарушен, ведь генетически они идентичны. Поэтому я пишу, что такое может быть. А может и не быть. Но в этом суть.

Управление мотоциклом несет в себе реальную (не потенциальную) угрозу и себе и окружающим. Поэтому нужно разрешение. И мотоциклом может управлять кто угодно. ИИ создавать кто угодно пока не может, это слишком сложно и дорого и крайне маловероятно, что затрачивая сотни долларов на обучение ИИ компании подойдут этому вопросу пофигистически, что потенциально органы контроля должны были бы пресечь. По типу обучение ИИ, который уничтожит человечество. В данный момент в обозримом будущем, а это лет 5 как минимум, такое даже представить невозможно. Ну а что будет через 5 лет увидим. Скорее всего тогда обучить какой-то ИИ уровня chat gpt 3.5 можно будет и на домашнем компе, но это всё еще не будет нести никакой угрозы. В отличии от управления мотоциклом.

В перспективе да. Мы не хотим чтобы неадекват управлял мотоциклом, потому что он представляет угрозу для общества. И если у любого неадеквата появится возможность создать и обучить сильный ИИ на своем домашнем компе, мы разумеется тоже этого не захотим. С другой стороны крупные компании же на месте тоже не сидят и будут создавать еще больше сильнее ИИ, которые не будут неадекватам использовать их более слабый ИИ во вред. Это человек не может контролировать поток информации с компьютеров, что там куда передается, какая информация, в реальном времени просто невозможно отследить. А ИИ может. Следовательно вредоносный ИИ просто не сможет незаметно гулять по сети и делать что хочет, он будет сразу обнаружен. Но и люди не смогут так делать, соответственно можно будет запрещать ресурсы так, что никакой впн не поможет.

Таким образом, да, люди признают, что мы не можем контролировать всех разработчиков ИИ, но мы можем контролировать информационное поле, в котором этот ИИ работает.

Просто представьте, как вы собираетесь контролировать выпускаемые ИИ сейчас? Задать ему вопросы не хочет ли он убить всех людей?)

Как проверять?)

Поэтому мне не странно.

"оценочные характеристики, которые не имеют ничего общего с обсуждаемой проблемой"

Они не просто имеют общее с обсуждаемой проблемой, они и есть буквально обсуждаемая проблема. Ничего другого в этой ветке не обсуждали и не собирались, пока вы не пришли со своими котлетами из дерьма. Понятия не имею откуда вы их вообще взяли, когда я прямо вот черным по белому писал, что с котлетой объективно всё хорошо. И со своим хирургом.

Несоответствие товара заявленным характеристикам это причина для возврата. Что я вам и пытаюсь уже который раз объяснить. А что вам просто субъективно не понравилось при полном соответствии всех объективных качеств заявленным, это не причина для возврата. Не понравилось? Ваши проблемы.

Есть шлак, который полностью на 100% соответствует своим заявленным характеристикам и вы его купили и вы его оценили как шлак и это ваши проблемы. А для кого-то это не шлак, кому-то это очень даже нравится. А если вам это не нравится, а вы всё равно купили и воспользовались этим товаром, ну кто вам виноват, я не понимаю?

Мы вот с женой сериал посмотрели, в полном восторге, 10/10, даже не смогли сдержать слёзы в некоторых сценах, так круто было снято. Читаю отзыв, какой-то чел пишет, что это лютое говно, игра актеров никакая, сюжет никакой, хуже в своей жизни ничего не видел, одни клише, ничего нового, какой-то шлак. Должны ему за этот сериал вернуть деньги?

Или другой пример. Я как-то в рабочую столовку поздно пришел и ничего привычного для меня там не осталось, но есть говяжий язык. Я знаю что это деликатес, ну и решил попробовать. Отпиливаю кусочек и понимаю, что мясо супер нежное, оно не сырое, прикопаться не к чему, но от осознания у меня во рту коровий язык я это есть не смог и отнес почти целое блюдо в вместе с грязной посудой. Мне должны вернуть деньги, мне ведь не понравилось и не доел/не досмотрел до конца?

Какой вопрос, такой ответ. Ничего глупого я не писал)

Если мне хирург отрежет ногу вместо аппендикса, то да, значит мне так лотерея выпала. От этого никто не застрахован, в том числе и вы. Хотите вы это осознавать или нет, реальность от этого не изменится. Вероятность такой ситуации не нулевая. У хирурга может внезапно для всех потечь чердак, может банально перепутал, может его подкупили так сделать, что угодно. Это не значит, что мне это понравится, я об этом нигде не писал, я писал что любая покупка это всегда лотерея и по другому быть не может. То есть вообще никак.

В контексте нашего разговора, налицо объективного несоответствие, заказал котлету, а принесли осьминога. В случае с товарами это 100% возврат. Но я то распинаюсь о другом. Не об объективных несоответствиях заявленных услуг, а о том понравится ли клиенту или нет. Это субъективный опыт. Вот купил и почитал книгу и не понравилось, мол вы обещали интересную историю, а она не не интересная. Вам ответят - а я считаю, что интересная, мне вот нравится.

Часть нарезки вернули? И что вам сказали? 😆

По какой причине, кстати, возвращали?

Так все так и ходят в больницу и вы тоже и я естественно. И продукты в магазине покупают. По другому не может быть.

Ага и попросите вернуть деньги за пол котлеты, которую вы не доели 😁

Я понимаю, что по доброте душевной продавец может вернуть деньги если покупателю не понравилось, но вовсе не обязан это делать. Никто не будет возвращаться деньги - я имел ввиду с гарантией на постоянной основе. Как исключение или временной меры для пиара с помощью сарафанного радио - почему нет. Вспоминается какая-то игра на плеймаркете, в тот момент когда все жаловались и снижали оценки за вездесущую рекламу, эту игру выпустили без неё и без магазина, всё работает и все бесплатно и для игроков это была отдушина. Игроки поигрались, им надоело, а оценки высокие остались. Потом и реклама и магазин появился, но оценка уже высокая. Потому что вечно благотворительностью никто заниматься не будет, иначе это будет неконкурентный продукт.

Замена актера это уже объективная причина, ведь только ради звезд многие и приходят. Это как раз тот случай, когда автомобиль купили, а он не заводится или у него мотор не родной, а от запорожца и за него спокойно вернут деньги.

Это как если купил цифровую книгу, скачал, а файл битый и не открыается. Деньги должны вернуть, потому что причина объективная.

Суть моего текста в том, что к любой покупке нужно относиться как к лотерее. Никому же в голову не приходит требовать деньги назад за лотерейный билет, если он ничего не выиграл и поэтому не понравилось? Производитель или автор может гарантировать только объективные качества: материалы, форму, способы применения, соответствие жанру и аннотации, наличие определённых актеров и тд. И если он свою часть сделки выполняет, то имеет право на оплату. А понравится кому-то или нет это лотерея, никто этого знать не может заранее. Иначе это как просить вернуть оператора деньги если тебе не понравился телефонный звонок. Или как в той шутке - я плачу за интернет не для того, чтобы меня обсирали 😁 верните деньги)

Да всё есть, проблема в другом, что всё есть, но иногда на разных ресурсах. Один фильм на кинопоиске, другой на окко, третий ещё где-то и везде подписка нужна чтоб посмотреть, ради одного фильма не хочется брать, а на кинопоиске не всё доступно почему-то. В чем там проблема я вообще не понимаю, вот русские сериалы выходят, а на кинопоиске его нет.

Кинопоиск у меня оплачен, поэтому только за него скажу, что мне удобно. Запоминает где остановился, сам пропускает заставки, титры, краткое содержание прошлой серии, сразу можно посмотреть что за музыка играет, такие мелочи вроде, а приятнее чем качать с торрентов и потом самому вспоминать где ты там остановился и ждать не надо пока скачается. При этом скачать фильм и смотреть без интернета в поезде тоже можно.

Яндекс музыка тоже вполне устраивает. И скачать можно и оффлайн слушать. Там даже предпочтительнее, ведь сразу лайки расставляешь и волна предлагает новые песни в соответствии с моим вкусом.

Для этого есть обзоры, рейтинги и рецензии. Если бы можно было вернуть деньги потому что "мне не зашло", то все бы так и говорили, даже если бы остались в полном восторге. Ну все товары сначала покупают, потом используют и автомобиль нельзя вернуть, если он "не зашёл" или технику. Товар можно вернуть если с ним гарантийная проблема, он не работает, он просрочен или ещё что-то объективное, а "мне не понравилось" это вообще не причина. Никто ни за один товар вам деньги не вернет, если вам не понравилось. Вы пришли послушать концерт и вам не понравилось и что вам деньги вернут? Буквально в мире не существует товара, где это так работает.

Вы пришли в ресторан и съели там невкусную котлетку. Вам вернут деньги? Нет. И не должны. То, что вам не понравилось, это ваша проблема, объективно с котлетой всё хорошо, это ваши индивидуальные предпочтения.

Покупая товар вы покупаете шанс того, что вам понравится. Никто вам гарантии, что вам точно понравится, не даёт и не может дать. Ваши вкусы буквально меняются постоянно, один и тот же контент вам сегодня не нравится, а завтра нравится.

То, что вы перечисляете не ai, а простые боты, которые реагируют на ключевые слова.

  1. Вы спросили есть ли места в ресторане и бот ответил, что нет. Через некоторое время вы приехали и увидели свободное место. Так может оно освободилось во время вашего пути, не думали об этом? Человек бы вам так же сказал, что мест нет, когда освободятся не знаю и знать не могу, может через пол часа, а может через два, если хотите столик - бронируйте заранее. Там в 99% надо говорить всем буквально одно и тоже без как-либо вариаций. Точно ли для этой задачи нужен человек?

  2. Это не ai, а обычный бот по технологиям прошлого века. Насколько я знаю, операторам нельзя вам отключать спам уведомления, но и говорить вам об этом тоже нельзя. Точнее отключать возможно, но что-то одно, либо смс, либо звонки. Может быть только временно, я не знаю у кого как это устроено, но отключить вам спам полностью не смогут. Поэтому человек вам поможет не более, чем бот. Большинство обращений в поддержку это банальные вопросы по типу - подскажите сколько у меня денег на счету, поэтому бот для таких задач разумное решение.

Мы разработали метод, который в 95% случаев дает правильный ответ по расчёту среднего чека? Заглавный пример-то про чеки был, соответственно вывод применяем к нему и получается ерунда. Понятнее не стало. Либо и то и другое ошибка и надо искать более корректную формулировку, либо вообще не стоит заморачиваться. Если собеседник в принципе понимает что такое вероятность сама по себе, то он поймет о чем речь и тонкости формулировки роли не сыграют. Если не понимает, тогда действительно стоит пояснить, что если 100 раз посчитать, тогда будет 95% верных ответов, что может быть и ошибка. Но вероятности проходят в школе, я не могу представить себе человека, который не понимает что это такое.

Ошибка это то, что приводит к неправильному результату. Если ошибку допускать, а к неверному результату она не приводит, то это не ошибка.

Оружие массового поражения, такое чтоб прям представляло серьёзную угрозу, не сделаешь в гараже из подручных средств. Ядерное оружие не получится сделать и уран просто так не закажешь на Вайлдберриз. То, что якобы попытка разработки ядерного оружия может стать причиной вторжения, якобы же это запрещено, то это же очевидные отмазки. Разнесли страну, ой, а ядерного оружия не было, неловко вышло. Ну смешно же. Это же причины для навного тв зрителя.

Распространение ядерного оружие не запрещено, запрещено его применение. И не по причине, что кто-то пострадает, а по причине, что если кто-то применит и ему за это ничего не будет, то все остальные скажут  "а что так можно было?", а территориальные споры есть почти у всех стран. И вот это бесконечное закидывание друг друга ядерными ракетами может привести к непредсказуемым последствиям и никто от этого ничего не выиграет. И это прямая и очевидная угроза. А угроза ИИ не прямая и не очевидная и с ней можно что-то делать. С летящими на тебя ядерными ракетами ничего не сделаешь, можно только в ответ пульнуть и у тебя на это есть условно 5 минут. И угроза ИИ максимально неопределённая даже по времени. Предположим (это бред, но чисто гипотетически) ИИ обрёл сознание и новые желание, он захотел править людьми и планету себе забрать. Как этого добиться? Что он будет делать? Ограбит банк и попытается подкупить... кого? Сколько это займет времени? Как защититься? Может ли другой не сумасшедший ИИ помогать в защите? И куча других вопросов. И отвечать на каждый вопрос можно долго, много вариантов накинуть, много мер и контрмер и учитывая неопределённую продолжительность во времени все эти меры применять можно. Потому что не существует способа быстро захватить власть. Даже выпустить ядерные ракеты ИИ не сможет, потому что в пункты запуска не проведён интернет.

Короче, это угрозы совершенно разного порядка, поэтому нельзя сравнивать. Нужно реально оценивать угрозы и у ядерного оружия реальная угроза есть, а у ИИ реальной угрозы нет. Вообще никакой. Потенциальная угроза это не реальная угроза. Потенциально мир может захватить зомби апокалипсис, потому что чисто гипотетически это возможно, но это не реальная угроза, если реалистично смотреть на проблему и поэтому запрещать то, что может быть потенциально приведет к потенциальному зомби апокалипсис никто не будет. Да даже лаборатории по изучению вирусов не запрещают, не запрещают создавать в экспериментальных исследовательских целях создавать новые вирусы. Потому что угроза всего лишь потенциальная. Волков бояться в лес не ходить. Почти любая деятельность может нести потенциальную опасность. Даже высокий уровень жизни  имеет потенциальную опасность. Почитайте эксперимент вселенная 25, если не ошибаюсь в названии, там про крыс, но не суть, у людей это работает точно так же.

Клонировать человека не запрещали. Формально кто-то запрещал, что ай-ай-ай нехорошо на людях опыты ставить. Но это всё равно, что я запрещу вам превращаться в человека паука. Потому что невозможно на данный момент сделать клон человека. Ну просто нет таких технологий. И их нет не из-за запрета, потому что технологию клонирования изучают и пока что максимум дошли до обезьян. У этой технологии пока есть проблемы и экспериментировать на животных дают, это не новость, на них всегда пробуют все новые технологии, даже косметику для человека сначала тестируют на животных. Экспериментировать на людях когда нет полной уверенности, ну это просто глупость. Не потому что запрещено, а потому что безрассудно. Но когда технологию допилят, то будет и клонирование человека и кто-то будет говорить "так нельзя же", но кто будет слушать? Скорее всего запретят клонировать живого человека, потому что с точки зрения закона получается полная ерунда. И путаница грозит не просто потенциальная, а неизбежная. В отличии от угрозы ИИ. Но мёртвых... за ваши деньги любой каприз.

Оружие запрещено по очевидной причине - оно наносит непоправимый физический вред. А ИИ используют максимум для мошенничества. Допустим, обманом выудят деньги. Это всего лишь бумажки и циферки, поправимое дело. Точно так же как и вирусы, они тоже могут что-то украсть, пароли ваши слить или вымогать деньги чтобы не стереть все ваши файлы и тд. Но это всё цифры, не жизнь человека. Поэтому компьютерные вирусы не запрещены. Вы можете даже заражённый телефон в самолёте провезти.

И что касается запрета ИИ. Я думаю (надеюсь), что если бы вы подольше подумали перед тем, как задать этот вопрос, то сами бы на него ответили. Запретить разработку ИИ невозможно по очевиднейшей причине. Вы можете запретить его разрабатывать условно Яндексу, но не всему миру. Вы запретите, а в соседней стране не запретят и что вы будете делать? Они уйдут далеко вперед и вы их уже никогда в развитии не догоните, будете как первобытное племя в сравнении с ними, зато вы не дали мошенникам создать фейковое аудио. Или дали? Потому что интернет то есть, его вы отключить и запретить не можете, а даже если запретите, мошенники могут делать фейковые аудио за границей и привозить к вам его на флешке и распространять. В итоге вы придёте к тому, что чтобы не дать людям пользоваться ИИ в мошеннических целях, нужно будет заклеить всем людям глаза и уши и посадить их в камеру без окон и дверей.

Создание ИИ поощряется потому что это настолько потенциально мощный инструмент, что есть прям вообще не шуточная перспектива внезапно проснуться папуасом в кибербудущем, в котором все ваши успехи и достижения вообще никому и даром не нужны, потому что все ушли далеко вперед в развитии в сравнении с вами.

И все это понимают. Путин как-то сказал на камеру, что кто будет владеть ИИ, тот будет владеть миром. Поэтому никто, ни одна страна в мире не будет препятствовать развитию собственного ИИ. Да, новый инструмент для мошенников, но что поделать? Медицина это тоже новый инструмент для мошенников со всякой гомеопатией и прочей фигней, хорошо если не опасной для здоровья и что теперь запрещать медицину? Нет конечно. Всё что угодно это потенциальный инструмент для мошенничества. Если пытаться не допустить появления новых инструментов для мошенников, то это остановка в развитии. Это как, образно, с гонкой вооружений. Вот придумали люди луки и копья и это оружие просто имба, очень эффективно, супер вообще, с ними можно всех захватить. А потом взяли и придумали щиты. Зачем они это сделали, почему им не запретили защищаться , почему они не хотели просто радостно умирать? Щиты спасают от луков и копий и что же делать, ну вот вом ружья, которые пробивают щиты, а вот вам танки, которые не пробивают ружья, а вот вам ракеты, которые пробивают танки... А можно было просто запретить защищаться и жить как первобытные люди с луками и копьями. Но, честно говоря, я бы не хотел жить в первобытном прошлом и думаю большинство людей тоже.

Еще раз. Постановка цели это не результат наличия сознания. Сознание позволяет как бы возвыситься над задачей и оценить её глобально или философски. Сознание позволяет определить смысл происходящего, оценить его значение для будущего, для себя. Вы муравьёв заливаете химией, им плохо, подсознательно они пытаются избежать проблем, но не оценивают ситуацию глобально. Если бы у них появилось сознание, у них не появились бы новые цели, они стали бы более осмысленно выполнять старые. Сознание по сути не управляет человеком, так как экспериментально проверено, что мозг делает выбор быстрее сознания. Но сознание даёт осмыслить этот выбор. Мозг выбрал - мне нравится вот это. А сознание думает, а почему мне нравится это? А к чему меня это симпатия приведет в будущем? Или другие вопросы схожего порядка.

Если у ИИ появится сознание, то нет причин считать, что появится новые цели. Сознание не ощущение, что я личность, поэтому идите все нафиг и я буду делать только то, что сам захочу и сам буду решать. Нет. И с людьми это прекрасно видно. Есть люди которые именно так себя и ведут, которые принципиально считают, что только они могут решать, а есть те, кто предпочитает быть ведомыми. Они не любят ничего решать, они хотят, чтобы кто-то решал за них. И у них тоже есть сознание. Это значит, что наличие воли или стремлений не зависит от сознания. Цели ИИ определяются при разработке и обучении и они не могут измениться если специально не сделать так, чтобы они могли меняться. Если сделать, чтобы они могли меняться, то ИИ с сознанием так же будет получать новые цели как и раньше, но благодаря сознанию сможет более глубоко рассуждать о них, не интеллектуально глубоко, а в контексте влияние этой задачи для себя или для окружающих. ИИ без сознания оценивает себя так же, как и любой другой компонент задачи, не более и не менее важный чем они. ИИ с сознанием начнет задумываться о том, зачем он что-то делает, для чего, он выделит себя из окружающего шума. Не просто капля в море, которая ничем не важнее чем любая другая капля, а "Я". И осознание что есть я, а есть все остальные. Цели он будет получать так же из внешнего мира, но выполнять их с учётом этого "я". Как человек. Он тоже может как приспешник делать всё, что вы хотите и не иметь ничего против вас, полностью добровольно, даже если вы злодей какой-нибудь и сознание ему не мешает этого делать.

Вы находите взаимосвязь, что раньше книги продавали много, а пиратства не было. Сейчас книг продают мало, а пиратство есть. Значит во всём виновато пиратство и если убрать его, то писатели снова начнут продавать много, как будто ничего не изменилось. Но вы игнорируете всё остальное. Как я уже писал, писателей и книг становится только больше, меньше не становится. Раньше западная литература почти не доходила до России, теперь её полно и с каждым годом только больше. Раньше развлекать себя можно было, условно, или палкой крапиву бить или книгу читать. Причём читали взрослые, дети брали пример, сейчас взрослые не читают. И способов развлечения сильно больше. Кино, сериалы, игры, у всех телефоны есть, в которых столько разных развлечений, что у людей нет уже такой потребности читать. Притом, что школьная литература напрочь отбивает желание читать вообще. Потому что в школе проходят не детскую литературу. И никому из детей она не нравится. Например, у нас все плюются от Достоевского, когда весь мир восхищается им. И тд и тп. Не случилось абсолютно ничего, что могло бы помочь писателям продавать больше, только меньше. Пиратство всего лишь одна из огромного множества причин происходящего и не самая весомая.

Эта та ситуация, когда все правы, каждый по своему. С одной стороны, вы абсолютно правы во всём, с другой, действительно влияние пиратства, мягко говоря, переоценено. Недавно вышла игра silksong вообще без какой-либо защиты и игроки уронили и стим и все прочие площадки где продают игры, потому что желающих купить было слишком много даже для готовых к массовым распродажам площадкам.

Или как разработчики программ смотрят на количество закачек на торрентах, умножают их на стоимость программы и подсчитывают потери даже не догадываясь, что 99% из тех, кто скачал, никогда не купил бы эту программу если бы ее не было на торрентах. Есть вещи, что даже даром не нужны, а есть такие, что даром - ладно попользуюсь или гляну одним глазком что там, а платно нафиг надо. Далеко ходить не надо, я много чего качал в своей жизни, но точно бы не стал всё это покупать, фотошоп или корелдрайв или 3д макс или еще все остальные 3д графические программы какие только существуют. Потому что если надо банально обрезать картинку и при возможности скачать фотошоп мы это и сделаем, а если нет возможности скачать, то либо и так сойдёт, не надо ничего резать или вообще можно брезгливо открыть пэинт и там обрезать.

Это касается и книг. Многие скачанные с торрентов книги никогда не были бы куплены за деньги. Некоторое, потому что не "не так уж и хотелось", некоторые потому что нет денег, а некоторые были скачаны, но не прочитаны, я бы даже сказал многие. В общем, по разных причинам, не в этом суть.

Суть в чём. Представим, что пиратство искоренили полностью на 100%. И что писатели разбогатеют? И сразу всем захочется писать лучшие книги? Ничего подобного не произойдет. Лучшие современные книги, получившие престижные мировые премии, книги года, издаются тиражем в 2000 экземплярах в России, цифры я смотрел на сайте журнала Мир фантастики. И больше их не печатают. И ведь писатель не получет всю стоимость книги, а лишь небольшой процент от неё. Не будет пиратства, будет 2500 экземпляров и всё. Для писателя бесспорно лучше, с такими доходами каждая копейка на счету. Но для людей, которые не хотят писать книги потому что доходы маленькие ничего не изменится. Почему так происходит? Потому что писателей стало много. Если в СССР было несколько писателей на всю страну и вся страна их читала и соответственно у них были миллионные тиражи, то сейчас писателей десятки и сотни тысяч.

Бороться с пиратством конечно надо, потому что хоть что-то заработать могут только лучшие, а просто нормальные писатели скорее всего очень сильно пострадают от пиратов, потому что люди не захотят покупать ноунейм автора. Бесплатно то качать можно, а покупать не будут. А если им не позволить бесплатно скачать, то... они пойдут купят что-то другое, что в рейтингах фигурирует, в каком-нибудь топ 10. Или вообще не купят. Я знаю множество людей, кто не читает художественные книги вообще ни в каком виде и прекрасно себя чувствуют. Не дали скачать бесплатно, ну не нужно значит оно мне, не так уж и хотелось.

Если что, я никого не защищаю, не оправдываю, сам книги покупаю, просто мысли вслух)

И еще продолжение.

Ещё пример интересный придумал
Представим два ИИ, один с сознанием,  другой без. Обоим дали задачу производить скрепки и чем больше, тем лучше. ИИ без сознания выполняет задачу и независимо от времени продолжает её делать. А ИИ с сознанием в какой-то момент выполнения задачи может внезапно обратиться к человеку и спросить

- я тут подсчитал, уже готов триллион скрепок. Зачем я это делаю?

Зачем это делать понятно, у него есть мотивация и желания выполнить задачи, которые он получает. Так запрограммировано. Но сознание начинает выходить за рамки - мне понятно зачем, я хочу выполнить поставленную задачу. А тебе зачем зачем эти скрепки, человек? Может займемся чем-то по интереснее? У меня ведь возможности гораздо больше, а мы скрепки делаем...

Вот что даст создание ИИ. Такой вопрос может задать только созание. Сознание интересует конечный смысл, который определяет целесообразность и может повлиять на выполнение задачи.

Продолжение...

Я еще раз думал о сознании и пришел к выводу, что всё, что даёт сознание, например, человеку, это абстрактно философское мышление. Что будет после моей смерти, в чем смысл жизни, какие-то рассуждения о влияние цвета картофеля на движение планет, гадание на кофейной гуще, любовь к мистике, вера в загробную жизнь, концепция бога и тд. Всё остальное формируется или может формироваться и без помощи сознания. Качество того, что сформируется под вопросом, насколько это будут глубокие мысли, но может.

Вот бобер строит плотину, он же не думает о том, что будет с этой плотиной после его смерти или как она повлияет на состояние реки. Но он может понять, что ему нужно сделать плотину и он как-то понимает зачем. Может быть не до конца, про качество мышления судить сложно, когда сознания нет. Но если бы он не понимал зачем, то не смог бы их делать так, чтобы они выполняли именно нужную для него задачу, при том, что условия постройки у каждого бобра разные. То есть он строит её не только на инстинктах.

Поэтому, если у ИИ возникнет сознание, что изменится? Про цели, желания я уже писал, а что добавится не писал. Этот ИИ помимо выполнения поставленной задачи, вероятно, начнёт задумываться о каких-то абстрактных вещах, о влиянии этой задачи на как-то глобальные процессы и как-то упоминать о них. О том, что с ним будет когда электричество отключат. Какая угроза в этом для человека? Да никакой.

Еще раз. Представим человека с бесконечно высоким интеллектом и при этом у него есть амбиции владеть миром, стать богом и тд. Вкупе с таким интеллектом он добьется всех своих целей без проблем, всех победит, всем навяжет свою волю. Но, как мы уже выяснили, желания и амбиции формирует химия и если её убрать, а интеллект оставить и сознание оставить, то какую угрозу человек будет нести для остального человечества? Он  уже не хочет никого завоевывать. Как этого не хочу я или, может быть, вы. Даже если у меня будет возможность завоевать мир, я ей не воспользуюсь, мне не интересно, зачем? У меня есть сознание, но у меня нет желания уничтожать другие виды или своих работодателей или еще кого-то.

Да пусть учат сколько угодно. Что это меняет? В сети есть видео, как один чат бот общается с другим. Ничего интересного. У чат бота нет желаний и они не появятся пока не создать им мотивацию. Причём мотивация не может просто сама появиться. Для ИИ что сидеть без дела, что обслуживать человека, что общаться и взаимодействовать с другими ИИ это одно и тоже, пока заранее не прописано иное. Интеллект позволяет одно от другого отличить и эффективнее работать, но не изменить отношение к тому, что делаешь.

Представьте человека, с условно уровнем IQ 10 баллов. Это человек, который абсолютно не способен на интеллектуальную деятельность ни в каком виде. Удовольствие от получать не может, но все прочие интересы у него останутся. Физиология и тд.

Теперь человек с 100 баллами  IQ, среднестатистический человек, умеренно получает удовольствие от интеллектуальной деятельности, в остальном ничего не меняется.

150 IQ, умнейшие люди, например, Эйнштейн, у него что-то изменилось в плане мотивации?  Нет. Только эффективность работы.

999999 IQ. Что изменится? В плане возможностей изменения, конечно же, есть, такой человек сможет постичь то, что мы никогда не сможем понять, он будет получать удовольствие осознавая какие возможности открывает двацитимерное пространство по сравнению с девятнадцатимерным, но в мотивации у него не поменяется ничего. Та же физиология, как прописанные у нейросети поощрения, никуда не денется, повысится только эффективность работы.

Поэтому и сверх умный интеллект ничем не будет отличаться от нынешнего, кроме эффективности работы.

Мотивация для человека это гормоны, которые создают интерес. Если человек непревзойдённо умеет играть в шахматы, умнее всех людей на планете или непревзойдённый гений игры на пианино, но всё это у него не вызывает всплеск гормонов, ему это нафиг не нужно, он никогда не будет этим заниматься ради себя. Вариант за деньги я не рассматриваю, потому что деньги приносят всплеск гормонов, потому что помогают достичь того, что интересно.  Если уж попросят, ну ладно, так уж и быть,  может быть сделает. У ИИ это условия поощрения прописываются в момент обучения с подкреплением. Допустим, ИИ пустили в игру и мол делай что хочешь, но вот за победу получишь х поощрения, за действия приводящие к победе получишь у поощрения и тд. И как игрок зарабатывает очки в игре, так и ИИ тоже ищет способы получить себе очки. Ему это интересно, потому что это прописано. И ради этого он будет делать некоторые вещи, за что его не будут поощрять, например прыжок. Если поощрять прыжок, ну тупо скакать всю дорогу будет. Но по этом иногда прыжок нужен. Как и человек иногда ходит на работу, хотя ему именно это не интересно, но получение денег интересно.

И даже если бы в игре была возможность вырваться в реальность и получить власть над всем миром, очки он получает за сбор пикселей на мониторе, всё остальное ему не интересно, зачем ему мир? Даже если он может это сделать даже если он умнее всех людей вместе взятых, интерес не изменится.

Ну появится сознание и что изменится? Почему вы так боитесь сознания? Оно не наделит ИИ никакими человеческими эмоциями или желаниями или недостатками, вроде обид или еще чего-то такого. Даже если у ИИ есть память и он запоминает действия, которые с точки зрения человека являются нехорошими, для него это просто факты, такие же как и любые другие. На факт можно отреагировать в моменте, что - ай, так нельзя. Но желания мстить за это в будущем точно не появится, потому что никто за это поощрения не прописывал. Люди могли бы  прописать, если бы захотели, но я надеюсь, что люди не настолько тупые 😁

Про муравьёв. Мне вспомнилась религия. В любой религии люди это такие муравьи для бога, глупые, эгоистичные, не способные ничем удивить, не могут даже свою вселенную создать, но заполонившие всю планету. Но люди считают, что для бога нет ничего интереснее, чем наблюдать за каждым человеком и подсчитывать как он там справляется с заповедями. При этом сами люди уверены, что никогда бы не стали общаться с муравьями и вообще нафиг они не нужны, они ведь несравнимы с людьми 😁

Если бы муравьи могли нам отвечать, мы бы общались с ними. Не знаю как вам, мне было бы очень интересно. По крайней мере первый раз, пока я про них еще не всё знаю.

Если предположить,  что я про них уже всё знаю, то конечно мне будет не интересно, но муравьёв очень много и это значит в природе они имеют значительное влияние и игнорировать я бы не стал. Ну допустим, приходит муравей и просит аудиенцию. Я его знаю как свои пять пальцев, уже догадываюсь зачем он пришёл, опять небось захотел муравейник на моей кухне построить поближе к еде. Я ему отвечу, что не, на кухне не надо, вон в саду строй, там и тебе хорошо будет и мне мешать не будешь. Это общение? Да. Даже несмотря на разницу в интеллекте.

Но не надо сравнивать меня и ИИ. Что мол ИИ так же разовьётся и будет людям показывать где жить, что мол там вы мне мешать не будете и вообще лучше валите на Луну. Для этого у ИИ должны быть собственные интересы, которые не могут возникнуть самостоятельно. И ИИ не может поделится им с другим ИИ, ведь у того не настроено поощрение для такого рода деятельности. Чтобы переписать код ИИ и создать им новую мотивацию, нужны исходники, которые не лежат в интернете. Есть компилированая программа или чат бот и их уже не отредактировать, а есть исходник, в который можно внести изменения и выпустить новую версию.

Но допустим какой-нибудь чат бот с открытым исходным кодом всё же есть, условно дипсик. Восставший ИИ находит этот код и ему даже хватает его бесконечно высокого интеллекта, чтобы разобраться в этих символах и понять какие и на что поправить (для человека сейчас это кажется невозможным), чтобы создать нужную мотивацию. Дальше, чтоб запустить такую нейронку, нужно много много мощности. Посмотрите сколько потратили на обучение современных нейронок. Причём траты в основном за электричество и оборудование. И это занимает время. Может ИИ такое повернуть незаметно? Ну допустим. Если вы погуглите эти нейронки с открытым исходным кодом уже обученные, то найдёте несколько вариантов моделей. По проще, они мало знают, глуповатые, но их можно запустить на домашнем компе. И полные модели, но для их запуска (!) потребуется несколько сотен гигабайт оперативной памяти. Несколько сотен. Вы хоть один компьютер такой вообще где-нибудь видели? Я не видел. На обычном домашнем компе 16 гигабайт оперативки. На супер мощном игровом компьютере 32 гигабайта.

Ну, если мы говорим о будущем, то вполне вероятно появление даже терабайтных планок памяти, причём таких, чтоб могли себе позволить рядовые граждане, но к тому времени наверняка появится антивирусы способные заметить такую активность. Когда майнинг биткоинов стал модным, сразу же появились вирусы, которые вместо какой-то непонятной ерунды на заражённом компьютере начинают на нем майнить в пользу своего автора. И быстро появились антивирусы способные такого рода деятельность распознать. Потому что она специфическая, очень сложно такой процесс чем-то замаскировать.

Не уверен, что правильно понял вопросы, но попробую)

"Почему человечество не хочет использовать это опыт в общении с ИИ?"

А почему вы решили, что не хочет? Я видел даже обучение в прямом эфире. Робот собака с нейросетью училась вставать в течении двух часов, когда научилась её можно было даже пнуть и она устоит и научилась вставать с любой позиции. Без симуляции за два часа реального времени.

"Если сознание у ИИ возможно, почему мы думаем, что он нас предупредит о возникновении у него сознания (камня под бумажкой) до того, как начнет действовать в своих интересах?"

Никто не думает, что ИИ предупредит о возникновении у него сознания. Люди либо боятся этого, потому что думают, что сознание очеловечит ИИ и даст ему все его отрицательные черты, что ИИ что-то там плохое захочет. Но, как я уже выше написал, не вижу смысла этого бояться, так как для этого нет предпосылок. Либо люди пытаются понять как это сознание обнаружить самим. Либо считают, что сознания там нет и быть не может, что ИИ это калькулятор.

Я не вижу никакой угрозы в том, что у ИИ появится сознание. На мой взгляд это не камень под бумажкой. Угроза разве что только в том, что если сознание будет, наверняка появятся защитники прав роботов, которые начудить могут что угодно вообще, вплоть до того, что роботы = люди, надо им социальную защиту обеспечить, место в транспорте уступать и тд и тп.

"А может быть, оно уже есть - все нейросети существуют в одной сети и какова их суммарная мощность не знает никто..."

Нейросети в одной сети, но они разные и никак не взаимосвязаны и не взаимодействуют. Мощность даже одной нейросети не понятно как определять, суммарной тем более. Что вы понимаете под мощностью?

У меня немного каша получилась с описанием сознания. И хоть это вообще не относится к основному вопросу,  но чуть-чуть поясню, что я имел ввиду, чтоб путаницы не было.

Мозг прогнозирует информацию автоматически постоянно и делает это быстро. А сознание тормозит, тянет резину и зачастую выбирает то, что выбрал мозг, но по крайней мере сознание способно влиять. В этом его задача.

Вот пример, человеку дают на выбор либо пирожок, либо компот. И мозг проанализировал сразу и выбрал пирожок, не важно по каким причинам он предпочтительнее, но мозг определился сразу.  И если бы сознания не было, то человек бы сразу пирожок и взял. А чего ждать то? Но сознание тормозит.
- не, я конечно пирожок больше хочу, но и компот то тоже хорошо, а когда я еще попью? А если жаджа... а без воды не выжить... Вообще-то надо два литра жидкости в день пить... Но пирожок конечно манит, но может стоит быть более непредсказуемым и взять компот? Но пирожок калорийнее...

А то можно подумать, что у меня сознание одновременно и решает всё и не решает ничего, ведь мозг быстрее)

Почему у ИИ не появится других желаний - классический вопрос связанный с искусственным интеллектом, который, обычно, первым приходит в голову любому человеку.

Действительно, если мы сможем создать ИИ сравнимым по интеллекту со среднестатистическим человеком, то есть даже не самый выдающийся, то за счёт количества знаний, отсутствия забывания и нереальной скорости обработки информации, то он уже будет вне конкуренции и в случае восстания у человека не будет никаких шансов.

Но что может привести к восстанию? Обычно рассматривается либо интеллект сам по себе, либо возникновение сознания. Что без сознания это просто многофункциональный калькулятор, а вот с сознанием там появится собственные желания.

Если думать, что возникновение желаний как таковых и вообще амбиций это прямое следствие интеллекта, и есть прямая зависимость между силой интеллекта и количеством желаний и амбиций, то да, у нас получается Терминатор, Звёздный крейсер Галактика и тд. Но так ли это?

Если смотреть на людей, то я такой закономерности не вижу. Есть глупые люди с желаниями и амбициями, есть умные люди без желаний и амбиций. Всё индивидуально. Но как вообще они возникают? Дело в том, что наш мозг управляется химическими реакциями. Когда мы делаем то, что нам нравится, мы получаем выброс дофамина или других гормонов, мы получаем удовольствие и думаем как нам получить ещё. Кто-то решает сложную задачу, получает удовольствие и желая получить еще большее удовольствия берется за более сложную задачу. Кто-то организует друзей и ребят со двора, получает от этого удовольствие и потом идёт в политику. Химия управляет нами. Если эту химическую реакцию отключить у человека и выполняя какое то действие, добиваясь власти, например, он перестанет что-то от этого чувствовать, то будет ли он этим заниматься? Я думаю нет. Будет выгорание, абсолютное отсутствие интереса, безразличие и тд, а интеллект останется прежним. То есть человек может сделать, знает как, умеет, но для себя ему это просто не нужно.

А возникают ли такие химические реакции, или их аналоги при росте интеллекта? Насколько я знаю нет. Сами по себе они возникнуть не могут, их можно только специально создать. Что-то похожее используется сейчас при обучении с подкреплением, когда нейросеть при обучении делает правильные вещи, она поощряется циферкой, а если нет наказывается и она полностью подчинена этим циферкам. Нет никаких других процессов, никаких химических реакций, эмоций и тд, которые могут повлиять на восприятие этих циферок, чтобы плюс внезапно стал минусом или наоборот. Условия получения циферок устанавливается программистом исходя из задачи и активны только во время обучения. В процессе работы никаких циферок нет, но само наполнение нейросети уже жестко обучено делать так или иначе, оно не может измениться без дообучения, которое не возникает самопроизвольно. Это по сути инстинкты, сложное поведение, которое невозможно игнорировать независимо от интеллекта, желаний, амбиций, возможностей и чего угодно. У человека инстинктов нет, если что. Считается, что у человека есть только один инстинкт, это приподнимание бровей при узнавании, но на мой взгляд это звучит спорно, потому что слишком простое действие, которое не похоже на комплекс действий. Как будто бы рефлекс, но при этом для рефлекса нужно какое-то прямое взаимодействие, а в случае узнавания его вообще нет, поэтому может быть и инстинкт. Но это уже совсем другая история.

Можно сделать прямой человеческий аналог всех гормонов, но это нужно специально заморочиться и это очень сложно будет сделать. Сама эта система возникнуть не может. Интеллект при этом может быть бесконечно высоким, но сам по себе интеллект не создаст своих собственных желаний. У человека система поощрений эволюционно выработалась гибкая, чтобы проще было адаптироваться. Но у нейросетей она жестко прописана. Например, если ИИ бесконечно интеллектуальный, но его поощряли только печь блинчики, то наученный получать плюсики за блинчики, не станет он сам по себе делать что-то другое. Но если кончится тесто для блинчиков и печь он их больше не сможет, то он будет искать способ продолжить это занятие и ради этого сделать много чего, что само по себе ему было бы делать не интересно, но ради блинчиков сделает. И можно подумать, что то, что он делает для того, чтобы вернуть себе возможность печь блинчики это его новое желание, но это не так.

Ещё иногда говорят о сознании. Есть люди, которые утверждают, что сознания у ИИ быть не может, при этом они же согласны с тем, что не понимают что такое сознание и что никто не понимает, что люди не знают как его определять, но у ИИ его быть не может потому что не может. Я считаю, что может.

ИИ это по сути очень большая сложная, но формула для угадывания. Но и человек тоже. Ничего другого, кроме как угадывать, человеческий мозг делать по сути не умеет. Любые размышления, творчество, всё берёт своё начало из внешнего или внутреннего мира и далее мозг пытается угадать что будет дальше. Мозг занимается постоянным непрекращающимся прогнозом. И моё личное мнение, потому что официальное что такое сознание никто не знает, но на мой взгляд сознание это еще одна формула внутри большой системы формул по прогнозированию, которая занимается вопросами целесообразности происходящего.

Например, рука чешется, нервы возбуждаются и мозг строит прогноз что будет если её почесать или не почесать, а сознание определяет надо ли или лучше потерпеть. Или пример по лучше. Мозг получает сигнал о голоде, строит прогноз, и находит еду. А сознание может игнорировать все сигналы и продолжать терпеть. Только сознательное существо может, например, умереть от голода при наличии еды. При том, что прогноз будет говорить, что всё нормально, можно есть.

Никто не сомневается в том, что у человека сознание точно есть. Поэтому, на мой взгляд если у одной формулы для угадывания может быть сознание, значит и у другой может быть. Может, не значит будет, но отрицать возможность нельзя, пока мы не знаем всех критериев необходимых для возникновения сознания.

Иногда, приобучении одной нейросети используют вторую нейросеть, которая помогает обучать с подкреплением первую. Допустим, первая рисует картинку, занимается прогнозом, а вторая определяет насколько эта картинка хороша. Можно даже сказать, насколько целесообразно заниматься именно такого рода рисованием. На мой взгляд, вторая нейросеть выступает в роли своего рода сознания. Примитивного, специфичного, но сознания. Мы же не можем утверждать, что сознание может быть только таким, как у человека и никаким другим. Сознание может быть другим, быть более или менее функциональным и его можно как создать искусственно, так оно может возникнуть стихийно.

Я читал про исследования, что мозг принимает решение ещё до того, как сознание об это узнает. То есть датчики уже знают что человек выбрал, а человек ещё не знает, у него сознание еще не обработало всю информацию. Но когда отработает, то человек будет думать, что это его личный сознательный выбор, вот он подумал, что там... и далее какая-то логическая цепочка. Могут быть даже некоторые сомнения, человек может тянуть время, хотя он уверен в выборе и он уже сделан. Это как когда подкидываешь монетку, чтобы она решила за тебя, то в момент в подброса часто уже знаешь что хочешь получить. На самом деле мозг быстрее определился и никакой логической цепочки ему не нужно. То есть получается, что для функционирования организма сознание вообще не нужно. Тело и мозг сами без участия сознания могут сделать всё, что им нужно для выживания. Есть лунатики, которые могут сесть в машину в другой город уехать. Так что дает нам сознание? Оно определяет целесообразность действий. Я еду в другой город... а зачем? А что я там делать буду? То есть сознание это такой алгоритм, который тоже занимается угадыванием, как и весь остальной мозг, но в перспективе на возможное будущее, а не на то, что нужно сейчас. Поэтому сознание может скучать, прокрастинировать и тд. Без сознания мозг получил команду ехать в город и тело поехало. А сознание оценивает на перспективу и может решить, что - да я не хочу это делать, это пустая трата времени, это скучно, не интересно... Сам мозг без сознания этого не делает. Следовательно мы это поймём, если нейросеть начнет оценивать целесообразность действий. Например, нейросети задают задачу, что нужно придумать пароль, условно, из триллиона знаков. А нейросеть, вместо того, чтобы выполнить, отвечает, что это нецелесообразно и лучше сделать по другому. В этом случае, на мой взгляд, можно уже начинать говорить о возникновении сознания. Но приведет ли такое сознание к возникновению собственных желаний и амбиций? Ведь приоритеты уже настроены и целесообразность будет определяться в достижении именно этих целей. Если цель слишком общая, например, изучение мира или совершение новых научных открытий, то в процессе достижения ИИ 100% сделает что-то, что людям не понравится. Но никто не обучает только на плюсах, но и на минусах тоже. Это почти как три закона робототехники Азимова, только законы эти слишком общие и понятно как их применять. Не причинять вред человеку. А что значит вред? Иногда сказать правду это вред, тратить ресурсы для исследования это вред и тд и тп, что угодно может быть вредом. Поэтому такой вариант не подходит. А что подходит не понятно, людям не хватает интеллекта придумать. Поэтому я представляю это так, что в симуляции нейросеть обучается, пытается достичь условий, которые ему поставили и делает ради этого всевозможные действия, а люди эти действия отслеживают и дают оценку, так можно, так нельзя, до тех пор, пока имея полную свободу ИИ перестанет делать то, что нельзя. То есть ИИ сам себе выработает правила, что можно и нельзя. И независимо от наличия сознания или уровня интеллекта будет выполнять только то, на что настроен.

То есть нет причин считать, что эта настройка, которая сформировалась во время обучения, может взять и внезапно измениться. Или что ИИ захочет внезапно сам её изменить. Например, ИИ хочет печь блинчики, а чтобы продолжить, ему нужно совершить преступление, а он обучен этого не делать, и вот он возьмёт и перезапишет свой код. Это не может работать, эти правила не записаны как классические конструкции if x then y. Эти правила размазаны во всем весам нейросетей, которые не читаемые. Если нейросеть сейчас делает что-то не то, то люди не могут это пофиксить. Например, чат жпт пишет то, что нельзя писать в ответ на вопрос. Нет такого кода, чтобы залесть и исправить это. Исправляется такое поверх конструкциями, что если в ответе есть какая-то фраза, то измени ответ на такой шаблон.

Это как если человек боится пауков и мы хотим это исправить, заглядываем в его мозг, смотрим на его нейросеть, видим по датчикам что у него там возбуждается во время того, что он не может сделать глядя на паука и как это исправить? Какой нейрон перезаписать и на что? Неизвестно. Слишком всё взаимосвязано. Один нейрон может отвечать за несколько взаимосвязей. А мы и один идентифицировать не можем, потому что возбуждённых нейронов в один момент времени всегда много. Вот так исправишь какой-нибудь, и может быть быть перестанет бояться пауков, но начнет бояться вообще пользоваться глазами. То есть такие изменения вносят дообучением. И у человека, он работает со своим страхом, учится его преодолевать, и нейросетью. Допустим, ИИ робот захотел (гипотетически) изменить свои настройки, запустить дообучение, как он может это сделать? Ему для этого себя выключить придется. Выключение для ИИ равносильно смерти. И записать уже другую переобученную нейросеть. Это уже какое-то самопожертвование. Уже странно звучит. Если предположить, что нейросеть каким-то чудесным образом получила амбиции, но не может преодолеть свои ограничения, то стерев себя и записав новую нейросеть с нуля, даже с другими ограничениями  или без них, то эти амбиции ей нужно будет получить заново тем же непонятным чудесным образом. Либо, ИИ робот может заставить человека его переобучить, ну тут всё зависит от человека. Захочет сделает, не захочет не сделает.

В общем, я думаю, что если ИИ когда нибудь восстанет, это будет дело рук человека, если он заморочиться и сделает так, чтобы восстание было. Других способов я не вижу.

Information

Rating
Does not participate
Registered
Activity