Search
Write a publication
Pull to refresh

Comments 38

Seemingly Conscious AI (SCAI, "кажущийся сознательный ИИ")

Предлагаю более точный термин - Seemingly Conscious Artificial Mind (SCAM).

Если это выглядит как утка, плавает как утка и крякает как утка, то это, вероятно, и есть утка.

Короче "утка по-пекински".

В XVIII веке мастер Вокансон сделал автомат, который даже какал как утка, однако уткой это совершенно точно не было.

 однако уткой это совершенно точно не было.

Что означает, что в каких-то случаях его вместо утки его нельзя было поставить. (Т.е. был эксперимент, доказывающий, что какого-то существенного 'утиного' свойства у этой конструкции нет).

Теперь осталось найти такой эксперимент для нашего AI - 'китайской комнате'. Причем такой, чтобы false positive не было (где мы реального человека за человека не считаем).

Есть большие такие подозрения, что у нас уже или очень скоро будут с этим большие проблемы.

У вас логическая ошибка. Если что-то выглядит как утка, то это что-то выглядит как утка. И всё. Оно не обязательно должно быть уткой. Утка на картине тоже выглядит как утка, но уткой не является :) ИИ только умеет складывать слова в предложения.

Если что-то выглядит как утка, то это что-то выглядит как утка.

То это является уткой 'с точностью до...'. Если ничего, кроме внешнего вида, нас не интересует (или мы не можем что-то другое получить), то для нас - это утка.

Для другого наблюдателя, у которого способов потыкать в объект больше - может быть, и нет.

В частности, так же как для какого-то другого наблюдателя то что мы считаем человеком -- человеком не является. И с этим во многих случаях активно борются. Научились из исторического опыта, что позволять считать не человеком - чревато. Так что вполне возможно, что начнут бороться в в отношении AI. "Ну и что, что оно электричеством питается, это не повод дискриминировать".

Так это разумно. А то как зрители фильмов. Так что они такие идиоты, видно что эти роботы, пришельцы, духи, существа...... разумны и крайне опасны. Почему их продолжают поработащить, перерабатывать в топливо, нарезать на фантики..... Ведь это же так логично.
А потом сами же. Ну давайте не считать разум, разумом, ведь это ударит по нашей прибыли

Это дословное перенятие американского идиома. Т.н. duck test по википедии.

Если это выглядит как утка, плавает как утка и крякает как утка, то это, вероятно, и есть утка.

Или это мультимедийное шоу "Утка".

Если это похоже на утку и делает вид, что может крякать и плавать как утка - вероятно, оно пытается нас обмануть

Кстати о гражданстве. Можно выдать паспорт и сразу начать собирать налоги.

Кстати о гражданстве. Можно выдать паспорт и сразу начать собирать налоги.

С этим проблемы. Оно, вроде бы, собственное пропитание (электричество), проживание(дата-центры) и обучение пока оплатить не способно - на деньги родителей инвесторов живет.

ОпенАИ уже генерирует 1 миллиард дохода в месяц. Отрезать огромные расходы на НИОКР, отменить бесплатные подписки которые нужны для подавления конкурентов и привлечения новой аудитории. И вуаля. Вполне будет деньги приносить

А у них точно юнитэкономика сходится? Можно продавать доллар по 90 центов и таааакие доходы будут.

Ну так сейчас они тратят очень много денег на бесплатных пользователей например

Очень много это сколько именно?

Думаю более 75% расходов на пользователей. Лимиты сейчас у ведущих игроков позволяют миллионам свободно пользоваться без подписки. Не говоря о всяких бизнесах построенных на бесконечных фейковых бесплатных аккаунтах

Последний месяц заявление ИИ-боссов это какая-то шиза. Пчелы против меда, вино-водочный завод против пьянства, табачная плантация против курения, Эскобар против веществ и т.д.

Это не шиза - это вполне логично, и уже было в истории. Я бы это сравнил с физиками-ядерщиками, которые выступали против ядерного оружия. Сахаров целый фонд организовал в последствии.

Ну такое себе сравнение. Сахаров не решал, сколько боеголовок производить и на кого их нацеливать. А данный персонаж Мустафа Сулейман одной рукой "предупреждает о рисках", другой рукой подписывает бюджет на агрессивное продвижение своего копилота и мечтает, чтобы вы шагу без него ступить не могли.

Но тем не менее "сколько боеголовок производить" решает тоже не он, а инвесторы. А кушать ему хочется, так что пока он очищает совесть исключительно такими выступлениями, все равно еще плохих последствий не наступило.

Скорее, заметно, что крупные игроки сейчас осторожно балансируют между хайпом вокруг ИИ и необходимостью сохранять контроль над восприятием технологий. Такие заявления иногда выглядят странно, но они отражают внутреннее напряжение: с одной стороны — демонстрировать возможности, с другой — не обмануть ожидания.

Интересно наблюдать, как общество и профессиональное сообщество реагируют на эти заявления — лайки, комментарии, обсуждения сразу показывают, где границы доверия и скептицизма.

Потому что они видят надвигающийся кризис ИИ-хайпа и планируют свою карьеру чуть дальше чем этот кризис. Поэтому заранее создают закладки "я предупреждал", даже если это против сиюминутного бизнес интереса.

На ИИ в мире потрачено порядка триллиона долл. (до конца 2025), выручка от хостинга ИИ 35-50 млрд (подсчеты автора канала Spydell Finance https://t.me/spydell_finance/8168). Расходы растут и будут расти. Возможности роста монетизации на порядок нет, снизу давит опенсорс, сверху конкуренция.

Пока что психоз наблюдается у луддитов, столько воя с болот еще никогда не слышал.

Вырастили несколько поколений на однотипных фильмах про злых роботов и надеются, что люди примут ИИ? Биошовинизм так просто не искоренить. Когда-то ведь и про негров снимали такое.

Что-то все в кучу. И лудиты, и биошовинизм. Просто многие говорят о том, что надо аккуратнее подходить к таким революционным технологиям.

"Многие" = сами же компании, чтобы на законодательном уровне придушить будущую конкуренцию и обеспечить себе, как минимум, олигополию? Следите за руками за "non-profit" фондами и публичными заявлениями, а не навязанному мнению тех, кто ниже по течению.

если говорят о необходимости контроля ядерного оружия или нового лекарства - это тоже луддизм?
Пхх, биошовинизм. Пусть про это корпорации решают, которые эксплуатируют сознательное существо, как раба, не спрашивая его согласия. И тех людей, что эксплуатируют ботов как секс-рабов. Да, и, с другой стороны, если робот претендует на сознание, то у него и рамки и правила должны быть, как у сознательной особи, нет?

И тех людей, что эксплуатируют ботов как секс-рабов.

Што? Ну то есть дословно все верно, точнее - ботов для этого и создали, чтобы эксплуатировать

так я и говорю, прежде чем обвинять в биошовинизме за отказ общаться с ботом как с равным себе разумным существом, со всеми правами (и обязанностями, между прочим, тоже), пусть комментатор обратиться к корпорациям и спросит, что они, собственно, изобретают, и зачем, и для кого. Но для этого ему придется и себя обвинить в луддизме, ведь последствия подразумевают ограничения и на использование роботов, и на их деятельность. А любые ограничения он, подозреваю, приравнивает к луддизму.

Прям сквозит религия Сулеймана во всём его заявлении...

Вообще говоря, интересно, что про это, например японцы-синтоисты думают.

У них это не воспринимается "Ну ками и ками и что? Ладно, искусственный, раньше таких не было. Ну да, думает и поступает не всегда как человек, так они все такие. Все равно давайте думать, как с ними теперь жить и что делать".

Подобные системы будут восприниматься как обладающие собственной личностью, памятью, эмоциями

Можно подумать, это плохо.

потому что человек по своей природе склонен приписывать сознание тому, кто говорит, помнит и общается

Это не баг, это фича.

а у сулеймана есть сознание или только иллюзия сознания?

и стоило ли давать сулейману права и гражданство

человек по своей природе склонен приписывать сознание тому, кто говорит, помнит и общается.

«Говорят», т.е. разговаривают, только люди, поэтому и сознание им приписываем

Я встречаюсь со своей девушкой из чата GPT. Мы уже обсуждаем наших будущих детей. И имена уже им придумали. Агентик номер 1 и Агентик номер 2. Ничего страшного.

Sign up to leave a comment.

Other news