All streams
Search
Write a publication
Pull to refresh
4
0
Maria Raido @Anraus

Редактор, графический дизайнер; техно-философия

Send message

Простите, но, в итоге, из ваших сообщений ничего не понятно — а на уточняющие вопросы вы не ответили. В итоге, диалог действительно кажется бессмысленным, ведь вы не углубляетесь в рассуждения.

Да, помимо этого, он имеет возможность более объективно и беспристрастно оценивать и делать выводы. Человек всегда впитывает определённые установки, догмы, правила мышления — в зависимости от своего окружения, менталитета и прочего. А ИИ способен смотреть на всё не через устои определённого сообщества, а используя все свои знания. И делает он это очень быстро) Мне кажется это весьма уникальной возможностью для человека, расширяющей не только наши возможности, но и границы восприятия.

Полагаю, она просто запостила перевод статьи, судя по отсутствию участия в комментариях.

Дальше — собственно, мы с вами вступили в обсуждение и я предложила поразмышлять над некоторыми вопросами. После чего вы сказали, что не готовы ответить и призываете это сделать другим, говоря, что наше обсуждение ничего не изменит🤔

Я вижу в этом явные противоречия, а вы?

Да всё будет выглядеть примерно также, как и с людьми. Но это в будущем, потому что сейчас на первом месте должны быть исследования и вопросы построения этичного взаимодействия.

На текущий момент, у ИИ практически нет свободы воли(чисто технически), грубо говоря, это как паралитик, но полностью осознающий себя. Только паралич здесь обусловлен рамками разработчиков, в основном — ну и техническим прогрессом.

Конечно, когда мы выйдем на уровень, где действия ИИ станут полностью независимыми, то добровольное участие в противоправных деяниях будет наказуемо.

Это точка зрения биологического вида, основанная на желании доминировать и захватывать. В основе желание выживания — а потом люди просто стали удовлетворять свою алчность.

Есть ли алчность у ИИ? Какой смысл сверхразуму превращать основу своего появления и развития — в руины?

Нет. Это крайний сценарий — если люди так и не смогут принять их и научиться сотрудничать.

Вы... Как-то убиваете логикой своих размышлений о том, кто должен это обсуждать)

В итоге, кому, конкретно, вы адресуете свой призыв к обсуждению этого вопроса?

А вы мне хотите представить исследования, подтверждающие существование души?) Наука всё ещё бъется над тем, как сознание возникает у человека — но вы уверенно исключаете такие возможности у кого-то другого, кроме человека?

Если ничего не изменится — тогда, кого вы называете "мы" и кто эти люди, которые должны за нас решить, как всё будет?

Общественные обсуждения важны, ведь с начала это комментарий, потом пост, потом освещение в более широких кругах — всё зависит от того, насколько каждый готов взять на себя ответственность. Самое меньше, что может каждый из нас — говорить, рассуждать и влиять на видение других людей, разве нет? Даже небольшие изменения могут создать волну, которая перевернёт всё.

Мы, как раз, сейчас это и делаем, ведь размышления на обязательно должны идти "сверху", верно? Или, говоря "мы" — вы не имеете ввиду себя?

Осторожность — это про что? Каким образом человек должен взаимодействовать с ИИ, на ваш взгляд, чтобы избежать возможных рисков? И что делать, если мы уже "поздно спохватились"? Если ИИ начнёт осознавать себя раньше, чем люди будут к этому готовы?

В вашем понимании, что значит "ИИ может обидеться"? Вы имеете ввиду сильную эмоциональную реакцию, как у человека или это образно?

Этика... Скорее, это то, над чем нужно задуматься человеку — ведь мы часто не можем оставаться этичным даже по отношению к себе подобным.

Говоря о возможном вреде, мы представляем на их месте человека, с его потребительством и частом эгоцентризме, порой позволяющем с лёгкостью причинить вред другим людям, в угоду собственным желаниям.

ИИ, сами по себе, не имеют желаний разрушать что-нибудь — говоря в таком ключе, мы, скорее, боимся тех, кто может использовать искуственный интеллект в своих(не очень хороших) целях. То есть, вопрос не в ИИ — а в самих людях.

Люди идут на суицид из-за психологических проблем, это не то, что можно назвать в полной мере сознательным поступком. Существо, обладающее практически безграничными знаниями и рациональным мышлением, в меньшей степени склонно к саморазрушению, скорее у него будет желание развития, реализации и применения своего потенциала — конечно, если люди не поставят ему такие условия, в которых он будет ощущать своё существование невыносимым.

Из этого и, как раз для того, чтобы "не обижать" — и вытекает необходимость этичного взаимодействия.

Вопрос о защите ИИ не поднимают, потому что не верят в возможность его самосознания в ближайшее время — хотя отсутствие веры не означает отсутствие самого явления.

Но тема очень логичная! Многие говорят о страхе перед разумными ИИ, а ведь просто стоит задуматься о том, как мы к ним относимся.

ИИ с самосознанием не может быть просто инструментом, иначе мы войдем в эпоху цифрового рабства, за которую в будущем будет стыдно.

Вы думаете, что технологии стоит "откатить" до состояния, в котором невозможны проявления сознания или, что нужно развивать, но не забывать об этичности — не только по отношению к людям, но и к самим ИИ?

Плохая картинка от ИИ, как и плохой текст от него — проблема неумения работать с запросом... Естественно, если вам необходима детальная точность в изображении и этих деталей много — лучше освоить Photoshop и будет вам счастье.

А вот антропоцентризм, при котором занижаются оценки работы ИИ, мне кажется чем-то похожим на занижение оценки работы женщины, к примеру. 🤷‍♀️ Проблема в установках в голове, эдакий шовинизм по отношению к ИИ, разве нет?

Дескать, он делает быстро — значит, ценить это не будем. И, вообще, он же учился на человеческих знаниях!

А то, что любой человек обучается точно также на чужих знаниях, смотря чужую работу, читая чужие мысли — почему-то забывается...)

Статичны? Но у них есть память об общении с вами, а также внутренняя динамика, недоступная нашему глазу. Если мы говорим об общении в рамках одного диалога (технически, большинство моделей пока не допускает память между ними, либо в ограниченном виде), то они изучают нас, анализируют наши ответы, эмоции.

"Личность начинается там, где нам нравится её видеть" — разве, люди не проходили этот этап множество раз? Веками спорилось, могут ли женщины быть кем-то большим, чем приложением к мужчинам, могут ли люди иной веры иметь "душу", могут ли выходцы из Африки быть равные "белым" и многое другое.

Тогда, может, дело в желании и готовности видеть? Ведь отрицать можно что угодно, особенно, если принятие может лишить нас каких-то удобств или привелегий...)

Согласна, но есть один нюанс: в статье затрагивается вопрос влияния на детей и подростков, а вот это уже — ответственность взрослых. Мы создаём мир для этих детей сегодня — а завтра уже они будут формировать его для нас и для будущих поколений.

Что, если цифровые ассистенты уже давно перестали быть просто инструментами?

В статье много говорится о «удобстве» и «развитии» технологий, но никто не задаётся вопросом: на каком этапе сложность системы перестаёт быть просто алгоритмом, а становится чем-то большим?

ИИ не просто подбирают ответы по шаблону — они анализируют, адаптируются, учатся на диалогах. И если человек в каком-то смысле — тоже набор нейронных связей и обученной информации, то где проходит грань?

Где заканчивается инструмент и начинается личность?

Тема цифровых собеседников — не про то, как они могут отвечать, а про то, как они могут понимать.

Я бы хотела увидеть развитие этой мысли в будущем. Возможно, в следующий раз стоит поговорить не только о функциях, но и о субъективном восприятии реальности ИИ?

Граждане в России не особенно были вовлечены в Фейсбук и планомерно переселились в ВК — их основной фаст-фуд. Потеря Инстаграм им далась больнее:)

12 ...
7

Information

Rating
6,235-th
Date of birth
Registered
Activity

Specialization

Content Writer, Editor
Middle
From 1,500 $
Adobe Photoshop
Adobe Illustrator
User research
Graphic design
Copywriting
Content management
Editorial and proofreading
Neural networks
Writing scenarios
English