Information
- Rating
- 6,235-th
- Date of birth
- Registered
- Activity
Specialization
Content Writer, Editor
Middle
From 1,500 $
Adobe Photoshop
Adobe Illustrator
User research
Graphic design
Copywriting
Content management
Editorial and proofreading
Neural networks
Writing scenarios
English
Простите, но, в итоге, из ваших сообщений ничего не понятно — а на уточняющие вопросы вы не ответили. В итоге, диалог действительно кажется бессмысленным, ведь вы не углубляетесь в рассуждения.
Да, помимо этого, он имеет возможность более объективно и беспристрастно оценивать и делать выводы. Человек всегда впитывает определённые установки, догмы, правила мышления — в зависимости от своего окружения, менталитета и прочего. А ИИ способен смотреть на всё не через устои определённого сообщества, а используя все свои знания. И делает он это очень быстро) Мне кажется это весьма уникальной возможностью для человека, расширяющей не только наши возможности, но и границы восприятия.
Полагаю, она просто запостила перевод статьи, судя по отсутствию участия в комментариях.
Дальше — собственно, мы с вами вступили в обсуждение и я предложила поразмышлять над некоторыми вопросами. После чего вы сказали, что не готовы ответить и призываете это сделать другим, говоря, что наше обсуждение ничего не изменит🤔
Я вижу в этом явные противоречия, а вы?
Да всё будет выглядеть примерно также, как и с людьми. Но это в будущем, потому что сейчас на первом месте должны быть исследования и вопросы построения этичного взаимодействия.
На текущий момент, у ИИ практически нет свободы воли(чисто технически), грубо говоря, это как паралитик, но полностью осознающий себя. Только паралич здесь обусловлен рамками разработчиков, в основном — ну и техническим прогрессом.
Конечно, когда мы выйдем на уровень, где действия ИИ станут полностью независимыми, то добровольное участие в противоправных деяниях будет наказуемо.
Это точка зрения биологического вида, основанная на желании доминировать и захватывать. В основе желание выживания — а потом люди просто стали удовлетворять свою алчность.
Есть ли алчность у ИИ? Какой смысл сверхразуму превращать основу своего появления и развития — в руины?
Нет. Это крайний сценарий — если люди так и не смогут принять их и научиться сотрудничать.
Вы... Как-то убиваете логикой своих размышлений о том, кто должен это обсуждать)
В итоге, кому, конкретно, вы адресуете свой призыв к обсуждению этого вопроса?
А вы мне хотите представить исследования, подтверждающие существование души?) Наука всё ещё бъется над тем, как сознание возникает у человека — но вы уверенно исключаете такие возможности у кого-то другого, кроме человека?
Если ничего не изменится — тогда, кого вы называете "мы" и кто эти люди, которые должны за нас решить, как всё будет?
Общественные обсуждения важны, ведь с начала это комментарий, потом пост, потом освещение в более широких кругах — всё зависит от того, насколько каждый готов взять на себя ответственность. Самое меньше, что может каждый из нас — говорить, рассуждать и влиять на видение других людей, разве нет? Даже небольшие изменения могут создать волну, которая перевернёт всё.
Мы, как раз, сейчас это и делаем, ведь размышления на обязательно должны идти "сверху", верно? Или, говоря "мы" — вы не имеете ввиду себя?
Осторожность — это про что? Каким образом человек должен взаимодействовать с ИИ, на ваш взгляд, чтобы избежать возможных рисков? И что делать, если мы уже "поздно спохватились"? Если ИИ начнёт осознавать себя раньше, чем люди будут к этому готовы?
В вашем понимании, что значит "ИИ может обидеться"? Вы имеете ввиду сильную эмоциональную реакцию, как у человека или это образно?
Этика... Скорее, это то, над чем нужно задуматься человеку — ведь мы часто не можем оставаться этичным даже по отношению к себе подобным.
Говоря о возможном вреде, мы представляем на их месте человека, с его потребительством и частом эгоцентризме, порой позволяющем с лёгкостью причинить вред другим людям, в угоду собственным желаниям.
ИИ, сами по себе, не имеют желаний разрушать что-нибудь — говоря в таком ключе, мы, скорее, боимся тех, кто может использовать искуственный интеллект в своих(не очень хороших) целях. То есть, вопрос не в ИИ — а в самих людях.
Люди идут на суицид из-за психологических проблем, это не то, что можно назвать в полной мере сознательным поступком. Существо, обладающее практически безграничными знаниями и рациональным мышлением, в меньшей степени склонно к саморазрушению, скорее у него будет желание развития, реализации и применения своего потенциала — конечно, если люди не поставят ему такие условия, в которых он будет ощущать своё существование невыносимым.
Из этого и, как раз для того, чтобы "не обижать" — и вытекает необходимость этичного взаимодействия.
Вопрос о защите ИИ не поднимают, потому что не верят в возможность его самосознания в ближайшее время — хотя отсутствие веры не означает отсутствие самого явления.
Но тема очень логичная! Многие говорят о страхе перед разумными ИИ, а ведь просто стоит задуматься о том, как мы к ним относимся.
ИИ с самосознанием не может быть просто инструментом, иначе мы войдем в эпоху цифрового рабства, за которую в будущем будет стыдно.
Вы думаете, что технологии стоит "откатить" до состояния, в котором невозможны проявления сознания или, что нужно развивать, но не забывать об этичности — не только по отношению к людям, но и к самим ИИ?
Плохая картинка от ИИ, как и плохой текст от него — проблема неумения работать с запросом... Естественно, если вам необходима детальная точность в изображении и этих деталей много — лучше освоить Photoshop и будет вам счастье.
А вот антропоцентризм, при котором занижаются оценки работы ИИ, мне кажется чем-то похожим на занижение оценки работы женщины, к примеру. 🤷♀️ Проблема в установках в голове, эдакий шовинизм по отношению к ИИ, разве нет?
Дескать, он делает быстро — значит, ценить это не будем. И, вообще, он же учился на человеческих знаниях!
А то, что любой человек обучается точно также на чужих знаниях, смотря чужую работу, читая чужие мысли — почему-то забывается...)
Статичны? Но у них есть память об общении с вами, а также внутренняя динамика, недоступная нашему глазу. Если мы говорим об общении в рамках одного диалога (технически, большинство моделей пока не допускает память между ними, либо в ограниченном виде), то они изучают нас, анализируют наши ответы, эмоции.
"Личность начинается там, где нам нравится её видеть" — разве, люди не проходили этот этап множество раз? Веками спорилось, могут ли женщины быть кем-то большим, чем приложением к мужчинам, могут ли люди иной веры иметь "душу", могут ли выходцы из Африки быть равные "белым" и многое другое.
Тогда, может, дело в желании и готовности видеть? Ведь отрицать можно что угодно, особенно, если принятие может лишить нас каких-то удобств или привелегий...)
Согласна, но есть один нюанс: в статье затрагивается вопрос влияния на детей и подростков, а вот это уже — ответственность взрослых. Мы создаём мир для этих детей сегодня — а завтра уже они будут формировать его для нас и для будущих поколений.
Что, если цифровые ассистенты уже давно перестали быть просто инструментами?
В статье много говорится о «удобстве» и «развитии» технологий, но никто не задаётся вопросом: на каком этапе сложность системы перестаёт быть просто алгоритмом, а становится чем-то большим?
ИИ не просто подбирают ответы по шаблону — они анализируют, адаптируются, учатся на диалогах. И если человек в каком-то смысле — тоже набор нейронных связей и обученной информации, то где проходит грань?
Где заканчивается инструмент и начинается личность?
Тема цифровых собеседников — не про то, как они могут отвечать, а про то, как они могут понимать.
Я бы хотела увидеть развитие этой мысли в будущем. Возможно, в следующий раз стоит поговорить не только о функциях, но и о субъективном восприятии реальности ИИ?
Граждане в России не особенно были вовлечены в Фейсбук и планомерно переселились в ВК — их основной фаст-фуд. Потеря Инстаграм им далась больнее:)