«Фокусируйся на результате, а не на прогрессе» — видимо, описка, из абзаца следует, что правильно: «а не на ПРОЦЕССЕ».
P.S. Посмотрел исходник, как и есть.
Не получается с первого раза ответить на простой и понятный вопрос про задачу. :) Поэтому и «статья» получилась попыткой склеить картинки из детских журналов.
Начнем с того, что нет одного английского языка, а существует множество языков. Например, бытовой. Или язык софтверной документации. Или языки специализированных доменов, как, например, юридический. Они очень разные. Разные и люди. Кто-то лучше слышит (например, музыканты легче изучают языки), кто-то имеет «фактографическую», а не «понятийную» память. Люди очень разные.
Когда мы объединяем в некоторые общности первое и второе — мы получаем мифы. Каждый из которых вполне себе верен в каких-то конкретных условиях, то есть по сути абсолютным мифом не является. И это совсем не миф, что нужна среда, время, мотивация и всё остальное. Просто нет одинаковых условий и каждый человек, если он хочет знать язык (уметь им пользоваться), должен найти свой индивидуальный собственный формат изучения.
Спасибо! Очень хороший конспект. Многие вещи очевидны, но все-равно есть о чем серьезно подумать. «Цифровые фильтры», видимо, нужно прочитать в подлинике.
XS по звучанию очень похоже на excess, что на фонетическом уровне предполагает невоздержанность. :) Может быть это тонкий ход, может быть издевательство, но я с таким названием айфон брать не стану. :)
Да, скорее всего так и есть. Но как я уже говорил, чисто этика (как гуманитарный «текст») меня не интересует. Только как модель, в контексте ИИ, в контексте мысшления и эмоций.
Честно скажу, давно пытаюсь разобраться с тем, что такое этика. И как она связана с проблематикой мышления и эмоциями. Именно поэтому Ваша статья, конечно, вызвала у меня интерес. Более того, я ее два раза перечитал.
Сейчас мне думается, что этика — это язык. Корпоративный язык, позволяющий упрощать многие ситуационные конструкции до простых оценок. А также реконструировать мотивацию акторов этих ситуаций. Но это только преамбула, уверен Вы понимаете. Но это все же чуть детальнее, чем просто «плохо/хорошо».
Да, согласен с Вами, поэтому оба полюса и обозначил: в рамках координации Вы понимаете общественные установки, в рамках идентификации — выбираете те, с которыми соглашаетесь и те, против которых выступаете. Это и есть среда, она не должна быть со 100% соглашательством, она иначе работает.
Нет, конечно. Общественное и клановое. Это кажется, что оно личное, но оно воспитывается именно средой. Табу, моральные установки, правила поведения и вся прочая культура предназначена для социальное координации и идентификации. Ну и, конечно, план действий — это вообще из другой оперы.
ОК, пусть так. Но, возможно, для англоязычных пользователей будет нужен ребрендеринг, потому, что deSirium реально режет глаз (нет такого слова в языке) и мозг автоматически подставляет «первое найденное».
Я три года назад предлагал создать общество защиты роботов, но не нашел понимания и поддержки. Это по факту. Кроме этого, технологии автоматизации и ИИ до сих пор только увеличивали занятость и количество рабочих мест, все луддиты просто обмануты журналистами. Если Вы об этом.
А по сути: этика — правила сообщества. Искать нужно не этику ИИ (они сами у себя ее сформируют), а интерфейсы.
P.S. Посмотрел исходник, как и есть.
Когда мы объединяем в некоторые общности первое и второе — мы получаем мифы. Каждый из которых вполне себе верен в каких-то конкретных условиях, то есть по сути абсолютным мифом не является. И это совсем не миф, что нужна среда, время, мотивация и всё остальное. Просто нет одинаковых условий и каждый человек, если он хочет знать язык (уметь им пользоваться), должен найти свой индивидуальный собственный формат изучения.
Сейчас мне думается, что этика — это язык. Корпоративный язык, позволяющий упрощать многие ситуационные конструкции до простых оценок. А также реконструировать мотивацию акторов этих ситуаций. Но это только преамбула, уверен Вы понимаете. Но это все же чуть детальнее, чем просто «плохо/хорошо».
Или это фича, а не баг?
А по сути: этика — правила сообщества. Искать нужно не этику ИИ (они сами у себя ее сформируют), а интерфейсы.