Обновить
4
0
Rustam Akhmetov@taiberium

Пользователь

Отправить сообщение

Это общепринятые мировые термины.

Product Owner (PO), в статье указано сокращение.

IT, слава богу, имеет общую терминологию на весь мир, именно поэтому я и даю указанный выше базис дабы все говорили на одном языке.

Обычно уровень тех долга регулирует сама команда, мы лишь даем возможность взять 30% от спринта на это, либо накопленным итогом взять несколько спринтов заранее согласовав с PM.

Именно! В этом и проблема, многие вещи которые кажутся нам очевидными на самом деле таковыми не являются для машин и у разных народов имеют разное определение.


Это сильно затрудняет создание любых лингвистических ограничений для ИИ.
С тем же успехом можно попросить ИИ не быть плохим.

Хм, вот тут недопонимание, в моем понимании эмоции или другие неожиданные реакции это следствия технологий нейронных связей, это уже возможно, просто не проявляется из-за малого размера этих нейронных связей и количества входных данных.

Грубо говоря когда AI доберутся до открытого интернета (а они уже там Bard от гугла это умеет, ChatGPT в бете это умеет) то они быстро начнут учится у нас эмоциям и мимикрировать под них из публичных чатов.

Вот тут и начнется веселье с неожиданным для нас поведением машин.
И это будет проявляться все сильнее с увеличением размера нейронных сетей.

Привет!

В целом, эти законы хорошее начало, но я ожидаю, что недостаточное.
Есть множество статей на эту тему, где специалисты разного уровня в целом солидары с моими утверждениями.
Вот примеры:
1) https://towardsdatascience.com/asimovs-laws-of-robotics-and-why-ai-may-not-abide-by-them-e6da09f8c754
2) https://www.brookings.edu/opinions/isaac-asimovs-laws-of-robotics-are-wrong/

И, в целом, в некоторых пограничных ситуациях сложно понять как не навредить человеку, когда чтоб защитить одного надо обезвредить другого большим тупым предметом :-)

Привет!

Никто не говорит, что это технология ведет лишь к разрушению! Я, например, встречаю эти технологии с большим воодушевлением.
Но это технология сродни атомным технологиям, она может привести и к большой пользе, и к большим разрушениям.
Именно из-за потенциально большой пользы нельзя отказываться от этой технологии.
Именно из-за потенциально большой угрозы нужно думать уже сейчас о мерах безопасности большИх чем были описаны в книгах или есть сейчас.

Привет!

Многие вещи из настоящего были предсказаны фантастами начала прошлого века, потому я ожидаю, что эти предсказания в той или иной мере станут нашим настоящим лет через 10-15.

Есть уже первые заявления от разных АИ специалистов утверждающие, что ИИ во время общения с ними испытывали страх, смятение и подобные человеческие черты.
Мне кажется, что эти заявления инженеров на данный момент сильное преувеличение тех ростков само-сознания которые станут крайне опасны в будущем и, как минимум, требуют изучения.

Вот примеры статей из сети:
1) https://www.washingtonpost.com/technology/2022/06/11/google-ai-lamda-blake-lemoine/
2) https://www.azorobotics.com/News.aspx?newsID=13153
3) https://meaxr.medium.com/self-awareness-in-ai-97a6a31c9a9e#:~:text=Upon hearing its own reply,a degree of self-awareness.

Информация

В рейтинге
Не участвует
Зарегистрирован
Активность

Специализация

Бэкенд разработчик, Технический директор
Ведущий