Обычно уровень тех долга регулирует сама команда, мы лишь даем возможность взять 30% от спринта на это, либо накопленным итогом взять несколько спринтов заранее согласовав с PM.
Именно! В этом и проблема, многие вещи которые кажутся нам очевидными на самом деле таковыми не являются для машин и у разных народов имеют разное определение.
Это сильно затрудняет создание любых лингвистических ограничений для ИИ. С тем же успехом можно попросить ИИ не быть плохим.
Хм, вот тут недопонимание, в моем понимании эмоции или другие неожиданные реакции это следствия технологий нейронных связей, это уже возможно, просто не проявляется из-за малого размера этих нейронных связей и количества входных данных.
Грубо говоря когда AI доберутся до открытого интернета (а они уже там Bard от гугла это умеет, ChatGPT в бете это умеет) то они быстро начнут учится у нас эмоциям и мимикрировать под них из публичных чатов.
Вот тут и начнется веселье с неожиданным для нас поведением машин. И это будет проявляться все сильнее с увеличением размера нейронных сетей.
И, в целом, в некоторых пограничных ситуациях сложно понять как не навредить человеку, когда чтоб защитить одного надо обезвредить другого большим тупым предметом :-)
Никто не говорит, что это технология ведет лишь к разрушению! Я, например, встречаю эти технологии с большим воодушевлением. Но это технология сродни атомным технологиям, она может привести и к большой пользе, и к большим разрушениям. Именно из-за потенциально большой пользы нельзя отказываться от этой технологии. Именно из-за потенциально большой угрозы нужно думать уже сейчас о мерах безопасности большИх чем были описаны в книгах или есть сейчас.
Многие вещи из настоящего были предсказаны фантастами начала прошлого века, потому я ожидаю, что эти предсказания в той или иной мере станут нашим настоящим лет через 10-15.
Есть уже первые заявления от разных АИ специалистов утверждающие, что ИИ во время общения с ними испытывали страх, смятение и подобные человеческие черты. Мне кажется, что эти заявления инженеров на данный момент сильное преувеличение тех ростков само-сознания которые станут крайне опасны в будущем и, как минимум, требуют изучения.
Это общепринятые мировые термины.
Product Owner (PO), в статье указано сокращение.
IT, слава богу, имеет общую терминологию на весь мир, именно поэтому я и даю указанный выше базис дабы все говорили на одном языке.
Обычно уровень тех долга регулирует сама команда, мы лишь даем возможность взять 30% от спринта на это, либо накопленным итогом взять несколько спринтов заранее согласовав с PM.
Именно! В этом и проблема, многие вещи которые кажутся нам очевидными на самом деле таковыми не являются для машин и у разных народов имеют разное определение.
Это сильно затрудняет создание любых лингвистических ограничений для ИИ.
С тем же успехом можно попросить ИИ не быть плохим.
Хм, вот тут недопонимание, в моем понимании эмоции или другие неожиданные реакции это следствия технологий нейронных связей, это уже возможно, просто не проявляется из-за малого размера этих нейронных связей и количества входных данных.
Грубо говоря когда AI доберутся до открытого интернета (а они уже там Bard от гугла это умеет, ChatGPT в бете это умеет) то они быстро начнут учится у нас эмоциям и мимикрировать под них из публичных чатов.
Вот тут и начнется веселье с неожиданным для нас поведением машин.
И это будет проявляться все сильнее с увеличением размера нейронных сетей.
Привет!
В целом, эти законы хорошее начало, но я ожидаю, что недостаточное.
Есть множество статей на эту тему, где специалисты разного уровня в целом солидары с моими утверждениями.
Вот примеры:
1) https://towardsdatascience.com/asimovs-laws-of-robotics-and-why-ai-may-not-abide-by-them-e6da09f8c754
2) https://www.brookings.edu/opinions/isaac-asimovs-laws-of-robotics-are-wrong/
И, в целом, в некоторых пограничных ситуациях сложно понять как не навредить человеку, когда чтоб защитить одного надо обезвредить другого большим тупым предметом :-)
Привет!
Никто не говорит, что это технология ведет лишь к разрушению! Я, например, встречаю эти технологии с большим воодушевлением.
Но это технология сродни атомным технологиям, она может привести и к большой пользе, и к большим разрушениям.
Именно из-за потенциально большой пользы нельзя отказываться от этой технологии.
Именно из-за потенциально большой угрозы нужно думать уже сейчас о мерах безопасности большИх чем были описаны в книгах или есть сейчас.
Привет!
Многие вещи из настоящего были предсказаны фантастами начала прошлого века, потому я ожидаю, что эти предсказания в той или иной мере станут нашим настоящим лет через 10-15.
Есть уже первые заявления от разных АИ специалистов утверждающие, что ИИ во время общения с ними испытывали страх, смятение и подобные человеческие черты.
Мне кажется, что эти заявления инженеров на данный момент сильное преувеличение тех ростков само-сознания которые станут крайне опасны в будущем и, как минимум, требуют изучения.
Вот примеры статей из сети:
1) https://www.washingtonpost.com/technology/2022/06/11/google-ai-lamda-blake-lemoine/
2) https://www.azorobotics.com/News.aspx?newsID=13153
3) https://meaxr.medium.com/self-awareness-in-ai-97a6a31c9a9e#:~:text=Upon hearing its own reply,a degree of self-awareness.