Нет, авария в Чернобыле - детерминированная проблема, которая случилась, потому что цепь обстоятельств и решений сдвинула её в сторону неопределенности развития событий.
Проиллюстрирую аналогией. Для взрослого человека, знакомого с управлением автомобилем, очевидно, что если снять с ручного тормоза автомобиль с неисправной основной тормозной системой, строящий на склоне, он поедет и может во что-то врезаться. Но если хозяин автомобиля случайно забыл его запереть, а кто-то ещё привёл кучу детей поиграть рядом с ним, ситуация становится непредсказуемой, потому что появляется возможность, что малолетний идиот сделает нечто, что для него не является очевидно опасным.
Тот случай, когда нужно отбросить предрассудки и начать определять дееспособность в конкретных областях по реальности, а не руководствоваться идеей "это же родители, о них нельзя плохо думать". Лучше думать "плохо" чем потом разбираться с последствиями.
Предложите эффективный способ априорной оценки побочных результатов применения недетерминированного инструмента.
Иначе, "нейтральность" инструмента оказывается ложной, так как её оценка происходит только в рамках предопределенной задачи. А всё за её пределами просто игнорируется, никак не проверяется и т.п.
Аналогии для объяснения вредны, потому что создают больше проблем, чем решают, особенно когда оппонент с вами не согласен (тогда вы просто приглашаете или аргумент о том что аналогия - некорректная, или создаёте почву для ухода от темы). Полезны они только для иллюстрации, когда вы кого-то чему-то учите, а не спорите с кем-то.
Озабоченность "фальсификацией информации" принимает уже форму настоящей обсессии. Тем временем, в том, что кто-то правдоподобно врёт в интернете, нет абсолютно ничего нового.
Вы верно понимаете проблему, но у вас плохой аргумент. Несоблюдение правил - это детерминированная ситуация, когда известно, что если чего-то не делать или далать иначе, будет нежелательный эффект. В случае ML-инструментов (но не только их) существует проблема того, что мы не знаем, что именно случится, если их использовать.
Убить непосредственно - пока нет. Испортить карьеру - уже много лет как да. А от карьерных трудностей на фоне депрессии и до самоубийства недалеко.
И да, живой HR или менеджер обладает ровно теми же способностями. Вопрос в том, что это частный единичный и случайный фактор. А один и тот же инструмент на базе ML может использоваться в сотнях компаний одновременно.
опасны люди которые их применяют со злыми намерениями
Неверно. Это одна из форм фундаментальной ошибки атрибуции.
Опасность может представлять применение с самыми добрыми, но непродуманными намерениями. И здесь рассуждающих на эту тему подводят ложные аналогии с инструментами, эффект от которых можно легко предсказать.
Ошибочная оценка эффектов может быть не менее, а иногда даже более опасна, так как недостаток знаний о вопросе может мешать не только верно предсказать эффект но и распознать негативный эффект.
Собственно, исторических примеров подобного (типа использования биологических методов борьбы с вредителями) - более чем достаточно, чтобы даже человек, склонный к конкретному мышлению, мог понять, что целенаправленное злое намерение абсолютно не является необходимым условием для вреда.
Отнести это на счёт конкретного умысла - заманчиво, но реальность показывает, что социопатов, которые сознательно ставят такие цели - мало. Куда больше людей, которые готовы создавать сомнительные технические решения, потому что им нравится их эффективность и элегантность. А уже потом выясняется, что развлечение превратилось в зависимость. В общем случае - как основной эффект оказывается минимальным, а побочный становится главным. Это как леваки в Google обнаружили, что популярный контент на YouTube, с которым они не согласны, распространяется алгоритмом рекомендации хорошо, а нудная вымученная туфта из "рекомендованного" - нет.
Собственно, вы описали концепцию "инструмента". Потому что есть ещё те, для кого реализация мобильности - самоцель. Вот это уже довольно серьезный риск, прежде всего, для психики.
Давайте без диванной психологии. Ситуация - банальна, анализа - никакого, даже описание - так себе. Чего тут "считывать"? В комментариях - те же банальности, по принципу garbage in, garbage out.
А добрые услуги - это я в том смысле, что вы (или кто-то ещё) вытащил это из песочницы с какой-то "благой целью".
Ну вот хочется людям верить, что если хреновину сделал не ты, её скорее взломают, чем если ты её сделал сам. Хотя в реальности, меняется только вектор.
Нет, авария в Чернобыле - детерминированная проблема, которая случилась, потому что цепь обстоятельств и решений сдвинула её в сторону неопределенности развития событий.
Проиллюстрирую аналогией. Для взрослого человека, знакомого с управлением автомобилем, очевидно, что если снять с ручного тормоза автомобиль с неисправной основной тормозной системой, строящий на склоне, он поедет и может во что-то врезаться. Но если хозяин автомобиля случайно забыл его запереть, а кто-то ещё привёл кучу детей поиграть рядом с ним, ситуация становится непредсказуемой, потому что появляется возможность, что малолетний идиот сделает нечто, что для него не является очевидно опасным.
Нет, это как раз предельно некорректный способ использования аналогий.
А при чём здесь вообще интернет? Уж не сводите ли вы проблему к пресловутой генерации бредового контента?
Проблема не в том, что дебаг на проде, а что это просто ужасно работающий прод без особых попыток дебага.
Обратное допущение - вообще какая-то фантазия. Это вовсе не универсальная практика и считать ее таковой нет никаких оснований.
Тот случай, когда нужно отбросить предрассудки и начать определять дееспособность в конкретных областях по реальности, а не руководствоваться идеей "это же родители, о них нельзя плохо думать". Лучше думать "плохо" чем потом разбираться с последствиями.
Предложите эффективный способ априорной оценки побочных результатов применения недетерминированного инструмента.
Иначе, "нейтральность" инструмента оказывается ложной, так как её оценка происходит только в рамках предопределенной задачи. А всё за её пределами просто игнорируется, никак не проверяется и т.п.
Фокус на ситуации вранья сбивает людей с толку. Потому что факты, в общем, проверить можно. Это, опять же, детерминированная проблема.
А вот решения, принятые на основе распознаваемых ML-инструментом (никому неизвестных) паттернов, проверить может быть невозможно.
Аналогии для объяснения вредны, потому что создают больше проблем, чем решают, особенно когда оппонент с вами не согласен (тогда вы просто приглашаете или аргумент о том что аналогия - некорректная, или создаёте почву для ухода от темы). Полезны они только для иллюстрации, когда вы кого-то чему-то учите, а не спорите с кем-то.
Озабоченность "фальсификацией информации" принимает уже форму настоящей обсессии. Тем временем, в том, что кто-то правдоподобно врёт в интернете, нет абсолютно ничего нового.
Вы верно понимаете проблему, но у вас плохой аргумент. Несоблюдение правил - это детерминированная ситуация, когда известно, что если чего-то не делать или далать иначе, будет нежелательный эффект. В случае ML-инструментов (но не только их) существует проблема того, что мы не знаем, что именно случится, если их использовать.
Убить непосредственно - пока нет. Испортить карьеру - уже много лет как да. А от карьерных трудностей на фоне депрессии и до самоубийства недалеко.
И да, живой HR или менеджер обладает ровно теми же способностями. Вопрос в том, что это частный единичный и случайный фактор. А один и тот же инструмент на базе ML может использоваться в сотнях компаний одновременно.
Неверно. Это одна из форм фундаментальной ошибки атрибуции.
Опасность может представлять применение с самыми добрыми, но непродуманными намерениями. И здесь рассуждающих на эту тему подводят ложные аналогии с инструментами, эффект от которых можно легко предсказать.
Ошибочная оценка эффектов может быть не менее, а иногда даже более опасна, так как недостаток знаний о вопросе может мешать не только верно предсказать эффект но и распознать негативный эффект.
Собственно, исторических примеров подобного (типа использования биологических методов борьбы с вредителями) - более чем достаточно, чтобы даже человек, склонный к конкретному мышлению, мог понять, что целенаправленное злое намерение абсолютно не является необходимым условием для вреда.
Вероятно, вопрос стоит рассматривать не в конкретной плоскости "что именно делать", а в плоскости "не быть зависимым от подобного".
Отнести это на счёт конкретного умысла - заманчиво, но реальность показывает, что социопатов, которые сознательно ставят такие цели - мало. Куда больше людей, которые готовы создавать сомнительные технические решения, потому что им нравится их эффективность и элегантность. А уже потом выясняется, что развлечение превратилось в зависимость. В общем случае - как основной эффект оказывается минимальным, а побочный становится главным. Это как леваки в Google обнаружили, что популярный контент на YouTube, с которым они не согласны, распространяется алгоритмом рекомендации хорошо, а нудная вымученная туфта из "рекомендованного" - нет.
Собственно, вы описали концепцию "инструмента". Потому что есть ещё те, для кого реализация мобильности - самоцель. Вот это уже довольно серьезный риск, прежде всего, для психики.
Осознать - получится, реализовать - не очень.
Давайте без диванной психологии. Ситуация - банальна, анализа - никакого, даже описание - так себе. Чего тут "считывать"? В комментариях - те же банальности, по принципу garbage in, garbage out.
А добрые услуги - это я в том смысле, что вы (или кто-то ещё) вытащил это из песочницы с какой-то "благой целью".
Забыли всё ещё развивающуюся историю https://techcrunch.com/2023/07/06/more-organizations-confirm-moveit-related-breaches-as-hackers-claim-to-publish-stolen-data/
Ну вот хочется людям верить, что если хреновину сделал не ты, её скорее взломают, чем если ты её сделал сам. Хотя в реальности, меняется только вектор.