Pull to refresh

Comments 8

В больницах пациенты перед операциями получают пометки на теле, чтобы врачи не перепутали часть тела

Еще бы это работало (

тот, кто не силён в матанализе, вероятно, прямо скажет «не знаю».

как показывает опыт, будет сочинять то, что сочтёт выгодным для себя. способных честно сказать "не знаю" единицы, и это обычно очень умные люди.

Кроме того, модели не признаются в своей неуверенности — они с одинаковой уверенностью сообщают как достоверные, так и абсурдные факты. Такая непоследовательность мешает полагаться на их выводы в многошаговых рассуждениях. Если ИИ участвует в решении бизнес-задач, важно не только, чтобы он знал, какие факторы влияют на прибыль, но и чтобы не "забыл", что такое деньги.

"модели" не признаются потому, что не испытывают никакой неуверенности. просто, так сложился у них конь-текст. тут, в принципе. нет места неуверенности, и, как следствие, не в чем признаваться. посчитали утверждение наиболее вероятным, значит так и будет. артефакты "метода чёрного ящика".

Просто у моделей пока недостаточно рефлексии. Рефлексия и эмпатия - два главных свойства, отличающих человека от много чего другого. Сомневаться в себе, колебаться, пытаться критически оценить себя с точки зрения другого человека - мы обучены этому с детства, это часть воспитания. Для ИИ пока практикуется, в основном, обучение, но не воспитание (включающее в себя и этику, и правила общежития и мн. др.). И как это изменить, пока неясно (по крайней мере, мне :).

Очень странная статья, больше заметка. Понимаю, что перевод, но одна вода. Есть отсылка на исследования, но какие? Не очень достоверно.

Хочется конкретики.

ИИ сейчас — это не джун, а взрослый с деменцией. Выглядит так, будто может всё, но никогда не угадаешь, в каком тривиальном месте ошибётся или нагаллюцинирует.

Полностью согласен с мыслью про "чёрный ящик" ИИ. Особенно забавно, когда нейросеть с одинаковой уверенностью генерирует и гениальные решения, и откровенный бред — причём без малейших намёков на сомнения. Человек хотя бы может сказать "я не уверен" или "это требует проверки". А ИИ, как тот студент-второкурсник на экзамене, выдаст хоть что-то, лишь бы ответить. Особенно заметно в аналитике: может идеально выявить закономерности, а потом "забыть", что прибыль измеряется в деньгах, а не в попугаях. Кстати, если уж говорить о точности прогнозов, то даже https://sportotvet.ru/betcity-bukmekerskaya-kontora/  (где важен каждый процент) полагается на человеческий анализ — потому что ИИ пока не умеет учитывать сотни непредсказуемых факторов в реальном времени.

Вопрос как вы фильтруете "галлюцинации" ИИ в своей работе? Может, есть проверенные методы?

Много букв, но смысла мало. Всё "залило" водой. Тема интересная, но никакого детального разбора. Статья ИИшная :/ Жаль что так плохо что не раскрыли эту довольно интересную тему

Sign up to leave a comment.

Articles