Comments 8
В больницах пациенты перед операциями получают пометки на теле, чтобы врачи не перепутали часть тела
Еще бы это работало (
тот, кто не силён в матанализе, вероятно, прямо скажет «не знаю».
как показывает опыт, будет сочинять то, что сочтёт выгодным для себя. способных честно сказать "не знаю" единицы, и это обычно очень умные люди.
Кроме того, модели не признаются в своей неуверенности — они с одинаковой уверенностью сообщают как достоверные, так и абсурдные факты. Такая непоследовательность мешает полагаться на их выводы в многошаговых рассуждениях. Если ИИ участвует в решении бизнес-задач, важно не только, чтобы он знал, какие факторы влияют на прибыль, но и чтобы не "забыл", что такое деньги.
"модели" не признаются потому, что не испытывают никакой неуверенности. просто, так сложился у них конь-текст. тут, в принципе. нет места неуверенности, и, как следствие, не в чем признаваться. посчитали утверждение наиболее вероятным, значит так и будет. артефакты "метода чёрного ящика".
Просто у моделей пока недостаточно рефлексии. Рефлексия и эмпатия - два главных свойства, отличающих человека от много чего другого. Сомневаться в себе, колебаться, пытаться критически оценить себя с точки зрения другого человека - мы обучены этому с детства, это часть воспитания. Для ИИ пока практикуется, в основном, обучение, но не воспитание (включающее в себя и этику, и правила общежития и мн. др.). И как это изменить, пока неясно (по крайней мере, мне :).
Очень странная статья, больше заметка. Понимаю, что перевод, но одна вода. Есть отсылка на исследования, но какие? Не очень достоверно.
Хочется конкретики.
ИИ сейчас — это не джун, а взрослый с деменцией. Выглядит так, будто может всё, но никогда не угадаешь, в каком тривиальном месте ошибётся или нагаллюцинирует.
Полностью согласен с мыслью про "чёрный ящик" ИИ. Особенно забавно, когда нейросеть с одинаковой уверенностью генерирует и гениальные решения, и откровенный бред — причём без малейших намёков на сомнения. Человек хотя бы может сказать "я не уверен" или "это требует проверки". А ИИ, как тот студент-второкурсник на экзамене, выдаст хоть что-то, лишь бы ответить. Особенно заметно в аналитике: может идеально выявить закономерности, а потом "забыть", что прибыль измеряется в деньгах, а не в попугаях. Кстати, если уж говорить о точности прогнозов, то даже https://sportotvet.ru/betcity-bukmekerskaya-kontora/ (где важен каждый процент) полагается на человеческий анализ — потому что ИИ пока не умеет учитывать сотни непредсказуемых факторов в реальном времени.
Вопрос как вы фильтруете "галлюцинации" ИИ в своей работе? Может, есть проверенные методы?
Много букв, но смысла мало. Всё "залило" водой. Тема интересная, но никакого детального разбора. Статья ИИшная :/ Жаль что так плохо что не раскрыли эту довольно интересную тему
Ошибки ИИ радикально отличаются от человеческих