Комментарии 8
Чтобы что-то ненужное продать, сначала надо что-то ненужное купить (c)
Чтобы обнаружить и исправить галлюциногенный контент, его сначала надо сгенерировать
Все молодцы, все заняты делом, одни создают инструмент для генерации галлюциногенного контента, другие - инструменты для его обнаружения
Вариант отказаться от контента вообще не рассматривается.
Т.е. вместо траты усилий на то чтобы галлюцинирующего контента в ответах не было лучше сделаем средство которое будет проверять и исправлять постфактум.
при обнаружении информации, которая не соответствует данным в ресурсе
иначе говоря, чтобы эта исправлялка галлюцинаций работала, нужно сначала ткнуть её в надёжный текст из надёжного источника; она сравнит инфу оригинала с выдачей от нейросетки и попросит её исправиться, если обнаружит глюки.
На продающем видео:
девушка с максимально сложными щами спрашивает у бота "Когда приедет мусоровоз?" (ПРОБЛЕМА)
ИИ даёт ей неправильный ответ (БОЛЬ У КЛИЕНТА);
девушка обращается к исправлялке галлюцинаций и загружает в неё документ, в котором сказано, когда приедет мусоровоз (РЕЦЕПТ)
исправлялка читает документ вместо девушки и тыкает нейросеть носом в ошибку, нейросеть исправляет ошибку (ПРОБЛЕМА РЕШЕНА)
(В принципе, наверное, может быть, теоретически, девушка могла бы сама изучить оригинальный сайт/документ про мусор и прокачать нейронные связи уже в своей голове... Но тогда бы ей стала не так уж нужна подписка на сервис от майкрософт...)
для обнаружения и исправления галлюциногенного контента в результатах ИИ
Т.е. контента, вызывающего галлюцинации? Уже и такое есть? О_о
Чем это отличается от ещё одного "слоя" в нейронной сети? Нейронная сеть по сути делает то же самое: сверяет и перепроверяет, перепроверяет и сверяет запрос с изученной из интернета информацией.
Microsoft анонсировала новый инструмент для обнаружения и исправления галлюциногенного контента в результатах ИИ