Comments 11
Научить комментировать "как человек", чтобы этому доверять. А где гарантия, что это не вранье или заблуждения "как у человека".
«Зенитные кодексы Аль-Эфесби» уже близко ))
В заголовке не хватает запятой.
Некоторое противоречие заключается в том, что почти никто не понимает как «ЭТО» происходит у человека. И в среднем, человеческие решения не являются эталонными, иначе бы цивилизация не представляла собой такую помойку. И возникновение «машинных решений» происходит не потому, что это забавно, а потому, что машины справляются со многими задачами лучше людей. Качественнее, быстрее, дешевле. И пока будет так, нет никакой реальной силы остановить развитие машинных технологий.
получился ИИ, играющий во Frogger, при каждом движении говорящий такие вещи, как «сдвинусь налево, чтобы оказаться сзади синего грузовика».
Это напомнило мне, как году в 90ом я сдавал в один НИИ программу, но ее не приняли. Мне было сказано, мол в коде должны быть комментарии (ассемблер). Фигня вопрос! Быстро написал комментатор.
Проект был сдан, настолько тщательно откомментированной программы они еще не видели (наверное).
Все эти попытки прикрутить к нейросети еще одну нейросеть комментирующую поведение первой, мне лично кажутся тупиковым, и более того, опасным путем. Они создают некую ложную уверенность контроля. Надо учиться доверять ИИ. Люди к примеру привыкли доверять лошадям, собакам и прочим никак не комментирующим свое поведение существам. В случае ИИ все еще интереснее, совсем скоро ИИ в принципе не сможет объяснить свое поведение среднему индивиду, человек не сможет понять, и до кучи не успеет среагировать. Пример из уже наступившей реальности — ИИ высокочастотного трейдинга.
Это напомнило мне, как году в 90ом я сдавал в один НИИ программу, но ее не приняли. Мне было сказано, мол в коде должны быть комментарии (ассемблер). Фигня вопрос! Быстро написал комментатор.
mov ax, bx ; в регистр ax переносим содержимое регистра bx
Проект был сдан, настолько тщательно откомментированной программы они еще не видели (наверное).
Все эти попытки прикрутить к нейросети еще одну нейросеть комментирующую поведение первой, мне лично кажутся тупиковым, и более того, опасным путем. Они создают некую ложную уверенность контроля. Надо учиться доверять ИИ. Люди к примеру привыкли доверять лошадям, собакам и прочим никак не комментирующим свое поведение существам. В случае ИИ все еще интереснее, совсем скоро ИИ в принципе не сможет объяснить свое поведение среднему индивиду, человек не сможет понять, и до кучи не успеет среагировать. Пример из уже наступившей реальности — ИИ высокочастотного трейдинга.
// Надо учиться доверять ИИ
это хорошо как призыв, но плохо, как инструкция — непонятно, как учить, непонятно, как измерять результат, вообще нет гарантии, что люди будут учиться, а не подделывать метрики
в то же время другая задача — учить ИИ объяснять — выглядит хотя бы более решаемой и с более ясными метриками
это хорошо как призыв, но плохо, как инструкция — непонятно, как учить, непонятно, как измерять результат, вообще нет гарантии, что люди будут учиться, а не подделывать метрики
в то же время другая задача — учить ИИ объяснять — выглядит хотя бы более решаемой и с более ясными метриками
Sign up to leave a comment.
Почему требования к ИИ объясниться могут только ухудшить ситуацию