Comments 11
Научить комментировать "как человек", чтобы этому доверять. А где гарантия, что это не вранье или заблуждения "как у человека".
+2
«Зенитные кодексы Аль-Эфесби» уже близко ))
+2
В заголовке не хватает запятой.
-2
Некоторое противоречие заключается в том, что почти никто не понимает как «ЭТО» происходит у человека. И в среднем, человеческие решения не являются эталонными, иначе бы цивилизация не представляла собой такую помойку. И возникновение «машинных решений» происходит не потому, что это забавно, а потому, что машины справляются со многими задачами лучше людей. Качественнее, быстрее, дешевле. И пока будет так, нет никакой реальной силы остановить развитие машинных технологий.
-2
получился ИИ, играющий во Frogger, при каждом движении говорящий такие вещи, как «сдвинусь налево, чтобы оказаться сзади синего грузовика».
Это напомнило мне, как году в 90ом я сдавал в один НИИ программу, но ее не приняли. Мне было сказано, мол в коде должны быть комментарии (ассемблер). Фигня вопрос! Быстро написал комментатор.
Проект был сдан, настолько тщательно откомментированной программы они еще не видели (наверное).
Все эти попытки прикрутить к нейросети еще одну нейросеть комментирующую поведение первой, мне лично кажутся тупиковым, и более того, опасным путем. Они создают некую ложную уверенность контроля. Надо учиться доверять ИИ. Люди к примеру привыкли доверять лошадям, собакам и прочим никак не комментирующим свое поведение существам. В случае ИИ все еще интереснее, совсем скоро ИИ в принципе не сможет объяснить свое поведение среднему индивиду, человек не сможет понять, и до кучи не успеет среагировать. Пример из уже наступившей реальности — ИИ высокочастотного трейдинга.
Это напомнило мне, как году в 90ом я сдавал в один НИИ программу, но ее не приняли. Мне было сказано, мол в коде должны быть комментарии (ассемблер). Фигня вопрос! Быстро написал комментатор.
mov ax, bx ; в регистр ax переносим содержимое регистра bx
Проект был сдан, настолько тщательно откомментированной программы они еще не видели (наверное).
Все эти попытки прикрутить к нейросети еще одну нейросеть комментирующую поведение первой, мне лично кажутся тупиковым, и более того, опасным путем. Они создают некую ложную уверенность контроля. Надо учиться доверять ИИ. Люди к примеру привыкли доверять лошадям, собакам и прочим никак не комментирующим свое поведение существам. В случае ИИ все еще интереснее, совсем скоро ИИ в принципе не сможет объяснить свое поведение среднему индивиду, человек не сможет понять, и до кучи не успеет среагировать. Пример из уже наступившей реальности — ИИ высокочастотного трейдинга.
+1
// Надо учиться доверять ИИ
это хорошо как призыв, но плохо, как инструкция — непонятно, как учить, непонятно, как измерять результат, вообще нет гарантии, что люди будут учиться, а не подделывать метрики
в то же время другая задача — учить ИИ объяснять — выглядит хотя бы более решаемой и с более ясными метриками
это хорошо как призыв, но плохо, как инструкция — непонятно, как учить, непонятно, как измерять результат, вообще нет гарантии, что люди будут учиться, а не подделывать метрики
в то же время другая задача — учить ИИ объяснять — выглядит хотя бы более решаемой и с более ясными метриками
-1
Sign up to leave a comment.
Почему требования к ИИ объясниться могут только ухудшить ситуацию