хуже другое, на мой взгляд страдает само качество информации, потому что совершенно непонятно кто пишет комментарий в сети, то-есть и без того в заспамленной сети, теперь прибавляется спам от ИИ
не совсем понятно зачем автор сравнивает вероятность серии и одиночную, например комбинация 1111111111 выпадет условно раз в в 10 лет, а комбинация 11 каждый день, не понимаю о чем статья, от том что джекпот реален чтоли, серия в монте-карло это по сути джекпот
както надо определится, ии опасен для людей которые его используют, или люди опасны которые заносят туда ошибки. Каким образом вы себе вообще представляете что разработчики способны создать ИИ без ошибок, ИИ всегда будет содержать ошибки потому что обучают его люди, то-есть по определению он всегда будет опасен для тех кто его использует.
Но хуже другое, когда ИИ научится "думать"(а это рано или поздно произойдет) то-есть задавать вопросы самому себе и на основе выводов самообучаться, ошибка человека который его обучил может привести к катастрофе. Другими словами сейчас вы можете обучить ИИ который будет знать что американцы не были на луне, земля круглая, он сможет до бесконечности с вами спорить и даже диссертацию на эту тему написать и в итоге большинство пользователей которые его используют в это поверят, я очень тупой пример привел, но суть думаю ясна
хуже другое, на мой взгляд страдает само качество информации, потому что совершенно непонятно кто пишет комментарий в сети, то-есть и без того в заспамленной сети, теперь прибавляется спам от ИИ
не совсем понятно зачем автор сравнивает вероятность серии и одиночную, например комбинация 1111111111 выпадет условно раз в в 10 лет, а комбинация 11 каждый день, не понимаю о чем статья, от том что джекпот реален чтоли, серия в монте-карло это по сути джекпот
както надо определится, ии опасен для людей которые его используют, или люди опасны которые заносят туда ошибки. Каким образом вы себе вообще представляете что разработчики способны создать ИИ без ошибок, ИИ всегда будет содержать ошибки потому что обучают его люди, то-есть по определению он всегда будет опасен для тех кто его использует.
Но хуже другое, когда ИИ научится "думать"(а это рано или поздно произойдет) то-есть задавать вопросы самому себе и на основе выводов самообучаться, ошибка человека который его обучил может привести к катастрофе. Другими словами сейчас вы можете обучить ИИ который будет знать что американцы не были на луне, земля круглая, он сможет до бесконечности с вами спорить и даже диссертацию на эту тему написать и в итоге большинство пользователей которые его используют в это поверят, я очень тупой пример привел, но суть думаю ясна
так в чем смысл статьи? что человеческий фактор все равно напрограммирует так, что ИИ устроит апоклипсис? или люди научатся писать идеальный код?)