Как стать автором
Обновить

Греф предложил дать ИИ доступ в систему госуправления, чтобы там принимались рациональные решения и не было взяток

Время на прочтение3 мин
Количество просмотров4.2K

Нейросеть «Сбера» Kandinsky 2 так видит запрос «Робот принимает рациональные решения без взяток».

15 июня 2023 года в рамках мероприятий ПЭМФ глава «Сбера» Герман Греф предложил дать отечественным системам на базе искусственного интеллекта доступ в сферу государственного управления, чтобы там принимались только рациональные решения и не было взяток.

«Вообще всё управление строится на двух составляющих. Первое — это управление на основе данных. Эта часть управления является более рациональной. Лучше всего, особенно в госуправлении, отдать принятие решений таким системам искусственного интеллекта. ИИ не понимает, куда и зачем брать взятку, зачем положить это под стол, чтобы это отлежалось, это его сильная сторона. Конечно же, такого рода решения должны быть отданы максимально автоматизированным системам принятия решений», — заявил Греф.

По поводу второго элемента Греф уточнил, что эта составляющая при принятии каких-либо управленческих решений раньше не поддавалась анализу и описанию, но сегодня является отдельным научным направлением под названием нейроэкономика или поведенческая экономика.

«Это влияние социальных, когнитивных и эмоциональных факторов на принятие решений. Люди принимают далеко не всегда рациональные решения. Человеческим обществом невозможно управлять, принимая исключительно рациональные решения. Должна быть составляющая, которая учитывает эту часть. Это часть, где заменить человека достаточно сложно и вряд ли нужно вообще», — добавил Греф.

По его мнению, люди перейдут в более продуктивные сферы работы, где потребуются когнитивные навыки. Это позволит ускорить развитие экономики, науки и социальной сферы.

«Будущее будет построено таким образом: люди будут создавать эти самые системы автоматического принятия решений на основе данных, и люди будут оставаться там, где нужно будет определять целеполагание и учитывать социальные, эмоциональные и когнитивные потребности и свойства человека, которые нужны для принятия решения, — спрогнозировал глава «Сбера».


14 июня 2023 года Греф в интервью СМИ назвал основную проблему, мешающую успешному развитию технологий на базе ИИ в России. Это санкционное ограничение, связанное с блокировкой поставок высокотехнологичного оборудования для проектов с ИИ, которое производят несколько компаний в мире, а большинство патентов и технологий по этому направлению принадлежат США.

Греф отметил, что и при решении этой проблемы он не является пессимистом. «Мы такие варианты закладывали в предыдущие годы в чёрный сценарий, как вы говорите. Мы предпринимали шаги для того, чтобы готовиться к подобного рода ситуациям. Но, как всегда, риск приходит раньше, чем ты к нему готов. Но и не сказать, что мы к нему абсолютно не готовы. Мы сейчас совместно с правительством работаем над тем, как нам решить эту задачу — задачу "железа", которая, к сожалению, не так просто решается», — пояснил Греф.


12 апреля Греф заявил о риске создания закрытого клуба крупнейших мировых держав в области искусственного интеллекта по аналогии с ядерным клубом. «Есть опасность создания, наряду с ядерным закрытым клубом мировых держав, создания закрытого клуба мировых держав в области ИИ. А это создание такого рода сложных систем, как нейросети. Я думаю, что нам нужно прикладывать все свои усилия, чтобы быть членами этого клуба, быть донорами, а не реципиентами этих технологий», — пояснил Греф.

Глава «Сбера» подчеркнул, что профильным разработчикам и заинтересованным компаниям необходимо продолжать активно заниматься развитием технологии искусственного интеллекта, которая в перспективе нескольких лет может внести ощутимый положительный вклад в прирост российской экономики. «При развитии искусственного интеллекта нужно уделять особое внимание безопасности. Тема кибербезопасности должна опережать тему развития искусственного интеллекта», — считает Греф. Он не верит в то, что искусственный интеллект уничтожит человека, но «нанести какой-то вред ИИ, вероятно, может».

Теги:
Хабы:
Всего голосов 7: ↑6 и ↓1+9
Комментарии27

Другие новости

Истории

Ближайшие события

2 – 18 декабря
Yandex DataLens Festival 2024
МоскваОнлайн
11 – 13 декабря
Международная конференция по AI/ML «AI Journey»
МоскваОнлайн
25 – 26 апреля
IT-конференция Merge Tatarstan 2025
Казань