Финансовые организации Bank of America, Citigroup, Deutsche Bank, Goldman Sachs Group, Wells Fargo и JPMorgan Chase запретили своим сотрудникам использовать чат-бота ChatGPT в рабочих целях даже в самых простых задачах.
Компании выяснили, что инструмент искусственного интеллекта ChatGPT и подобные системы выдают часто неактуальную или ошибочную информацию, использование которой может привести к значительным просчётам на финансовом рынке и убыткам.
Профильные эксперты уточнили, что мировые банки также заблокировали использование ChatGPT сотрудниками из-за проблем с соблюдением требований безопасности для стороннего программного обеспечения на корпоративных устройствах.
Представители банков пояснили СМИ, что технология чат-ботов на базе ИИ должна быть хорошо проверена, прежде чем её можно будет использовать для делового и финансового общения в компаниях. Пока что не было сделано оценок по безопасному и эффективному способу использования подобных технологий в финсекторе.
«Когда SEC (регулятор США) постучится в вашу дверь и спросит, почему вы выполнили эту транзакцию, у вас должен быть лучший ответ, чем «ну, это машина сказала мне», — объяснил СМИ финансовый аналитик.
До запрета банками и торговыми площадками ChatGPT некоторые сотрудники в частных целях использовали чат-бота, чтобы не тратить своё время на поиск и анализ большого количества информации. ChatGPT выполнял задание за меньшее время, чем потребовалось бы человеку для поиска в интернете. Оказалось, что его ответы нельзя использовать без перепроверки фактов, а сам чат-бот очень часто использует в своих выводах устаревшую информацию, что может в итоге исказить реальную ситуацию на быстро меняющемся финансовом рынке.
Ранее глава Google Search предостерёг пользователей о «галлюцинирующих» текущих версиях чат-ботов. По его мнению, не нужно полностью доверять ответам чат-ботов, так как некоторые из них могут быть выдуманы, а производители решений не проверяют в рамках фактчекинга сгенерированную ботами информацию.
ChatGPT может сдать экзамен MBA, решить тестовое задание, создавать простые полиморфные вирусы, а также помогать в написании диплома в российском вузе и даже ответить на большую часть вопросов медицинского экзамена USMLE на право работать врачом в США.
В середине февраля руководство университета Гонконга временно запретило студентам использовать чат-бота ChatGPT и другие подобные инструменты на основе ИИ для создания учебных, курсовых и научных работ. Нарушение запрета будет рассматриваться вузом как плагиат.
В начале января студент университета Санта-Клары использовал чат-бота ChatGPT для написания эссе по теме «этика искусственного интеллекта».
В конце января один из ведущих университетов Франции Sciences Po запретил использование чат-бота ChatGPT, чтобы предотвратить мошенничество и плагиат.
Amazon попросила своих сотрудников не делиться конфиденциальной информацией с ChatGPT из-за появления в ответах чат-бота данных, очень похожих на внутренние материалы компании.
В февраля Verizon Communications Inc. запретила использовать чат-бот в своих корпоративных системах, заявив, что может потерять право собственности на информацию о клиентах или исходный код, который её сотрудники вводили в ChatGPT.
Также на ChatGPT наложил табу департамент образования Нью-Йорка. В государственных школах города школьники и учителя не получат доступ к чат-боту. Отдельные заведения могут запросить его для изучения ИИ.
Компании выяснили, что инструмент искусственного интеллекта ChatGPT и подобные системы выдают часто неактуальную или ошибочную информацию, использование которой может привести к значительным просчётам на финансовом рынке и убыткам.
Профильные эксперты уточнили, что мировые банки также заблокировали использование ChatGPT сотрудниками из-за проблем с соблюдением требований безопасности для стороннего программного обеспечения на корпоративных устройствах.
Представители банков пояснили СМИ, что технология чат-ботов на базе ИИ должна быть хорошо проверена, прежде чем её можно будет использовать для делового и финансового общения в компаниях. Пока что не было сделано оценок по безопасному и эффективному способу использования подобных технологий в финсекторе.
«Когда SEC (регулятор США) постучится в вашу дверь и спросит, почему вы выполнили эту транзакцию, у вас должен быть лучший ответ, чем «ну, это машина сказала мне», — объяснил СМИ финансовый аналитик.
До запрета банками и торговыми площадками ChatGPT некоторые сотрудники в частных целях использовали чат-бота, чтобы не тратить своё время на поиск и анализ большого количества информации. ChatGPT выполнял задание за меньшее время, чем потребовалось бы человеку для поиска в интернете. Оказалось, что его ответы нельзя использовать без перепроверки фактов, а сам чат-бот очень часто использует в своих выводах устаревшую информацию, что может в итоге исказить реальную ситуацию на быстро меняющемся финансовом рынке.
Ранее глава Google Search предостерёг пользователей о «галлюцинирующих» текущих версиях чат-ботов. По его мнению, не нужно полностью доверять ответам чат-ботов, так как некоторые из них могут быть выдуманы, а производители решений не проверяют в рамках фактчекинга сгенерированную ботами информацию.
ChatGPT может сдать экзамен MBA, решить тестовое задание, создавать простые полиморфные вирусы, а также помогать в написании диплома в российском вузе и даже ответить на большую часть вопросов медицинского экзамена USMLE на право работать врачом в США.
В середине февраля руководство университета Гонконга временно запретило студентам использовать чат-бота ChatGPT и другие подобные инструменты на основе ИИ для создания учебных, курсовых и научных работ. Нарушение запрета будет рассматриваться вузом как плагиат.
В начале января студент университета Санта-Клары использовал чат-бота ChatGPT для написания эссе по теме «этика искусственного интеллекта».
В конце января один из ведущих университетов Франции Sciences Po запретил использование чат-бота ChatGPT, чтобы предотвратить мошенничество и плагиат.
Amazon попросила своих сотрудников не делиться конфиденциальной информацией с ChatGPT из-за появления в ответах чат-бота данных, очень похожих на внутренние материалы компании.
В февраля Verizon Communications Inc. запретила использовать чат-бот в своих корпоративных системах, заявив, что может потерять право собственности на информацию о клиентах или исходный код, который её сотрудники вводили в ChatGPT.
Также на ChatGPT наложил табу департамент образования Нью-Йорка. В государственных школах города школьники и учителя не получат доступ к чат-боту. Отдельные заведения могут запросить его для изучения ИИ.