Как мы уже знает, искусственный интеллект все больше и больше захватывает мир, мир реальный и виртуальный. И проект под названием «AIGod» тоже развивается. Казалось бы, ну что можно еще придумать в распознавании объектов, однако не спешите ставить точку, ведь под объектами может стоять что угодно.
Итак, помимо внесенных исправлений, по которым приложение могло не работать, в проект добавилось довольно таки много интересного. Не мало важно, что идет работа над улучшением удобства в использовании для пользователя — это подтверждает добавлений возможностей в верхнее меню, например выбор через какое устройство (cpu/gpu) производить анализ файлов. А теперь к более интересным возможностям. Добавлена ранее анонсированная модель по распознаванию deepfake лиц людей, конечно сейчас есть deepfake который не меняет лицо, а заставляет шевелить мимику и тело человека на изображении, но со временем и это сможем распознавать. Так же добавлены модели по распознаванию движения на видео и распознаванию заранее указанного цвета. Интересное решение был принято, это добавить возможность анализа с области экрана монитора. Представим, что нет возможности передать ссылку на анализ камеры, или нет скаченного файла фото или видео, на выручку придет такой метод. Различные примеры результатов выкладывают в формате gif на reddit в сообществе «aigod_detect».
Но, что еще важно, проект стремится и дальше. В грядущем скором обновлении будет добавлено:
Возможность предскачивания видео с ютуб, если вдруг напрямую с сервиса анализ происходит не корректно.
История предскачиваний видео, да бы дважды не скачивать один и тот же файл.
Обновление модели «Военное», улучшено качество распознавания, а так же добавлены новые классы объектов в модели.
Возможность менять точность распознавания, понижать/повышать в зависимости от результата.
Так же в планах на ближайщее будущее стоит: распознование карты местности (лес, горы, вода, и т.д.), распознование фейкового окружения и фейковых объектов.
Да бы не пропустить и следить за проектом, напомню всем его ссылочку на главную страницу, где есть и открытый код проекта.