Комментарии 6
В целом неплохо определяет. Правда, таки нашёл её слабое место - сферическая панорама, снятая с дрона + простая манипуляция в Фотошопе, чтобы сделать эффект "Tiny Planet".
На первом фото затруднилось определить, человек его сделал или AI, на втором определило, что таки человек, а на третьем ошиблось, посчитав, что с вероятностью 68% это Stable Diffusion.

Выводы:
1) Для однозначного принятия решения такой инструмент не годится там, где нужно выявлять работы, сделанные AI.
2) Манипуляции с изображением в Фотошопе уже начинают сбивать инструмент с толку.
2) Манипуляции с изображением в Фотошопе уже начинают сбивать инструмент с толку.Но только в одну сторону — неправильного определения «человеческой картинки» как AI-шной.
Есть ещё как минимум illuminarty.ai/
По ощущениям определяет лучше чем ai or not
Во всяком случае не выдаёт "Sorry, but in this case we can’t really say if it’s AI or Not
Probly the uploaded image has most likely been modified or compressed"
Потестил. Очередное доказательство, что уверенно определить ИИ генерации невозможно. Вроде как ИИ избражения у меня детектило нормально (или выдавало, что не знает, как минимум), но проблема в ложных срабатываниях. Скриншоты из аниме и геншина, а также одно фото уверенно приняло за ИИ.
Стартап Optic запустил сервис AI or Not для распознавания созданных ИИ изображений