Комментарии 8
Я поставил. Если честно, это жалкое подобие левой руки Google Lens.
Я навожу камеру на какой-то предмет и максимум что может дать мне hugging snap, это текстовое описание (и не факт, что оно будет корректным).
Держать для этого 1-гигабайтную модель на телефоне - ну такое...
На мой взгляд, выглядит довольно бесполезным.
Ну разве что вы хотите проверить что-то, там где нет инетрнета (ягодки или грибы в лесу :))
Скрытый текст


Это даже не MVP, это proof-of-concept. Посмотреть, что получится, как люди используют, после чего отказываются от использования.
Локально работающие нейросети точно многие захотят в свои продукты вставить в ближайшее время, поэтому на эксперименты мы ещё насмотримся.
У Самсунга вроде неплохо получается, многие из AI-функций на Galaxy S2X (Ultra) доступны без Интернета. Но качество нестабильное, порой катастрофически низкое. Например, голос с Тайского на Русский переводит до полной потери смысла. Модельки, кстати, там примерно по 700-800 Мб, для каждого языка отдельная
И в каждом приложении по гигабайтному файлу, ведь разделяемого контейнера нет
Если бы это еще одна компактная модель на все случаи жизни была. Так что смысла мало я думаю.
Это не много не то, чисто для твоих приложений. А нам по идее надо, чтобы все брали какой-то модуль и встраивал его в свои приложения. И модель держал бы модель по одному пути. Раньше в андроиде так можно было делать. Помню было несколько приложений с простенькими картами и они использовали одну и ту же папку для хранения кусочков карты, тем самым не расходую интернет.
Hugging Face выпустила HuggingSnap — аналог Google Lens для iOS, который работает локально