Как стать автором
Поиск
Написать публикацию
Обновить

Комментарии 8

Я поставил. Если честно, это жалкое подобие левой руки Google Lens.

Я навожу камеру на какой-то предмет и максимум что может дать мне hugging snap, это текстовое описание (и не факт, что оно будет корректным).

Держать для этого 1-гигабайтную модель на телефоне - ну такое...

На мой взгляд, выглядит довольно бесполезным.

Ну разве что вы хотите проверить что-то, там где нет инетрнета (ягодки или грибы в лесу :))

Скрытый текст

Это даже не MVP, это proof-of-concept. Посмотреть, что получится, как люди используют, после чего отказываются от использования.

Локально работающие нейросети точно многие захотят в свои продукты вставить в ближайшее время, поэтому на эксперименты мы ещё насмотримся.

У Самсунга вроде неплохо получается, многие из AI-функций на Galaxy S2X (Ultra) доступны без Интернета. Но качество нестабильное, порой катастрофически низкое. Например, голос с Тайского на Русский переводит до полной потери смысла. Модельки, кстати, там примерно по 700-800 Мб, для каждого языка отдельная

И в каждом приложении по гигабайтному файлу, ведь разделяемого контейнера нет

Если бы это еще одна компактная модель на все случаи жизни была. Так что смысла мало я думаю.

Это не много не то, чисто для твоих приложений. А нам по идее надо, чтобы все брали какой-то модуль и встраивал его в свои приложения. И модель держал бы модель по одному пути. Раньше в андроиде так можно было делать. Помню было несколько приложений с простенькими картами и они использовали одну и ту же папку для хранения кусочков карты, тем самым не расходую интернет.

Я боюсь, вряд ли кто-то захочет отдавать свою модель в пользование другим приложениям, помогая другим же зарабатывать.

В лучшем случае такая модель будет от вендора платформы, с унифицированным доступом по системным API.

Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Другие новости