Как стать автором
Обновить
151.68
Surf
Создаём веб- и мобильные приложения

Google I/O 2025 Keynote: ожидания vs реальность. И первые впечатления, конечно

Уровень сложностиПростой
Время на прочтение8 мин
Количество просмотров1.2K

Вот и прошла Google I/O 2025. Не будем ходить вокруг да около — знаем, как вам не терпится узнать обо всех горячих новинках. Вместе с Surf Android Team проанализируем ожидания от Google I/O 2025 Keynote, сравним их с реальностью и расскажем о своих впечатлениях от увиденного. Го погружаться! 

Наша любимая Google I/O ежегодно задаёт технологические тренды, которые определяют вектор развития экосистемы Google. И вчерашнее выступление не стало исключением — все ждали Google Keynote — на фоне бурного развития ИИ и новых аппаратных инициатив компании и отсутствия слухов о грядущих анонсах этот запуск был едва ли не самым интригующим.

Перед Keynote сформировался вполне чёткие ожидания: от прорывных анонсов в области искусственного интеллекта и новых возможностей Gemini, до обновлений Android и первой демонстрации платформы Android XR. Но сможет ли Google не просто тыкнуть пальчиком в направление, но представить реальные шаги к будущему, которым правит ИИ?

Чего мы ждали от Google I/O 2025 Keynote

Сумасшедший ажиотаж вокруг ИИ и конкуренция в сфере аппаратного обеспечения заставили Google обратить на них своё внимание. Так к чему же были прикованы все взгляды?

Gemini и экосистема в целом

Все мы ждали, когда Google превратит семейство моделей Gemini из фантастических исследовательских проектов в полезные инструменты. И нам было интересно, последуют ли они примеру Microsoft, которая плотно интегрировала ИИ в новую версию Windows. 

  • Интеграция Gemini

Все ждали активного внедрения ИИ во флагманские продукты Google: Поиск, Gmail, Google Docs, да и вообще всю экосистему Workspace. Хотелось увидеть новые возможности, которые автоматизировали бы рутинные задачи и предлагали иные сценарии взаимодействия.

  • Инструменты для разработчиков

Тут ждали расширения Gemini API и SDK, более гибких и мощных инструментов для создания ИИ-приложений и демонстрацию возможностей Firebase Studio для ИИ-разработки.

  • ИИ в Android Studio

Ожидали, что Google улучшат ИИ-помощь в основной IDE для Android — это классно помогло бы ускорить кодирование, отладку и оптимизацию.

  • Мультимодальный ИИ и «умные» агенты

На фоне намёков на мультимодальные возможности Gemini, многие ожидали увидеть демонстрации продвинутых ИИ-агентов. Таких, которые не просто обрабатывают текст, но и понимают контекст, взаимодействуют с изображениями, видео и звуком.

Android XR — вперёд, в смешанную реальность

Слухи о скором выходе аппаратных решений Google для смешанной реальности накаляли атмосферу. А I/O 2025 — идеальная площадка для таких анонсов.

  • Первая полноценная демонстрация платформы

Тут всё просто — все ждали подробности про Android XR. Очень хотелось увидеть, как платформа работает в реальных сценариях и как пользователи будут взаимодействовать с цифровым контентом в физическом мире.

  • Инструменты для разработчиков XR 

Ждали анонсы SDK, API и других инструментов, которые позволили бы создавать приложения для новой платформы.

  • Стратегия Google в XR

Интересно было понять долгосрочные планы Google в области смешанной реальности — что они планирует делать с этой технологией, возлагают ли на неё надежды, и когда мы уже увидим её массовое внедрение.

Облачные и веб-технологии

  • ИИ-сервисы в Google Cloud

В лист ожидания попали новые сервисы и улучшения существующих в Google Cloud — они пригодились бы для развертывания, масштабирования и управления ИИ-моделями в облаке для корпоративных клиентов.

  • Улучшения для веб-платформ

Нового Android мы, разумеется, не ждали, но было бы неплохо увидеть постепенные улучшения в веб-стандартах и инструментах для разработчиков. Особенно тех, которые касаются производительности и безопасности.

В общем, мы много чего ждали от Google I/O 2025 Keynote. Конечно, не обычных обновлений в духе «Мы все поправили, и стало лучше», а демонстрации видения компании, прогнозирования, взгляда в будущее, в конце концов. Но насколько реальность совпала с этими надеждами? Идём читать дальше.

Ожидание — реальность: ИИ и ИИ. И ещё раз ИИ

Главное выступление Google I/O 2025 стало очередной демонстрацией тотального фокуса компании на искусственном интеллекте. Практически каждый крупный анонс был связан с ИИ, подтверждая новую стратегию Google.

Gemini и ИИ: что показали на самом деле

Семейство моделей Gemini стало звездой большинства презентаций. 

  • Gemini 2.5 с режимом Deep Think

Google анонсировали обновленную версию Gemini 2.5 с режимом Deep Think. Он нужен для более глубокого анализа сложных задач. Что говорит о стремлении Google к созданию более «думающих» и компетентных ИИ.

  • Специализированные модели Gemma

Компания представила специализированные модели Gemma: Gemma 3n, MedGemma, SignGemma. Они применяются в достаточно узких областях — здравоохранении (MedGemma) и переводе языка жестов (SignGemma) — и это подчеркивает стремление Google к созданию ИИ, адаптированного для конкретных, часто чувствительных, задач.

  • AI Mode в Google Поиске

Для всех пользователей в США развернут AI Mode в Google Поиске. Этот режим позволяет обрабатывать сложные, многосоставные запросы, генерировать графики на основе данных и отвечать на дополнительные вопросы, по сути, превращая Поиск в интерактивного ИИ-ассистента на базе Gemini 2.5.

  • ИИ для шопинга

Пользователи смогут виртуально примерять одежду по одной своей фотографии — и не надо идти в магазин — удобно, правда?

  • Project Astra: видение универсального помощника

Project Astra — концепция универсального ИИ-помощника, способного понимать и взаимодействовать с окружающим миром в реальном времени через камеру смартфона.

  • Gemini Live для всех

Доступный только на устройствах Pixel, Gemini Live расширили до всех совместимых устройств Android и iOS. Это позволяет пользователям задавать вопросы по скриншотам и видео с камеры в реальном времени.

  • Генерация медиаконтента нового поколения

    • Veo 3 — новая версия модели для генерации видео. Она способная генерировать видео со звуком, что является значительным шагом к реалистичности и погружению.

    • Imagen 4 — модель получила улучшения в фотореалистичности и детализации. Что особенно примечательно, она показала улучшенную способность работать с орфографией и типографикой внутри генерируемых изображений, что было проблемой для многих предыдущих моделей.

    • Flow — новый инструмент для создания видеоконтента на основе ИИ, который расширяет возможности VideoFX. Он может управлять движением камеры, редактирования и расширения существующих кадров.

Итак, мы видим доминирование ИИ. Google не просто показала новые модели, а продемонстрировала их интеграцию в ключевые продукты. В отличие от Microsoft, которая сфокусировалась на создании ИИ-компаньонов — Copilot — внутри операционной системы Windows, подход Google кажется шире. Он охватывает интеграцию Gemini и в сервисы — от поиска до Gmail, и в кроссплатформенные решения, включая iOS (как в случае с Gemini Live). 

А Project Astra и возможности генерации медиаконтента подтверждают, что Google стремится сделать ИИ активным помощником, который всегда с вами. К тому же, способным к персонализации на основе пользовательских данных. 

И всё бы хорошо, но после таких заявлений очень ярко встаёт вопрос приватности и безопасности персональных данных. Если ИИ действительно «знает о нас всё», Google придётся очень сильно постараться обеспечить комфортную конфиденциальность и контроль над информацией.

Android XR: Первые устройства и развитие платформы

Вот он — «One more thing» от Google: Android XR. И хотя многие ждали анонса собственного устройства смешанной реальности, Google преподнесла нечто большее и, возможно, гораздо более дальновидное, чем мы предполагали.

  • Android XR Glasses

В отличие от громоздкой и дорогой Apple Vision Pro, которая позиционируется как компьютер для лица, подход Google оказался совершенно иным — ориентированным на повседневность.

  • Project Moohan от Samsung — всё серьёзно

В рамках Android XR представили гарнитуру Samsung Project Moohan, созданную, кстати, в тесном сотрудничестве с Qualcomm. Это устройство позиционируется как конкурент Vision Pro, обещая быть более лёгким — чтобы шея не просила пощады через полчаса ношения — и удобным. Обещают запустить чуть «позже в этом году».

  • Project Aura от Xreal

Второе официальное устройство на Android XR, что подтверждает расширение аппаратной экосистемы за счёт сторонних производителей, которые готовы работать в рамках нового видения Google.

Тут Google не просто оправдала, а превзошла ожидания. Project Moohan и акцент на компактных и стильных «умных» очках кажутся неплохой попыткой избавиться от недостатков Google Glass и воплотить концепцию «носимой» электроники. 

Так что вектор развития Android XR выглядит гораздо более перспективным для массового рынка по сравнению с текущими предложениями.

Новые инструменты для разработчиков: от Gemini SDK до Google Beam

Для разработчиков Google представила новые и улучшенные инструменты, которые помогут облегчить работу с ИИ и новыми технологиями.

  • Gemini SDK с Model Context Protocol (MCP)

Поддержка MCP упростит использование open-source инструментов и расширит возможности работы с Gemini.

  • ML Kit GenAI API

Новые API, использующие Gemini Nano для выполнения ИИ-задач непосредственно на устройстве. 

  • Gemini Code Assist

Инструмент для помощи в кодировании на базе Gemini 2.5 теперь доступен для использования. Обещают ускорить процесс разработки — вот и проверим.

  • Google Beam (бывший Project Starline)

Платформа для 3D-видеосвязи, которая использует ИИ для превращения стандартных 2D-потоков в иммерсивные видеозвонки, создавая ощущение присутствия.

В этом блоке — как платформа для ИИ-разработки — Google укрепила свои позиции. Анонсированные инструменты, особенно расширения Gemini SDK и Gemini Code Assist, помогут более просто и эффективно воспользоваться возможностям ИИ.

Другие важные анонсы

  • Google Meet получил функцию перевода речи в реальном времени. Больше не нужно судорожно искать слова в переводчике на переговорах с иностранными клиентами.

  • AI Ultra — премиум-план подписки с расширенным доступом к самым мощным ИИ-моделям Google.

  • SynthID Detector — портал для идентификации контента, сгенерированного ИИ. Отличный шаг к повышению прозрачности и борьбы с дезинформацией.

Эти «маленькие» анонсы тоже показывают, что Google стремится внедрить ИИ в максимальное число своих продуктов.

Первые впечатления: а что мы думаем на этот счёт?

Итак, занавес Google I/O 2025 Keynote опустился. Насколько амбиции Google совпали с реальностью? Было ли это действительно «будущее уже здесь», или, скорее, «мы с ИИ ходим парой»?

ИИ, ИИ, кругом ИИ

Наши ожидания тотального господства ИИ оправдались. Мы получили не просто много ИИ — это была буквально лавина. Gemini 2.5 с Deep Think, Gemma, AI Mode в Поиске, Project Astra, генерация медиаконтента — выглядит мощно.

Я должен был быть антагонистом этой встречи, но Google сделали сильный ход. Особенно поразило, сколько контекста удерживает модель и как качественно она с ним работает. Плюс — продуманная интеграция ИИ во все сервисы.

Кирилл, iOS Team Lead в Surf

Но истинная ли это революция или просто агрессивная ИИ-маскировка существующих сервисов? Если Microsoft строит Copilot как центральную сущность ОС, Google вставляет Gemini буквально везде. Да, это делает ИИ вездесущим, но не всегда ясно, как изменится опыт пользователя — да и изменится ли? А если вспомнить о суперперсонализации, о которой так много говорили, то встаёт вопрос: если ИИ «знает о нас всё», что насчёт приватности?

Самое ценное для меня — персонализация. Хочется, чтобы ассистент общался со мной как с другом и понимал с полуслова. А ещё — очки. Перевод реализован на уровне. Можно спокойно путешествовать без знания языка и понимать окружающих.

Алексей, Android-разработчик в Surf

Носи очки — будь модным

Google преподнесла не тот one more thing в виде собственной гарнитуры, а скорее one more approach. Вместо прямой конкуренции с Apple Vision Pro, Google сфокусировалась на очках, которые можно носить повседневно.

И эти очки смогут стать тем прорывом, которым не смогли стать Google Glass. Переход от нишевого гаджета к незаметной, стильной электронике, которую действительно захочется носить каждый день. Особенно, если они будут от известных дизайнерских брендов.

Больше всего впечатлила работа с голосом — звучит как настоящая речь, а не синтез. И, конечно, очки. Приятно видеть, как Google Glass возвращаются — пусть и в новом виде. Как пользователь подобных очков от XReal, очень жду момента, когда ими можно будет пользоваться вне дома. И когда они станут привычным повседневным устройством, как умные часы или смартфон.

Алексей, Android Team Lead в Surf

Инструменты для разработчиков

Gemini SDK, ML Kit GenAI API, Gemini Code Assist подарят новые возможности. Они призваны упростить интеграцию ИИ.

Однако возникает вопрос: действительно ли это упростит жизнь разработчикам или только сильнее привяжет его к экосистеме Google? Скоро узнаем, станут ли эти инструменты настоящим благом или новой «золотой клеткой».


Google I/O 2025 Keynote однозначно показал нам будущее. И, по версии Google, это будущее, управляемое ИИ. 

Реальность, в целом, совпала с нашими ожиданиями, а в некоторых моментах даже превзошла. Устройства на Android XR выглядят невероятно круто, и мы искренне надеемся, что благодаря интеграции ИИ они станут чем-то новым, свежим и гораздо более прикладным к реальным задачам, чем всё, что мы видели до сих пор.

Кейсы и лучшие практики в области системной и бизнес-аналитики, новости, вакансии и стажировки Surf — в телеграм-канале Surf Tech.

Присоединяйтесь!

Теги:
Хабы:
+2
Комментарии0

Публикации

Информация

Сайт
surf.ru
Дата регистрации
Дата основания
Численность
201–500 человек
Местоположение
Россия