Google расширяет возможности Gemini Live: поддержка камеры и шаринга экрана с Astra выходит на Android

Gemini Live

На фоне общего ажиотажа вокруг моделей Gemini и обновления до 2.5 Pro (пусть и с пометкой experimental), Google решила порадовать пользователей ещё одной функцией: передача изображения с камеры и экрана в реальном времени в Gemini Live теперь официально начала появляться на Android-устройствах с подпиской Google One AI Premium.

Что это вообще такое — Astra и Gemini Live?

Gemini Live — это голосовой интерфейс для взаимодействия с ИИ Gemini, который умеет вести диалоги вживую, понимать контекст и реагировать на действия пользователя. В рамках Project Astra Google интегрирует визуальное восприятие в ИИ: теперь пользователь может включить камеру или показать экран, а ИИ будет “видеть”, анализировать и реагировать на происходящее.

То есть — вы можете:

  • Показать ИИ документ, страницу в браузере или объект через камеру;
  • Запустить приложение и попросить объяснить интерфейс;
  • Решать задачи с реальными предметами (да, можно даже навести камеру на розетку и спросить, что это за штука).

Как проходит раскатка

Ещё в начале марта Google анонсировала, что возможности камеры и экрана начнут появляться у подписчиков Gemini Advanced на Android “в течение месяца”. Первые счастливчики начали делиться скриншотами 22 марта, и с тех пор количество таких пользователей постепенно растёт.

Важно отметить, что раскатка идёт не по брендам устройств — ни Pixel, ни Samsung здесь не имеют приоритета. Главное условие — оформленная подписка Google One AI Premium, в рамках которой и доступен Gemini Advanced.

Что говорит Google

В официальном аккаунте @GeminiApp компания 30 марта уточнила:

“Мы видим и разделяем восторг по поводу новой функции и прилагаем все усилия, чтобы сделать её доступной для большего числа пользователей! Возможность делиться изображением с камеры и экрана в Gemini Live будет продолжать распространяться. Мы будем публиковать обновления на этой странице по мере расширения доступа.”

Перевод: не сегодня, так завтра получите, ждите дальше.

Это очередной шаг в сторону “умного ассистента нового поколения”, который не просто понимает команды, а действительно воспринимает мир вокруг через камеру и интерфейс экрана. Аналогично тому, как дети учатся, глядя на предметы, — ИИ учится видеть и понимать контекст происходящего.

Интересный момент: ещё в феврале Google начала внедрять Flash 2.0 для Gemini Live, который улучшил восприятие языков и позволил свободно переключаться между 45+ языками в разговоре. Похоже, теперь пришло время подтянуть и визуальную составляющую.

Если у вас Android-смартфон и активна подписка Gemini Advanced, проверьте — возможно, функция уже появилась. Если нет — немного терпения, раскатка продолжается и охватывает всё больше пользователей. Google, как всегда, предпочитает “делать медленно, но точно”. Или, по крайней мере, делает вид.

Все про систему Андроид
Добавить комментарий