На фоне общего ажиотажа вокруг моделей Gemini и обновления до 2.5 Pro (пусть и с пометкой experimental), Google решила порадовать пользователей ещё одной функцией: передача изображения с камеры и экрана в реальном времени в Gemini Live теперь официально начала появляться на Android-устройствах с подпиской Google One AI Premium.
Что это вообще такое — Astra и Gemini Live?
Gemini Live — это голосовой интерфейс для взаимодействия с ИИ Gemini, который умеет вести диалоги вживую, понимать контекст и реагировать на действия пользователя. В рамках Project Astra Google интегрирует визуальное восприятие в ИИ: теперь пользователь может включить камеру или показать экран, а ИИ будет “видеть”, анализировать и реагировать на происходящее.
То есть — вы можете:
- Показать ИИ документ, страницу в браузере или объект через камеру;
- Запустить приложение и попросить объяснить интерфейс;
- Решать задачи с реальными предметами (да, можно даже навести камеру на розетку и спросить, что это за штука).
Как проходит раскатка
Ещё в начале марта Google анонсировала, что возможности камеры и экрана начнут появляться у подписчиков Gemini Advanced на Android “в течение месяца”. Первые счастливчики начали делиться скриншотами 22 марта, и с тех пор количество таких пользователей постепенно растёт.
Важно отметить, что раскатка идёт не по брендам устройств — ни Pixel, ни Samsung здесь не имеют приоритета. Главное условие — оформленная подписка Google One AI Premium, в рамках которой и доступен Gemini Advanced.
Что говорит Google
В официальном аккаунте @GeminiApp компания 30 марта уточнила:
“Мы видим и разделяем восторг по поводу новой функции и прилагаем все усилия, чтобы сделать её доступной для большего числа пользователей! Возможность делиться изображением с камеры и экрана в Gemini Live будет продолжать распространяться. Мы будем публиковать обновления на этой странице по мере расширения доступа.”
Перевод: не сегодня, так завтра получите, ждите дальше.
Это очередной шаг в сторону “умного ассистента нового поколения”, который не просто понимает команды, а действительно воспринимает мир вокруг через камеру и интерфейс экрана. Аналогично тому, как дети учатся, глядя на предметы, — ИИ учится видеть и понимать контекст происходящего.
Интересный момент: ещё в феврале Google начала внедрять Flash 2.0 для Gemini Live, который улучшил восприятие языков и позволил свободно переключаться между 45+ языками в разговоре. Похоже, теперь пришло время подтянуть и визуальную составляющую.
Если у вас Android-смартфон и активна подписка Gemini Advanced, проверьте — возможно, функция уже появилась. Если нет — немного терпения, раскатка продолжается и охватывает всё больше пользователей. Google, как всегда, предпочитает “делать медленно, но точно”. Или, по крайней мере, делает вид.