Годовой мероприятие от Google, Google I/O, является крупнейшим ежегодным собранием компании. Ни одно другое событие календаря, например выпуск серии Pixel 10 в конце 2025 года, не сравнится с масштабом и влиянием этого мероприятия. На этой неделе мне выпала честь посетить I/O прямо за пределами штаб-квартиры Google в Маунтин-Вью, и это было невероятно!
🎁 Бесплатные токены для настоящих охотников! Airdrop раздает халяву, которую ты точно не захочешь упустить.
Присоединиться в ТелеграмК сожалению, те, кто следил за прямой трансляцией ключевой речи из дома, пропустили все волнение после ухода Сандара Пичаи со сцены. Именно тогда I/O становится по-настоящему захватывающим – вы можете исследовать территорию выставки и даже протестировать множество новых технологий и услуг, которые с энтузиазмом обсуждались гуглерами во время основного выступления.
Позвольте поделиться с вами моими пятью удивительными впечатлениями, которые мне посчастливилось пережить! Конечно, ничто не сравнится с реальным присутствием, но пока это послужит веселой и захватывающей альтернативой.
Прототипные очки Android XR
На мероприятии Google I/O в 2024 году впервые были показаны новые очки дополненной реальности (AR). Эти очки казались улучшенной версией проекта смарт-очков Google Glass, которые компания пыталась запустить более десяти лет назад, но безуспешно. Во время демонстрации 2024 года мы увидели предварительно записанный видеофрагмент от первого лица с прототипом очков, демонстрирующим впечатляющие функции: распознавание объектов, запоминание предыдущих мест расположения предметов и интерпретация сложных концепций по простым наброскам в офисной обстановке. Позже в том же году стало известно, что эти очки работают на Android XR, а также были опубликованы промо-видео с демонстрацией носимого прототипа от Google.
Эти очки были намекнуты на во время I/O 2024, но теперь я увидел их вживую на сцене и даже сам надел их.
На прошлой неделе Google представил свои очки в живых демонстрациях на сцене и также предоставил участникам мероприятия I/O возможность лично их протестировать. Мне довелось попробовать их, и должен признать, они произвели на меня глубокое впечатление!
Во время тестирования последних функций Google почти всё работало у меня без сбоев. Я легко общался с Gemini, обсуждая различные предметы и просматривая его ответы в текстовом формате на компактном экране или аудио через встроенные динамики в дужках очков. Кроме того, я получал навигационные указания, оповещения от смартфона и даже снимал фотографии, нажимая на правую дужку, хотя качество могло быть не идеальным из-за маленького размера сенсора камеры.
Почти все, что показал Google на главном выступлении, работало во время моего практического тестирования. Это редкость!
Несмотря на то что очки имеют функцию перевода в реальном времени, я не смог проверить её во время презентации, так как перевод казался немного глючным. Учтите, это прототипы, поэтому подобные проблемы могут возникать иногда.
То, что разочаровывало, было обнаружением того, что изображения можно видеть только через правый глаз. Когда я закрывал правый глаз, образы исчезали, указывая на то, что эти очки не показывают изображение одновременно обоим глазам. Представитель Google сказал мне, что это сделано намеренно. Android XR может учитывать устройства с двумя экранами, одним экраном или вообще без экранов. Оказалось, что эти прототипные очки являются одноэкранными моделями. В конечном итоге финальные продукты могут иметь функцию двух экранов или нет, поэтому помните об этом, когда планируете будущее.
К сожалению, прототипы очков имеют только один дисплей, поэтому если вы закроете правый глаз, все проекции исчезают.
Несмотря на все обстоятельства, очки функционировали превосходно, удобно сидели на лице и пользуются репутацией своих разработчиков: Google, Samsung и Qualcomm (разработка ПО была поручена Google, разработка аппаратного обеспечения — Samsung, а поставки кремния — Qualcomm). Честно говоря, пользоваться ими было захватывающе, сразу же ощущалось, что это не просто улучшенная версия Google Glass, но самостоятельный зрелый носимый гаджет.
Как энтузиаст технологий, я с нетерпением жду подробностей о выпуске этих очков (от таких брендов как XRREAL, Warby Parker и Gentle Monster). Мне особенно интересно узнать об их ценовой категории, дате запуска и регионах доступности. Надеюсь, нам не придется ждать Google I/O 2026 для этой увлекательной информации!
Мохан-проект
На конференции Google I/O очки для дополненной реальности были не единственными Android XR устройствами; также присутствовали другие носимые устройства. Хотя о проекте Moohan было известно уже давно, немногие имели возможность протестировать высококлассную гарнитуру виртуальной реальности от Samsung. Однако теперь я в числе этой выбранной группы людей, которым представилась такая возможность.
При первом испытании Project Moohan меня поразило его высокое качество и тщательно продуманный дизайн — это ощущалось как полностью готовый продукт, а не прототип с грубыми краями, которые должны быть сглажены позже. Честно говоря, если бы я не знал лучше, то подумал бы, что эта гарнитура уже готова к розничной продаже – настолько они впечатлили.
Проект Мухоан уже кажется готовым. Если бы он завтра появился в магазинах, я бы его купил.
Гарнитура была удобно сбалансирована, ни передняя часть, ни задняя не ощущались слишком тяжелыми. Удаление аккумуляторного блока от самой гарнитуры способствовало этому балансу. К моему удивлению, ношение кабеля по туловищу и аккумуляторного блока в кармане оказалось менее неудобно, чем я ожидал изначально. Самое главное, гарнитура оказалась достаточно удобной для продолжительного использования, что часто не наблюдается у других гарнитур на рынке.
После включения Project Moohan я оказался погруженным в исключительное ощущение. Внутренние экраны ловко подстраивались под рецепт моих очков, что значительно упростило процесс. Кроме того, чёткость изображения была поразительной: мне удалось наслаждаться ярким и высоко детализированным видом реальности с минимальным задержкой и без размытия, которое я замечал при использовании других устройств виртуальной реальности.
Качество отображения в проекте Moonah было одним из лучших среди аналогичных гарнитур, с которыми мне приходилось сталкиваться.
Используя Project Moohan, управление гарнитурой так же просто, как выполнение ручных жестов. В отличие от традиционных систем, требующих контроллеров, эта технология позволяет контролировать все через движения ладони, сжатие пальцев и смахивание руки. Это невероятно интуитивно, и я быстро освоился с операционной системой всего за несколько минут.
Абсолютно верно, в проекте Moohan главную роль играет Gemini. Расположенный в правом верхнем углу экрана есть кнопка для вызова Gemini из любой части Android XR. После активации можно давать команды, задавать вопросы или просто общаться непринужденно. Замечательно то, что Gemini способен понимать информацию, отображаемую на экране устройства, позволяя обсуждать текущую задачу. Мне сообщили, что представители Google часто используют эту функцию для игровых целей — когда сталкиваются с трудными уровнями в играх, они могут обратиться за помощью к Gemini, который предоставляет обучающие материалы или гайды без необходимости прерывать игру.
Когда дело доходит до игр, Project Moohan разработан для поддержки различных методов управления. Предпочитаете ли вы традиционные VR-контроллеры или что-то более простое, например контроллер Xbox — это все хорошо! К сожалению, у меня не было возможности проверить это во время короткой демонстрации, но перспектива того, что это может стать настоящим игровым тяжеловесом, заставляет меня с нетерпением ожидать этого.
Я не смог опробовать его, но Гугль заверил меня, что проект Мухуан будет поддерживать большинство игровых контроллеров, и это заставило меня очень радоваться новому способу играть.
Как энтузиаст, я взволнован проектом Moohan, но есть серьезное беспокойство: дата релиза остается неопределенной, так же как и в случае с очками Android XR. Даже официальное коммерческое название на данный момент неизвестно! Google и Samsung намекнули, что запуск состоится в этом году, однако учитывая время, прошедшее с момента первого анонса проекта, отсутствие заметного прогресса и текущие проблемы с пошлинами, я начинаю сомневаться в их графике. Однако когда эти очки наконец станут доступными, я готов быть одним из первых покупателей!
Режим AI в Chrome и режиме реального поиска
На конференции Google I/O 2025 режим AI выделился как еще одна ключевая функция, аналогичная поисковику Google Search но с возможностями искусственного интеллекта. Вместо того чтобы вводить один конкретный запрос и получать список связанных результатов, теперь можно задавать более сложные вопросы и получить индивидуальную страницу результатов, собранную на основе множества поисковых запросов, предлагающую всестороннее и удобное для пользователя резюме исследуемой темы.
Режим AI позволяет выполнять несколько поисковых запросов в Google одновременно, используя подсказки любой длины.
Чтобы найти новый смартфон, соответствующий определенным требованиям, я провел детальный поиск с использованием режима AI. Мой запрос состоял в том, что телефон должен работать на Android, стоить менее $800, иметь качественную камеру и быть доступным в США. Обычно обычный поисковик Google может не предоставить удовлетворительных результатов для такого подробного запроса. Однако благодаря режиму AI мне предоставили список подходящих телефонов: Pixel 9a, Galaxy S25 и OnePlus 13R – все отличные варианты. Результаты также содержали ссылки на покупки, видеообзоры, статьи и дополнительную информацию.
Одно из замечательных преимуществ режима AI заключается в том, что вы можете сразу его испытать! Если вы живете в Соединенных Штатах и ваши функции поиска активированы, вы сможете использовать режим AI на Google.com (в противном случае доступ появится скоро).
В режиме AI на данный момент невозможно экспериментировать с функцией под названием Live Search. Это было упомянуто во время основного выступления и ожидается к запуску этим летом. По сути, Live Search позволяет вам показывать Gemini ваши реальные условия окружения через камеру смартфона. Если это звучит знакомо, то потому что функция Gemini Live уже имеет эту возможность на Android. Однако благодаря Live Search, она будет доступна с любого мобильного устройства через приложение Google, так что пользователи iPhone тоже смогут воспользоваться.
С помощью режима AI вы также найдете функцию Search Live, которая позволяет показать Gemini реальную картину мира с использованием камеры вашего телефона.
Я протестировал первоначальную версию Search Live, и она показала себя столь же хорошо, как Gemini Live. Было бы замечательно, если бы все могли получить доступ к этому инструменту повсюду, так как он очень полезен. Однако Google приближается к рискованной зоне ‘перегрузки функций’, поэтому давайте надеяться, что они смогут разъяснить пользователям, где именно можно воспользоваться этой услугой, чтобы избежать путаницы относительно её местоположения.
Поток
Среди всех инноваций, представленных на мероприятии Google I/O этого года, Flow несомненно вызвал во мне смесь интереса и беспокойства. С одной стороны, это безусловно впечатляюще (иначе оно не привлекло бы моего внимания), но с другой стороны, также возникают опасения, которые трудно игнорировать.
Flow — это новый инструмент для создания видеопродукции, упрощающий процесс разработки и редактирования нескольких сегментов видео последовательно, подобно работе с традиционным таймлайном. Например, он позволяет создать всю сцену фильма по частям исключительно на основе текстовых подсказок. После генерации клипа можно дополнительно улучшить его инструкциями или даже расширить начальное создание для получения улучшенного результата.
Поток может стать потрясающим новым инструментом кинопроизводства или причиной смерти фильма, каким мы его знаем.
Кроме того, Flow будет использовать новейшую версию системы создания видео от Google — Veo 3. С помощью Veo 3 пользователи могут генерировать визуальный контент с музыкальным сопровождением, звуковыми эффектами и даже диалогами. Эта функция позволяет Flow потенциально превратиться в инструмент для производства фильмов с нуля.
Во время моего выступления Flow всё упростил до предела. Я создал несколько скитов с изображением бугроида, делящего спагетти с котом, что оказалось очень забавным и милым. Монтаж клипов, добавление новых материалов и даже их расширение потребовали всего лишь нескольких кликов мышью и простых текстовых команд.
Пользоваться потоком было легко, понятно, и он работал достаточно хорошо, но я не мог не задаться вопросом зачем вообще он нужен.
Во время демонстрации на конференции Google I/O мне не удалось использовать Veo 3 должным образом из-за сожаления о возникшей проблеме. Проблема заключалась не в самой системе, а скорее в ограничениях по времени: для создания клипов с помощью Veo 3 требуется около 10 минут, даже если их всего два. Учитывая масштаб конференции Google I/O, это увеличило бы продолжительность моей демонстрации сверх разумных рамок.
Выход из демоверсии Flow вызвал размышления о переделке Google фильма ‘Волшебник страны Оз’ для Sphere в Лас-Вегасе. Хотя Flow не предназначен для реинкарнации фильмов с использованием ИИ, была схожесть ощущения неловкости. Я был одновременно поражен его крутыми возможностями и разочарован предполагаемой необязательностью.
Алоха Роботикс
Всё, что обсуждалось до сих пор, является практическими знаниями, которые вы можете использовать в какой-то момент. Однако последняя тема касается управления роботизированными руками через голосовые команды для Gemini и вряд ли появится у вас дома в ближайшем будущем. На Google I/O я получил практический опыт работы с этим.
Как аналитик я оказался перед столом с двумя величественными манипуляторами. Просто сказав команду в микрофон, я смог заставить их естественно взаимодействовать с различными предметами на столе: поднять объект, перемещать предметы или даже помещать один предмет внутрь другого. Всё это было возможно благодаря обычному языку.
Не каждый день мне приходится говорить роботам, что делать!
Руки робота не были идеальными: они могли захватывать и размещать предметы в определенном месте, но на этом не останавливались. Напротив, продолжали брать дополнительные объекты с целью поместить их в контейнер, что не всегда было целесообразно. Кроме того, эти руки не имели возможности выполнять несколько задач одновременно по одному приказу. Например, я не мог заставить их разместить объект в контейнере и затем поднять этот же контейнер для опорожнения его содержимого сразу; каждое действие требовало отдельной команды вместо этого.
Впервые за всё своё существование я управляю роботами исключительно посредством речи. Действительно, круче быть уже не может.
Вот что меня больше всего впечатлило на конференции Google IO этого года — можете догадаться, какая игра была моей личной фавориткой? Делитесь своими мыслями в комментариях ниже!
Смотрите также
- Лучшие телефоны для людей, чувствительных к ШИМ/мерцанию, 2024 г.
- Первые 11 вещей, которые нужно сделать с Samsung Galaxy Watch Ultra
- 10 лучших чехлов, которые обязательно нужно иметь для вашего нового Samsung Galaxy S25 Ultra!
- Какой цвет Galaxy S24 лучший? Мы проверили их все
- Обзор Fiio SR11: доступный сетевой стример с интеграцией Roon
- Я попробовал Oxygen OS 15, и вот что у OnePlus получилось правильно (а что нет)
- Лучшие приложения для Android Auto 2024 года
- Обзор Google TV Streamer: фантастика, но не идеально
- Какой цвет Samsung Galaxy S25 Ultra выбрать?
- Обзор AAWireless Two: беспроводной Android Auto на ваших условиях
2025-05-21 16:21