Meta AI на Ray-Ban против Gemini на Android-часах: плюсы и минусы

Вам нравится то, что вы читаете? Добавьте TopMob в качестве предпочтительного источника в Google Поиске, чтобы всегда получать самые свежие новости, обзоры и статьи прямо к вам.

"Просто покупай индекс", говорили они. "Это надежно". Здесь мы обсуждаем, почему это не всегда так, и как жить с вечно красным портфелем.

Поверить в рынок

Очки Ray-Ban Meta позволяют вам использовать Meta AI, просто разговаривая с очками, а теперь часы Galaxy и Pixel обеспечивают постоянный доступ к Gemini AI прямо на вашем запястье. У меня была возможность протестировать оба устройства, и вот прямое сравнение того, что они предлагают и какое из них может быть более полезным для вас.

Я не пытаюсь решить, лучше ли умные часы, чем умные очки, или какой ИИ – Gemini или Meta AI – более разумен. Оба ИИ-модели имеют недостатки и иногда совершают ошибки, и я не хочу вступать в дебаты о том, какой бренд лучше.

Мы сравниваем AI-очки Meta (Ray-Ban Meta и предстоящие Ray-Ban Display) с Gemini от Google на умных часах, чтобы выяснить, какая из них более полезна в повседневной жизни. Ключевое отличие заключается в том, что AI от Meta использует камеру, а Gemini всегда слушает.

Что могут и чего не могут умные очки Meta AI на очках Ray-Ban и Oakley.

Meta AI может:

  • Предоставление общей информации на основе Llama 4 с ответами, сгенерированными LLM.
  • Используйте мультимодальный ИИ для интерпретации изображения с вашей камеры, затем ответьте на вопрос или запомните информацию.
  • Живой перевод для говорящих на французском, итальянском, испанском и английском языках
  • Используйте Live AI для расширенных бесед без слов пробуждения.
  • Синхронизация с телефонами Android/iOS и приложениями для обмена сообщениями, а также с некоторыми другими (Spotify, Audible, Instagram, Google Calendar и т.д.).

Как аналитик, я с большим интересом слежу за стремлением Meta к тому, что они называют ‘контекстуальным ИИ’. По сути, они представляют будущее, в котором ваши устройства непрерывно записывают и понимают ваш повседневный опыт — запоминая разговоры, местоположения, такие как место парковки, даже то, что вы ели. Ключ к реализации этого, и решению вполне реальных проблем конфиденциальности, заключается в обработке всех этих данных непосредственно на вашем устройстве, и в эффективном выполнении этой задачи. Это технически сложная цель, но она может значительно изменить то, как мы взаимодействуем с технологиями.

В настоящее время технология Live AI от Meta наиболее похожа на то, что я видел. Её использование потребляет около 1.5% вычислительной мощности моих Ray-Ban Gen 2 каждую минуту, что означает, что она использовала бы примерно часовую ёмкость в общей сложности. Несмотря на это, это многообещающий инструмент, особенно для помощи людям с нарушениями зрения в понимании и перемещении в окружающей среде.

Я тестировал новые очки Ray-Ban Meta и Oakley Meta HSTN, и это довольно круто, как они отвечают на вопросы! Они используют модель Llama 4 через приложение Meta AI, и, по моему опыту, они удивительно хорошо распознают такие вещи, как растения или достопримечательности, когда вы их спрашиваете. Это не идеально, но точность определенно достойная.

Мне особенно нравилось просматривать книги в Barnes & Noble, используя мои очки, чтобы быстро просматривать краткие содержания и обзоры — при этом держа телефон спрятанным в кармане.

Иногда Meta AI испытывает трудности с ответами на мои вопросы, и время от времени уверенно предоставляет неверную информацию.

Помимо типичных проблем с большими языковыми моделями, которые придумывают вещи, самая большая проблема — отсутствие чёткого предварительного просмотра. Трудно понять, находитесь ли вы на правильном расстоянии от того, что хотите запечатлеть — слишком далеко или слишком близко. Иногда система фокусируется на чём-то рядом с вашим предполагаемым объектом, а иногда мне приходится корректировать свою перспективу, чтобы помочь ей получить лучший вид.

ИИ от Meta обычно даёт короткие, лаконичные ответы – как правило, в течение 10–15 секунд – а затем предлагает вам попросить больше деталей, если это необходимо. Хотя очки Meta Ray-Ban могут отображать более длинные ответы, большинство пользователей, вероятно, будут взаимодействовать с ИИ только голосом. Имейте в виду, что Meta AI иногда избегает давать прямые ответы и может предложить вам самостоятельно разобраться в вопросах.

Что Gemini на Pixel или Galaxy Watches могут и не могут делать

Gemini на Wear OS может:

  • Предоставляйте общую информацию на основе Gemini и ответы, сгенерированные LLM.
  • Получайте информацию из более широкого спектра приложений Google & Samsung
  • Выполняйте задачи непосредственно на часах, например, устанавливайте таймеры или запускайте активность.
  • Запускайте любимые команды через Gemini Tile.

Приложение Gemini для Wear OS получило несколько негативных отзывов, пользователи сообщают о проблемах при установке и проблемах с подключением к интернету. Однако во время моего тестирования на Galaxy Watch 8 я не столкнулся с этими проблемами лично.

Вместо того, чтобы напрямую сравнивать Gemini 2.5 Flash с Llama 4 цифрами, я просто скажу, что у Gemini есть как сильные, так и слабые стороны. В целом, он предоставляет мне более надежную и актуальную информацию, чем Google Assistant раньше. Поскольку Wear OS имеет экран, Gemini может показывать *и* озвучивать информацию, что помогает мне лучше её запоминать. Однако Gemini иногда говорит больше, чем необходимо, в отличие от Meta AI.

Как аналитик, я сравнивал различные возможности Gemini AI, и стало ясно, что версия для Wear OS имеет ограничения. В то время как очки предназначены для понимания того, на что вы смотрите, приложение для Wear OS не предлагает той же контекстной осведомленности. Вы можете получать подробные беседы и анализировать фотографии/видео с помощью Gemini Live на своем телефоне, используя демонстрацию экрана, но носимая версия просто не может конкурировать с Meta’s Live AI с точки зрения понимания окружающей среды в реальном времени.

Умные часы Apple и Android в конечном итоге могут получить камеры, которые используют искусственный интеллект, чтобы предоставить полезную информацию о том, на что вы смотрите. Однако использование часов для ‘видения’ вещей, вероятно, никогда не будет таким же интуитивным, как просто использование ваших глаз.

И Gemini на Wear OS, и Meta AI должны подключаться к вашему телефону для работы, но Android-умные часы достаточно мощные, чтобы делать больше самостоятельно. Маловероятно, что мы скоро увидим умные очки со встроенной сотовой связью. Однако, Pixel Watch 4 уже выполняет некоторые AI-задачи непосредственно на устройстве, например, предлагая ответы на сообщения, и мы можем ожидать еще больше подобных функций в будущем.

Как исследователь, я изучал возможности различных AI-ассистентов, и Gemini от Google имеет реальное преимущество благодаря своим Extensions. В то время как Meta AI подключается к некоторым полезным вещам, таким как ваш телефон и приложения для обмена сообщениями, Gemini идет дальше. Он может суммировать ваши электронные письма, управлять вашими устройствами умного дома и даже помогать в таких вещах, как написание отзывов в Maps. Что действительно выделяется, так это то, как хорошо Gemini позволяет разным приложениям работать вместе — например, я могу легко скопировать результаты из Google Search и вставить их непосредственно в сообщение или заметку в Keep. Именно эта бесшовная интеграция, я думаю, имеет большое значение.

И это тоже не ‘идеальная’ форма для ИИ

Gemini на Wear OS предоставляет полезные функции искусственного интеллекта прямо на вашем запястье, предлагая практичное преимущество перед умными очками благодаря более длительному времени автономной работы, удобному дизайну и надежной производительности. Хотя он отлично подходит для доступа к информации об искусственном интеллекте и работы с ней, его способность обрабатывать различные типы данных всегда будет иметь некоторые ограничения.

Новые очки Meta AI, такие как очки от Ray-Ban и Oakley, могут бесшовно захватывать всё, что вы видите и слышите. Хотя технология многообещающая, сами очки всё ещё нуждаются в улучшении, и некоторые люди могут испытывать колебания в отношении ношения камеры на своём лице.

Эти два типа ИИ похожи, но я считаю, что они оба достаточно сфокусированы – и имеют достаточно ограничений – чтобы ни один из них не стал основным способом использования ИИ в ближайшем будущем. На самом деле, многие люди, вероятно, продолжат использовать функции ИИ, уже доступные на их телефонах. Будет интересно посмотреть, как оба этих новых подхода к ИИ будут развиваться и улучшаться со временем.

Смотрите также

2025-10-01 19:55