Я протестировал альтернативу Google Lens от Apple, и она действительно хороша.

Я протестировал альтернативу Google Lens от Apple, и она действительно хороша.

Как технический энтузиаст, который уже довольно давно использует Google Lens и Apple Visual Intelligence, я постоянно переключаюсь между этими двумя мощными инструментами. Лично я отдаю предпочтение Google Lens из-за его широкой доступности на различных устройствах. Я видел, как он творит чудеса на моем смартфоне: помогает мне идентифицировать растения, переводить иностранные языки и даже решать математические задачи, просто наведя на них камеру.


Сколько себя помню, я полагался на Google Lens. От определения различных типов кроссовок Nike до проверки того, является ли растение, к которому я случайно прикоснулся, ядовитым плющом, я всегда стремился к быстрым ответам. Когда Apple представила Visual Intelligence для iPhone 16 во время запуска Apple Intelligence, я обратил на это внимание. Похоже, он предлагает тот же опыт, что и Google Lens, но с дополнительной информацией, предоставляемой ChatGPT. С нетерпением ожидая публичной бета-версии iOS 18.2, я отправился в путешествие, чтобы открыть для себя последний шаг в продолжающейся конкуренции между Apple и Google. Вот сравнение Apple Visual Intelligence и Google Lens.

О, эй, использование управления камерой

Я протестировал альтернативу Google Lens от Apple, и она действительно хороша.

Пока что мой опыт работы с управлением камерой iPhone 16 Pro был весьма интригующим. Поначалу я был очень рад этому, но через неделю я обнаружил, что практически не обращаю на это внимания, чувствуя, что Apple необходимо внести некоторые улучшения, прежде чем я смогу полностью освоить ручное управление. Однако, похоже, кто-то в Apple принял мой отзыв во внимание, потому что самый простой способ активировать визуальный интеллект Apple теперь достигается простым длительным нажатием на тот же элемент управления камерой — и, что достаточно интересно, на самом деле это единственный способ активировать это вообще.

Действительно, в iOS 18.2 были представлены два варианта эквивалента Google Lens от Apple: один предназначен для пользователей iPhone 16, а другой — для всех других совместимых устройств, таких как iPhone 15 Pro. Те, кому посчастливилось стать обладателем iPhone 16 Pro, получат версию Visual Intelligence, которая выполняет частичную обработку на устройстве, определяя объекты через объектив камеры и осуществляя поиск похожих изображений в Google. Пользователи iPhone, отличных от Pro, вместо этого получат версию для других устройств на базе ChatGPT; более подробная информация об этом будет представлена ​​в ближайшее время.

До сих пор мне очень нравится аппаратная активация Visual Intelligence от Apple. Он предназначен для активации только после достаточно длительного нажатия, чтобы избежать случайных срабатываний, в отличие от ввода текста для Siri, который часто активируется непреднамеренно. При использовании визуального интеллекта управление камерой работает аналогично ручному управлению камерой, позволяя увеличивать и уменьшать масштаб, а также захватывать изображения путем их поиска. Однако кажется, что требуется более сильное нажатие по сравнению с тем, когда я использовал его в самом приложении камеры. Тем не менее, это может быть просто мое восприятие, поскольку я привык к полунажатию, которое позволяет мне переключаться между фотографическими стилями, глубиной резкости и экспозицией, а не просто срабатывать затвор.

Я протестировал альтернативу Google Lens от Apple, и она действительно хороша.Я протестировал альтернативу Google Lens от Apple, и она действительно хороша.

Мне часто хочется, чтобы на моем Pixel 9 Pro был триггер Apple Camera Control вместо Google Lens. Каждый раз, когда я открываю приложение «Камера» в надежде мгновенно активировать Google Lens одним касанием, я понимаю, что оно там недоступно. Вместо этого мне пришлось приспосабливаться к использованию виджета Google Assistant, расположенного в нижней части главного экрана. Хотя технически до него так же легко добраться, как и до самого приложения «Камера», я постоянно случайно нажимаю не на то.

Вопросы? Задать вопрос в чатGPT

Я протестировал альтернативу Google Lens от Apple, и она действительно хороша.

Если у вас есть опыт работы с Google Lens, навигация по Apple Visual Intelligence может показаться вам довольно знакомой из-за сходства пользовательского интерфейса и процесса захвата изображения путем наведения камеры и нажатия кнопки спуска затвора. В некоторых случаях вы можете даже найти схожие результаты при поиске, поскольку обе платформы полагаются на Google как на системы по умолчанию. Однако когда вам требуется нечто большее, чем простой поиск изображений, эти визуальные поисковые системы демонстрируют свои различия в поведении.

Используя Google Lens, вы найдете три удобно расположенных параметра в нижней части: Lens, Google Translate и инструмент для решения математических уравнений, что особенно полезно для учащихся или родителей. Хотя у меня нет детей и я сам не хожу в школу, эти функции мне показались невероятно удобными. Функция «Объектив» работает так, как и ожидалось, позволяя вам искать, наведя камеру, а функция «Перевод» оказалась незаменимой. Я использовал его для различных целей, например, для расшифровки иностранных карт покемонов и понимания меню на разных языках, и все это с безупречными результатами. Кроме того, вы всегда можете обратиться к Google за дополнительной информацией о том, что сканирует ваш объектив.

ChatGPT в Visual Intelligence похож на Google Translate, помощь в выполнении домашних заданий и многое другое в одном лице.

В отличие от Apple Visual Intelligence, которая упрощается до двух кнопок — «Поиск» и «Спросить», опыт использования Google Lens в чем-то похож на функцию поиска, но с более автоматизированным подходом. Если вы направите его в сторону ресторана или магазина, Visual Intelligence автоматически отобразит всплывающее меню, содержащее такие сведения, как часы работы, отзывы и варианты звонка в компанию или посещения их веб-сайта. При использовании Google Lens вам необходимо сначала нажать кнопку спуска затвора, прежде чем искать нужную информацию.

Инструмент Apple Visual Intelligence особенно интригует благодаря функции Ask, которая работает во многом как комбинация кнопок домашнего задания, перевода и поиска Google. Учитывая мои вопросы, варьирующиеся от понимания ухода за подсолнечником до решения математических задач (на удивление сложных после некоторого отсутствия в школе), ChatGPT оказался весьма находчивым в предложении быстрых решений. Однако возникли некоторые проблемы, когда я попытался использовать функцию поиска Visual Intelligence, чтобы найти название местного ресторана, а затем переключиться на «Спросить», чтобы узнать о его меню. Вместо этого он, казалось, понял, что я смотрю на бистро, но не смог найти фактическое меню для конкретного ресторана, вместо этого предлагая общие блюда, обычно встречающиеся в обстановке бистро.

Apple Visual Intelligence против Google Lens: какой из них лучше?

Я протестировал альтернативу Google Lens от Apple, и она действительно хороша.

Проще говоря, при сравнении Google Lens и Visual Intelligence, хотя они и имеют общие черты, у них также есть различия. Если не принимать во внимание ограниченную совместимость Apple Visual Intelligence, лучший подход — оценивать их параллельно. Именно это я и сделал; Я взял свой iPhone 16 Pro и Pixel 9 Pro на прогулку по небольшой части Балтимора, чтобы понаблюдать за их производительностью при выполнении основных задач и простых запросов.

Сначала я зашел в книжный магазин по соседству, чтобы узнать часы его работы. По прибытии внимание магазина привлекла книга «Визуальный интеллект», мгновенно отображающая соответствующую информацию о магазине. Apple отобразила текущий рейтинг Yelp вместе с несколькими фотографиями и удобными кнопками для звонка или посещения веб-сайта. Напротив, Google Lens требовал, чтобы я сначала сфотографировал витрину, прежде чем предоставлять какую-либо информацию. При этом я получил краткий обзор обзоров Google и информации о том, открыт ли магазин, но кнопки дополнительной информации были немного менее доступны.

Я протестировал альтернативу Google Lens от Apple, и она действительно хороша.Я протестировал альтернативу Google Lens от Apple, и она действительно хороша.

Оттуда я прошел небольшое расстояние до ближайшего сада, расположенного позади старой исторической резиденции. Поскольку осень приближается к концу в этом среднеатлантическом регионе, не так много существ и растений были активными. Тем не менее, мне удалось найти пару растений подсолнечника, все еще живущих. Учитывая отсутствие у меня знаний в ботанике, я полагался на Visual Intelligence и Google Lens, чтобы определить тип подсолнухов. Почти сразу Apple идентифицировала это растение как подсолнечник тонколистный (термин, который точно его описывает) и предоставила несколько ссылок на соответствующие веб-сайты из результатов поиска изображений.

Во время прогулки я столкнулся с интересной дилеммой: Ленс предположил, что то, что я наблюдал, могло быть топинамбуром, а не просто подсолнухом. Хотя они могут быть агрессивными, они полезны для бабочек. Однако листья, похоже, не соответствовали тому, что я видел. Вернувшись домой и проведя небольшое исследование, я все еще не уверен в идентификации – напоминание о том, что лучше задавать вопросы о цветах, чем о потенциально вредных грибах! Несмотря на неопределённость, я должен признать, что Apple дала несколько достойных советов о том, как выращивать подсолнухи, если вы решите их выращивать. Получить быстрый совет от ChatGPT гораздо проще, чем искать вручную через Google.

ChatGPT — это хорошо, но Google Lens гораздо более доступен для большинства людей.

В конечном счете, именно так и проходило мое личное сравнение: каждый раз, когда Google Lens или Visual Intelligence допускали ошибку, я говорил: «О, может быть, другой лучше», только чтобы результаты менялись. на следующем тесте. Хотя я предпочитал автоматическое распознавание магазинов Apple, я предпочитал использовать собственные обзоры Google, а не отзывы Yelp. Как бы хорошо ни было то, что у Google есть специальная кнопка для домашних заданий, значительной части пользователей Lens она, вероятно, никогда не понадобится. Было бы несправедливо называть это соревнование равным (я так не думаю), но я полагаю, что будет сложно склонить пользователей iPhone к Lens или пользователей Pixel к Visual Intelligence.

Возможно, было бы полезно выбрать один из двух вариантов в зависимости от их доступности. Google Lens совместим с широким спектром устройств, включая iPhone, бюджетные телефоны Samsung и большинство планшетов, но не поддерживает Google TV или динамики Nest. Напротив, Visual Intelligence от Apple ограничена серией iPhone 16 и двумя моделями iPhone 15 Pro, и даже в них некоторые функции доступны только с помощью Camera Control.

С моей точки зрения, это ограничение довольно жесткое, и оно имеет тенденцию подталкивать многих людей к всеобъемлющему Google Lens. Тем не менее, результаты Apple быстро сокращают разрыв, и благодаря более широкому спектру совместимости Visual Intelligence потенциально может конкурировать с доминированием Google в визуальном поиске.

Смотрите также

2024-11-14 20:18