![]()
Начало 2026 года, и пока многие люди сосредоточены на своих новогодних обещаниях – соблюдать или нарушать их – я думаю о другом: о разрешении камер. Ладно, возможно, это было глупое начало, но честно говоря, именно об этом я думаю.
"Просто покупай индекс", говорили они. "Это надежно". Здесь мы обсуждаем, почему это не всегда так, и как жить с вечно красным портфелем.
Поверить в рынокУдивительно, на что способны современные камеры смартфонов – мы можем приближать для съемки крупных планов, редактировать фотографии прямо на телефоне и даже менять небо на фотографиях. Но, несмотря на все улучшения, одна функция продолжает ухудшаться, и я думаю, что пора нам пересмотреть ситуацию.
Пришло время отказаться от зума камеры на основе искусственного интеллекта в 2025 году, и вот почему.
Я полностью за зум камеры на большом расстоянии, но…

Удивительно, как далеко продвинулись камеры смартфонов! Возможность невероятно сильно приближать – до 100x всего лишь щепотком на экране – была действительно впечатляющей, когда Samsung впервые представила ее. На самом деле, мой отец так ее полюбил на своем Samsung Galaxy S21 Ultra, что использовал ее, пока не износился аккумулятор. Я также был удивлен, увидев, как OnePlus пошла еще дальше с 120x зумом на Open, но их сотрудничество с Hasselblad фактически позволило это хорошо реализовать.
Камера определенно использует цифровую обработку для улучшения изображений – 64МП телеобъектив не может справиться с таким увеличением самостоятельно. Первоначально результаты были впечатляющими, предлагая хороший баланс между детализацией и реализмом для данного оборудования. Однако, последние изображения, кажется, переусердствовали с обработкой. Хотя они выглядят детализированными, они потеряли естественный вид и не так убедительны.
Я хочу реальность, а не детали, сгенерированные ИИ.
Новый OnePlus 15, как и OnePlus 13, может похвастаться 120x зумом. Однако, для достижения этого, OnePlus внесла некоторые изменения во внутренние компоненты телефона. В частности, они уменьшили размер телеобъектива – сделав его меньше и с меньшим количеством мегапикселей – и немного увеличили оптический зум. Чтобы компенсировать это и поддерживать аналогичное качество зума, OnePlus теперь использует свой новый DetailMax Engine и продвинутый искусственный интеллект для обработки изображений.
В результате, к сожалению, наблюдается ухудшение качества зума, как показано ниже:




Я хотел бы, чтобы вы сосредоточились на прямых линиях на изображении. Слева они выглядят довольно хорошо – возможно, немного слишком резкими, но в целом чётко очерчены. Вы можете ясно видеть детали вокруг вершины башни, не создавая впечатления чрезмерной пикселизации или устарелости, как в старой игре.
Если присмотреться к Монументу Вашингтона, вы заметите линии на его сторонах. Он построен из блоков гранита и мрамора с идеально прямыми краями. Однако на некоторых фотографиях, особенно на более светлой стороне монумента, эти края кажутся волнистыми, почти как кора дерева – хотя на самом деле они выглядят иначе. Я заметил это, сравнивая старую фотографию, сделанную с 60-кратным увеличением, с новой, с 30-кратным увеличением, и мне на самом деле больше нравится вид старой фотографии.
Однако, когда мы тестируем с более новым Google Pixel 10 Pro – который также предлагает 100x zoom – мы видим несколько иные результаты.
![]()
![]()
![]()

Чип Tensor G5 от Google отлично справляется с обработкой простых изображений, например, с чётким определением линий и деталей достопримечательностей, таких как вывеска Domino Sugars в Балтиморе, или с обеспечением естественного вида луны. Однако, когда дело доходит до живых объектов – людей или птиц – чип испытывает трудности. Вместо того, чтобы пытаться создавать неточные изображения этих живых существ, он сосредотачивается на улучшении окружающего окружения, улучшая детали таких элементов, как кресты, флагштоки и трава.
Вы можете легко не заметить птиц, потому что они недостаточно детализированы, но люди — это большая проблема. Они выглядят неестественно и неуместно по сравнению с остальной частью сцены, как будто их просто добавили, чтобы показать, насколько всё велико. Удаление их на самом деле сделает изображение намного лучше, подобно примерам справа.
И это, на мой взгляд, то место, где необходимо что-то изменить.
Если мы сохраняем Pro Res Zoom (и больше), вот что нужно изменить.

Я ранее заявлял, что зум, работающий на основе искусственного интеллекта, вероятно, будет прекращен к 2025 году, но этого не произойдет. Такие компании, как Google и OnePlus, продолжают совершенствовать эту технологию и не собираются от нее отказываться. Камеры Google Pixel всегда полагались на продвинутую обработку, и эта функция соответствует этому подходу. Однако, если эта технология продолжит развиваться, я считаю, что всем заинтересованным сторонам потребуются некоторые корректировки.
OnePlus и другие компании пытаются использовать ИИ для улучшения фотографий после снижения качества своих сенсоров камер. Однако ИИ на самом деле лучше всего работает с высококачественными данными, что означает, что более крупные сенсоры и большее количество мегапикселей по-прежнему важны. Например, если бы OnePlus просто сохранил ту же телекамеру из OnePlus 13 и использовал свой новый DetailMax Engine, их фотографии Вашингтонского монумента выглядели бы как мрамор, а не странная древесная текстура, которая у них сейчас.
Независимо от того, как всё обернётся, всем технологическим компаниям – таким как Google, OnePlus и Samsung – необходимо тщательно решать, когда ИИ полезен, а когда лучше его не использовать. В частности, я думаю, что Google следует сосредоточиться на улучшении взаимодействия ИИ с людьми, а не просто на таких вещах, как пейзажи, что является их текущим подходом.
Если масштабирование с помощью ИИ собирается остаться, оно должно применяться равномерно.
Pro Res Zoom от Google лучше всего подходит для захвата сцен, таких как пейзажи, здания и объекты. Из-за этого, когда он приближает фотографию, содержащую людей или животных, он приоритезирует обработку окружения, чтобы избежать ошибок, что, к сожалению, приводит к тому, что живые объекты выглядят менее четкими. Чтобы улучшить внешний вид людей и животных на приближенных фотографиях, Google мог бы немного уменьшить детализацию неживых объектов, таких как здания или объекты. Этот компромисс сделал бы органические элементы более естественными и менее неуместными.
Как только технологии Google станут лучше понимать людей и животных, подобно тому, как хорошо они сейчас распознают объекты, такие как здания и деревья, я думаю, что им будет уместно вернуться к своему предыдущему подходу. Это будет похоже на осторожность со старой версией продукта, зная, что значительно улучшенная версия появится в ближайшее время – немного терпения сейчас ради большей выгоды в будущем.
Смотрите также
- Лучшие телефоны Android для студентов 2024 года
- 10 лучших чехлов, которые обязательно нужно иметь для вашего нового Samsung Galaxy S25 Ultra!
- Первые 13 вещей, которые нужно сделать с OnePlus 13
- Подойдет ли Samsung Galaxy S25 к чехлам Galaxy S24?
- 20 лучших рождественских ЛГБТ-фильмов всех времен
- Samsung HW-Q990D против LG S95TR: какой пакет звуковой панели Dolby Atmos лучше?
- Кайли Дженнер встречает 2026 год в смелом золотом металлическом бикини, которое едва сдерживает её формы.
- Первые 11 вещей, которые нужно сделать с Samsung Galaxy Watch Ultra
- Объяснение всех функций искусственного интеллекта в Gmail
- 6 моих любимых циферблатов для Galaxy Watch 7 и Galaxy Watch Ultra
2026-01-05 13:24