
TLDR
- Google тихо удалил AI Overviews для запросов, связанных с анализом печени, после того как выяснилось, что они давали неверные медицинские советы.
- Расследование показало, что функция предоставляла упрощённые диапазоны показателей печеночных тестов без важного контекста, такого как возраст, пол или этническая принадлежность.
- Google удалил AI-резюме только для конкретных отмеченных фраз, а не для поисковых запросов о здоровье в целом.
Google прекратила показывать свои AI Overviews для поисковых запросов, связанных с анализами печени, после сообщений о том, что эта функция предоставляла неточную медицинскую информацию.
"Просто покупай индекс", говорили они. "Это надежно". Здесь мы обсуждаем, почему это не всегда так, и как жить с вечно красным портфелем.
Поверить в рынокAI Overviews направлены на ускорение Google Search. Вместо того, чтобы просто показывать вам список ссылок, когда вы задаете вопрос, вы теперь увидите быстрый, прямой ответ в верхней части страницы результатов. Хотя это и должно быть полезно, недавние поиски информации о здоровье выявили некоторые вызывающие беспокойство проблемы.
Новый отчёт от *The Guardian* показал, что ИИ предоставляет потенциально вредоносную информацию о здоровье. Эксперты назвали некоторые из его ответов «тревожными» и «опасными». Например, на вопрос о печеночных пробах, ИИ предоставил типичные диапазоны, не упомянув, что они сильно варьируются в зависимости от таких факторов, как возраст, пол и этническая принадлежность. Это может ввести в заблуждение человека с серьёзным заболеванием печени, заставив его думать, что он здоров, и отложить обращение за необходимой медицинской помощью.
После получения сообщений о неточной информации, Google удалил свои AI Overviews для определенных поисковых запросов, таких как «каков нормальный диапазон для анализов крови печени». Представитель Google объяснил, что компания следует своим правилам и постоянно работает над улучшением своих функций.
Это не полное исправление проблемы. Даже небольшое перефразирование вопроса, связанного со здоровьем, все еще может привести к созданию сводки, сгенерированной ИИ. Это указывает на то, что установленные меры предосторожности не являются всеобъемлющими – у них есть ограничения.
По словам Ванессы Хебдич из British Liver Trust, даже незначительные корректировки в онлайн-поиске – например, указание «lft reference range» – продолжают генерировать неточные AI-сводки, как сообщает *The Guardian*. Это указывает на то, что вредоносная информация остается легкодоступной, даже при незначительно измененных поисковых запросах.
AI Overviews не всегда безупречны – были случаи неточных предложений, как, например, когда он рекомендовал добавлять клей в пиццу. Когда речь идет о медицинской информации, крайне важно все делать правильно. Медицинские знания сложны, включают нюансы и исключения, которые до сих пор сложны для понимания AI.
Смотрите также
- 5 вещей, которые вы должны знать о новых альтернативах AirTag для Android
- YouTube дает сбой — что делать, если в вашей ленте застрял NaN:NaN
- Самые мускулистые актеры Голливуда, ранжированные
- Съемный привод Blu-ray 4K от Sony распродается накануне запуска PS5 Pro
- Google скоро решит проблему беспорядка в NotebookLM.
- Самые ожидаемые телешоу 2026 года
- Google выпускает майское обновление для телефонов Pixel с исправлениями ошибок
- 10 лучших чехлов, которые обязательно нужно иметь для вашего нового Samsung Galaxy S25 Ultra!
- Консолидация телекоммуникаций продолжается: T-Mobile и Verizon присматриваются к сотовой связи США
- Garmin Venu 4 исправляет то, что мне не нравилось в Venu 3, и я убежден, что это идеальные фитнес-часы для всех, но они стоят дорого, и не все будут готовы заплатить такую цену.
2026-01-12 15:48