
TLDR
- Google тихо удалил AI Overviews для запросов, связанных с анализом печени, после того как выяснилось, что они давали неверные медицинские советы.
- Расследование показало, что функция предоставляла упрощённые диапазоны показателей печеночных тестов без важного контекста, такого как возраст, пол или этническая принадлежность.
- Google удалил AI-резюме только для конкретных отмеченных фраз, а не для поисковых запросов о здоровье в целом.
Google прекратила показывать свои AI Overviews для поисковых запросов, связанных с анализами печени, после сообщений о том, что эта функция предоставляла неточную медицинскую информацию.
"Просто покупай индекс", говорили они. "Это надежно". Здесь мы обсуждаем, почему это не всегда так, и как жить с вечно красным портфелем.
Поверить в рынокAI Overviews направлены на ускорение Google Search. Вместо того, чтобы просто показывать вам список ссылок, когда вы задаете вопрос, вы теперь увидите быстрый, прямой ответ в верхней части страницы результатов. Хотя это и должно быть полезно, недавние поиски информации о здоровье выявили некоторые вызывающие беспокойство проблемы.
Новый отчёт от *The Guardian* показал, что ИИ предоставляет потенциально вредоносную информацию о здоровье. Эксперты назвали некоторые из его ответов «тревожными» и «опасными». Например, на вопрос о печеночных пробах, ИИ предоставил типичные диапазоны, не упомянув, что они сильно варьируются в зависимости от таких факторов, как возраст, пол и этническая принадлежность. Это может ввести в заблуждение человека с серьёзным заболеванием печени, заставив его думать, что он здоров, и отложить обращение за необходимой медицинской помощью.
После получения сообщений о неточной информации, Google удалил свои AI Overviews для определенных поисковых запросов, таких как «каков нормальный диапазон для анализов крови печени». Представитель Google объяснил, что компания следует своим правилам и постоянно работает над улучшением своих функций.
Это не полное исправление проблемы. Даже небольшое перефразирование вопроса, связанного со здоровьем, все еще может привести к созданию сводки, сгенерированной ИИ. Это указывает на то, что установленные меры предосторожности не являются всеобъемлющими – у них есть ограничения.
По словам Ванессы Хебдич из British Liver Trust, даже незначительные корректировки в онлайн-поиске – например, указание «lft reference range» – продолжают генерировать неточные AI-сводки, как сообщает *The Guardian*. Это указывает на то, что вредоносная информация остается легкодоступной, даже при незначительно измененных поисковых запросах.
AI Overviews не всегда безупречны – были случаи неточных предложений, как, например, когда он рекомендовал добавлять клей в пиццу. Когда речь идет о медицинской информации, крайне важно все делать правильно. Медицинские знания сложны, включают нюансы и исключения, которые до сих пор сложны для понимания AI.
Смотрите также
- Лучшие телефоны Android для студентов 2024 года
- 10 лучших чехлов, которые обязательно нужно иметь для вашего нового Samsung Galaxy S25 Ultra!
- Обзор Fiio SR11: доступный сетевой стример с интеграцией Roon
- У Лесли Хэдланд есть идеальный ответ на обзоры-бомбардировщики «Аколита»: «Кто-нибудь больше воспринимает это всерьез?»
- 20 самых привлекательных арабских актрис
- Первые 13 вещей, которые нужно сделать с OnePlus 13
- ‘Jujutsu Kaisen’ возглавляет список 10 самых просматриваемых аниме недели от Crunchyroll.
- Только что купили телевизор LG C5 OLED? Измените эти три ключевых настройки, чтобы получить наилучшее качество изображения.
- Google Meet теперь позволит вам комментировать при представлении контента
- 25 Аниме о Зомби, Которые Заставят Вас Смотреть Их Постоянно!
2026-01-12 15:48