Google удаляет результаты AI Overviews, которые давали «тревожные» медицинские советы.

TLDR

  • Google тихо удалил AI Overviews для запросов, связанных с анализом печени, после того как выяснилось, что они давали неверные медицинские советы.
  • Расследование показало, что функция предоставляла упрощённые диапазоны показателей печеночных тестов без важного контекста, такого как возраст, пол или этническая принадлежность.
  • Google удалил AI-резюме только для конкретных отмеченных фраз, а не для поисковых запросов о здоровье в целом.

Google прекратила показывать свои AI Overviews для поисковых запросов, связанных с анализами печени, после сообщений о том, что эта функция предоставляла неточную медицинскую информацию.

"Просто покупай индекс", говорили они. "Это надежно". Здесь мы обсуждаем, почему это не всегда так, и как жить с вечно красным портфелем.

Поверить в рынок

AI Overviews направлены на ускорение Google Search. Вместо того, чтобы просто показывать вам список ссылок, когда вы задаете вопрос, вы теперь увидите быстрый, прямой ответ в верхней части страницы результатов. Хотя это и должно быть полезно, недавние поиски информации о здоровье выявили некоторые вызывающие беспокойство проблемы.

Новый отчёт от *The Guardian* показал, что ИИ предоставляет потенциально вредоносную информацию о здоровье. Эксперты назвали некоторые из его ответов «тревожными» и «опасными». Например, на вопрос о печеночных пробах, ИИ предоставил типичные диапазоны, не упомянув, что они сильно варьируются в зависимости от таких факторов, как возраст, пол и этническая принадлежность. Это может ввести в заблуждение человека с серьёзным заболеванием печени, заставив его думать, что он здоров, и отложить обращение за необходимой медицинской помощью.

После получения сообщений о неточной информации, Google удалил свои AI Overviews для определенных поисковых запросов, таких как «каков нормальный диапазон для анализов крови печени». Представитель Google объяснил, что компания следует своим правилам и постоянно работает над улучшением своих функций.

Это не полное исправление проблемы. Даже небольшое перефразирование вопроса, связанного со здоровьем, все еще может привести к созданию сводки, сгенерированной ИИ. Это указывает на то, что установленные меры предосторожности не являются всеобъемлющими – у них есть ограничения.

По словам Ванессы Хебдич из British Liver Trust, даже незначительные корректировки в онлайн-поиске – например, указание «lft reference range» – продолжают генерировать неточные AI-сводки, как сообщает *The Guardian*. Это указывает на то, что вредоносная информация остается легкодоступной, даже при незначительно измененных поисковых запросах.

AI Overviews не всегда безупречны – были случаи неточных предложений, как, например, когда он рекомендовал добавлять клей в пиццу. Когда речь идет о медицинской информации, крайне важно все делать правильно. Медицинские знания сложны, включают нюансы и исключения, которые до сих пор сложны для понимания AI.

Смотрите также

2026-01-12 15:48