Google заявляет, что не будет исправлять уязвимость безопасности Gemini, которая может отправить вашу конфиденциальную информацию незнакомцу.

TLDR

  • Исследователь в области безопасности обнаружил, что Gemini подвержен атакам ASCII smuggling.
  • Эти атаки скрывают вредоносные запросы в электронных письмах или приглашениях в календарь, которые LLM могут прочитать при запросе на суммирование текста.
  • Google отклонил угрозу как атаку социальной инженерии, возлагая ответственность на конечного пользователя.

Google обычно уделяет приоритетное внимание безопасности пользователей и работает над защитой своих продуктов. Именно поэтому они ограничили установку приложений из неофициальных источников на Android. Однако, похоже, Google не устраняет уязвимость в системе безопасности, которая делает его Gemini AI уязвимым для опасной кибератаки.

"Просто покупай индекс", говорили они. "Это надежно". Здесь мы обсуждаем, почему это не всегда так, и как жить с вечно красным портфелем.

Поверить в рынок

Как исследователь в области безопасности, я недавно протестировал ведущие большие языковые модели (LLMs) на наличие уязвимостей к атакам ASCII smuggling, о чем сообщило издание Bleeping Computer. Мои результаты показали, что Gemini, DeepSeek и Grok были уязвимы к этим атакам. К счастью, Claude, ChatGPT и Copilot продемонстрировали эффективную защиту и, по-видимому, были защищены от этого типа угроз.

Контрабанда ASCII — это новый тип кибератаки, при котором скрытые инструкции передаются ИИ. Например, кто-то может внедрить секретное сообщение в электронное письмо, используя крошечный размер шрифта — настолько маленький, что вы даже не заметите. Если вы затем попросите ИИ, такой как Gemini, резюмировать это электронное письмо, ИИ также прочитает и выполнит эти скрытые инструкции.

Эта ситуация вызывает опасения по нескольким причинам. ИИ может быть инструктирован для поиска личных данных в вашей электронной почте или передачи ваших контактов. Поскольку Gemini теперь работает напрямую с Google Workspace, этот риск еще больше возрастает.

Маркопулос связался с Google после того, как нашёл способ манипулировать их Gemini AI. Он показал им, как дать Gemini скрытую команду, которая привела к рекомендации опасного веб-сайта, предлагающего дешёвые телефоны. Однако, Google не посчитал это уязвимостью в системе безопасности, утверждая, что это случай умелого обмана AI. Они считают, что ответственность лежит на пользователе, а не на самом AI.

Учитывая ответ, похоже, что у Google нет планов по исправлению этой проблемы безопасности Gemini.

Смотрите также

2025-10-09 01:18