Google играет в «ударь крота» с катастрофическими обзорами искусственного интеллекта, которые стали вирусными

Google играет в «ударь крота» с катастрофическими обзорами искусственного интеллекта, которые стали вирусными

TLDR

  • Google подтвердил, что примет «быстрые меры» в случае ошибочных обзоров ИИ.
  • Заявление было сделано после того, как несколько неправильных, странных или опасных обзоров искусственного интеллекта стали вирусными в Интернете.
  • Некоторые из наиболее известных вирусных предложений включают питье мочи, чтобы вывести камни из почек, и прыжки с моста, если у вас депрессия.

Как пользователь Google и технический энтузиаст, который с большим интересом следит за развитием ИИ в поисковых системах, я не могу не чувствовать разочарования и беспокойства по поводу недавних ошибочных обзоров ИИ, которые стали вирусными. Интересно видеть, как далеко продвинулся Google в своих возможностях искусственного интеллекта, и я с нетерпением ждал новой функции, предлагающей сгенерированные искусственным интеллектом сводки для различных запросов.


Как технический энтузиаст, я воодушевлен недавним решением Google расширить доступность своей функции «Обзоры ИИ» в США. Этот инновационный инструмент использует искусственный интеллект для создания кратких сводок по различным поисковым запросам. Однако мой опыт до сих пор был далёк от идеала. Некоторые ответы были неточными, и я чувствовал себя дезинформированным, в то время как другие были совершенно странными или даже потенциально опасными. Я надеюсь, что Google продолжит совершенствовать эту функцию, чтобы гарантировать, что предоставляемая ею информация надежна и полезна для таких пользователей, как я.

Теперь в ответе на запрос Android-authority.ru»>Android Authority компания Google подтвердила, что принимает «быстрые меры» по некорректным запросам:

Подавляющее большинство обзоров ИИ предоставляют высококачественную информацию со ссылками для более глубокого поиска в Интернете. Многие из рассмотренных нами примеров представляли собой необычные запросы, но мы также видели примеры, которые были подделаны или которые мы не смогли воспроизвести. Прежде чем запустить эту новую функцию, мы провели тщательное тестирование и, как и в случае с другими функциями, которые мы запустили в Поиске, мы ценим отзывы. Мы принимаем быстрые меры, когда это необходимо, в соответствии с нашей политикой в ​​отношении контента и используем эти примеры для разработки более широких улучшений наших систем, некоторые из которых уже начали внедряться.

Некоторые известные ответы, созданные искусственным интеллектом и привлекшие значительное внимание, включали такие советы, как ежедневное употребление камня, нанесение нетоксичного клея, чтобы сыр оставался на пицце, и предложение потребления не менее двух литров мочи в день для удаления камней из почек. Среди этих сомнительных рекомендаций, пожалуй, самой тревожной оказалась поддержка людей, испытывающих депрессию, прыгнуть с моста. Похоже, что некоторые из этих ответов могли быть вызваны сатирическими статьями или озорными троллями на таких платформах, как Reddit.

Как технический энтузиаст, я заметил, что Google, похоже, торопится интегрировать ИИ в различные аспекты нашей жизни. Однако это рвение привело к некоторым ошибкам, таким как недавний спор вокруг функции генерации изображений Gemini. Вместо того, чтобы создавать исторически точные изображения, он создавал изображения расово разнообразных нацистов времен Второй мировой войны. Раньше более ранние версии Близнецов (теперь известные как Бард) попадали в заголовки газет из-за своих галлюцинаций и неточных ответов.

Если обзоры ИИ вам в данный момент не нравятся, существуют различные способы их отключения. Это понятно, если вы так думаете, учитывая, что он может ошибочно рекомендовать такие действия, как прыгнуть с моста или нанести клей на пиццу, что явно пока не является материалом для прайм-тайма.

Смотрите также

2024-05-27 15:56