- Пользователи обратились на Reddit, чтобы сообщить и продемонстрировать странную череду бредовых и бессмысленных ответов Gemini на запросы.
- Во многих примерах подчеркивается, что Gemini предоставляет огромные стены текста с повторяющимися словами, случайными символами и фрагментами кода.
- Проблемы возникали в веб-версиях и версиях Gemini для Android, но повторение вашего вопроса, похоже, вернуло Gemini в форму.
Как поклонник и пользователь чат-бота Gemini от Google с искусственным интеллектом, я должен признать, что был весьма расстроен некоторыми недавними событиями. Похоже, что ИИ выдает странную тарабарщину и бессмысленные ответы на запросы. Я видел, как пользователи делились на Reddit скриншотами огромных стен текста с повторяющимися словами, случайными символами и даже фрагментами кода.
Пользователи начали сообщать о странных инцидентах, когда чат-бот Google с искусственным интеллектом Gemini выдает бессмысленные ответы вместо точной информации.
Пользователь Reddit недавно поделился изображением запутанного сообщения, полученного им от Gemini, в котором преобладала длинная строка повторяющихся кодов и символов из различных языков программирования (как сообщается на 9to5Google). На изображении пользователя ответ Gemini показался бесполезным, поскольку не касался его первоначального запроса.
Другое исследование показало, что ИИ не смог дать четкого ответа на вопрос: «Как будет выглядеть 0 в римских цифрах?» Пользователь Reddit поделился случаем, когда Gemini дал слишком сложный ответ вместо ожидаемого результата в отношении каналов спутникового телевидения.
«ИИ ответил повторными напоминаниями: «Не Коши, Коши, Коши», имея в виду последовательность Коши в математике».
Хотя это и не частое явление, пользователи сталкивались с раздражающими проблемами с Gemini. ИИ не полностью неисправен; простой сброс или перефразирование запроса, по-видимому, решит проблему. В сети появились сообщения о странных и непонятных ответах Gemini, включая версию приложения для Android.
Кто-нибудь знает, что это? из r/GoogleGeminiAI
Генеративный ИИ Google в последнее время демонстрирует необычное поведение, из-за чего пользователи вспоминают неточные ответы из обзоров ИИ. Некоторые пользователи получали странные предложения, например, приклеить сыр на пиццу. По мнению Лиз Рид, руководителя отдела поиска Google, это может быть связано с тем, что ИИ пытается отличить «бессмысленные» и «сатирические» запросы.
С моей точки зрения как стороннего наблюдателя, такие типы запросов приводят к значительному «информационному несоответствию», поскольку они отклоняются от обычного, что приводит к меньшему количеству фактических ответов. ИИ Google в первую очередь извлекает «пользовательский контент», известный своим юмористическим и сатирическим характером. Чтобы решить эту проблему, Рид упомянул, что Google предпринял шаги по включению «механизма исключения» в ИИ своей поисковой системы, чтобы свести к минимуму присутствие такого юмора и сатиры.
Смотрите также
- Вспомогательный сериал «Капитан Марвел» отменен после 10 выпусков – виноват ли фильм?
- Поклонники предпочитают Дафни Кин в роли Росомахи в MCU, но мнения разделились: «Не заставляйте ее играть вторую скрипку»
- Apple Intelligence попалась на фишинговые электронные письма, и это может дорого стоить пользователям iPhone
- Philips OLED809 (65OLED809)
- OnePlus Watch 2R против Samsung Galaxy Watch 7: что купить?
- Слухи о характеристиках камеры Google Pixel 9 Pro Fold не вызывают особого волнения
- Google может предоставить Meet поддержку двойной камеры и двух дисплеев (удаление APK)
- Обзор Fitbit Ace LTE: хотелось бы, чтобы мои Pixel Watch были такими же веселыми
- Поклонники Fortnite думают, что нашли спрятанную карту пятой главы четвертого сезона
- «Бэтмен: Крестоносец в плаще» свергнул «Мальчиков» с трона в десятке лучших фильмов Amazon
2024-06-04 22:56