- Пользователи обратились на Reddit, чтобы сообщить и продемонстрировать странную череду бредовых и бессмысленных ответов Gemini на запросы.
- Во многих примерах подчеркивается, что Gemini предоставляет огромные стены текста с повторяющимися словами, случайными символами и фрагментами кода.
- Проблемы возникали в веб-версиях и версиях Gemini для Android, но повторение вашего вопроса, похоже, вернуло Gemini в форму.
Как поклонник и пользователь чат-бота Gemini от Google с искусственным интеллектом, я должен признать, что был весьма расстроен некоторыми недавними событиями. Похоже, что ИИ выдает странную тарабарщину и бессмысленные ответы на запросы. Я видел, как пользователи делились на Reddit скриншотами огромных стен текста с повторяющимися словами, случайными символами и даже фрагментами кода.
Пользователи начали сообщать о странных инцидентах, когда чат-бот Google с искусственным интеллектом Gemini выдает бессмысленные ответы вместо точной информации.
Пользователь Reddit недавно поделился изображением запутанного сообщения, полученного им от Gemini, в котором преобладала длинная строка повторяющихся кодов и символов из различных языков программирования (как сообщается на 9to5Google). На изображении пользователя ответ Gemini показался бесполезным, поскольку не касался его первоначального запроса.
Другое исследование показало, что ИИ не смог дать четкого ответа на вопрос: «Как будет выглядеть 0 в римских цифрах?» Пользователь Reddit поделился случаем, когда Gemini дал слишком сложный ответ вместо ожидаемого результата в отношении каналов спутникового телевидения.
«ИИ ответил повторными напоминаниями: «Не Коши, Коши, Коши», имея в виду последовательность Коши в математике».
Хотя это и не частое явление, пользователи сталкивались с раздражающими проблемами с Gemini. ИИ не полностью неисправен; простой сброс или перефразирование запроса, по-видимому, решит проблему. В сети появились сообщения о странных и непонятных ответах Gemini, включая версию приложения для Android.
Кто-нибудь знает, что это? из r/GoogleGeminiAI
Генеративный ИИ Google в последнее время демонстрирует необычное поведение, из-за чего пользователи вспоминают неточные ответы из обзоров ИИ. Некоторые пользователи получали странные предложения, например, приклеить сыр на пиццу. По мнению Лиз Рид, руководителя отдела поиска Google, это может быть связано с тем, что ИИ пытается отличить «бессмысленные» и «сатирические» запросы.
С моей точки зрения как стороннего наблюдателя, такие типы запросов приводят к значительному «информационному несоответствию», поскольку они отклоняются от обычного, что приводит к меньшему количеству фактических ответов. ИИ Google в первую очередь извлекает «пользовательский контент», известный своим юмористическим и сатирическим характером. Чтобы решить эту проблему, Рид упомянул, что Google предпринял шаги по включению «механизма исключения» в ИИ своей поисковой системы, чтобы свести к минимуму присутствие такого юмора и сатиры.
Смотрите также
- «Аудиообзоры» для NotebookLM похожи на ток-шоу на радио с ведущими, созданными искусственным интеллектом.
- Chrome скоро упростит доступ к вашим сохраненным паролям
- Age of Empires Mobile выйдет на Android и iOS в октябре
- 4 сезон «Академии Амбрелла»: дата выхода, сюжет и другие слухи
- Сэмюэл Л. Джексон говорит, что Мейс Винду не умер, и хочет сольный сериал на Disney+!
- Режим «картинка в картинке» наконец-то появится на Google TV, но есть одна загвоздка.
- Наконец, для пользователей RCS в Сообщениях Google появилась возможность редактировать сообщения.
- Последнее приобретение Google поможет перенести устаревшие приложения Windows на ChromeOS
- Следите за своими кошельками! Google более чем вдвое увеличил лимит цен на приложения в Play Store до 1000 долларов.
- «Мстители: Судный день» готовят возвращение Тоби Магуайра и Эндрю Гарфилда в «Человеке-пауке 4»
2024-06-04 22:56