- Пользователи обратились на Reddit, чтобы сообщить и продемонстрировать странную череду бредовых и бессмысленных ответов Gemini на запросы.
- Во многих примерах подчеркивается, что Gemini предоставляет огромные стены текста с повторяющимися словами, случайными символами и фрагментами кода.
- Проблемы возникали в веб-версиях и версиях Gemini для Android, но повторение вашего вопроса, похоже, вернуло Gemini в форму.
Как поклонник и пользователь чат-бота Gemini от Google с искусственным интеллектом, я должен признать, что был весьма расстроен некоторыми недавними событиями. Похоже, что ИИ выдает странную тарабарщину и бессмысленные ответы на запросы. Я видел, как пользователи делились на Reddit скриншотами огромных стен текста с повторяющимися словами, случайными символами и даже фрагментами кода.
Пользователи начали сообщать о странных инцидентах, когда чат-бот Google с искусственным интеллектом Gemini выдает бессмысленные ответы вместо точной информации.
Пользователь Reddit недавно поделился изображением запутанного сообщения, полученного им от Gemini, в котором преобладала длинная строка повторяющихся кодов и символов из различных языков программирования (как сообщается на 9to5Google). На изображении пользователя ответ Gemini показался бесполезным, поскольку не касался его первоначального запроса.
Другое исследование показало, что ИИ не смог дать четкого ответа на вопрос: «Как будет выглядеть 0 в римских цифрах?» Пользователь Reddit поделился случаем, когда Gemini дал слишком сложный ответ вместо ожидаемого результата в отношении каналов спутникового телевидения.
«ИИ ответил повторными напоминаниями: «Не Коши, Коши, Коши», имея в виду последовательность Коши в математике».
Хотя это и не частое явление, пользователи сталкивались с раздражающими проблемами с Gemini. ИИ не полностью неисправен; простой сброс или перефразирование запроса, по-видимому, решит проблему. В сети появились сообщения о странных и непонятных ответах Gemini, включая версию приложения для Android.
Кто-нибудь знает, что это? из r/GoogleGeminiAI
Генеративный ИИ Google в последнее время демонстрирует необычное поведение, из-за чего пользователи вспоминают неточные ответы из обзоров ИИ. Некоторые пользователи получали странные предложения, например, приклеить сыр на пиццу. По мнению Лиз Рид, руководителя отдела поиска Google, это может быть связано с тем, что ИИ пытается отличить «бессмысленные» и «сатирические» запросы.
С моей точки зрения как стороннего наблюдателя, такие типы запросов приводят к значительному «информационному несоответствию», поскольку они отклоняются от обычного, что приводит к меньшему количеству фактических ответов. ИИ Google в первую очередь извлекает «пользовательский контент», известный своим юмористическим и сатирическим характером. Чтобы решить эту проблему, Рид упомянул, что Google предпринял шаги по включению «механизма исключения» в ИИ своей поисковой системы, чтобы свести к минимуму присутствие такого юмора и сатиры.
Смотрите также
- Обзор Fiio SR11: доступный сетевой стример с интеграцией Roon
- Google до сих пор не исправил задержку уведомлений на пикселях, но вы можете попробовать это
- Какой цвет Samsung Galaxy S25 Ultra выбрать?
- Лучшие фильмы десятилетия в формате Dolby Atmos (на данный момент) для проверки вашего домашнего кинотеатра
- Какой цвет Galaxy S24 лучший? Мы проверили их все
- Pixel 4a получит неожиданное обновление в 2025 году
- OnePlus продолжает добавлять вредоносное ПО в OnePlus 12 и OnePlus Open, свои флагманы премиум-класса.
- У Google есть новая игра-дудл, в которой вы против Луны
- Беспроводные наушники Sony WH-1000XM6 планируют выпустить в 2025 году
- В Stardew Valley обмануть было легко. Вот как получить неограниченное количество золота, предметов и многого другого.
2024-06-04 22:56