Google демонстрирует потенциальный ответ на GPT-4o перед вводом-выводом

Google демонстрирует потенциальный ответ на GPT-4o перед вводом-выводом

  • OpenAI сегодня выпустила GPT-4o, новую модель искусственного интеллекта, которая может взаимодействовать с пользователями посредством звука, изображения и текста.
  • Похоже, у Google есть счетчик для GPT-4o, готовый к запуску Google I/O 2024, который начнется завтра.
  • В тизере Google представила неизданный мультимодальный интерфейс искусственного интеллекта и сообщила, что ожидает анонсов, связанных с искусственным интеллектом, поиском Google и многим другим.

Как наблюдатель с опытом работы в области технологий и разработки искусственного интеллекта, я нахожу это противоречие между OpenAI и Google интригующим. OpenAI взяла на себя инициативу, представив свою новую мультимодальную модель искусственного интеллекта GPT-4o, которая может взаимодействовать посредством звука, изображения и текста. Тем не менее, у Google, похоже, есть счетчик, готовый к Google I/O 2024, о чем намекает их тизер, показывающий неизданный мультимодальный интерфейс искусственного интеллекта на телефоне Android.


Сегодня OpenAI опередила Google, проведя мероприятие, на котором компания представила новую модель искусственного интеллекта под названием GPT-4o. Время проведения мероприятия OpenAI было выбрано не случайно — оно произошло за день до того, как Google собиралась объявить о планах и функциях искусственного интеллекта на конференции разработчиков Google I/O 2024. Однако похоже, что OpenAI может пробыть лидером в области мультимодального ИИ всего один день. В тизере, опубликованном на X (ранее Twitter), мы увидели неизданный интерфейс искусственного интеллекта, работающий на телефоне Android.

Как аналитик, я заметил, что основным элементом тизера является видео, демонстрирующее, по-видимому, мультимодальный интерфейс искусственного интеллекта, работающий на устройстве Android и имеющий сходство с приложением Pixel Camera. В демонстрации показано, как кто-то задает вопросы о своей среде, в частности о настройке этапа ввода-вывода Google. Примечательно, что эта система искусственного интеллекта определила контекст как событие и даже распознала логотип Google I/O, предоставляя подробную информацию о конференции разработчиков. Тем не менее, учитывая, что это заранее записанный клип, важно относиться к результатам с долей скептицизма.

Как заядлый приверженец технологических тенденций, я рад сообщить об этом на Google I/O 2024 и с нетерпением жду самых свежих новостей об искусственном интеллекте, поиске и других интересных инновациях Google. Основная презентация запланирована на 10 часов утра по тихоокеанскому времени, и я буду внимательно следить за всеми последними обновлениями и сообщать о них в нашем живом блоге.

Как исследователь, я очень рад, что до Google I/O остался всего один день! Я едва могу сдержать волнение ( ). Завтра я поделюсь последними разработками в области искусственного интеллекта, поиска и другими интересными темами. Следите за обновлениями! #GoogleIO #Волнение исследователя

See more

Gemini уже появился в качестве голосового помощника и чат-бота, который может использовать изображения, скриншоты и многое другое. Однако новая часть тизера Google заключается в том, что интерфейс теперь поддерживает зрение в качестве альтернативы голосовому и текстовому вводу. Просматривая камеру вашего устройства, этот AI-интерфейс может отвечать на вопросы и получать подробную информацию о вашем окружении. Это похоже на то, что Humane AI Pin и Rabbit R1 пытались сделать с автономными устройствами.

Несмотря на привлекательные возможности демо-версии, остается неясным, будет ли эта функциональность интегрирована в Gemini или другую платформу. Возможность того, что более мощная версия Gemini превзойдет Google Assistant, интригует, но на данный момент это всего лишь предположение.

Во время выступления во вторник Google предоставит более подробную информацию о своих недавних проектах. Однако, судя по этому намеку, похоже, что в Google разрабатывается конкурент GPT-4.

Смотрите также

2024-05-14 08:26