OpenAI тестирует систему для воссоздания человеческих голосов. Что может пойти не так?

OpenAI тестирует систему для воссоздания человеческих голосов. Что может пойти не так?

TLDR

  • OpenAI анонсировала Voice Engine, новую систему искусственного интеллекта, способную воссоздавать человеческие голоса.
  • Компания тестирует этот продукт на «небольшой группе предприятий».
  • OpenAI пока держит это в тайне, чтобы изучить потенциальные (и очевидные) опасности.

OpenAI, организация, ответственная за ChatGPT, в последнее время добилась впечатляющих успехов. Выдающееся достижение ChatGPT неоспоримо, но компания также представила Sora, систему, генерирующую реалистичные 60-секундные видеоклипы (как сообщается в The New York Times). Теперь они представили Voice Engine, еще одну инновацию, способную воспроизводить человеческие голоса.

Sora, как и OpenAI, на данный момент не предоставляет широкой публике доступ к своему голосовому движку. Вместо этого корпорация проводит конфиденциальные испытания с ограниченным числом предприятий. Оправданием такого ограниченного использования являются серьезные этические дилеммы, возникающие при создании системы репликации голоса, способной имитировать подлинный человеческий голос.

The New York Times продемонстрировала систему и поделилась некоторыми отрывками, которые вы можете услышать по предыдущей ссылке. Первый клип представляет собой 16-секундную запись настоящего мужчины с сильным португальским акцентом. Он представляется и говорит, что делает этот клип, чтобы «помочь невербальным людям более полно выразить себя». Следующий клип представляет собой воссоздание голоса Voice Engine, говорящего что-то совершенно другое. Еще один клип представляет собой воссоздание голоса мужчины, но он говорит на португальском, а не на английском языке.

Записи Voice Engine не полностью соответствуют исходной записи. Но они почти идентичны, поэтому любой, кто не знает об оригинальном выступающем, может быть обманут, полагая, что этот человек действительно сделал эти утверждения.

Интересным аспектом этого инструмента является возможность, которую он предоставляет для распространения ложной информации. Голосами политиков, известных личностей и специалистов средств массовой информации может манипулировать Voice Engine, позволяя любому заставить их говорить все, что им заблагорассудится. При некотором редактировании и убедительном видеофоне потенциальные последствия трудно предсказать.

Другой распространенный метод обеспечения доступа по всему миру включает системы голосовой аутентификации. Однако существует вероятность того, что Voice Engine может быть использован, что позволит людям обойти эти системы и потенциально получить несанкционированный доступ к конфиденциальным данным.

«Это деликатная вещь»

Джефф Харрис из OpenAI предупредил: «Нам нужно относиться к этому осторожно, поскольку это влечет за собой серьезные последствия». OpenAI в настоящее время изучает методы нанесения водяных знаков, чтобы отличать подлинные записи от синтетических. Однако они признают этические дилеммы, которые поднимает эта технология.

Хотя у Voice Engine есть свои критические замечания, важно отметить, что он имеет значительные потенциальные преимущества. Например, люди, потерявшие способность говорить из-за старения или болезни, могут восстановить средства общения с помощью синтетической репликации голоса Voice Engine. В качестве потенциальных пользователей на ум приходят такие известные личности, как физик Стивен Хокинг. Кроме того, Voice Engine можно использовать для сохранения голосов умерших. Кроме того, у него есть коммерческие приложения, например, для производства аудиокниг.

OpenAI в настоящее время намерена оставить свой голосовой движок на демонстрационном этапе, не делая его общедоступным. Как и в случае с Сорой, они сосредоточены на демонстрации своих возможностей.

Смотрите также

2024-03-29 20:56