Правительство Канады открывает исследовательский центр по безопасности искусственного интеллекта. США должны сделать то же самое.

Правительство Канады открывает исследовательский центр по безопасности искусственного интеллекта. США должны сделать то же самое.

Как опытный энтузиаст технологий с более чем двадцатилетним опытом работы за плечами, я полностью согласен с тем, что Канадский институт безопасности искусственного интеллекта — это крайне необходимая инициатива. Став свидетелем быстрого развития технологий и их влияния на общество, я могу засвидетельствовать тот факт, что нерегулируемый ИИ может спустить нас по скользкой дорожке.


Канада создает Канадский институт безопасности искусственного интеллекта, став одной из первых стран, сделавших этот шаг после глобального саммита, состоявшегося в Сеуле в мае прошлого года. На встрече мировые лидеры признали важность создания системы финансируемых государством исследовательских институтов, занимающихся изучением и тестированием безопасности ИИ. Институт будет финансироваться из 50 миллионов канадских долларов в течение пятилетнего периода, при этом средства будут выделены из 2,4 миллиардов долларов, зарезервированных в федеральном бюджете этого года на инициативы в области искусственного интеллекта.

Я полностью согласен с тем, что это необходимая и разумная инвестиция. Правительства склонны перерасходовать средства и усложнять великие идеи бюрократией, но простое поручение таким компаниям, как Google и OpenAI, решать, что лучше, не обязательно принесет пользу обществу в целом. Крайне важно принять меры, поскольку искусственный интеллект обладает огромным потенциалом для позитивных изменений, превосходя даже новейшие функции смартфонов.

Канадский министр, ответственный за инновации, науку и промышленность, Франсуа-Филипп Шампань, формулирует это просто: [Здесь вставьте утверждение или цитату, которую вы хотите перефразировать]

Для того чтобы технология действительно процветала, крайне важно, чтобы люди ей доверяли. Без широкого внедрения мы рискуем упустить огромные возможности, предлагаемые новыми технологиями.

Это важная концепция, которую такие страны, как Соединенные Штаты (и многие другие, обладающие достаточными ресурсами), должны принять и развивать. Чтобы сделать еще один шаг вперед, я предлагаю учредить должность на уровне кабинета министров, призванную служить царем искусственного интеллекта и технологий будущего, но прогресс всегда начинается с маленьких шагов. Искусственный интеллект не исчезает; скорее, он быстро растет. Пренебрежение установлением правил и законов, контролирующих его применение, может привести к опасным последствиям, даже к безумию.

Как исследователь, я считаю крайне важным подчеркнуть важность централизованного органа, контролирующего и координирующего дорогостоящие исследования в области ИИ, а также исследования, проводимые множеством небольших или финансируемых государством групп. Проще говоря, для того, чтобы страна оставалась конкурентоспособной в этой быстро развивающейся области, пренебрежение важностью технологии искусственного интеллекта может привести к тому, что она станет второстепенным игроком, а не звездой на мировой арене.

При новом президентском руководстве изменения уже не за горами, в первую очередь из-за указа Байдена, при этом от избранного президента Трампа не ожидается особых действий в отношении управления ИИ, кроме отмены этого указа. Однако вполне вероятно, что мы станем свидетелями инициатив, ориентированных на будущее и ответственное использование ИИ, учитывая участие нового лидера большинства в Сенате Джона Тьюна.

Правительство Канады открывает исследовательский центр по безопасности искусственного интеллекта. США должны сделать то же самое.

Тьюн, как принято считать, придерживается сильных консервативных убеждений в вопросах регулирования. Тем не менее, будучи опытным сенатором от Южной Дакоты, он получил представление о сложностях законодательства в области ИИ, работая в Комитете по торговле. Он без колебаний бросит вызов планам президента Трампа, когда это необходимо. Более того, он сотрудничал с сенатором Клобучаром (демократ от Миннесоты) над Законом об исследованиях, инновациях и подотчетности в области искусственного интеллекта, выступая за повышение прозрачности и оценку рисков при использовании ИИ. Похоже, он осознает, что неконтролируемый ИИ может быть проблематичным и что надзор со стороны тех же компаний, которые его разрабатывают, может быть нецелесообразным.

Как аналитик, я считаю, что текущая ситуация с растущим вниманием Китая к искусственному интеллекту (ИИ) может послужить для нас тревожным сигналом. Если Китай воспринимает ИИ как средство предотвращения надвигающегося экономического кризиса, он, несомненно, будет инвестировать значительные средства в эту область. И действительно, при правильном использовании ИИ обладает огромным потенциалом в различных секторах, таких как производство, сельское хозяйство, энергетика и оборона.

Похоже, что Канада могла бы более внимательно изучить искусственный интеллект (ИИ), поскольку он приносит наибольшую пользу канадцам. Точно так же США могут использовать этот подход для противодействия тому, что они считают китайским коммунистическим режимом. Я думаю, что это разумно в данных обстоятельствах, и вы должны чувствовать то же самое.

В 2025 году вполне вероятно, что другие страны создадут свои собственные исследовательские центры искусственного интеллекта, поддерживаемые правительством, подобно тому, что мы видим сегодня, а более мелкие международные организации также смогут проводить независимые исследования в этой области. Как уже говорилось ранее, мировые лидеры признают важность этого начинания. Несмотря на то, что предстоящая администрация США будет уделять больше внимания корпоративным прибылям, чем другим соображениям, некоторые факторы вселяют в меня надежду, что она тоже присоединится к этим усилиям.

Если нам не удастся установить правила для ИИ, он может продолжать оставаться не чем иным, как новыми функциями на ваших устройствах или инструментами, которыми могут воспользоваться мошенники, оставив глобальный прогресс нетронутым.

Смотрите также

2024-11-16 19:23