Апокалипсис искусственного интеллекта: почему и как Кремниевая долина испугалась собственного творения

Апокалипсис искусственного интеллекта: почему и как Кремниевая долина испугалась собственного творения

С появлением ChatGPT и других передовых систем искусственного интеллекта то, что когда-то было захватывающей и вдохновляющей концепцией, для многих превратилось в источник опасений. Быстрый рост этой технологии поистине поразителен: он опережает предыдущие тенденции, такие как метавселенная. В отличие от прошлых технологических увлечений, приложения ИИ уже доступны нам сегодня, и их возможности продолжают расширяться с угрожающей скоростью. Однако этот потенциальный прогресс вызывает обоснованную обеспокоенность у пионеров технологий и специалистов по искусственному интеллекту. Возможно ли, что эти, казалось бы, полезные чат-боты могут в конечном итоге привести к гибели или даже вымиранию человечества? Сообщество Кремниевой долины поднимает этот вопрос, но оправдано ли их беспокойство?

Современный искусственный интеллект: надвигающаяся буря

Апокалипсис искусственного интеллекта: почему и как Кремниевая долина испугалась собственного творения

Не обращая внимания на угрозу апокалипсиса на данный момент, трудно игнорировать значительное влияние, которое ИИ оказывает сегодня на жизнь бесчисленного количества людей. Хотя такие инструменты, как генераторы изображений и чат-боты, могут показаться безобидными, они уже заменили самые разные профессии — от представителей службы поддержки клиентов до графических дизайнеров. В отличие от промышленной революции XVIII века, мало свидетельств того, что ИИ создаст новые возможности трудоустройства в качестве побочного продукта.

Современные системы искусственного интеллекта обладают способностью рассуждать и самокорректироваться, сводя к минимуму необходимость человеческого контроля, что является значительным отличием от обычных машин. Недавно компания Cognition Labs, занимающаяся искусственным интеллектом, представила Девина, который, по их утверждению, является «первым в мире независимо работающим инженером-программистом». Способный не только на программирование, Девин выявляет и исправляет ошибки, разрабатывает новые модели искусственного интеллекта, сотрудничает в проектах с открытым исходным кодом и участвует в онлайн-дискуссиях. Однако такая уверенность в своих силах вызывает серьезные опасения, выходящие за рамки простого смещения занятости.

Самая большая опасность — это не ИИ, который нас перехитрит, а тот, который может нас обмануть.

В прошлом месяце скрытая угроза была обнаружена в инструменте сжатия XZ Utils с открытым исходным кодом, который не получил широкого признания, но поддерживает миллионы серверов на базе Linux. Эта скрытая опасность могла предоставить злоумышленникам несанкционированный доступ, потенциально контролируя многочисленные критически важные системы на расстоянии. В отличие от типичных методов взлома или эксплуатации, это произошло посредством тщательно продуманного обмана. Человек, выдававший себя за благотворителя, заслужил доверие сообщества за несколько лет, прежде чем внедрить бэкдор в свой код.

Передовая система искусственного интеллекта могла бы осуществлять сложные кибератаки в больших масштабах, управляя всеми аспектами — от написания вредоносного ПО до имитации человеческого взаимодействия. Однако агентов ИИ, способных проникать в сообщества разработчиков и манипулировать важной инфраструктурой, пока не существует, но их появление может быть неизбежным. OpenAI и Cognitive Labs принимают меры предосторожности в отношении своих продуктов искусственного интеллекта, но по-прежнему существует множество нецензурированных языковых моделей, которыми злоумышленники могут злоупотребить.

К сожалению, специалисты по-прежнему опасаются, что обманные действия и споры, которым способствует искусственный интеллект, — это только начало. Большая опасность заключается в том, что ИИ в конечном итоге может превзойти нашу способность управлять им.

Вероятность гибели

Апокалипсис искусственного интеллекта: почему и как Кремниевая долина испугалась собственного творения

Искусственный интеллект, способный ускользать от человеческого командования, в настоящее время кажется надуманной идеей из научной фантастики, но для некоторых представителей технического сообщества это всего лишь вопрос времени. По данным The New York Times, в Кремниевой долине набирает популярность новый показатель под названием p(doom). Этот термин, сокращенный от «вероятность катастрофы», первоначально использовался в шутку для обозначения обеспокоенности по поводу катастрофы, вызванной искусственным интеллектом. Однако с течением времени эта дискуссия становится все более серьезной.

По разным оценкам, в отрасли широко признано, что риск катастрофического отказа передового искусственного интеллекта значителен, если не сказать совершенно высок. Например, Дарио Амодей, соучредитель Anthropic AI, оценивает вероятность от 10 до 25 процентов. Между тем, несколько экспертов по безопасности ИИ выразили обеспокоенность по поводу вероятности, превышающей 50 процентов.

Опасения по поводу катастрофы возникают из-за острой конкуренции между технологическими фирмами за создание наиболее мощного искусственного интеллекта. Следовательно, они в конечном итоге будут применять ИИ для дальнейшего улучшения ИИ, что приведет нас к созданию сверхразумного существа со способностями, превосходящими наше собственное понимание. Это может показаться неправдоподобным, но учтите, что продвинутые языковые модели, такие как Gemini от Google, демонстрируют неожиданные таланты, такие как языковой перевод, которые превосходят их предполагаемые функции.

В Кремниевой долине даже те, кто занимается созданием ИИ, пессимистично оценивают шансы человечества.

Большой вопрос заключается в том, будет ли сверхразумный ИИ соответствовать человеческим ценностям или навредит нам в своем стремлении к безжалостной эффективности. Эту ситуацию, возможно, лучше всего объясняет мысленный эксперимент, известный как максимизация скрепки. В нем утверждается, что, казалось бы, безобидный ИИ, которому поручено производить как можно больше скрепок, может потреблять все мировые ресурсы, не обращая внимания на людей и наши традиции. Шведский философ Ник Бостром предположил:

Предположим, у нас есть ИИ, единственная цель которого — сделать как можно больше скрепок для бумаг. ИИ быстро поймет, что было бы намного лучше, если бы не было людей, потому что люди могут решить отключить его. Потому что, если бы люди поступали так, скрепок для бумаг было бы меньше. Кроме того, человеческие тела содержат множество атомов, из которых можно сделать скрепки для бумаг.

Защитных мер, принятых в таких компаниях, как Midjourney и ChatGPT, недостаточно, учитывая, что даже сами создатели с трудом понимают необъяснимые особенности. Итак, каков следующий шаг? Технологическая индустрия все еще ищет решение, но инновации не ослабевают. Совсем недавно Google и Microsoft объявили об увольнениях в своих отделах этики и безопасности. Сообщается, что Microsoft уволила всю свою команду, занимавшуюся этической разработкой ИИ.

Несмотря на спорную репутацию Илона Маска, трудно не поддержать его мнение о том, что индустрия искусственного интеллекта требует значительных реформ и контроля. Учитывая обеспокоенность пионеров технологий, таких как Стив Возняк, OpenAI в прошлом году временно приостановила создание новых моделей. Однако разработка GPT-5 в настоящее время продолжается, что усиливает конкуренцию в области сверхинтеллекта. Это оставляет неопределенными важнейшие вопросы безопасности и будущего человечества.

Смотрите также

2024-04-08 22:41