Ученые призвали разработать план на случай выхода ИИ из-под контроля
Группа ученых, специализирующихся на технологиях искусственного интеллекта, призвала власти разных стран разработать алгоритм действий на случай потери контроля над ИИ. Они написали открытое письмо с соответствующим предложением.
По словам экспертов отрасли, их беспокоит вероятность развития подобного сценария. Выход ИИ из-под контроля человека может привести к катастрофическим последствиям, считают они. По этой причине правительства стран по всему миру должны объединить усилия и действовать на опережение, говорится в послании.
«К сожалению, мы еще не разработали необходимую науку для контроля и защиты использования такого передового интеллекта. Глобальный характер этих рисков требует признания безопасности ИИ как мирового общественного блага и работы над управлением этими рисками», — говорится в заявлении.
Ученые пришли к выводу, что первым шагом должно стать создание специализированных органов для выявления и реагирования на инциденты с ИИ. Эти службы будут координировать между собой действия по разработке плана чрезвычайных ситуаций, связанных с искусственным интеллектом.
В долгосрочной перспективе эксперты ожидают, что государства создадут международные принципы управления разработкой ИИ моделей. По их мнению, это позволит избежать создания технологий, которые могут представлять катастрофические риски.
«Необходимо провести глубокие фундаментальные исследования, обеспечивающие безопасность передовых систем ИИ. Эта работа должна начаться быстро, чтобы гарантировать, что они будут разработаны и проверены до появления инновационных ИИ», — отмечают авторы послания.
Ученые предложили правительствам стран сосредоточить усилия на трех ключевых аспектах:
Под открытым письмом оставили подписи более 30 специалистов ИИ-сферы из США, Канады, Китая, Сингапура, Великобритании и других стран.