OpenAI формирует команду по предотвращению «катастрофических рисков» ИИ

Компания-разработчик ChatGPT — OpenAI — создала новую команду, которая будет работать над минимизацией рисков, связанных со стремительным распространением искусственного интеллекта. В частности, будет заниматься проблемами кибербезопасности, химическими, ядерными и биологическими угрозами.

Об этом сообщает Bloomberg.

Новую команду называют Preparedness team, то есть команда готовности. Команду возглавил выходец из MIТ Александр Мадри.

Группа будет анализировать и пытаться предотвратить потенциальные «катастрофические риски» систем искусственного интеллекта, начиная от проблем кибербезопасности и заканчивая химическими, ядерными и биологическими угрозами.

Среди прочего, команда будет заниматься проблемами автономной репликации и адаптации ИИ (что логично, учитывая амбиции OpenAI построить «суперинтеллект» в будущем).

Цель OpenAI сосредоточена на создании ИИ, которое может выполнять ряд задач лучше людей (в компании его называют AGI — Artificial General Intelligence). Поскольку текущие системы не соответствуют этому описанию, компания заявила, что ей необходимо «убедиться, что у нас есть понимание и инфраструктура, необходимые для безопасной и высокопроизводительной системы искусственного интеллекта».

Новая команда разработает политику, чтобы помочь компании определить, как она может снизить риски, связанные с разработкой такой ИИ-технологии следующего поколения.

Сейчас «команда готовности» на стадии комплектования. В компании есть незакрытые вакансии в Сан-Франциско, а также она будет искать кандидатов через конкурс Preparedness Challenge, в рамках которого всем желающим предлагают рассказать о неочевидных рисках от ИИ. 10 победителей получат $25 000 в виде кредитов API.