Новые правила безопасности Deepmind направлены на то, чтобы не дать системам перехитрить людей
Последние рекомендации по безопасности от Google Deepmind направлены на решение сложного вопроса: как сохранить контроль над системами искусственного интеллекта, которые могут попытаться перехитрить людей?В рамках вводятся "Critical Capability Levels"(CCLs) (Критические уровни возможностей) – конкретные пороговые значения, при которых системы AI могут стать опасными без надлежащих мер безопасности.
Они сосредоточены на двух основных проблемах: предотвращение ненадлежащего использования, например, атак с применением химического, биологического, радиологического и ядерного (CBRN) оружия или кибератак, а также обеспечение того, чтобы системы AI не пытались обойти человеческий надзор.Решение проблемы обманчивого поведения AI начинается с автоматизированных систем мониторинга, которые включаются, когда AI проявляет признаки стратегического мышления.
habr.com