OpenAI продвижение безопасности в искусственном интеллекте с использованием оценочных карт рисков
- 13 просмотров
Openyi
Openyi
OpenAI предпринимает шаги по укреплению безопасности в области искусственного интеллекта. Компания учредила консультативную группу по безопасности, предназначенную для противостояния возможным угрозам со стороны искусственного интеллекта. Эта группа будет активно следить за работой технических команд и предоставлять ценные рекомендации руководству. Центральным элементом новой системы безопасности является внедрение оценочных карт рисков для моделей искусственного интеллекта. Эти карты измеряют и отслеживают различные параметры потенциального вреда, включая возможности модели, уязвимости и возможные последствия.
Оценочные карты регулярно обновляются, а протоколы вмешательства пересматриваются при достижении определенных значений риска. Команда по безопасности активно управляет производством моделей, занимаясь, например, систематическими злоупотреблениями, которые могут возникнуть из-за ограничений или настроек искусственного интеллекта.
На стадии разработки моделей их оценивает команда готовности, направленная на выявление рисков до выпуска модели. Кроме того, существует команда по сверхвыравниванию, занимающаяся теоретическими руководствами для сверхинтеллектуальных моделей. Первые две категории имеют ясную методологию оценки, а команды оценивают каждую модель по четырем категориям риска: кибербезопасность, влияние, автономность модели, а также комплекс угроз.
Причем к таким угрозам могут относиться химические, биологические, радиологические и ядерные аспекты, например, способность создавать новые патогены. Команда предпринимает различные меры смягчения последствий, включая сдержанность в описании процессов создания вредных веществ. Если после принятия мер по снижению риска модель все равно оценивается как высокорискованная, она не будет развернута, и в случае наличия критических рисков модель даже не будет дальше разрабатываться.
OpenAI акцентирует внимание на строгой и данных основанной оценке рисков искусственного интеллекта, отказываясь от гипотетических и спекулятивных сценариев, преобладающих в общественном дискурсе. Приоритетом для OpenAI является вложение ресурсов в разработку стратегий смягчения рисков и обеспечения безопасности. Лаборатория постоянно совершенствует и обновляет свою структуру на основе новых данных, отзывов и исследований, а также делится своими выводами и передовым опытом с широким сообществом искусственного интеллекта.
Прейми участие в дискуссии зарегиструйся на сайте или войди в свою учетную запись.