OpenAI создает «независимый» совет по безопасности, который может остановить выпуск их моделей
OpenAI преобразует свой Комитет по безопасности и защите в независимый «Комитет по надзору совета директоров», который имеет полномочия задерживать запуск моделей из-за опасений по безопасности, согласно блогу OpenAI.
Комитет дал рекомендацию создать независимый совет после недавнего 90-дневного обзора «процессов и мер безопасности» OpenAI.Комитет, возглавляемый Зико Колтером и включающий Адама Д'Анджело, Пола Накасоне и Николь Селигман, «будет получать брифинги от руководства компании об оценках безопасности для крупных выпусков моделей и будет, вместе с полным составом совета директоров, осуществлять надзор за запусками моделей, включая полномочия задерживать выпуск до тех пор, пока проблемы безопасности не будут решены», сообщает OpenAI.