Anthropic сняла запрет на обучение опасных моделей на фоне давления Пентагона
Anthropic обновила свою Политику ответственного масштабирования (Responsible Scaling Policy, RSP) до версии 3.0 и убрала из нее ключевое обещание, которое компания давала с 2023 года: не обучать ИИ-модели, если безопасность не доказана заранее.
Теперь компания готова остановить разработку только при одновременном выполнении двух условий: если она лидирует в гонке ИИ и если считает риски катастрофическими. "Мы не думаем, что кому-то поможет, если мы перестанем обучать модели.
За использование Claude в OpenClaw забанят? Anthropic обновила правила использования и всех запутала
habr.com