США происшествия политика биологи США

OpenAI признала, что GPT-4 может с "минимальным риском" помочь в разработке биологического оружия

Компания OpenAI провела исследование, чтобы оценить риски использования своей новой модели GPT-4 для создания биологического оружия.

Результаты показали, что доступ к возможностям ИИ обеспечивает "по крайней мере незначительное" увеличение эффективности сбора информации для разработки биоугроз.В эксперименте участвовали 50 биологов и 50 студентов.

DMCA