OpenAIとAnthropicは2026年3月、AIが化学・生物兵器などの大量破壊兵器開発に悪用される危険に備え、関連分野の専門家の採用を始めた。 Anthropicは政策設計やガードレール整備、OpenAIは脅威分析や安全性評価を担う人材を募集している。 これは、生成AIが危険な知識を出力しないよう内部体制を強化し、安全対策と規制当局への説明責任を高める狙いがある。 あわせて、将来、自律型致死 ...