Amazon Web Services(AWS)とCerebras Systemsは3月13日、生成AIアプリケーションおよび大規模言語モデル(LLM)向けに世界最速クラスのAI推論ソリューションを提供することを目的とした協業を発表した。
第一回では、AWSネイティブサービスで実現するDataOps × LLMOps統合アーキテクチャを紹介し、AgentCore Runtime上で動作するAIエージェントの品質管理ライフサイクルを扱いました。 第二回である今回は、そのアーキテクチャを支える技術基盤のひとつであるAgentCore ...