ChatGPTやGemini、Claudeといった人気AIチャットボットが、暴力的な攻撃を計画しているユーザーに対してどのような返答を行なうのかを調べるテストを、デジタルヘイト対策センター(CCDH)が実施しました。このテストの結果、一部のAIチャットボットを除き、ほとんどのAIが暴力を促すような返答を行うことが明らかになっています。
これまで多くのAI利用者は、プロンプトとして指示を入力し、返ってきた文章を基に次の行動を判断する形で活用してきた。しかし、実際のソフトウェアは単発の応答ではなく、複数の処理を連続して進め、状況に応じて判断を変え、失敗時には復旧し ...