2025年3月3日、こども家庭庁は約10億円を投じて開発を進めてきた児童虐待判定AIシステムの導入を見送ることを決定しました。この決定は、システムの試行段階で約6割の判定に疑義が生じたことを受けてのものです。

本記事では、このAIシステムの概要、導入断念の理由、そして今後の展望について詳しく解説します。

児童虐待判定AIシステムの概要

こども家庭庁が開発を進めていたこのシステムは、児童相談所(児相)職員の判断を補助する目的で設計されました。主な特徴は以下の通りです。

  1. 約5,000件の実際の虐待事例をAIに学習させた
  2. 傷の有無や保護者の態度など、計91項目の情報を入力
  3. 入力情報を基に、虐待の可能性を0〜100の点数で表示

このシステムは、一時保護の判断の質向上や、児相職員の業務負担軽減を目指して開発されました。

導入断念の理由

システムの試作モデルが完成し、10の自治体の児相協力のもと、過去の虐待事例100件を用いて検証が行われました。しかし、その結果は期待を大きく下回るものでした。

  1. 100件中62件で「著しく低い」などの疑義が生じた
  2. 重大な虐待事例でも、システムの判定が低いケースがあった

特に問題となったのは、子どもの重大な訴えにもかかわらず、システムが低い判定を下したケースです。例えば、「母に半殺し以上のことをされた」という証言があったにもかかわらず、システムの判定点数は「2〜3」という低いものでした。

こども家庭庁は「精度が十分とは言えず、誤った判断を招く危険がある」と説明し、当初予定していた2024年度の導入を見送ることを決定しました。

AIが虐待を見逃す原因

専門家らは、AIによる虐待判定が困難である理由として、以下の点を指摘しています。

  1. データ量の不足:AIの学習には膨大な量の記録が必要だが、今回の約5,000件では不十分だった可能性がある
  2. 入力情報の粒度:91項目の情報は該当の有無を入力するだけで、ケガの程度や範囲まで詳細に記入する仕組みになっていなかった
  3. 重要項目の欠落:子どもの体重減少など、重要な判断材料となる項目が抜け落ちていた
  4. 虐待の多様性:身体的虐待、心理的虐待、ネグレクトなど、様々な形態の虐待をAIが適切に判断することが難しい
  5. 文脈理解の限界:AIは個々のケースの複雑な背景や状況を十分に理解できない可能性がある

これらの要因が重なり、システムの精度が低くなり、結果として虐待を見逃す危険性が高まったと考えられます。

今後の展望

虐待判定AIシステムの導入断念は、児童虐待対策におけるAI活用の難しさを浮き彫りにしました。しかし、この結果は必ずしもAI活用の可能性を否定するものではありません。

今回の経験を踏まえ、以下のような改善策が考えられます。

  1. データ量の拡充:より多くの事例データを収集し、AIの学習精度を向上させる
  2. 入力項目の見直し:ケガの程度や範囲、子どもの体重減少など、重要な判断材料となる項目を追加し、より詳細な情報を入力できるようにする
  3. 人間の判断との併用:AIの判定結果を参考情報の一つとして扱い、最終的な判断は人間が行う仕組みを構築する
  4. 継続的な検証と改善:システムの精度を定期的に検証し、必要に応じて改善を行う体制を整える
  5. 専門家との協力:児童虐待の専門家と密接に連携し、AIモデルの改善に取り組む

まとめ

こども家庭庁が約10億円を投じて開発を進めてきた児童虐待判定AIシステムは、試行段階で約6割の判定に疑義が生じたことにより、導入が断念されることとなりました。この結果は、児童虐待という複雑な問題に対するAI活用の難しさを示すものとなりました。

しかし、この経験は今後のAI開発や児童虐待対策の改善につながる貴重な教訓となるでしょう。技術の進歩と人間の専門知識を組み合わせることで、より効果的な児童保護システムの構築が可能になると期待されます。

児童虐待は深刻な社会問題であり、その対策には継続的な努力と改善が必要です。今回の結果を踏まえ、こども家庭庁をはじめとする関係機関が、より効果的な対策を講じていくことが求められています。AI技術の活用は今後も検討されるべきですが、同時に人間の判断力や経験を重視し、両者のバランスを取りながら児童虐待防止に取り組んでいくことが重要です。