AiCANが「子どもの安全のためのAI倫理に関する声明」に込めた想い
2024/06/28
株式会社AiCANでは、2024年6月28日に「子どもの安全のためのAI倫理に関する声明」を発表いたしました。ここでは、AiCANのAI倫理プロジェクト担当より、この声明に込めた想いや今回発表するに至った背景などをお伝えします。
AI倫理の重要性と国内外の動き
まずは、AI(人工知能)における倫理の重要性と海外・日本国内の動向についてご紹介します。
AI倫理は、AIの「ガードレール」
言わずもがなAIは大変便利な存在ですが、使い方を間違えると
・差別の助長
・プライバシーの侵害
・誤った判断
などに繋がる危険性があります。薬や火などと同様に、AIも使う際に一定の制限を設ける必要があり、その役割を担うのが「AI倫理」です。AIを活用する際に道を踏み外さないためのガードレールのような存在がAI倫理だとイメージしていただくとよいでしょう。
AIが過去に想定されていた以上に急速な発展を遂げていることもあり、AI倫理の整備・アップデートも急ピッチで進めなくてはいけません。
欧州のAI規制法案可決を機に国内の動きも活発化
そんな中、2024年5月17日に欧州評議会のAI国際条約が採択されました(2024年9月に批准・発行予定)。これは世界で初めてのAIに関する条約です。G7諸国はこの条約の起草交渉に参加しており、日本もオブザーバー国として関与しています。
2018~2019年頃から、米国大手IT企業がAI倫理に関して自主的に指針の策定や取り組みの公表を開始したこともあり、日本でも大手企業を中心に同様の動きが増えてきました。2024年4月には経済産業省と総務省が「AI事業者ガイドライン(第1.0版)」を発表したため、日本国内のAI倫理に関する議論やアクションは一層進んでいくでしょう。
ただし、個々のケースに関して法律で詳細に定義されることはなく、ある程度開発者側に委ねられることが予想されます。今後、法律をはじめとしたルールと、AIの柔軟な活用とのバランスをどのようにとっていくのかがカギになると考えられます。
AiCANのAI倫理に関する取り組み
続いて、私たちが行ってきたAI倫理に関する取り組みをご説明します。
AI倫理プロジェクトチームの立ち上げ
私たちは、児童相談所等の職員をサポートするAI搭載システム「AiCAN」を開発しています。児童福祉という大変センシティブな領域を扱っており、子どもや養育者(保護者)の権利に関わる判断に影響を及ぼします。
「AI倫理の今と未来。児童福祉×AIシステムの在り方」というコラムでもご紹介したとおり、AI倫理が未検討のままでは差別的なラベリングが生まれてしまう危険性をはらんでいます。また、AIシステムはあくまで児童相談所の職員の方々の判断を補助する目的で提供していますが、AIの判断を鵜呑みにしてしまうなど、誤った使い方をされる可能性もあるのです。
そのため、私たちは2020年の起業当初からAI倫理に関する検討に注力し、2023年からはAI倫理プロジェクトチームを立ち上げました。AI倫理に関する方向性を検討し、それに基づいて使用方法のガイドライン、開発プロセス、評価システム等を検討してまいりました。現在も常にアップデートを行っています。
東京大学との共同研究もスタート
AiCANでは児童福祉現場の経験者を含む様々なバックグラウンドをもつメンバーたちが在籍し、個々の知見を活かしてバイアス要因の洗い出しを行っていますが、2023年度からは東京大学との共同研究もスタートしました。
私たちが整備しているAI倫理の指針や取り組み内容を共有し、国際的な評価の枠組みに照らし合わせながら第三者的視点で検証してもらっています。また、最新の国際情勢を注視しながら活発な意見交換を行っており、知識のアップデートに繋げています。
すべては子どもの安全のために
特にAiCAN創業当初は、AI倫理を検討するにあたって基準とする前例やガイドラインがなく、いちからアイデアを出し合い、試行錯誤をしながら開発・実装・評価を行ってきました。そして、AI倫理の整備に注力すればするほど、細やかな配慮と丁寧な対応が必要なテーマであることを実感しました。
AiCANサービスは、より質の高いサービスの提供を目指して随時システム等の見直しを行っていますが、公平・公正にAI倫理に対応していくことを考えると、プラスαの時間をかけ、第三者の評価も受けながらアップデートしていく必要があります。第三者が評価した結果、AI倫理の観点から「データが不十分」という結果が出た場合には、データの再収集やシステムの改修、開発フローの見直し等が発生する可能性もあるのです。
これ以外に、当然ながら法律の改正や取り巻く環境の変化に応じたアップデートも行っていく必要があります。最近では「子ども・子育て支援法等の一部を改正する法律」においてヤングケアラーが支援対象として明記されましたが、こうした改正により影響を受けるデータもあります。
より良いサービスをつくり、子どもたちを守りたい
それでも私たちがAI倫理に力を入れ続けてきたのは、やはり「すべての子どもたちが安全な世界に変える」というAiCANの理念を成し遂げたいからにほかなりません。
子どもたちを守るために、より良いサービスを作りたい。その一心で取り組んでいます。
「子どもの安全のためのAI倫理に関する声明」を発表する理由
私たちは、AI倫理声明の中でAiCANが目指している世界と、それを実現するための取り組みを皆さまに宣言しました。この時期にAI倫理声明を公表したのは、以下のような想いからです。
子どもの権利を最優先することをお伝えしたい
「子どもの安全のためのAI倫理に関する声明」では、ユニセフの「子どもの権利条約の4つの原則」をベースに基本理念を記載しており、私たちが「子どもの最善の利益と権利を優先する」という姿勢を明確に記しています。
子どもに限らず、幅広い人たちの権利を守るためにAI倫理の指針・声明等を策定する企業も多くありますが、私たちは子どもが安全に暮らせる世界を実現するために子どもを最優先することを改めて宣言したいと考えました。
利用者様とともにAiCANサービスをつくりたい
AI規制法案が可決し、ますますAI倫理に関する議論が活発化していきます。現状の私たちの考えや取り組み内容をオープンにして透明性を確保することで、AiCANサービスを使っていただいている利用者様に安心していただきたいと考えました。
また、AIシステムの開発者である私たちだけでは、「子どもが安全に暮らせる世界を実現する」という理念を達成することはできません。AiCANサービスは利用者様に入力いただくデータと適切なご活用なしには成り立たないため、利用者様にもAiCANサービスをつくる「当事者」になっていただきたいと考えています。利用者様にご理解とご協力をお願いしたく、本声明の中では利用者様と協働して理念の達成を目指すことや、AIの目的・効果・利用方法等について私たちが責任をもってご説明することを宣言しています。
AIだけで子どもを救うことはできない
児童福祉の現場は慢性的な人手不足に陥っています。子どもの命に関わる判断を人が行い、その判断が正しかったのかどうか検証する余裕もない現実があります。
児童福祉の現場でこうした状況を目の当たりにし、私たちは「AIを活用することでこの苦しい状況を打破できるのではないか」「過去の事例を網羅的に集めたデータがあれば、より適切な判断がしやすくなり、救える子どもが増えるのではないか」と考えるようになりました。こうして生まれたのがAiCANサービスです。
AIはあくまでツールのひとつであり、人にとって変わるものではありません。良いAIシステムを開発するためには、有用性の高いデータが必要不可欠です。しかし、私たちだけでデータを収集することはできません。各地域の児童相談所の職員の方々の知見や事例の一つひとつのデータを積み重ねることでサービスの品質が上がり、それが経験の浅い職員の判断の助けになり、子どもを救うことに繋がるのです。
また、児童虐待防止を取り巻く倫理の問題は、AIに限ったものではありません。児童相談所や自治体の職員、親をはじめとした養育者、研究者の皆さま、そして子どもたちとも議論を重ね、一丸となって子どもが安全に暮らせる世の中を実現したいと考えています。
引き続き弊社の取り組みにご理解とご協力を賜りますよう、お願い申し上げます。
株式会社AiCAN AI倫理プロジェクトチーム