ソロモン・フィリップはシフトテクノロジーのマーケット・インテリジェンス部門を統括しています。
保険業界を規制が厳しいとするのは、かなり古風な捉え方かもしれません。保険会社は、事業を行うそれぞれの国の法律や規制だけでなく、国境を越えた法律や規制にも従わなければなりません。これらの規制の多くは、ソルベンシーの要件やマネー・ロンダリング防止規則など、保険会社の事業を対象としたものであるが、中には保険会社が採用するテクノロジー慣行やアプローチを対象としたものもあります。多くの場合、テクノロジーに関する規制は、保険契約者を保護し、すべての消費者にとって保険が公正で利用しやすいものであることを保証するためのものです。
しかし、AIが保険業界で採用され続けているにもかかわらず、一部の保険契約者にとって、この技術が実際には悪影響をもたらしているのではないかという懸念があります。AIの初期アルゴリズムの設計が不十分であったり、アルゴリズムを訓練するために欠陥のあるデータセットを使用したり、適切なレビューや監視が行われなかったり、これらすべての要因やその他の要因の組み合わせによって、AIが時間の経過とともに無意識のバイアスを発生させる可能性があることは以前から知られています。また、AIはしばしば「ブラックボックス」技術とみなされるため、この技術の使用に基づいて保険契約の申込を拒否された顧客や、保険金請求が常に不正なものとして調査されたり拒否されたりする保険契約者は、ほとんど救済手段がないと感じるかもしれません。
2018年5月25日に施行されたGDPRは、世界で最も厳しいプライバシーおよびセキュリティ法のひとつとみなされています。主に個人のデータとその収集、使用、保存方法を保護することを目的としていますが、GDPRの中には、個人に関する自動化された決定について、個人が意味のある説明を受けられるようにしなければならないという規定もあります。GDPRを遵守しなかった場合、企業の年間グローバル収益の4%または2000万ユーロという高額な罰金が科される可能性があります。
さらに、EUミッションは2021年に、保険会社を含む金融サービス機関におけるAI活用のための包括的な法的枠組みに関する野心的な提案であるAI法を発表しました。まだ承認・施行はされていませんが、その規定では、リスクの高いAIシステムには、適切なガバナンスと管理慣行とともに、高品質のデータセット、トレーニング、検証、テストを使用することが義務付けられています。保険会社は、データポイズニング、敵対的攻撃、脆弱性の悪用を防ぐための適切な対策を講じることが求められます。同法は、保険会社がデータを調達する際、ユースケースに見合った十分な注意を払うことを求めています。アルゴリズムによる信用スコアリングの台頭や、金融サービスにおける個人データへの依存は、差別への懸念を増幅させています。保険会社がGDPR違反は大変なことだと考えているなら、AI法はさらにその上を行きます。AI法を遵守しなかった場合、保険会社は最大3,000万ユーロの罰金、または全世界の年間売上高の6%を負担する可能性があります。
保険会社はまた、最初から意識的・無意識的バイアスを軽減するように設計されたアルゴリズムを構築する専門家であるベンダーやソリューション・プロバイダーとの協業を模索すべきです。また、セキュリティとデータ・プライバシーに真摯に取り組み、その姿勢を示すことができるベンダーとの提携を強く求めるべきです。最後に、保険会社は、ソリューションによって下された意思決定について十分な説明可能性を提供し、システムによって生成されたアラートや意思決定に関連するすべてのデータや変数の監査可能な履歴を提供できるテクノロジー・プロバイダーを探すべきです。
保険の意思決定を改善するAIの利用方法についての詳細は、こちらからお問い合わせください。