HRにAI時代到来、人的資本経営のDEI推進を阻むリスクとその軽減策
ATD-ICE2024現地レポート5月19日から22日まで4日間にわたって人材・組織開発プロフェッショナルの世界最大の会員組織ATD(Association for Talent Development)が今年の国際大会「ATD-ICE2024」を米ニューオーリンズで開催した。現地で同イベントに参加し、セッションやEXPOで垣間見たグローバルな潮流をシリーズでお届けする。
3回目はDEI戦略コンサルティングや人材育成などを手掛けるレインボー・ディスラプションの最高売上責任者、マイケル・パターソンによるセッション。同社は米ナイキでCDEIOを務めたジャービス・サムが創業した。DEI の目標や目的の観点から、組織の日常業務に AI を実装することに伴うリスクとその軽減策を解説する。
人的資本経営の大事な要素であるDEI戦略推進にAI活用が与える影響への考察は新鮮。AI導入は効果が大きいだけにリスク管理を怠ると悪影響も甚大になりかねない。グローバル企業にとどまらず、日本企業も押さえておくべき視点だろう。
学習データの偏りが不平等を拡大する
人工知能(AI)は、トレーニングするために使用したデータから学習する。このデータに偏りがあったり不完全であったりすると、既存の偏りを永続化したり、悪化させたりする可能性がある。
たとえば、顔認識システムが主に男性と白人のデータでトレーニングされている場合、そのシステムは他の人口統計データやグループに対しては、それほど正確に機能しない可能性がある。偏ったデータは、歴史的な社会的不平等、人間の偏見、組織的な差別から生じる可能性がある。MITメディア・ラボのジョイ・ヴォラムウイニ氏の研究によると、旧IBM、Microsoft、その他のプラットフォームの顔認識システムでは、肌の色が濃い女性の場合のエラー率が最大34.7%であったのに対し、肌の色が薄い男性の場合はエラー率が0.8 %だった。
AIは、特に雇用や刑事司法などの分野で、トレーニングデータに存在する歴史的な偏見を永続化または強化する可能性がある。例えば、プロパブリカの調査によれば、米国の刑事司法制度に基づくリスク評価アルゴリズムは、黒人被告に対して偏見があることが判明した。
アクセシビリティの制限は不平等を拡大する
次のリスクとして、AIがもたらすアクセシビリティの制限という課題がある。テクノロジーは必ずしもアクセシビリティを考慮して設計されているわけではないため、障害のある人は利用できない場合がある。たとえば、音声起動の仮想アシスタントは、聴覚障害者や難聴者には利用できない可能性がある。
AIが既存の不平等を悪化させたり緩和したりする可能性があるという認識を持つべきだ。AI開発においてアクセシビリティを優先し、これらのテクノロジーがすべての人に包括的かつアクセス可能であることを保証することが重要だ。
AIシステムの開発と実装において公平性と公正性を優先し、これらのテクノロジーが既存の偏見や不公平を永続化させないようにすることが重要だ。また、AIシステムの影響を受ける人々による監視と意思決定プロセスを100%導入し、偏った結果を捕捉して修正することも欠かせない。そのために全員が社内でデューデリジェンスを実施し、偏ったトレーニングデータを見極める必要がある。
AIシステムと仕組みに透明性は不可欠
AIシステムとその仕組みについて透明性を保つことは重要だ。これには、偏見を軽減するための取り組みや、偏見に対処するための手順について、従業員との間で率直にコミュニケーションを取ることが含まれる。またAIベンダーとのコミュニケーションも同様だ。ベンダーが提供するAI機能やその能力の違いを説明できない場合、それはそのベンダーが適切なデューデリジェンスを行っていない可能性がある。
また、AIベンダーに対する問い合わせの中で、ベンダーが方向転換をする意志があるかどうかを確認することも重要だ。これには、AIプログラムの改良や更新、新しいバイアス軽減戦略の実装などが含まれる。もしベンダーがこれらの変更を加える意志があると答えた場合、それはベンダーがあなたのビジネスを獲得するために必要な努力を払っているといえる。
しかし、ベンダーがあなたの質問に対して明確な答えを提供できない、またはあなたのニーズを満たすための具体的な計画を持っていない場合、それは要注意サインだ。この場合、ベンダーとの関係を再評価し、必要であれば他のベンダーを探すことを検討するべきだ。
DEI戦略に沿いAIシステムを活用するためのルール
AIシステムを活用するためには以下のルールがある。
①明確な倫理ガイドラインと原則
これらのガイドラインと原則は、AIシステムが公正かつ公平に使用されることを保証するためのもので、AIベンダーとの関係の中で重要な役割を果たす。ベンダーがこれらのガイドラインと原則を尊重し、それに従って行動することを確認することが重要だ。
② 説明責任を明確に定義し遵守
特定の個人またはチームが、AIシステムの偏見を監視し、対処する責任を持つ。これにより、AIシステムが公正に運用され、その結果が適切に監視と評価が行われる。
③ 透明性とコミュニケーション
AIシステムとその仕組みについての透明性を保つことで、従業員やステークホルダーとの間で率直なコミュニケーションを促進する。これにより、AIシステムがどのように機能し、その出力がどのように偏りを生じる可能性があるかについての理解が深まる。
④従業員や社外利用者からのフィードバック
AIシステムが従業員のニーズと価値観を満たし、公平に扱われていると感じられるようにする。フィードバックはAIシステムの改善にも役立つ。
⑤ AIシステムのパフォーマンスを継続的に評価
バイアス軽減の取り組みを改善する機会を探すことが重要。これには、アルゴリズムの改良、トレーニングデータの更新、必要に応じて新しいバイアス軽減戦略の実装などが含まれる場合がある。
1944年設立の非営利団体で本部は米ヴァージニア州アレクサンドリア。約100カ国以上の国々に約40,000人の会員(20,000を越える企業や組織の代表を含む)を抱える、人材開発・組織開発に関する世界最大の会員制組織。カンファレンス・セミナーの開催、書籍の出版、認定資格の認証など、幅広く活動している。
(日経ヒューマンキャピタルラボ編集長 福家 整)