堀 博美のSHLグローバルニュース

このコーナーは、当社がライセンス契約を結んでいるSHL Group Ltd. がお客様に向けて発信している様々な情報を日本語に翻訳してご紹介するものです。主にグループHPのプレスリリースやブログなどから記事をピックアップしています。海外の人事の現場でどんなことが話題になっているのか、人材マネジメントに関して海外企業はどんな取り組みをしているのかをお伝えすることで、皆さまのお役に立てればと願っております。

前回、SHLグループによるAspiring Minds社買収についてご報告しました。Aspiring Minds社は人工知能(AI)を得意としています。今回は、SHLブログから、そのAIに関連する記事をご紹介します。

第289回 AIアセスメントの4つの原則

わくわくするような、でも、わかりにくく、時には人のやる気をなくさせるような、AIアセスメントの世界をどう解明するか。

人工知能(AI)という言葉が至る所にあふれています。アセスメント業界だけでも、おそらく数百社がAIによるアセスメントの力について語っています。しかし、それは何を意味しているのでしょうか?そのうちのどれくらいが実際にAIで、どれくらいが単に誇大広告でしょうか?AIはツールの中のほんの一部分なのか、それとも、完全なロボットにコントロールさせるのでしょうか?私は成人してずっとこの業界で仕事をしてきましたが、その私でも答えることが難しい質問です。

一般の人々にとってはさらに一層不透明です。AIベースの採用ツールについて語る記事のコメントセクションを見てみてください。カオスです。大混乱です。私は、ある会社のAIソフトウェアがどう使われているかを報告した最近の記事のコメントセクションに果敢にも飛び込んでみました。次のようなコメントがありました。

『そのアルゴリズムが単に魅力的な反社会的人間を選抜しているわけではないと、どうやってわかるのだろう?そういう人間が、リーダーとしてのポテンシャルあり、とフラグを付けられることは多いのに。』

『このシステムは発話障害の人をどう扱うのだろう?目が見えない人は?もし私が当日、風邪をひいていて声のトーンが1オクターブ低くなったら?もし猫がパッと飛びついてきてキーを叩いたらどうなるの?』

要するに、AIアセスメントの世界は混乱していて、すべてを理解する方法についてはほとんど書かれていません。私たちは皆、従うべき判例を持てるよう、最初の大きな訴訟が米国最高裁判所に届くのを待っている状態です。 技術面で何をやってはいけないのかについてもし私たち全員が互いに合意できないのならば、一般人はAIアセスメントツールをどう受け入れていくのでしょうか?

私一人でこの問題を解決することはできませんが、全員が合意できる基盤を確立すべき時が来たと考えています。以下に「AIアセスメントの4つの原則」を提案します。

確かに、AIは理解が難しいです。 専門用語がたくさんあり、頭字語が多すぎて覚えられません。しかし、それが非常に高度だからといって、どう機能するかを説明できるようAIアセスメント開発者に要求してはいけない、というわけではないでしょう!まだロボットにすべてを処理させる段階ではありません。

自分が理解していない(もしくは理解できない)採点や特徴を備えたAIアセスメントを開発することは誰もできません。

気候変動が干ばつや山火事、洪水を引き起こしていることは知っていますが、たとえもし世界が実際のダストボウル(訳者註:1930年代、アメリカ中西部の大平原で断続的に発生した砂嵐)になったとしても、私たちはダストボウルの過去の経験を当てにはできません。理論が重要です。確かに、AIと機械学習の力は、従来の分析手法ではできなかった関係と予測を引き出すことができます。しかし、それはダストボウル経験論の第2期に戻ることを意味しているのではありません。相関は因果関係ではないことは誰もが知っています。新しい技術により、分析するにはノイズが多すぎるとかつて考えられていたデータセットから予測モデルを構築することはできますが、時間の経過に耐えられない予測をすることにつながる可能性もあります。

現在の従業員からの全データを分析皿に投入すれば、一見すごい予測的特徴に出くわすことができるかもしれません。しかし、理論がなければそれは、そのデータセット内の統計的アーチファクト(人工物)を利用しているだけで、一般集団には当てはまらないものである可能性大です。もしあなたのアルゴリズムが、Hufflepuffsであると識別された人が他のHogwartsハウスだとされた人よりも仕事にとどまる可能性が37%高いと確かに予測していると「証明」できたとして、それは重要ですか?その抗弁で裁判に勝てますか?(訳者註:HufflepuffとHogwartsはハリー・ポッターのシリーズに出てくる寮と学校)

AIアセスメントで使われている特徴や変数はすべて、使用目的に関連するものでなければなりません。

忘れないでください、ほとんどのAIアセスメントは単一の組織からのデータを使用して訓練されます。何らかの形でのバイアスなしにあらゆる人事決定を下す組織など世界にはありません。あるデータセットでAIを走らせれば、既存のバイアスをプログラムに組み込んでしまって、AIアセスメント導入前のバイアスを倍加するだけになってしまう可能性大です。

それでは、人間が偏った判断を下す代わりに、偏った判断を下すコンピュータができるだけです。受け入れられません。AIアセスメントの作成を密接に監督する、経験豊富で倫理的で教育を受けた専門家が必要です。訓練された実務家が、AIで最終的に使用される変数と機能を選択し、人種や性別のバイアスのリスクを減らす手伝いをしなければなりません。アルゴリズムの作成に使ったまさにその組織のデータに対してアルゴリズムを実行して人種的バイアスが出ないからといって、その組織の外で使用した時に人種的バイアスが出ないとは限りません。

すべてのAIアセスメントは、経験豊富で倫理的で教育を受けた専門家の密接な監督の下に開発されなければなりません。

これら新しいテクノロジーの倫理的応用を推進するのは、データサイエンティスト、産業組織心理学者、行動経済学者、エンジニアなどですが、これらのツールが何百万人もの人々の生活に大きな影響を与えるという事実が見失なわれがちです。統計的確率を高めることが話題に上ります。しかし、その背後にいる応募者、例えば、家族を養うためにその仕事を必要とする女性にとっては、これは高い賭けです。我々には、すべての受検者がベストなパフォーマンスを示すチャンスを与えられるよう確保する道徳的義務があります。

我々は、会社と受検者の両方に対して、採否の判断に使用されるすべてのアセスメントが公平で、偏りがなく、仕事に関連し、真に仕事のパフォーマンスを予測できるよう保証しなければなりません。

 

AIの世界は刺激的でややこしく、不安を感じます。今こそ、我々が立場を明確にしてアセスメントにおけるAIの倫理的適用を主張し、我々のやり方の中心に優れた科学性と人への影響をおくことに合意すべき時です。 

(© SHL. Translated by the kind permission of SHL Group Ltd. All rights reserved)

訳者コメント

原文はこちらです。
https://www.shl.com/en/blog/the-4-imperatives-of-artificial-intelligence-assessments/

原文はこちら。筆者のランス・アンドリュースランスは、SHLアメリカのビジネスのスペシャリストソリューションの責任者です。

私自身もAIのアセスメントへの活用については期待と不安の両方があります。ここで挙げられた4つの原則はまさに同意するところです。AI判断の背後にあるアルゴリズムや理論についてしっかり理解していきたい、と思っています。

(文責:堀 博美)

バックナンバー

2019年
2018年
2017年
2016年
2015年
2014年
2013年
2012年
2011年
2010年
2009年
2008年

学会発表論文