伝えられるところによると、Amazonのチームは、最も可能性の高い採用者を明らかにするために、求職者の履歴書を精査するソフトウェアに取り組んできました。ロイター通信によると、エンジニアがどれほど懸命にそれを修正しようとしても、採用エンジンは女性を差別する方法を見つけたことが徐々に明らかになりました。
水曜日に、アウトレットは2014年に開始された自動履歴書レビュープログラムに精通している5つの情報源を引用しました。それらの情報源によると、約12人のエンジニアで構成されるチームは、機械学習を利用して10年分の価値をレビューするプログラムの構築を任されました。アマゾンに提出された履歴書とその後の雇用慣行。目標は、AIに、最も可能性の高い採用担当者を特定して、後で人間の採用担当者が精査する必要がある潜在的な採用担当者のリストを合理化する方法を教えることでした。ロイターから:
ギズモードは、レポートにコメントのためにアマゾンに伸ばしてスポークスマンは、私たちに次の文を送った :「 これは、候補者を評価するためにアマゾンの採用担当者によって使用されていませんでした。」
アルゴリズムの性別による差別の問題は、プロジェクトのライフサイクルの約1年後に明らかになり、最終的には昨年放棄されたと報告書は述べています。主な問題の1つは、Amazonが処理しなければならなかったデータセットだったようです。過去10年間に会社に提出された履歴書のほとんどは男性からのものであり、技術部門は初期の頃から男性によって管理されてきました。
レポートで引用されているもう1つの問題は、男性の応募者がよく使用する言語に対するアルゴリズムの好みでした。特定のプログラミング言語の習熟度などの一般的な単語やフレーズは無視され、「実行済み」や「キャプチャ済み」などの動詞がより重要視されます。
ロイター通信によると、それぞれが50,000の固有の用語を理解するように訓練された、500回の反復の後、チームは差別的な慣行に戻るのをやめるツールを手に入れることができませんでした。時が経つにつれ、モデルはしばしば資格のない応募者をランダムに推薦するようになりました。
チームの努力は、アルゴリズムの限界と、変化する世界での実践の自動化の難しさを浮き彫りにしています。より多くの女性がハイテクセクターに参加しており、すべての主要なハイテク巨人は何らかの形で多様性イニシアチブを持っています。しかし、変化は痛々しいほど遅いです。機械は、私たちが指示したことを実行するだけです。マシンが例から学習していて、性差別的な例しか提供できない場合、性差別的な結果が得られます。
ロイターによると、アマゾンのエジンバラエンジニアリングハブに新しいチームが結成され、採用の「聖杯」に新たな亀裂をもたらしました。
[ロイター]