
以前に、AIのアルゴリズムやデータに含まれるバイアスによる悪影響に関する記事を紹介しましたが、これはその続きです。今回の記事では、そのようなバイアスが入り込むことを防ぐ方法が提案されています。
マシンラーニングのアルゴリズムはブラックボックス
以前のコンピューターアルゴリズムは、明確なルールやインストラクションに従っていました。しかしマシンラーニングでは、データから学ぶプロセスをアルゴリズム自体が記述し、自らの判断やアクションを絶えず洗練させます。そのため、なぜそのアルゴリズムが特定の結果を生成するのかが理解できなくなります。複雑なアルゴリズムは、調査・検討・理解することのできないブラックボックスなのです。
アルゴリズムやデータによるバイアスを検出・緩和することに加え、このような制約に対処する方法に関して、研究者、倫理学者、エンジニアなどが、さまざまな方法を推奨しています。
近似モデル(approximation model)
これは、ブラックボックスアルゴリズムを「教師」とし、それと類似の結果を生成でき、より透過的な「生徒」アルゴリズムをモデルとして作ることによる方法です。この透過的な「生徒」アルゴリズムの入力を操作することにより、結果を比較したり、ブラックボックスアルゴリズム(教師)の生成する結果を予測します。
自分自身を説明するティーチングマシン
これは、自分自身を説明する方法をアルゴリズムに教える、つまり自分が何をやっているかをアルゴリズムに説明させる方法です。
監査方法をアルゴリズム用に調整する研究
多くのアルゴリズムでは、インタラクションを行うユーザーが異なれば、異なる結果が生成されるので、単にコードを監査・理解するだけではバイアスがないかどうかを十分に調べることができません。
そのため、相手によってバイアスが生じないかを調べる方法などが研究されています(たとえば、一方は一般的な白人男性の名前を使い、他方は一般的な女性名やアフリカ系アメリカ人の名前を使ったときにどうなるか)。
元の記事:
関連記事:
『AIのアルゴリズムやデータに含まれるバイアスがeラーニングに与える影響』
『感情に訴えかける学習(アフェクティブラーニング)とAI(合理的思考にも感情が必要)』
『AIではなくIA(知能増幅、intelligence augmentation)について考えよう』
※このサイトに掲載されている一連の記事は、オリジナルの記事の全体または一部の概要を紹介するものです。正確なところはオリジナルの記事をご参照ください。