AIの本と用語検索

フェアネス

AIにおけるフェアネス(公平性)とは、人工知能システムがその意思決定や予測を行う際に、特定の個人や集団に対して系統的な偏りや差別的な影響をもたらさないように保証する、倫理的かつ技術的な概念です。

この概念は、特に機械学習モデルの訓練に用いられるデータセットに内在するバイアスが、モデルの出力に反映されてしまうことに起因する問題として顕在化します。

バイアスは、歴史的な社会構造、不均衡なデータ収集、または特徴量選択の際に意図せず組み込まれることがあります。結果として、AIシステムは、特定の保護された属性(例:人種、性別、年齢)を持つ集団に対して、不当に異なる待遇や影響を与える可能性があります。

フェアネスの達成に向けた取り組みには、バイアス検出と緩和のための様々なアルゴリズム的アプローチが研究されています。これらは、訓練前(pre-processing)、訓練中(in-processing)、訓練後(post-processing)の各段階で適用されます。

例えば、「デモグラフィック・パリティ」や「イコライズド・オッズ」といった公平性基準を定義し、それを最適化の制約条件として組み込むことで、差別的推論を抑制しようと試みられます。

最終的に、AIのフェアネスは、AI技術の社会的受容性と信頼性を確立し、その利用が包括的で公正な社会に貢献するための必須要件であると認識されています。