概要
1 はじめに
2 関連研究
2.1 レコメンデーションにおける公平性とバイアス
2.2 自然言語処理表現におけるジェンダー関連性の定量化
3 問題提起
4 方法論
4.1 範囲
4.3 フラグ
5 ケーススタディ
5.1 範囲
5.2 実装
5.3 フラグ
6 結果
6.1 潜在空間の可視化
6.2 バイアス方向
6.3 バイアス増幅メトリクス
6.4 分類シナリオ
7 考察
8 限界と今後の研究
9 結論と参考文献
\
分離された潜在因子推薦研究は、LFRアルゴリズムが訓練されたユーザーとアイテムの埋め込みにおいてモデル属性を絡み合わせることが示され、不安定で不正確な推薦出力につながることから、ますます人気が高まっています[44, 58, 62, 65]。しかし、この研究のほとんどは結果重視であり、パフォーマンス向上のための緩和方法を提供していますが、潜在空間における表現バイアスの可能性に対処していません。その結果、属性がどのように明示的に(モデル属性として明確に使用されるため)または暗黙的に推薦潜在空間に取り込まれるかを分析する既存の評価技術はほとんどありません。存在するものについても、メトリクスは明示的に使用される独立したモデル属性の分離レベルを評価することに焦点を当てており、エンティティベクトルと機密属性間の暗黙的なバイアス関連性や潜在空間内に捕捉される体系的なバイアスを調査するのではありません[44]。潜在表現バイアスは自然言語や画像処理などの他の種類の表現学習においてよく研究されている現象ですが、露出度や人気度バイアスに関する大量の研究と比較すると、比較的調査が不足しています[23]。
\ 本論文で提示される研究は、属性関連バイアスを評価するためのフレームワークを提供することにより、LFRアルゴリズムにおける表現バイアスの評価に関する現在の研究ギャップを埋めることを目指しています。ユーザーとアイテム(エンティティ)の埋め込みにエンコードされる潜在的な属性関連バイアスを特定することは、それらが産業環境でよく見られるハイブリッドマルチステージ推薦システムのダウンストリーム機能となる場合に不可欠です[6, 14]。これらのシステムの構成的公平性、つまりあるコンポーネントからのバイアスがダウンストリームコンポーネントに増幅される可能性を評価することは、このタイプのバイアスがシステムコンポーネント内でどのように最初に発生するかを理解していない場合、困難です[59]。実践における緩和前にシステムを監査および調査する際には、バイアスの現状を理解することが不可欠です[9]。私たちの提案する方法は、属性関連バイアスが推薦システムにどのように侵入するかを理解したい実務者と研究者のための障壁を下げることを目指しています。これらの評価技術により、実務者は緩和において分離すべき属性をより正確に範囲設定し、緩和が成功したと判断するためのベースラインを提供することができます。
\ 私たちはこれらの方法を産業ケーススタディに適用して、ポッドキャスト推薦のためのLFRモデルにおけるユーザーの性別属性関連バイアスを評価します。これまでの研究は主に、ユーザーの性別バイアスに関する公開データの不足により、プロバイダーの性別バイアスの評価に焦点を当ててきました。私たちの知る限り、私たちの研究はポッドキャスト推薦におけるユーザーの性別バイアスを定量化する最初の試みの一つです。私たちの観察が他の産業実務者がシステム内のユーザーの性別やその他の機密属性関連バイアスを評価するのに役立ち、以前の定性的ユーザー研究を超えたポッドキャスト視聴に関する定量的洞察を提供し、産業システム内の機密トピックに関する将来の議論とより大きな透明性を促進することを願っています。
\
:::info 著者:
:::
:::info この論文はarxivで入手可能であり、CC by 4.0 Deed(Attribution 4.0 International)ライセンスの下で公開されています。
:::
\

