南アフリカ全土の政府機関は、公共プログラムを評価し、パフォーマンスを監視するために、デジタルツールへの依存度を高めています。これは、より広範な公共部門改革の一環です。その目的は、説明責任の向上、監査圧力への対応、限られたスタッフと予算での大規模プログラムの管理です。
例を挙げましょう。住宅供給、社会保障、インフラ展開を追跡する国家機関は、定期的な紙ベースの報告書ではなく、デジタルパフォーマンスシステムに依存しています。ダッシュボード(1つの場所で視覚データを表示する方法)は、サービス提供に関するほぼリアルタイムの更新を提供します。
もう1つは、モバイルデータを収集するプラットフォームの使用です。これにより、最前線の職員や請負業者は、現場から直接情報をアップロードできます。
どちらの例も、大規模なデータセットを処理し、以前は分析に数か月かかっていたインサイトを生成するために、人工知能(AI)の使用に適しています。
この変化は、公共部門における説明責任と効率性への前進として描かれることがよくあります。
私は、政府プログラムの監視と評価に特別な関心を持つ公共政策学者です。私の最近の研究は、テクノロジーへの転換が、それを規制するはずの倫理的およびガバナンスの枠組みよりもはるかに速く展開しているという懸念すべき傾向を示しています。
私が調査したケース全体で、デジタルツールはすでに日常的な監視および評価プロセスに組み込まれていました。しかし、その使用を導く明確な基準はありませんでした。
これは、監視、排除、データの誤用、および専門家としての判断の欠如に関するリスクをもたらします。これらのリスクは抽象的なものではありません。これらは、市民が国家をどのように経験するか、データがどのように扱われるか、そして最終的に政策決定において誰の声が重要視されるかを形作ります。
テクノロジーが政策を追い越すとき
公共部門の評価には、政府のプログラムと政策の評価が含まれます。それは以下を決定します:
- 公共資源が効果的に使用されているか
- プログラムが意図した結果を達成しているか
- 市民が国家にパフォーマンスの責任を問うことができるか
従来、これらの評価は、コミュニティ、評価者、政府、その他の間の対面でのやり取りに依存していました。それらには、ニュアンス、説明、信頼構築を可能にする質的手法が含まれていました。
デジタルツールはこれを変えました。
私の研究では、政府、NGO、学術機関、専門家協会、民間コンサルタント会社の評価者にインタビューしました。私は全体にわたって一貫した懸念を見つけました。デジタルシステムは、評価実践に合わせた倫理的ガイダンスなしに導入されることがよくあります。
倫理的ガイダンスは、評価においてデジタルツールがどのように使用されるかについての明確で実用的なルールを提供するでしょう。たとえば、ダッシュボードまたは自動データ分析を使用する場合、ガイダンスは評価者に、データがどのように生成されるか、誰がアクセスできるか、調査結果が評価されるコミュニティにどのように影響する可能性があるかを説明することを要求する必要があります。また、同意なしに個人を監視したり、コンテキストを無視する方法でプログラムをランク付けしたりするためにデジタルシステムを使用することを防ぐ必要もあります。
南アフリカの個人情報保護法は、データ保護のための一般的な法的枠組みを提供しています。しかし、評価が自動化され、クラウドコンピューティングベースになり、アルゴリズムによって媒介される場合に生じる特定の倫理的ジレンマには対処していません。
その結果、評価者は明確な基準なしに複雑な倫理的領域をナビゲートすることを余儀なくされることがよくあります。これにより、機関は先例、非公式な習慣、過去の慣行、ソフトウェアのデフォルト設定に依存することを余儀なくされます。
監視の浸透とデータの誤用
デジタルメディアプラットフォームは、大量のデータを収集することを可能にします。データがクラウドコンピューティングベースのシステムまたは第三者プラットフォームにアップロードされると、その保存、再利用、共有の管理は、評価者から他の人に頻繁に移行します。
数人の評価者は、政府機関のために収集したデータが後に機関または他の国家機関によって再利用された状況を説明しました。これは参加者の明示的な認識なしに行われました。デジタル環境での同意プロセスは、しばしば1回のクリックに縮小されます。
他の用途の例には、他の形式の分析、報告、または機関の監視が含まれていました。
研究から明らかになった倫理的リスクの1つは、監視のためのこのデータの使用でした。これは、個人、コミュニティ、または最前線の労働者を監視するためのデータの使用です。
デジタル排除と見えない声
デジタル評価ツールは、しばしばリーチと参加を拡大するものとして提示されます。しかし実際には、すでに疎外されたグループを排除する可能性があります。インターネットアクセスが制限されているコミュニティ、デジタルリテラシーが低いコミュニティ、言語の壁があるコミュニティ、または信頼性の低いインフラストラクチャを持つコミュニティは、デジタル評価に完全に参加する可能性が低くなります。
自動化ツールには制限があります。たとえば、多言語データ、地域のアクセント、または文化的に特定の表現形式の処理に苦労する場合があります。これは、生きた経験の部分的または歪んだ表現につながります。私の研究の評価者は、これが実際に起こっているのを見ました。
この排除は、南アフリカのような不平等のある国では特に深刻な結果をもたらします。デジタルツールに大きく依存する評価は、都市部の接続された人口を見つけ、農村部または非公式のコミュニティを統計的に見えなくする可能性があります。
これは単なる技術的な制限ではありません。それは、どのニーズが認識され、誰の経験が政策決定に情報を提供するかを形作ります。評価データが最も脆弱な人々を過小評価している場合、公共プログラムは実際よりも効果的に見える可能性があります。これは、構造的な失敗に対処するのではなく、それらを隠蔽します。
私の研究では、評価者がデータ収集のギャップを指摘しているにもかかわらず、一部の評価は肯定的なパフォーマンス傾向を報告しました。
アルゴリズムは中立ではない
評価者はまた、アルゴリズム出力に与えられる権限の増大について懸念を表明しました。ダッシュボード、自動レポート、AI駆動の分析は、しばしば真実として扱われます。これは、現場に基づく知識やコンテキストの理解と矛盾する場合でも起こります。
たとえば、ダッシュボードは目標が順調に進んでいることを示す場合があります。しかし、サイト訪問の例では、評価者は欠陥や不満を見つける可能性があります。
数人の参加者は、資金提供者や機関から数字の分析に依存するよう圧力を受けたと報告しました。
しかし、アルゴリズムは、その設計に組み込まれた仮定、データセット、優先順位を反映しています。無批判に適用されると、偏見を再現し、社会的ダイナミクスを過度に単純化し、質的なインサイトを無視する可能性があります。
デジタルシステムがデータの収集、分析、報告方法を指示する場合、評価者は技術者になるリスクがあり、判断を行使する独立した専門家ではなくなります。
アフリカがコンテキストに敏感な倫理を必要とする理由
アフリカ全体で、デジタル技術に関する国家戦略と政策は、しばしば国際的な枠組みから大きく借用しています。これらは非常に異なるコンテキストで開発されています。AI倫理とデータガバナンスに関するグローバル原則は、有用な参照点を提供します。しかし、アフリカの公共部門の多くにわたる不平等、歴史的不信、不均一なデジタルアクセスの現実に適切に対処していません。
私の研究は、デジタル評価のための倫理的ガバナンスはコンテキストに敏感でなければならないと主張しています。基準は以下に対処する必要があります:
- 同意がどのように得られるか
- 誰が評価データを所有するか
- アルゴリズムツールがどのように選択および監査されるか
- 評価者の独立性がどのように保護されるか
倫理的枠組みは、デジタルシステムの設計段階で組み込まれる必要があります。![]()
Lesedi Senamele Matlala、公共政策、監視および評価の上級講師兼研究者、ヨハネスブルグ大学
この記事は、クリエイティブ・コモンズ・ライセンスの下でThe Conversationから転載されています。元の記事をお読みください。






