オーストラリアは火曜日に人工知能戦略を発表しました。驚くべき点は?政府がハイリスクAI利用に関して以前言及していたより厳しい規制から後退していることです。
現時点でオーストラリアには特定のAI法はありません。昨年、労働党政府はプライバシー問題、安全性、透明性に関する懸念が提起されたため、自主的なガイドラインを導入する可能性があると述べていました。
火曜日の国家AI計画は3つの点に焦点を当てています:先進データセンターへの投資獲得、雇用を守るためのAIスキルの構築、そしてAIが日常生活の一部となる中で公共の安全を確保することです。
政府は新しい法律を作るのではなく、既存の法律を使用してAIリスクを管理する計画です。「政府のAIに対する規制アプローチは、オーストラリアの堅固な既存の法的・規制的枠組みを基盤とし続け、確立された法律がAI関連リスクへの対処と軽減の基礎であり続けることを確保します」と計画は述べています。
個々の政府機関が自分の領域でAIリスクを処理します
世界中の規制当局は、コンテンツを生成するAIツールによる誤情報について警鐘を鳴らしています。マイクロソフトが支援するOpenAIのChatGPTやGoogleのGeminiが広く使用されるようになり、これらの懸念が高まっています。
先月、政府は2026年にAI安全研究所を設立すると発表しました。この研究所は新たなリスクを監視し、脅威に対応するのに役立ちます。
連邦産業大臣のティム・エアーズ氏は、このロードマップはオーストラリア人が新技術の恩恵を受けるのを助けることを目指していると述べました。それはイノベーションとリスク管理のバランスを取ろうとしています。
「技術が進化し続けるにつれて、私たちはこの計画を洗練し強化し続け、新たな機会を捉え、オーストラリア人の安全を確保するために断固とした行動を取ります」とエアーズ氏は述べました。
しかし、政府が提唱していることに全員が賛同しているわけではありません。オーストラリアン・カトリック大学の准教授ニウシャ・シャフィアバディ氏は、更新されたロードマップには重大な欠陥があると述べました。
「この計画はデータの解放と生産性向上に関して野心的ですが、説明責任、主権、持続可能性、民主的監視において重大な欠陥を残しています」とシャフィアバディ氏は述べました。
彼女は付け加えました:「これらの未探索の領域に対処しなければ、オーストラリアは効率的だが公平でも信頼できるものでもないAI経済を構築するリスクがあります。」
これを読んでいるあなたはすでに先を行っています。私たちのニュースレターでその状態を維持しましょう。

