コース: Microsoft Azure AIの基礎知識:Azureでのワークロードと機械学習
「責任あるAI」の実例
責任ある AI を実装することに 成功した企業を強調するよりは、 それを実現できなかった企業と そのビジネスへの影響を まず検討してみましょう。 2023 年5月に、Meta は GDPR 規則に違反したとして、 記録的な 12 億ユーロの 罰金を課されました。 この問題は、 ヨーロッパのユーザーから 収集されたデータを米国に転送し、 欧州連合のデータ保護法に 違反したことに起因しています。 さらに Meta は、 Facebook の公開投稿を利用して、 AI をトレーニングしましたが、 この情報が どのように使用されているかについて、 AI 体験の構築と改善をした という曖昧に強調するだけで、 米国ユーザーのデータスクリーピングが いつ始まったのかは不明のままです。 ヨーロッパのユーザーは データ共有をオプトアウトできますが、 それ以外の地域では、 このオプションは利用できません。 ユーザーやプライベシー保護団体からの 抗議にも関わらず、 現在のところ米国における 具体的なプライベシー法が 欠如しているため、 メタ AI が公開されている ソーシャルメディア投稿に アクセスすることを防ぐ方法はありません。 Amazon は 2014 年に AI 採用ツールを開発しましたが、 最終的に廃止されました。 女性応募者に対する 偏見が示されたためです。 このシステムは 10 年以上にわたって 提出された履歴書を元に トレーニングされており、 そのデータのほとんどが 男性からのものでした。 その結果、成功した履歴書を 男性候補者と関連付けて、 女性の活動に言及した履歴書を格下げし、 男性がより一般的に使用する用語を 優先していました。 Tesla のオートパイロットシステムは、 2024 年4月に 国家道路交通安全局により報告された 13 件の死亡事項を含む 少なくても 467 件の 衝突事項に関連していました。 この主要な問題は、 システム能力が運転者の期待に一致せず、 運転者の無関心や テクノロジーへの過信を 引き起こしたことにあります。 一方、責任ある AI の実践例として Microsoft が挙げられます。 Microsoft は、 Azure OpenAI サービスを通じて 米国の警察署が生成型 AI を 顔認識に使用することを禁止しました。 この決定は、特に肌の色が濃い人に対する 人種的偏見のリスクを示す研究に 基づいています。 またMicrosoft は、 2020 年6月に Face API から 感情認識機能を削除しました。 これには偏見、差別、プライベシーに関する 懸念があったからです。 これらの例は、責任ある AI の実践を 行わなかった場合に、 企業が直面する深刻な結果を示しています。 AI 開発において 透明性、公平性、責任が いかに重要であるかを強調しています。