コース: Microsoft Azure AIの基礎知識:Azureでのワークロードと機械学習

責任を持ってAIを利用する

人工知能安全で倫理的かつ法的に設計、 展開、使用することを確保します。 しかし AI には重要な課題やリスクが伴い、 しばしば意図しない結果をもたらします。 AI システムは偏った結果を 生み出す可能性があります。 例えば、ある人口のグループからの 申請を主に拒否する ローン承認システムがあったりします。 開発中に特定のシナリオを見落とすと、 有害なエラーにつながることがあります。 例えば、自動運転車が障害物を誤認し 衝突を引き起こす場合です。 検出されない脆弱性により ハッカー がシステムを悪用し個人データが 危険にさらされるリスクがあります。 例えばパスポートや医療記録などの個人 データが漏洩する可能性があります。 さらにすべての AI システムが ユーザーフレンドリーであると限らず、 視覚障害者や身体障害者にとって 特に利用しにくい場合があります。 例えば銀行や医療システムが 十分なアクセサビリティ機能を 欠いている場合もあります。 またユーザーは説明できない結果を出す AI システムを信頼しないことが よくあります。 例えば、出力の背景による理由が不明な ブラックボックスシステムがあります。 最後に AI システムが失敗した場合、 その問題を誰が解決すべきかが 不明確な場合がよくあります。 例えば、間違う可能性もある オープンソースの AI ツールでは 明確な責任がないまま、 欠陥が作成される場合があります。 責任あるポリシーがない場合、 企業は訴訟、罰金、信頼の喪失、 ブランドの評判へのダメージなどの リスクに直面します。 Microsoft は6つの責任ある AI 原則、 公平性、信頼性、安全性、 プライバシーとセキュリティ、包括性、 透明性、アカウントビリティを 遵守しています。 次のビデオではこれらの原則を詳しく 探求し Microsoft の責任ある AI 標準ガイドからのヒントを 共有します。 このガイドの詳細については、 配布資料のリンクからアクセスできます。

目次