SlideShare a Scribd company logo
AI 倫理とガバナンス:
世界動向と産業界の取り組み
中川裕志
(理化学研究所 革新知能統合研究センター)
スライド中の図はpower point の機能でダウンロードした
creative commons のライセンスです。
2020/6/11
人工知能学会チュートリアル 3A4-TS-2
1
2
AI倫理指針
国内外の組織が提案している
人工知能の倫理(古い順)
 FLI: Asilomar AI Principles (23原則) (2017)
 IEEE Ethically Aligned Design, version 2(2017/12)
– AIおよび開発者が持つべき倫理
 Partnership on AI (2016~
 総務省 AIネットワーク社会推進委員会
• AI開発ガイドライン OECDに提案(2017)
• AI利活用ガイドライン(2019)
 内閣府 人間中心のAI社会原則(2019/3/29)
• AI ready な社会の在り方 G20に提案
 IEEE Ethically Aligned Design, first edition (2019/3)
• 倫理的なAIの設計指針 3
国内外の組織が提案している
人工知能の倫理
 EU: High Level Expert Group: Ethics Guidelines for Trustworthy AI
(2019/4/8)
• 倫理的なAIの設計指針
 Guidance for Regulation of Artificial Intelligence Applications:
 USA Whitehouse. MEMORANDUM FOR THE HEADS OF
EXECUTIVE DEPARTMENTS AND AGENCIES (Draft 2019/4/24)
 Recommendation of the Council on OECD Legal Instruments
Artificial Intelligence
 OECD 閣僚理事会承認 (2019/5/22)
 Beijing AI Principle (2019/5/25)
 EUROPEAN COMMISSION:White Paper on Artificial Intelligence
A European approach to excellence and trust, Brussels, 19.2., 2020.
4
Asilomar AI Principle 見返してみる
• 一致する意見がない以上、未来のAIの可能性に上限
があると決めてかかるべきではない。
• 発達したAIは地球生命の歴史に重大な変化を及ぼす
かもしれない。
• 急速な進歩や増殖を行なうような自己改善、または自
己複製するようにデザインされたAIは、厳格な安全、管
理対策の対象するべき。
• 超知能は、広く認知されている倫理的な理想や、人類
全ての利益のためにのみ開発されるべき。
5
IEEE Ethically Aligned Design version 2
1. Executive Summary
2. General Principles
3. Embedding Values Into Autonomous
Intelligent Systems
4. Methodologies to Guide Ethical Research
and Design
5. Safety and Beneficence of Artificial General
Intelligence (AGI) and Artificial
Superintelligence (ASI)
6. Personal Data and Individual Access
Control
7. Reframing Autonomous Weapons Systems
8. Economics/Humanitarian Issues
9. Law
10. Affective Computing
11. Classical Ethics in Artificial Intelligence
12. Policy
13. Mixed Reality
14. Well-being 6
The final version was published
IEEE EAD (Final) on April 2019
• 1. Human Rights
– A/IS shall be created and operated to respect, promote,
and protect internationally recognized human rights.
• 2. Well-being
– A/IS creators shall adopt increased human well-being
as a primary success criterion for development.
• 3. Data Agency
– A/IS creators shall empower individuals with the
ability to access and securely share their data, to
maintain people’s capacity to have control over their
identity.
• 4. Effectiveness
– A/IS creators and operators shall provide evidence of
the effectiveness and fitness for purpose of A/IS.
7
IEEE EAD (Final) on April 2019
• 5. Transparency
– The basis of a particular A/IS decision should always be
discoverable.
• 6. Accountability
– A/IS shall be created and operated to provide an
unambiguous rationale for all decisions made.
• 7. Awareness of Misuse
– A/IS creators shall guard against all potential misuses
and risks of A/IS in operation.
• 8. Competence
– A/IS creators shall specify and operators shall adhere to
the knowledge and skill required for safe and effective
operation. 8
人間中心AIの社会原則
Social Principles of
Human-Centric AI
2109/3/29
Council for Social Principles of Human-
centric AI
内閣府, Japan
AI社会原則
1. 人間中心の原則、
2. 教育・リテラシーの原則、
3. プライバシー確保の原則
4. セキュリティ確保の原則、
5. 公正競争確保の原則
6. 公平性、説明責任及び透明性の原則、
7. イノベーションの原則
10
EC High Level Expert Group
Ethical Guideline for
Trustworthy AI
• 2019/4/8
11
12
Trustworthy AI
• Lawful, Ethical, Robust
• 具体的要件
1. Human agency and oversight
2. Technical robustness and safety
3. Privacy and data governance
4. Transparency
5. Diversity non-discrimination and fairness
6. Societal and environmental well-being
7. accountability
13
Recommendation of the Council on OECD
Legal Instruments Artificial Intelligence
• 2019年5月22日のOECD 閣
僚理事会lで採択
• 強制力はないが、各国での
立法の指針になる可能性大
– 例: OECD Guidelines on the
Protection of Privacy and
Transborder Flows of
Personal Data (1980)
は各国のプライバシー保護
法の基礎になった
14
OECD, Recommendation of the Council on A I,
OECD/LEGAL/0449, 2019/5/23
• 技術的目標:
• inclusive growth, sustainable development and well-being
• human-centred values and fairness
• transparency and explainability
• robustness, security and safety
• accountability
•
• 政策的目標:
• investing in AI research and development
• fostering a digital ecosystem for AI
• shaping an enabling policy environment for AI
• building human capacity and preparing for labour market
transformation
• international co-operation for trustworthy AI 15
Guidance for Regulation of Artificial
Intelligence Applications: USA Whitehouse.
• AI倫理というよりはむしろ、AIシステム開発の
ガイダンスで、AI産業の育成が目標
– 名宛人は産業界と読める
– 例えば「 AIアプリケーションの技術仕様を規定し
ようとする厳格な設計ベースの規制は、AIが進化
する予想されるペースを考えると、ほとんどの場
合、非実用的で非効率的」
16
• 指針は以下の10項目からなります。
1. Public Trust in AI
2. Public Participation
3. Scientific Integrity and Information Quality
4. Risk Assessment and Management
5. Benefits and Costs
6. Flexibility
7. Fairness and Non-Discrimination
8. Disclosure and Transparency
9. Safety and Security
10. Interagency Coordination
17
いかに規制しないかが根底
– ただし、無制限な開発への歯止めとして他の倫理指
針と違うのは
– risk assessment、 risk management
– リスク評価をサボると public trust を失うぞ、という言
い方
• 下記の引用を参照
– A risk-based approach should be used to determine
which risks are acceptable and which risks present
the possibility of unacceptable harm, or harm that
has expected costs greater than expected benefits.
– Agencies should be transparent about their
evaluations of risk and re-evaluate their assumptions
18
19
• promotes the respect of
fundamental rights, including human dignity,
pluralism, inclusion, non-discrimination and
protection of privacy and personal data
– and it will strive to export its values across the
world
20
• Effective application and enforcement of existing
EU and national legislation:
• The EU should make full use of the tools to
enhance its evidence base on potential risks
linked to AI applications, including using the
experience of the EU Cybersecurity Agency
(ENISA) for assessing the AI threat landscape
– To ensure an effective application and enforcement, it
may be necessary to adjust or clarify existing
legislation in certain areas, for example on liability
21
– Uncertainty as regards the allocation of
responsibilities between different economic
operators in the supply chain:
• These risks may be present at the time of placing
products on the market or arise as a result of software
updates or self-learning when the product is being used.
22
• Requirements ensuring that AI systems can adequately deal
with errors or inconsistencies during all life cycle phases.
• the output of the AI system does not become effective
unless it has been previously reviewed and validated by a
human
– the output of the AI system becomes immediately effective, but
human intervention is ensured afterwards
• monitoring of the AI system while in operation and the
ability to intervene in real time and deactivate(by human)
• in the design phase, by imposing operational constraints on
the AI system
23
• the identified shortcomings will need to be
remedied, for instance by re-training the system
in the EU,
– in case an AI system does not meet the requirements
for example relating to the data used to train it,
• .
• It would allow users to easily recognise that the
products and services in question are in
compliance with certain objective and
standardised EU-wide benchmarks, going
beyond the normally applicable legal obligations.
24
• AIサービスは事前に徹底的なリスク予測を行
うべき
• リスク発生の予測はAI技術に複雑さや発展
の早さから技術的に抑えることは困難である
ことも意識
• AIシステム製造のサプライチェーンの各段階
で倫理指針ないしは法制度に基づくリスク管
理や公平性,非差別性を徹底することを求め
ている
25
USA とEU の比較: EU
• AIシステムが実利用において再学習によって
動きが変化する場合,開発者側はその都度
リスク管理,公平性などを確認することを求
めている.
• つまり,AIシステムの仕様を倫理指針,法制
度で管理しようとする指針を打ち出している.
開発者にとっては非常な重荷になると予想さ
れる.
26
USA とEU の比較: EU
• 以上のEUの規則主導の指針はUSAの市場評価
主導の方針と全く異なる
• EUはさらにEU域内で使われるAIシステムはEU域
外の開発者が作ったものでも,EU域内において
テストすることを義務付け
– 保護主義的な傾向が感じられる.
– EUでは大企業中心の高リスク分野の他に中小規模
開発者の保護や支援を強く打ち出していることにも特
徴がある.
27
USA とEU の比較: EU
28
AI
制
御
人
権
公
平
性
非
差
別
透
明
性
ア
カ
ウ
ン
タ
ビ
リ
テ
ィ
ト
ラ
ス
ト
悪
用
、
誤
用
プ
ラ
イ
バ
シ
ー
AI
エ
ー
ジ
ェ
ン
ト
安
全
性
SDGs
教
育
独
占
禁
止
・協
調
、
政
策
軍
事
利
用
法
律
的
位
置
づ
け
幸
福
Asilomar
Principles
〇 〇 〇 〇 〇
人工知能学会・
倫理指針
△ 〇 〇 〇 〇 〇 〇
総務省AI開発ガ
イドライン
〇 〇 〇 〇 〇 〇 〇 〇
Partnership on
AI
〇 〇 〇 〇 〇 〇 〇 〇 〇 〇 〇
IEEE EAD ver2 〇 〇 〇 〇 〇 〇 〇 〇 〇 〇 〇 〇 〇 〇
IEEE EAD 1e 〇 〇 〇 〇 〇 〇 〇 〇 〇 〇 〇 〇 〇
人間中心AI社会
原則
〇 〇 〇 〇 〇 〇 〇 〇 〇 〇 〇 〇
29
AI
制
御
人
権
公
平
性
非
差
別
透
明
性
ア
カ
ウ
ン
タ
ビ
リ
テ
ィ
ト
ラ
ス
ト
悪
用
、
誤
用
プ
ラ
イ
バ
シ
ー
AI
エ
ー
ジ
ェ
ン
ト
安
全
性
SDGs
教
育
独
占
禁
止
・協
調
、
政
策
軍
事
利
用
法
律
的
位
置
づ
け
幸
福
Trustworthy AI 〇 〇 〇 〇 〇 〇 〇 〇 〇 〇 〇 〇 〇 △ 〇
OECD
Recommendati
on
〇 〇 〇 〇 〇 △ 〇 〇 〇 〇 〇
総 務 省 AI 利 活
用ガイドライン
〇 〇 〇 〇 〇 〇 〇 〇
Beijing Principle 〇 〇 〇 〇 〇 〇 〇 〇 〇 △ 〇
Whitehouse
Guidance
× 〇 〇 〇 〇 〇 〇 〇 〇 △ 〇
EU
Whitepaper
〇 〇 〇 〇 〇 〇 〇 〇 ▲ ◎
法的位置づけ:〇=AI人格権、△=AIの現行法への適法性
▲ EU域内優遇的
少し話題を変えます
30
フラッシュクラッシュ
ブラックボックス化の金融への悪影響
– 人工知能技術のブラックボックス化が社会にリアルな損害を
与えています
 金融取引(株の売買など)は、既にネットワークを介して
エージェントベースで秒以下の売り買いされる世界です。
エージェントに人工知能が使われています。
 人間(トレーダー)が介入して判断するより早く事態は進
行します。
 世界中の金融センターも似たような状況なので、なにか
のトリガがかかると連鎖反応が瞬時におこり、とんでもな
いことになります。
ウォールストリート・暴走するアルゴリズム
Wired.jp 2016年9月 より 1
• だが最悪の場合、それら(AIトレーダー)は不可
解でコントロール不能のフィードバックのループ
となる。
• これらのアルゴリズムは、ひとつひとつは容易に
コントロールできるものなのだが、ひとたび互い
に作用し合うようになると、予測不能な振る舞い
を─売買を誘導するためのシステムを破壊しか
ねないようなコンピューターの対話を引き起こし
かねないのだ。
ウォールストリート・暴走するアルゴリ
ズム Wired.jp 2016年9月 より 3
• アルゴリズムを用いた取引は個人投資家にとっては利益と
なった。以前よりもはるかに速く、安く、容易に売買できるの
だ。
• だがシステムの観点からすると、市場は迷走してコントロー
ルを失う恐れがある。
 たとえ個々のアルゴリズムは理にかなったものであっても、
集まると別の論理─人工知能の論理に従うようになる。人工
知能は人工の「人間の」知能ではない。
 それは、ニューロンやシナプスではなくシリコンの尺度で動く、
われわれとはまったく異質なものだ。その速度を遅くするこ
とはできるかもしれない。だが決してそれを封じ込めたり、コ
ントロールしたり、理解したりはできない。
ウォールストリート・暴走するアルゴリズム
Wired.jp 2016年9月 より 2
• 2010年5月6日、ダウ・ジョーンズ工業株平均は
のちに「フラッシュクラッシュ(瞬間暴落)」と呼ば
れるようになる説明のつかない一連の下落を見
た。一時は5分間で573ポイントも下げたのだ。
• ノースカロライナ州の公益事業体であるプログレ
ス・エナジー社は、自社の株価が5カ月足らずで
90%も下がるのをなすすべもなく見守るよりほか
なかった。9月下旬にはアップル社の株価が、数
分後には回復したものの30秒で4%近く下落し
た。
AI内部に説明能力を組み込む
XAI(eXplainable AI)
の研究が盛んですが
• フラッシュクラッシュのような多数のAIが相互
作用する場合にはとても追いついていない。
AIトレーダーの損害検出能力
適格な行為者の高速トレードの誤動作(フラッシュ
クラッシュ)の早期発見、検証が人間にできそうも
ない
許容損害値超過を早期発見するチェック機構が必
要
ネットワーク接続された多数のAIトレーダーの行動
チェック機構はAIトレーダーを外部観察、あるいは
ネットワークの挙動を外部観察するAIとして作る
チェック自体を学習機能を持つ人工知能に任せるよう
な局面が考えられますが、果たして可能か?
36
AIの行動をAIが観察してテスト
AI
AI
このAIが正しく機能してい
るかどうかを人間がtrust
(信用)できる必要がある
• the output of the AI system does not become
effective unless it has been previously reviewed and
validated by a human
– the output of the AI system becomes immediately
effective, but human intervention is ensured afterwards
• monitoring of the AI system while in operation and
the ability to intervene in real time and deactivate
(by human)
• in the design phase, by imposing operational
constraints on the AI system
38
再掲:EU White paper for AI
• 早く止めすぎると、収益の機会を奪ったという文
句がくる
• 止めるのが遅すぎるとクラッシュして大きな被害
を出す
収益ロスとクラッシュの被害の和を最小化する
止め方  最適化問題
人間では無理、やはりAIに頼らざるを得ない
39
AIAIの判断に従わな
い権利を持つ社会が
必要
 実際はどう実装?
AIがお前
にやれと判
断したんだ
よ。
こんな無理な仕
事、なんで私が
しなきゃいけな
いの?
AIの悪用
• 悪用された人工知能に一般人が文句を言うことがで
きなくなってくると、実質的に言論の自由も人権もない
状況になりかねません
 人工知能に対して文句を言える社会制度を考える必
要があります。
GDPR 22条: 計算機(人工知能)のプロファイリングから
出てきた決定に服さなくてよい権利
具体的には以下のようにします。
プロファイリングに使った入力データの開示
出力された決定に対する説明責任を人間が果たす。
ただし、この権利の社会実装、技術による実現はかなり困難
守秘義務や企業秘密の壁もあります。
41
IEEE EAD ver.2 の指針
• 社内の悪用への対策として
– 内部告発を可能にする匿名化告発(技術 Tor など)
– 内部告発者が不利にならないように社内規則ではな
く、より上位の国の法制度で内部告発者を守る
– 告発者を経済的に支援する保険制度
• 告発者が裁判などで戦えるために
– AIのブラックボックス化を排除 XAI
– AIシステムの透明性
+アカウンタビリティ
(トラストでは不十分かもしれない)
42
AIのブラックボックス化
• 人間の仕事を自律的AIで置き換えるにせよ、人間
の能力を拡張するにせよ
– 開発者に責任はあるはず
– だが、既に関係者たちが把握しきれない状態に突入し
ているのかもしれません
– 関係者: Multi-stakeholder
• 人工知能開発者
• 人工知能へ学習に使う素材データを提供した者
• 人工知能製品を宣伝、販売した者
• 人工知能製品を利用する消費者
したがって、事故時の責任の所在を法制度として明確
化しておく必要がある時期になってきています
信用できるAIへ向けての取り組み:
透明性、説明可能性、トラスト
答責性 説明可能性
透明性 理解可能性
アカウンタビリティ
トラスト
44
トラストはどうやって確保するか?
• 過去の学問的成果の集積を信用してもらう
– 数学、物理学、医学、…
• 専門家をトラストしてもらうライセンス制度
– 専門家のスキルのトラスト:医師国家試験、司法試験など
– ライセンスする側(国など)へのトラスト
• それでも事故は起きる
– 補償制度の確立:保険など
• これら全部を統合したシステム体系がトラストの基本
45
Trust(信頼)
• (1)能力、誠実さ、および予測可能性を扱う一連
の特定の信念
• (2)危険な状況下で、ある当事者が他の当事者
に依存する意思
(証明したわけではないが…)
• 「信頼」はAIシステムのライフサイクルに関与す
るすべての人々とプロセスに帰することができま
す。
46
トラストの補足
• 利用者がサービス提供側をトラストするという
局面ばかり考えてきたが
• サービス提供側が利用者をトラストするという
問題もある
• 認証されたIDで金融、政府、通信などのサー
ビスを受けることを保証するAI
47
個人は信頼できるID認証にアクセス
できること
• 認証はインターネットにおける個人の存在の
証拠
– 対面認証でないので、技術的な問題が多い。
– 特に生体認証の危険性
– Self Sovereign Identity  対応するサービスに
必要なことだけ identify できればよい
• 必要最小限の個人データによる認証:比例原則
48
トラストする対象
• 組織 (利用者からみたら)
– 情報銀行、ITサービス企業
• 個人 (サービス業者からみたら顧客)
– 利用者の個人をトラストできるか
– Self Sovereign Identity
• データ
– 流通する個人データ、サービスの結果
49
個人データは個人が管理したほうが
質が良く、データ自体をトラストできる
のではないか?
Google,
Facebook,
Apple,
Amazon
雇用
開発者
向け
API
交通
購買
Web
電力
会社医療
政府
研究
銀行
雇用
開発者
向けAPI
交通
購買
Web
電力
会社医療
政府
研究
銀行
データ主体
個人データを自社に囲
い込んで儲ける
自分の個人データを契
約によって他社に使わ
せる 50
パーソナル・デー
タ・ストレージ
パーソナル・データ・ストレージ(PDS)
• パーソナル・データ・ストア/ボールト
• あるいは
• パーソナル・データ・クラウド
個人
データ
個人
データ
個人
データ
個人
データ
ITを使ったサービ
ス
仲介IT業者
(AIを活用)
情報
銀行?
• 自動アップロード
• 個人キーで暗号化
• 個人ID認証
• API-of-Me
• 利用ログ
• 流通経路トレース
• 統一データ形式
• ポータビリティ 51
主要な技術的ポイント
 パーソナルクラウド
 インターネットにおける Identity 認証
 個人データのポータビリティ
 Block Chain による個人データの真正性認証
 プライバシー保護(暗号化,複数当事者による計算:
MPC , etc.)
 公平性、透明性の確保手段
52
データポータビリティ
• GDPR20条
• データ主体は、個人データを機械可読性のある形式で受
け取る権利があり、
• 当該データを、個人データが提供された管理者の妨害なし
に、他の管理者に移行する権利がある。
– ただし、20条3項 「職責によって収集した個人データ(例えば
医療データ、医療カルテ)にはデータポータビリティは適用しな
い」
• Googleの個人データAPI
• 日本
– 銀行API、個人医療履歴、
53
個人データ個人管理の問題点
• 個人データがどう使われているかにsensitiveな
人は多いのか?
– 痛い目をみるまで分からない
– ポイントの餌に釣られる? 目先の利益を優先する
人々が大多数
– だからこそ、きちんと規制すべきという意見もあるが
……
• 個人データを自分で管理するスキルがない人が
大部分
近代的個人の消失につながるのか?
54
パーソナルAIエージェントとガバナンス
• 背景:既存のガバナンスの枠組みがBrexit、トランプ現象、
中国の台頭などで揺らいでいる現状への危機感
 新しい方向性
(1)ディジタル・レーニズム
(2)GAFAのような国境を超えるITプラットフォームによる情報支配
(3)既存の民主主義を基礎にするガバナンスの拡充
(3)は望ましいが、多くの人間は近代的法制度、政治制度が
前提にした完全な自我と自由意志に基づいて行動する主
体には程遠い
パーソナルAIエージェントとガバナンス
”(3)既存の民主主義を基礎にするガバナンスの拡充“
 提案:生身の人間には対処しきれない複雑な情報
環境をパーソナルAIエージェントが支援し、人間の
情報能力を増強することで対処する
 こうして(3)に近づこうとする枠組みが民主主義国家
に住む人々とっては最も受け入れやすくかつWell
beingに資する。
パーソナルAIエージェント*
- 誕生から死まで継続的にサポート-
• パーソナルAIエージェント
私をトラストで
きますか?
* IEEE EAD : Personal Data Agent
一般人には複
雑すぎる情報
環境
一
生
通
じ
て
お
世
話
す
る
AI
エ
|
ジ
ェ
ン
ト
パーソナルAIエージェント
データ主体の個人
データ
個人データを利活用で
きる条件:目的、コピー
可不可、第3者転送の
可不可、利用可能な時
間etc. etc…
外部の情報
環境・世界 データ
主体
トラス
トでき
る?
この条件は
死後も有効
生物学的誕生 生物学的な死
情報的誕生
情報的な死
例:認知症
情報的遺産 SNS メッ
セージetc.
DNA,
父母の氏名など.
複雑な外界の情報環境
自分で管理できる
個人情報
自分で管理できない個人情
報
自分で管理できない個人情報
パーソナルAIエージェント
個人データは自分で管理できない期間のほうが長い
死後の個人データの諸問題
• 著作人格権
– 一身専属性
– パブリシティ権
– 著作隣接権(儲けるネタ)
• 倫理的感覚
– 死者を冒涜 (AI美空ひばり問題)
– 死者の知的能力を備えたアバター
• 不変
• 可変  生存者とやり取りすることによって変化、成長
– ゲーム能力など
60
ご清聴ありがとうございました
61

More Related Content

PDF
情報ネットワーク法学会研究大会
PDF
最近のAI倫理指針からの考察
PDF
NICT-nakagawa2019Feb12
PDF
情報法制研究所 第5回情報法セミナー:人工知能倫理と法制度、社会
PDF
CPDP2019 summary-report
PDF
情報ネットワーク法学会2017大会第8分科会発表資料
PDF
エンジニアも知っておきたいAI倫理のはなし
PDF
2019 3-9-nakagawa
情報ネットワーク法学会研究大会
最近のAI倫理指針からの考察
NICT-nakagawa2019Feb12
情報法制研究所 第5回情報法セミナー:人工知能倫理と法制度、社会
CPDP2019 summary-report
情報ネットワーク法学会2017大会第8分科会発表資料
エンジニアも知っておきたいAI倫理のはなし
2019 3-9-nakagawa

What's hot (17)

PPTX
データ利用における個人情報の保護
PDF
incentive compatibleなAIガバナンス
PDF
BlackBox モデルの説明性・解釈性技術の実装
PDF
AIルールとガバナンス
PDF
Iot literacy no.5
PDF
03.日本ユニシス(株)_発表資料
PDF
ゼロから学ぶAI
PDF
第3回 北海道IoTビジネス共創ラボ 勉強会 養豚業における IoT/AI 活用の可能性
PDF
Hiroshima Camps Seminar 180303
PDF
BERTによる文書系AIの取り組みと、Azureを用いたテーブルデータの説明性実現!
PDF
自動運転と道路沿い情報インフラ
PDF
TPP合意と今後の知的財産分野への影響と問題点
PDF
AI開発を円滑に進めるための契約・法務・知財
PDF
立法・行政・司法におけるビックデータ・AI活用に関する可能性・ 課題(工藤郁子)
PDF
ISID IIoT Forum_180628
PDF
AI と個人情報 ~AI 学習用データとしての個人情報と AI 処理対象としての個人情報~
PPTX
今すぐ AI の知識を深めるには
データ利用における個人情報の保護
incentive compatibleなAIガバナンス
BlackBox モデルの説明性・解釈性技術の実装
AIルールとガバナンス
Iot literacy no.5
03.日本ユニシス(株)_発表資料
ゼロから学ぶAI
第3回 北海道IoTビジネス共創ラボ 勉強会 養豚業における IoT/AI 活用の可能性
Hiroshima Camps Seminar 180303
BERTによる文書系AIの取り組みと、Azureを用いたテーブルデータの説明性実現!
自動運転と道路沿い情報インフラ
TPP合意と今後の知的財産分野への影響と問題点
AI開発を円滑に進めるための契約・法務・知財
立法・行政・司法におけるビックデータ・AI活用に関する可能性・ 課題(工藤郁子)
ISID IIoT Forum_180628
AI と個人情報 ~AI 学習用データとしての個人情報と AI 処理対象としての個人情報~
今すぐ AI の知識を深めるには
Ad

Similar to 人工知能学会大会2020ーAI倫理とガバナンス (20)

PPTX
201024 ai koeln (akemi yokota) auf japanisch
PDF
「AIガバナンスと産業政策―リスクと制度デザインに関する考察―」@情報通信学会大会202507
PDF
AI規制の現在地:最新動向と政策をめぐる各国の攻防@GLOCOM六本木会議年次総会
PDF
機械学習品質マネジメントプロジェクトのご紹介
PPTX
AIシステムの要求とプロジェクトマネジメント-後半:機械学習応用システムのための 要求工学と安全性
PDF
Paradigm shifts in QA for AI products
PDF
コンピューティングおよびソフトウェア工学の潮流: IEEE-CS技術予測&SWEBOK Guideに基づくAI・アジャイル・サステナビリティの展望
PDF
次世代AI時代のトレンドと高信頼AIソフトウェアシステム開発に向けたフレームワーク&パターン
PDF
ITフォーラム2025 先端IT活用推進コミュニティ セッション4:コンテキストコンピューティング研究グループの取り組み
PDF
BlackBox モデルの説明性・解釈性技術の実装_DLLAB_191127
PPTX
人工知能倫理に関わる社会的次元/個人的次元の峻別と交差 発表スライド
PPTX
20210226 AIの技術的動向と情報倫理について
PDF
QA4AI JaSST Tokyo 2019
PPTX
AI社会における道徳的行為者
としての人間のありかた: ネオ・サイバネティクスの理論をもとに
PPTX
企業でのAI開発でAIエンジニアに求められるもの
PPTX
Ethics of AI - AIの倫理-
PDF
責任あるAI ガバナンスガイドブック | Accenture Japan
PPTX
Panel Discussion: AI Networking and Ethics
PPTX
機械学習応用システムのための要求工学
PDF
次世代ヘルスケアを支えるAIとプラットフォーム:海外事例の紹介
201024 ai koeln (akemi yokota) auf japanisch
「AIガバナンスと産業政策―リスクと制度デザインに関する考察―」@情報通信学会大会202507
AI規制の現在地:最新動向と政策をめぐる各国の攻防@GLOCOM六本木会議年次総会
機械学習品質マネジメントプロジェクトのご紹介
AIシステムの要求とプロジェクトマネジメント-後半:機械学習応用システムのための 要求工学と安全性
Paradigm shifts in QA for AI products
コンピューティングおよびソフトウェア工学の潮流: IEEE-CS技術予測&SWEBOK Guideに基づくAI・アジャイル・サステナビリティの展望
次世代AI時代のトレンドと高信頼AIソフトウェアシステム開発に向けたフレームワーク&パターン
ITフォーラム2025 先端IT活用推進コミュニティ セッション4:コンテキストコンピューティング研究グループの取り組み
BlackBox モデルの説明性・解釈性技術の実装_DLLAB_191127
人工知能倫理に関わる社会的次元/個人的次元の峻別と交差 発表スライド
20210226 AIの技術的動向と情報倫理について
QA4AI JaSST Tokyo 2019
AI社会における道徳的行為者
としての人間のありかた: ネオ・サイバネティクスの理論をもとに
企業でのAI開発でAIエンジニアに求められるもの
Ethics of AI - AIの倫理-
責任あるAI ガバナンスガイドブック | Accenture Japan
Panel Discussion: AI Networking and Ethics
機械学習応用システムのための要求工学
次世代ヘルスケアを支えるAIとプラットフォーム:海外事例の紹介
Ad

More from Hiroshi Nakagawa (20)

PDF
信頼できるAI評価リスト パーソナルAIエージェントへの適用例
PDF
AI and Accountability
PDF
AI Forum-2019_Nakagawa
PDF
Ai e-accountability
PDF
暗号化によるデータマイニングと個人情報保護
PDF
Defamation Caused by Anonymization
PDF
人工知能と社会
PDF
人工知能学会合同研究会2017-汎用人工知能研究会(SIG-AGI)招待講演
PPTX
学術会議 ITシンポジウム資料「プライバシー保護技術の概観と展望」
PPTX
AI社会論研究会
PDF
Social Effects by the Singularity -Pre-Singularity Era-
PDF
パーソナル履歴データに対する匿名化と再識別:SCIS2017
PDF
時系列パーソナル・データの プライバシー
PDF
シンギュラリティ以後
PDF
シンギュラリティ以前
PPTX
Privacy Protection Technologies: Introductory Overview
PDF
差分プライベート最小二乗密度比推定
PDF
Privacy Protectin Models and Defamation caused by k-anonymity
PDF
Boundary Between Pseudonymity and Anonymity
PPTX
数式を使わないプライバシー保護技術
信頼できるAI評価リスト パーソナルAIエージェントへの適用例
AI and Accountability
AI Forum-2019_Nakagawa
Ai e-accountability
暗号化によるデータマイニングと個人情報保護
Defamation Caused by Anonymization
人工知能と社会
人工知能学会合同研究会2017-汎用人工知能研究会(SIG-AGI)招待講演
学術会議 ITシンポジウム資料「プライバシー保護技術の概観と展望」
AI社会論研究会
Social Effects by the Singularity -Pre-Singularity Era-
パーソナル履歴データに対する匿名化と再識別:SCIS2017
時系列パーソナル・データの プライバシー
シンギュラリティ以後
シンギュラリティ以前
Privacy Protection Technologies: Introductory Overview
差分プライベート最小二乗密度比推定
Privacy Protectin Models and Defamation caused by k-anonymity
Boundary Between Pseudonymity and Anonymity
数式を使わないプライバシー保護技術

人工知能学会大会2020ーAI倫理とガバナンス