SlideShare a Scribd company logo
人工知能倫理と法制度、社会
中川裕志
(理化学研究所 革新知能統合研究センター)
スライド中の図はpower point の機能でダウンロードした
creative commons のライセンスです。
情報法制研究所
第5回情報法セミナー in 京都 2018/12/2
1
IEEE Ethically Aligned Design version 1
1. General Principles
2. Embedding Values into
Autonomous Intelligent Systems
3. Methodologies to Guide Ethical
Research and Design
4. Safety and Beneficence of Artificial
General Intelligence
5. (AGI) and Artificial
Superintelligence (ASI)
6. Personal Data and Individual
Access Control
7. Reframing Autonomous Weapons
Systems
8. Economics/Humanitarian Issues
9. Law
2
IEEE Ethically Aligned Design version 2
1. Executive Summary
2. General Principles
3. Embedding Values Into Autonomous
Intelligent Systems
4. Methodologies to Guide Ethical Research
and Design
5. Safety and Beneficence of Artificial General
Intelligence (AGI) and Artificial
Superintelligence (ASI)
6. Personal Data and Individual Access
Control
7. Reframing Autonomous Weapons Systems
8. Economics/Humanitarian Issues
9. Law
10. Affective Computing
11. Classical Ethics in Artificial Intelligence
12. Policy
13. Mixed Reality
14. Well-being 3
現在、version 3 (最終版)の作成中
AIの悪用
AIAIの判断に従わな
い権利を持つ社会が
必要
 実際はどう実装?
AIがお前
にやれと
判断した
んだよ。
こんな無理な
仕事、なんで
私がしなきゃ
いけないの?
4
General Principle (p.30 ):
Principle 5 — A/IS Technology Misuse
and Awareness of It  教育に言及
• こうして、人工知能に文句を言うことができなく
なってくると、実質的に言論の自由も人権もない
状況になりかねません
人工知能に対して文句を言える社会制度を考え
る必要があります。
GDPR 22条: 計算機(人工知能)のプロファイリング
から出てきた決定に服さなくてよい権利
具体的には以下のようにします。
プロファイリングに使った入力データの開示
出力された決定に対する説明責任を人間が果たす。
ただし、この権利の社会実装、技術による実現はかなり困
難
守秘義務や企業秘密の壁もあります。
5
IEEE EAD version2 の法律編の示唆
する「悪用対策」
– このような悪用を看破し、見逃さぬように
 AIがその結論に至った推論、入力データを明確化でき
る仕掛けを予め組み込む (=GDPR22条の実現方法)
 AIのおかしな動きに対する内部告発の制度的保証
 AIが悪さをした場合の救済策を立法化しておくこと
 保険などの経済的救済策も重視
6
法制度とプライバシー保護
7
DNAのプライバシー
8
DNAプライバシーのつづき
 DNAで把握されないように男女問わず整形が滅茶流行
る。
 整形している人は悪人という類型化が進む
 政府が全国民のDNAを管理するようになる(某国ならや
るかもしれない)
 某国は情報の世界のDNAのようなSNS履歴など完璧に
把握して反政府的な人を見張るとか差別するとかして
いるというニュースあり
 ヨーロッパ的なプライバシーに批判的な人が多いようで
すが、こういった例をみますとプライバシーの重要さを
実感してもらえるかもしれませんね。
9
個人データ保護の流れ
• インターネットの普及によりデータ主体である個人の個人
情報、個人データはネットに氾濫している。
• 従来のプライバシーとは違う概念のプライバシー
• EUの動き
– OECD8原則(EUだけではない) 種々のプライバシー保護法
制の基礎
– 以前のEUデータ保護指令  法律は国毎に違う
• EU全域で統一したプライバシ-保護の法律として
• GDPR(General Data Protection Regulation)が2016/4/14(欧
州議会採択)、2016/5/24施行、2018/5/25適用 10
個人データ保護の流れ
• EU:GDPR(General Data Protection Rule)
– 匿名化処理によって個人情報ではなくなり自由流通できると思う人
もいるかもしれないが、
 EUではこのような匿名化手法は基本的に存在しないとしている。
– つまり、個人データ流通は以下が想定されている
1. 事業者の説明責任と
2. データ主体の同意による
– 個人データを一業者が囲い込むことを許さず、データ主体個人の意
志で個人に統一的な様式で還元できるデータポータビリティを保障
(GDPR 第20条)
 個人は還元された統一的な様式のデータを類似のより良いサービス
提供者に送って乗り換えられる
11
個人データ保護の流れ
• 米国:プライバシー保護のための連邦法はない
– 州法が主体。カリフォルニアでは先進的なプライバシー
保護の州法がある
• オバマ政権のときに消費者プライバシー権利章典
法 2015/5/27 が公開された。ただし、連邦法とは
なっていない。
• FTC(Federal Trade Commission)や商務省が個別に
管轄。
– FTC3要件、FTC5条 が有名
12
IEEE EAD: 個人情報とアクセス制御
(Personal Data and Individual Access Control)
• 以下は EAD version2 の議論
• プライバシー保護だけではなく、個人情報に
アクセスするAIシステムの設計のアイデアの
列挙
13
AI personal agent:
妊娠から墓場までカバーするAI代理人
• 出産以前、以後のヘルスケアレコード
• 誕生における市民権(ディジタル市民権) 政府データ
• 就学
• 移動
• 国境を超える場合 (immigration data)
• 消費行動
• IoT and wearables (telecommunications data)
• SNS、ディジタルメディア
• 職業訓練
• 社会参加
• 契約、事故対応、保険、金融
• 死亡(ディジタル遺産の処理)
14
AIの法律的位置づけ
• ウゴ・パガロの「ロボット法」には、
AGI以前ではあるものの、相当程度
に自律性を備えたAIの法律的位置
づけが書かれている。
• 刑法、民法などと並んでロボット法
があるわけではなく、あくまで学問分
野としての提案
• AGIの社会的位置づけを考えるにあ
たって参考になる。
• AI/AGIの種別 vs 責任の所在 の
対応表をベースに検討する
15
AI/AGIの法的格付けによる対応表
AIの行為 責任 免責 厳格責任 不当な損害
完全な法的人格
的確な行為者:限定的自律AI
ツールとしてのAI(損害源)
16
責任:罪刑法定主義によって、行為者が引き受ける責任。
 箱の中は行為ないし責任を引き受ける者 ないしは法益を受ける者
免責:上記の責任のうち法律あるいは契約によって免責となる場合
厳格責任:英米法の概念で,行為者に故意や過失という心理的要素のない場
合にも犯罪の成立 (ないし不法行為責任) を認めること。
 例えば、社員の個人判断で起こした不法行為に対して、法人である会社が
自動的に責任を負うこと
不当な損害:国、契約相手、不法行為法の第3者など他者によって誘発された
ロボットやAI自身への損害
 箱の中にはその損害からの保護方策。
AI/AGIの法的格付けによる対応表:
一般の場合
AIの行為 責任 免責 厳格責任 不当な損害
完全な法的
人格:AGI
全ての場合 自然人
と同じ
同左 同左
限定的自律
AI
不法行為の
場合、その
理由の所在:
AI利用者
損害の
閾値で
決定
政治的判断、
ないし新規立
法
(製造物責任
による委縮を
避けたい)
AIシステム
利用者の正
当な使用方
法の実証
ツールとして
のAI
AIが損害源
操作した
人間
技術革
新に対
応して
決める
AI製造者 AIシステム
利用者の正
当な使用方
法の実証17
弱そうに見えるAIの脅威
• 強いAIの脅威ばかり強調されていますが
• 弱そうに見えるAIも多数が共謀して悪さをす
ると十分に脅威
– 弱いAIたちが共通の言語を持てば、共謀が可能
– しかも、人間は気づかないかもしれない
– フラッシュクラッシュ、カンタムクウォーツ
フラッシュクラッシュ
ブラックボックス化の金融への悪影響
– 人工知能技術のブラックボックス化が社会にリアルな損害を
与えています
 金融取引(株の売買など)は、既にネットワークを介して
エージェントベースで秒以下の売り買いされる世界です。
エージェントに人工知能が使われています。
 人間(トレーダー)が介入して判断するより早く事態は進
行します。
 世界中の金融センターも似たような状況なので、なにか
のトリガがかかると連鎖反応が瞬時におこり、とんでもな
いことになります。
ブラックボックス化の金融への悪影響
 2010年5月にギリシアの国債償還困難を予測した金融ソフトが売り
注文を出して確定したとたんに各システムが警戒して投げ売りを開
始し、20分間でダウが1000ポイント下落(バラット本6章、8章)
 原因がなかなか分からなかったようです。
 ウォール街の金融企業にとって、AIトレーダは企業秘密なので、実
態が表に出にくい
 ネットで接続された多数の人工知能エージェントが
 国債や株式の価格という共通言語を用いて会話し、
 最適な行動をした結果と見なせます。
 予想外の事態に対する責任の所在を法制度として明確化しておく必要
がある
 が、果たして法制度で大丈夫でしょうか?
20
AIトレーダーの法的格付けによる対応表
AIの行為 責任 免責 厳格責任 不当な
損害
完全な法的
人格
AIが責任
ある人格
権
自然人と同じに
するかどうか?
責任をどう取ら
せる?保険?
開発者に責任
を問えず(行為
の予測が不可
能)
同左
限定的自律
AI
設計開発
者か運用
各社??
許容損害値ま
では免責
政治的判断、
許容損害値超
過チェック機構
同左
ツールとして
のAI(損害源)
操作した
人間
技術革新を促
進させる
ツール開発者 AI利用
者
21
AIトレーダーの損害検出能力
適格な行為者の高速トレードの誤動作(フラッシュ
クラッシュ)の早期発見、検証が人間にできそうも
ない
許容損害値超過を早期発見するチェック機構が必
要
ネットワーク接続された多数のAIトレーダーの行動
チェック機構はAIトレーダーを外部観察、あるいは
ネットワークの挙動を外部観察するAIとして作る
チェック自体を学習機能を持つ人工知能に任せるよう
な局面が考えられますが、果たして可能か?
22
AI 対 AI の構図では
• 対象となるAIを人間が開発したツールであるとか
制御可能、説明可能なソフトウェアであるという
期待を捨てて
• 自然現象の一種だとみなして分析するべき
• 自然現象の説明は人類が自然科学として長年
やってきたこと。
AIに対してもその方法論を使える  使うべき
AIの行動をAIが観察してテスト
AI
AI
このAIが正しく機能してい
るかどうかを人間がtrust
(信用)できる必要がある
自動運転車の法的格付けによる対応表
AIの行為 責任 免責 厳格責任 不当な
損害
完全なAI自
律走行 R5、
R4
設計者、
開発者、
運用者
十分なテストを
したら免責
保険などでカ
バー
設計、開発者
予測が可能に
なるまでテスト
をしたか
同左
限定的自律
走行 R4,R3
運転者、
販売者、
設計開発
者
許容損害値ま
では免責
同上 同左
ツールとして
のAI(損害源)
R2,R1
操作した
人間
不可抗力 ツール開発者
(製造物責任)
AI利用
者
25
自律AI兵器の位置づけ
• ウゴ・パガロの3章「ロボットの正戦」によれば
• 現在の守備型AI兵器(イージス艦、iron-
dome)はツールとしてのAI
– 責任は操作者(=命令を下した人)
– イラン核施設を攻撃したスタックスネットは攻撃用
AI兵器だが、おそらく責任は送り込んだ操作者に
なるだろう
26
自律AI兵器の位置づけ
• 自律的な攻撃AI(例えばドローンスナイパー)は的確な行
為者?
– 不法行為の判断=民間人を戦闘員と誤認して攻撃すると不
法行為(戦時国際法違反)
• この非戦闘員/戦闘員の認識精度向上はどこまで高く要求されるか
国際的な政治的判断
– 責任は兵器自身?司令官?開発者
• 自律AI兵器が引き起こした民間人の誤認攻撃は厳格責任によれば、
兵器開発者、あるいは兵器所有者である軍自体(あるいは軍の責任
者である司令官)が責任を負う。
• この問題は軍事以外でも問題になる(ex 自動運転車)
– 免責、厳格責任、不当な損害の判断は政治的判断による
27
自律AI兵器の位置づけ
• 自律的な攻撃AI(例えばドローンスナイパー)は
的確な行為者?
– さらに、戦争の現場は多様すぎるので、法律や倫理
(均衡という考え方など)だけでは決められない
• 均衡1:戦争という悪を遂行しなければならないほど現状
は悪
• 均衡2:目的遂行に対して不必要に強力な武力をつかって
はいけない
28
グループをなす自律AI兵器
• グループ自律AI兵器(攻撃用ドローン編隊)
• 動作が予測しきれない
– 戦闘行為の責任主体が曖昧ないし不明確になってしまう自
律AI兵器は危険性大(禁止すべきではないか)
  軍事的には自律AI兵器は完全な法的人格をに近い
 法律でしか制御できない=人間にとっては不完全なコ
ントロールしかできない
– 人工知能倫理基準(IEEE EAD ver2)では禁止
– グループ自律AI兵器は以下の均衡2を破っている可能性大
• 均衡1:戦争という悪を遂行しなければならないほど現状は悪
• 均衡2:目的遂行に対して不必要に強力な武力をつかってはいけない
29
LAWSの恐怖
• 致死性自動兵器(Lethal Automatic Weapon
System:LAWS)の恐怖感を実感できるビデオ
• https://futureoflife.org/2017/11/14/ai-
researchers-create-video-call-autonomous-
weapons-ban-un/
• https://www.youtube.com/watch?v=5p5oxjxokB
I
30
自律AI兵器の対応表
AIの行為 責任 免責 厳格責任 不当な
損害
完全な法的
人格(群AI
兵器)
兵器自身 自然人と
同じか?
同左 同左
自律型AI攻
撃兵器
不法行為(均衡破
棄、民間人を誤攻
撃)
AI兵器開発者+
司令官
政治的判
断あるい
は国際法
AI兵器開
発者(誤攻
撃チェック
機能の設
計ミス)
国際法
ツールとして
のAI(損害源)
=通常兵器
操作した人間 現状通り 現状通り 現状通り
31
AIの創作活動の位置づけ
創作活動にコミットしたのは誰?
AIによって、く
まなく創作物
候補を生成
AIによって評価
の高い創作物
に類似*し、
ヒットしそうな
創作物を選別
過去の評価の高い創作
物の選択 (by AI)
過去の評価の高い創作物
鑑賞者たちの反応=鑑
賞者たちの思想、感情
(著作権法2条)
末端の鑑賞者
AIを利用して作った
創作作品
*知財の場合は過去に類似し
たものがないことを確認となる
鑑賞者たち
の思想、感
情:著作権
法2条
このループで考
える必要あり
AIの著作権:対応表
33
AIの行為 著作権所有 著作権放棄 著作権侵害の被疑者
完全な法
的人格:
AGI
著作人格
権?
自然人と同じ? 同左
限定的自
律AI
著作人格権
は無理。著
作隣接権は
可能か?
AIの利用者
=芸術家、作家、
出版社 しかない
(AI自体は無理)
知的能力を持つAI自
身、あるいはAI利用
者あるいは開発者ま
でを侵害で訴える
ツールと
してのAI
(収入源)
操作した人
間
同左 同左
AIの創作活動の位置づけ
知的財産作成にコミットしたのは誰?
AIによって、く
まなく知的財
産候補補を
生成
AIによって評価
の高い知財に
類似*してい
るが、明らかに
異なる点を持
つ創作物を選
別
過去の評価の高い知財
選択 (by AI)
過去の評価の高い知財など
知財審査官が審査
(実はここもAI)
末端の利用者:儲け
AIを利用して作った
知財
*知財の場合は過去に類似し
たものがないことを確認となる
このループで考
える必要あり
知財権侵害権
侵害の訴え
AIの知的財産権:対応表
35
 知的財産権の場合、大量に知財(特許,etc.)申請がくるかもしれない。当
然、審査側もAIを使う。
 知的財産権取得に可否判断の根拠の説明が必要。審査側AIの出力に
おける説明責任、透明性が重要になる
AIの行為 知的財産権所有 知的財産
権放棄
知的財産権侵害の被
疑者
完全な法
的人格:
AGI
知財権 自然人と
同じ?
同左
限定的自
律AI
AIの利用者。ただ
し、出願までAIが
したらどうなる?
AIの利用
者=発明
者?
知的能力を持つAI自
身、あるいはAI利用者
を侵害者として訴える
ツールと
してのAI
(収入源)
操作した人間 同左 同左
ご清聴ありがとうございました
36
付録1:フラッシュクラッシュの例
37
ウォールストリート・暴走するアルゴリズム
Wired.jp 2016年9月 より 1
• だが最悪の場合、それら(AIトレーダー)は不可
解でコントロール不能のフィードバックのループ
となる。
• これらのアルゴリズムは、ひとつひとつは容易に
コントロールできるものなのだが、ひとたび互い
に作用し合うようになると、予測不能な振る舞い
を─売買を誘導するためのシステムを破壊しか
ねないようなコンピューターの対話を引き起こし
かねないのだ。
ウォールストリート・暴走するアルゴリズム
Wired.jp 2016年9月 より 2
• 2010年5月6日、ダウ・ジョーンズ工業株平均は
のちに「フラッシュクラッシュ(瞬間暴落)」と呼ば
れるようになる説明のつかない一連の下落を見
た。一時は5分間で573ポイントも下げたのだ。
• ノースカロライナ州の公益事業体であるプログレ
ス・エナジー社は、自社の株価が5カ月足らずで
90%も下がるのをなすすべもなく見守るよりほか
なかった。9月下旬にはアップル社の株価が、数
分後には回復したものの30秒で4%近く下落し
た。
ウォールストリート・暴走するアルゴリ
ズム Wired.jp 2016年9月 より 3
• アルゴリズムを用いた取引は個人投資家にとっては利益と
なった。以前よりもはるかに速く、安く、容易に売買できるの
だ。
• だがシステムの観点からすると、市場は迷走してコントロー
ルを失う恐れがある。
 たとえ個々のアルゴリズムは理にかなったものであっても、
集まると別の論理─人工知能の論理に従うようになる。人工
知能は人工の「人間の」知能ではない。
 それは、ニューロンやシナプスではなくシリコンの尺度で動く、
われわれとはまったく異質なものだ。その速度を遅くするこ
とはできるかもしれない。だが決してそれを封じ込めたり、コ
ントロールしたり、理解したりはできない。
Automotive Car
Data Collector
RSD Integrater
.
.
.
Other
Road
Segment
Data
Road
Segment
Data
Integrated
RSD
Map Maker
Online
Map
付録2:自動運転車の概要
Matching the online map and recognized camera image
and follow the route
走行支援の3本柱とConnected
の必要性
• センシング
– 360度の視界でカメラ+レーダ
 connected 不要
• 地図
– その場その場で10cmの精度で、走行可能経路を探す
 connected 必要:自車走行経路データのupload
 走行予定場所のup-to-dateの地図のdownload
• 走行ポリシー(戦略)
– 周囲の多数の車で対話、交渉しながらお互いの経路を確認
この会話がconnectedになるべきか、可能かは未知数
Internet connectedでは遅すぎるので、車々間の直接通信になるだろ
う
レベル3,4,5
– 完全な自動運転はレベル4(制限地域),レベル5(全域)
– いざというときだけ人間が介入するのがレベル3
• ところが、ふだん運転していない人がいざというときだ
けハンドルを渡されても、人工知能以上の運転ができ
るのでしょうか?
• レベル3はレベル4、5(完全自動運転)に比べて人間
との切り替え時がかえって危険ではないでしょうか?
• 保険業界も疑問視
43

More Related Content

PDF
情報ネットワーク法学会研究大会
PDF
最近のAI倫理指針からの考察
PDF
NICT-nakagawa2019Feb12
PDF
情報ネットワーク法学会2017大会第8分科会発表資料
PDF
人工知能学会大会2020ーAI倫理とガバナンス
PDF
CPDP2019 summary-report
PDF
2019 3-9-nakagawa
PDF
自動運転と道路沿い情報インフラ
情報ネットワーク法学会研究大会
最近のAI倫理指針からの考察
NICT-nakagawa2019Feb12
情報ネットワーク法学会2017大会第8分科会発表資料
人工知能学会大会2020ーAI倫理とガバナンス
CPDP2019 summary-report
2019 3-9-nakagawa
自動運転と道路沿い情報インフラ

Similar to 情報法制研究所 第5回情報法セミナー:人工知能倫理と法制度、社会 (20)

PPTX
201024 ai koeln (akemi yokota) auf japanisch
PPTX
AI社会論研究会「AI・ロボットに関する法的論点の概観」
PDF
AIルールとガバナンス
PPTX
東京法哲研2018年3月例会「ロボット・AIと法的人格」(工藤郁子)
PPTX
161112inlaw第9分科会 ロボットと消費者保護(行政法の視点から)横田明美(修正・公開版)
PDF
「AIガバナンスと産業政策―リスクと制度デザインに関する考察―」@情報通信学会大会202507
PDF
人工知能が浸透した社会の情報倫理学
PPTX
人工知能倫理に関わる社会的次元/個人的次元の峻別と交差 発表スライド
PPTX
AI社会における道徳的行為者
としての人間のありかた: ネオ・サイバネティクスの理論をもとに
PPTX
20190605 jsai2019 kawashima
PDF
AI規制の現在地:最新動向と政策をめぐる各国の攻防@GLOCOM六本木会議年次総会
PPTX
Panel Discussion: AI Networking and Ethics
PDF
2018.12.21 高知みらい科学館サイエンスカフェ
PDF
デジハリ講義 人工知能 第四回「社会と人工知能」 Society and AI
PPTX
技術者は、AIが個人・組織・社会にもたらすリスクにどう向き合うべきか
PPTX
ロボット法―ロボット・人工知能に関する法的諸課題と展望
PPTX
AI社会論研究会
PPTX
181208 inlaw ai utilization in the adminstrative process
PPTX
AIシステムの要求とプロジェクトマネジメント-後半:機械学習応用システムのための 要求工学と安全性
PDF
情報社会とメディア【2019後期第14回】
201024 ai koeln (akemi yokota) auf japanisch
AI社会論研究会「AI・ロボットに関する法的論点の概観」
AIルールとガバナンス
東京法哲研2018年3月例会「ロボット・AIと法的人格」(工藤郁子)
161112inlaw第9分科会 ロボットと消費者保護(行政法の視点から)横田明美(修正・公開版)
「AIガバナンスと産業政策―リスクと制度デザインに関する考察―」@情報通信学会大会202507
人工知能が浸透した社会の情報倫理学
人工知能倫理に関わる社会的次元/個人的次元の峻別と交差 発表スライド
AI社会における道徳的行為者
としての人間のありかた: ネオ・サイバネティクスの理論をもとに
20190605 jsai2019 kawashima
AI規制の現在地:最新動向と政策をめぐる各国の攻防@GLOCOM六本木会議年次総会
Panel Discussion: AI Networking and Ethics
2018.12.21 高知みらい科学館サイエンスカフェ
デジハリ講義 人工知能 第四回「社会と人工知能」 Society and AI
技術者は、AIが個人・組織・社会にもたらすリスクにどう向き合うべきか
ロボット法―ロボット・人工知能に関する法的諸課題と展望
AI社会論研究会
181208 inlaw ai utilization in the adminstrative process
AIシステムの要求とプロジェクトマネジメント-後半:機械学習応用システムのための 要求工学と安全性
情報社会とメディア【2019後期第14回】
Ad

More from Hiroshi Nakagawa (20)

PDF
信頼できるAI評価リスト パーソナルAIエージェントへの適用例
PDF
AI and Accountability
PDF
AI Forum-2019_Nakagawa
PDF
Ai e-accountability
PDF
暗号化によるデータマイニングと個人情報保護
PDF
Defamation Caused by Anonymization
PDF
人工知能と社会
PDF
人工知能学会合同研究会2017-汎用人工知能研究会(SIG-AGI)招待講演
PPTX
学術会議 ITシンポジウム資料「プライバシー保護技術の概観と展望」
PDF
Social Effects by the Singularity -Pre-Singularity Era-
PDF
パーソナル履歴データに対する匿名化と再識別:SCIS2017
PDF
時系列パーソナル・データの プライバシー
PDF
シンギュラリティ以後
PDF
シンギュラリティ以前
PPTX
Privacy Protection Technologies: Introductory Overview
PDF
差分プライベート最小二乗密度比推定
PDF
Privacy Protectin Models and Defamation caused by k-anonymity
PDF
Boundary Between Pseudonymity and Anonymity
PPTX
数式を使わないプライバシー保護技術
PPTX
情報検索における質問者の プライバシー保護 :Private Information Retrieval
信頼できるAI評価リスト パーソナルAIエージェントへの適用例
AI and Accountability
AI Forum-2019_Nakagawa
Ai e-accountability
暗号化によるデータマイニングと個人情報保護
Defamation Caused by Anonymization
人工知能と社会
人工知能学会合同研究会2017-汎用人工知能研究会(SIG-AGI)招待講演
学術会議 ITシンポジウム資料「プライバシー保護技術の概観と展望」
Social Effects by the Singularity -Pre-Singularity Era-
パーソナル履歴データに対する匿名化と再識別:SCIS2017
時系列パーソナル・データの プライバシー
シンギュラリティ以後
シンギュラリティ以前
Privacy Protection Technologies: Introductory Overview
差分プライベート最小二乗密度比推定
Privacy Protectin Models and Defamation caused by k-anonymity
Boundary Between Pseudonymity and Anonymity
数式を使わないプライバシー保護技術
情報検索における質問者の プライバシー保護 :Private Information Retrieval
Ad

情報法制研究所 第5回情報法セミナー:人工知能倫理と法制度、社会