コース: コンテンツ制作のための生成AIスキル:その可能性、問題点、倫理

ディープフェイクの概要

このレッスンでは、 生成 AI の課題のひとつである ディープフェイクについて解説します。 また、生成 AI の技術的な課題と 利用上の課題の違いについても考えます。 ディープフェイクとは、 生成 AI の基礎となっている 深層学習、ディープラーニングと 偽物、フェイクを組み合わせた造語です。 これは、本物の人間とよく似た テキストや画像、 音声や動画といったコンテンツを AI で生成する行為を指します。 その目的は、比較的被害が少ない 娯楽的な物から、 様々な意図をもって誤った情報を流したり、 個人や会社に対する名誉棄損や 多くの人々をだまして 金銭を要求する犯罪まで、実に様々です。 しかし、既に日本国内でも 悪質なディープフェイクを用いた 犯罪が発生し、 逮捕者が出たという報道もあります。 ニュースや SNS でよく話題となるのが ディープフェイクを生成するような AI は危険なので 規制すべきだという意見と ディープフェイクは、 利用する人間側の問題であって AI 技術そのものの問題ではないとする 意見の対立です。 しかし、多くの場合において このような二元論は現実に起きている事柄を 単純化してしまいがちです。 ひいては私たちの社会に 分断を招くことにもつながりかねません。 もちろん、誰でも手軽に利用できる 生成 AI のサービスが 社会に与える影響は大きいと考えられます。 しかし、既に ChatGPT をはじめ 主要な生成 AI サービスでは、 有害なコンテンツの生成を 防ぐための機能が追加されていたり、 ディープフェイクを 高い精度で検出するための 新たな AI 技術も登場しています。 また G7、主要7か国では、 生成 AI についての 国際的なルール作りを進めていて 広島 AI プロセスが、 2023 年の 12 月に承認されるなどの 動きがあります。 ここでの議論は AI 開発者や サービスの提供側だけではなく、 AI を利用する私たち自身にも AI 技術のリスクやリテラシーを高める 必要性があるということが 盛り込まれています。 現時点では、ディープフェイクなどの 生成 AI の悪用を完全に防ぐことは できないということを踏まえつつ、 情報の信頼性を保つには、 どのように検証すれば良いかなどを 一人一人が考えて行動していくことが 求められるでしょう。 このレッスンでは、 生成 AI の課題のひとつである ディープフェイクについて解説しました。

目次