2026/04/05

AIディープフェイクポルノの衝撃:加害者の半数は同級生、日本の罰則はたった5万円

以前、「10km先のエロ本からGrokのSpicy Modeへ」という記事で、性欲がテクノロジーを進化させてきた歴史を書いた。VHS、インターネット、暗号通貨。あの記事の結論は「欲望はイノベーションを駆動する」だった。

今日はその暗黒面の話をする。

卒アル写真1枚で、誰でも加害者になれる

Apple StoreとGoogle Playに「ヌーディファイ」アプリが100個超並んでいる。累計7億ダウンロード。収益1.17億ドル。写真を1枚アップロードすれば、数秒で性的な偽画像が生成される。専門知識は一切不要。中学生のスマホで十分だ。

もちろん「卒アル写真」というのは象徴的な表現に過ぎない。実際にはそんなものすら要らない。親がSNSにアップした子供の写真、本人がInstagramやTikTokに載せた自撮り。それだけで十分だ。 つまりSNSに顔写真が1枚でもある人間は、全員が潜在的な被害者になり得る。卒業アルバムを鍵のかかった引き出しにしまったところで、何の防御にもならない。

そして実際に、中学生が加害者になっている。

日本では2025年1〜9月、18歳未満の性的ディープフェイク被害相談が79件。内訳は中学生41件、高校生25件、小学生4件。ここがデカい——加害者の約半数が被害者と同じ学校の児童・生徒だ。隣の席のクラスメイトが、卒アル写真を使って性的な偽画像を作っている。これが2026年の日本の学校で起きている現実。

ディープフェイク動画の96〜98%が非同意の性的コンテンツで、被害者の99%が女性。2023年のディープフェイクポルノは前年比464%増。NCMECへのAI生成児童性的搾取の報告は、2024年上半期の6,835件から2025年上半期には44万件超に爆増した。6,000%超の増加。桁が違う。

写真だけじゃない。声も「武器」になる

偽画像だけではない。声のクローンも、もう完成している。

Microsoftの音声合成AI「VALL-E 2」はたった3秒の音声サンプルから、人間と区別がつかないレベルの音声クローンを生成する。OpenAIのVoice Engineは15秒。商用で誰でも使えるElevenLabsのInstant Voice Cloneでも、必要な音声はわずか30秒だ。

YouTubeに投稿した動画、TikTokのライブ配信、学校の文化祭のスピーチ。どれも数十秒以上は喋っている。つまり顔だけでなく、声もすでにネット上に「素材」として転がっている。顔と声の両方を奪われたとき、「偽物」と「本物」の区別は誰がつけるのか。

韓国は懲役10年。日本は過料5万円

韓国ではTelegram事件をきっかけに3,557人を逮捕、懲役10年の判決。所持・視聴だけで最大3年。「デジタル性犯罪対応国家センター」まで作った。英国は「作成」自体を犯罪化。米国もTAKE IT DOWN Actを成立させた。先進国は動いている。

で、日本。

鳥取県が2025年4月に全国初の条例を施行した。AI生成児童性的画像の作成・提供を禁止。6月の再改正で罰則が追加されたが、過料5万円以下。国レベルの法律はない。名誉毀損やわいせつ物頒布の既存法を「転用」しているだけ。政府は2025年9月に対策工程表を発表したが、具体的な立法は2026年度以降。

韓国が懲役10年で殴りにいっている横で、日本は過料5万円。人の尊厳の値段が5万円だと言っているに等しい。

鳥取県に丸投げするな

鳥取県の取り組み自体は評価する。だが一県の条例で対処できる問題ではない。海外サーバーには執行力が及ばない。オープンソースのAIモデルは規制の網にかからない。C2PAやStopNCII.orgといった技術的対策は、善意のプラットフォーマーにしか効かない。だが検出技術の市場は年率42%で成長し、2026年には157億ドル規模に達している。法律と技術の両輪が要る。片方だけでは穴だらけだ。

表現の自由との兼ね合いは当然ある。架空キャラまで規制対象にすべきか、憲法21条(集会・結社・言論・出版その他一切の表現の自由を保障する条文)との整合性はどうか。議論すべき論点は山ほどある。

だがそれは、国会で議論すべきことだ。鳥取県議会の仕事ではない。

14歳の少女が、同級生に卒アル写真を性的画像にされて、法律上何もできない。この状態を「調査中」で放置していい時間はもう過ぎている。


用語集

  • ヌーディファイ(Nudify) — AIを使って衣服を「脱がす」偽画像を生成するアプリやサービスの総称
  • ディープフェイク(Deepfake) — Deep Learning+Fakeの造語。AIで生成された精巧な偽画像・偽動画
  • NCMEC — National Center for Missing & Exploited Children。米国の行方不明・搾取児童対策センター
  • C2PA — Coalition for Content Provenance and Authenticity。Adobe・Microsoft等が推進するコンテンツ真正性の技術標準
  • TAKE IT DOWN Act — 2025年米国成立。性的ディープフェイク画像の削除をプラットフォームに義務付ける法律

関連記事


icon-loading
AIによる知性のコモディティ化:だから僕は寿司を握る — CEOブログ サムネイル

AIによる知性のコモディティ化:だから僕は寿司を握る

AGI達成を業界トップ3人が宣言した2026年。電力・写真・ゲノムと同じ道を知性が歩き始めた。AI企業が最初にエンジニアを自動化した皮肉な理由と、エンジニア出身CEOが寿司の修行を始めた理由。

icon-loading

「Attention Is All You Need」とは?Transformerが変えたAIの読み方を解説

論文「Attention Is All You Need」が提案したTransformerは、AIの文章理解と生成を根本から変えた。本記事では、その仕組みと前後比較をビジネス視点で解説し、なぜ今この技術を知ることが戦略的メリットになるのかを明らかにする。

icon-loading

再帰的自己改善するAIがコードを書く時代へ — AGIへの道筋を解説

AIが自らコードを改善し続ける「自己改善型エージェント」が登場。OpenAIのサム・アルトマンがAGIの近道と語るこの技術が、開発業界と人類の未来をどう変えるのかを探る。

icon-loading

ディープフェイクが選挙を壊す日:世界中が追いつけていない

150ドルでアメリカ大統領の声を偽造し数千人に届けた事件。韓国は最大7年の禁固刑で規制したが起訴ゼロ。ディープフェイクと選挙の今を、AI企業CEOが解説。

icon-loading
AIはもう人を殺している:20秒で承認される37,000人のキルリスト — CEOブログ サムネイル

AIはもう人を殺している:20秒で承認される37,000人のキルリスト

AIが37,000人のキルリストを自動生成し、人間が1人20秒で承認。ガザ、ウクライナ、イランで現実となったAI軍事利用の最前線と、Anthropic vs 国防総省の倫理的対立を解説。