以前、「10km先のエロ本からGrokのSpicy Modeへ」という記事で、性欲がテクノロジーを進化させてきた歴史を書いた。VHS、インターネット、暗号通貨。あの記事の結論は「欲望はイノベーションを駆動する」だった。
今日はその暗黒面の話をする。
卒アル写真1枚で、誰でも加害者になれる
Apple StoreとGoogle Playに「ヌーディファイ」アプリが100個超並んでいる。累計7億ダウンロード。収益1.17億ドル。写真を1枚アップロードすれば、数秒で性的な偽画像が生成される。専門知識は一切不要。中学生のスマホで十分だ。
もちろん「卒アル写真」というのは象徴的な表現に過ぎない。実際にはそんなものすら要らない。親がSNSにアップした子供の写真、本人がInstagramやTikTokに載せた自撮り。それだけで十分だ。 つまりSNSに顔写真が1枚でもある人間は、全員が潜在的な被害者になり得る。卒業アルバムを鍵のかかった引き出しにしまったところで、何の防御にもならない。
そして実際に、中学生が加害者になっている。
日本では2025年1〜9月、18歳未満の性的ディープフェイク被害相談が79件。内訳は中学生41件、高校生25件、小学生4件。ここがデカい——加害者の約半数が被害者と同じ学校の児童・生徒だ。隣の席のクラスメイトが、卒アル写真を使って性的な偽画像を作っている。これが2026年の日本の学校で起きている現実。
ディープフェイク動画の96〜98%が非同意の性的コンテンツで、被害者の99%が女性。2023年のディープフェイクポルノは前年比464%増。NCMECへのAI生成児童性的搾取の報告は、2024年上半期の6,835件から2025年上半期には44万件超に爆増した。6,000%超の増加。桁が違う。
写真だけじゃない。声も「武器」になる
偽画像だけではない。声のクローンも、もう完成している。
Microsoftの音声合成AI「VALL-E 2」はたった3秒の音声サンプルから、人間と区別がつかないレベルの音声クローンを生成する。OpenAIのVoice Engineは15秒。商用で誰でも使えるElevenLabsのInstant Voice Cloneでも、必要な音声はわずか30秒だ。
YouTubeに投稿した動画、TikTokのライブ配信、学校の文化祭のスピーチ。どれも数十秒以上は喋っている。つまり顔だけでなく、声もすでにネット上に「素材」として転がっている。顔と声の両方を奪われたとき、「偽物」と「本物」の区別は誰がつけるのか。
韓国は懲役10年。日本は過料5万円
韓国ではTelegram事件をきっかけに3,557人を逮捕、懲役10年の判決。所持・視聴だけで最大3年。「デジタル性犯罪対応国家センター」まで作った。英国は「作成」自体を犯罪化。米国もTAKE IT DOWN Actを成立させた。先進国は動いている。
で、日本。
鳥取県が2025年4月に全国初の条例を施行した。AI生成児童性的画像の作成・提供を禁止。6月の再改正で罰則が追加されたが、過料5万円以下。国レベルの法律はない。名誉毀損やわいせつ物頒布の既存法を「転用」しているだけ。政府は2025年9月に対策工程表を発表したが、具体的な立法は2026年度以降。
韓国が懲役10年で殴りにいっている横で、日本は過料5万円。人の尊厳の値段が5万円だと言っているに等しい。
鳥取県に丸投げするな
鳥取県の取り組み自体は評価する。だが一県の条例で対処できる問題ではない。海外サーバーには執行力が及ばない。オープンソースのAIモデルは規制の網にかからない。C2PAやStopNCII.orgといった技術的対策は、善意のプラットフォーマーにしか効かない。だが検出技術の市場は年率42%で成長し、2026年には157億ドル規模に達している。法律と技術の両輪が要る。片方だけでは穴だらけだ。
表現の自由との兼ね合いは当然ある。架空キャラまで規制対象にすべきか、憲法21条(集会・結社・言論・出版その他一切の表現の自由を保障する条文)との整合性はどうか。議論すべき論点は山ほどある。
だがそれは、国会で議論すべきことだ。鳥取県議会の仕事ではない。
14歳の少女が、同級生に卒アル写真を性的画像にされて、法律上何もできない。この状態を「調査中」で放置していい時間はもう過ぎている。
用語集
- ヌーディファイ(Nudify) — AIを使って衣服を「脱がす」偽画像を生成するアプリやサービスの総称
- ディープフェイク(Deepfake) — Deep Learning+Fakeの造語。AIで生成された精巧な偽画像・偽動画
- NCMEC — National Center for Missing & Exploited Children。米国の行方不明・搾取児童対策センター
- C2PA — Coalition for Content Provenance and Authenticity。Adobe・Microsoft等が推進するコンテンツ真正性の技術標準
- TAKE IT DOWN Act — 2025年米国成立。性的ディープフェイク画像の削除をプラットフォームに義務付ける法律