AI生成の性的虐待材料の増加
3月 31, 2026
国・言語の選択
Canada
人工知能技術は、一般に「AI」とも呼ばれるもので、通常は人間の知能を必要とするタスクを実行する能力を持った機械やソフトウェアを構築するコンピュータサイエンスの分野です。AI技術は1950年代の理論的基盤から発展し、コンテンツを作成し、人間レベルの知覚を持ち、自律的な目標指向の行動を取ることができる強力なディープラーニングモデルへと進化しました。
この技術はかつて「シンボリックAI」と呼ばれており、人間がそのプロセスと出力を自ら操作していましたが、現在では「機械学習」に移行し、機械がデータからパターンを学び、自らコンテンツを生成しています。これは、これらの機械の使用が、作成した科学者、数学者、研究者、エンジニアの手から一般の人々の手に渡ったことを意味します。
誰でもアクセスできる無料のAIツールには、賛否両論があります。それはより良い効果をもたらす重要で影響力のある結果を生む可能性があります。しかし、AI技術が即座に社会的損害を引き起こす能力があることを認識し理解することが不可欠です。これにより、危険で有害な行動を止め、将来的な発生を防ぐための取り組みを行うことができるようになります。
容易にアクセスできるAIの害には、偽情報やディープフェイクの拡散が含まれます。ディープフェイクとは、リアルな偽画像、ビデオ、またはオーディオ素材のことです。この種のコンテンツは、特にAIが生成した性的虐待素材の増加が見られるという不幸な現象を引き起こしています。
この人工知能の使用による同意のない性的コンテンツの作成は、しばしば「ディープフェイクポルノ」または「ヌーディフィケーション」と呼ばれます。これは危険で、残念ながら急速に拡大している問題であり、主に女性と子供を標的としたオンラインでの他者の広範な虐待を招いています。
UN Women (2025) 「ディープフェイクポルノはオンライン上のすべてのディープフェイク動画の98%を占め、ターゲットとなる個人の99%は女性である」と報告されています。恐ろしいことに、AI生成された児童性虐待材料(CSAM)も大規模かつ急速に増加しています。行方不明・被搾取児童センター(2026年)は、この種の材料の作成が「2023年の4,700件から2025年の前半だけで40万件を超えるまでに急増した」と報告しました。
これらの報告書は、AI技術が社会にもたらした嫌な現実を明らかにしています。この状況の最も恐ろしい側面の一つは、この技術により、技術的な専門知識がほとんどない人々でも、普通の写真からリアルなヌード画像や露骨な性的動画を生成できるため、この資料が一般の人々にアクセス可能であるということです。
今日の現代において、人々が人工知能によって生成された素材を同意なしに性的な形で使用されるケースが残念ながら多発しています。この非常に現実的で残念ながら非常に最近の例は、2025年にノースカロライナ州ローリーの地元のノースカロライナ州立大学で発生しました。
ここで30人以上の若い女性の写真が、彼女たちの知識や同意なくポルノ素材に使用され、数人の女性が自分たちの写真をオンラインで発見し、そこに投稿されていた他の写真を認識するまで全く知られていませんでした。WRALニュースはこのストーリーを報道した多くの団体の一つで、容疑者であるヘイン・ビアードが「被害者の写真をコンピュータ生成のポルノ写真コレクションに投稿した」と報じています(2025年)。
令状によると、名乗り出た30人の女性のうち、28人はNCステート大学のソロリティメンバーでした。これらの女性全員の写真が加工され、顔が性的行為をしている裸の女性に人工的に重ねられた画像がポルノサイトに投稿されました。これらの忌まわしい画像は、大学の名前や女性たちの名前を直接参照するフォルダに投稿されていたと述べています。 CBS 17。
AIによって生成された性的虐待素材の発生は、対象となった人々に深刻で持続的な心理的、職業的、社会的な害をもたらします。この素材がAIによって完全に捏造されたものであるにもかかわらず、被害者は不安、うつ病、重大な評判の損傷など、身体的な性的暴行と同等のトラウマを経験します。
このようなコンテンツの対象となった人々は、これらの素材の作成が深刻な感情的トラウマを引き起こす可能性があると報告しています。彼らは自分の力を失ったと感じ、自分の支配が奪われたかのように感じるかもしれません。特に、自分の肖像が他者の性的満足のために無断で提供されているのを見せられることを強制されると、その感覚は非常に苦痛であります。
それは彼らのアイデンティティのハイジャックの一種であり、自己所有感の喪失を感じるかもしれません。AIが生成した性的虐待物は、性的トラウマに直面したことのある人々の画像を使用して再現されることがあり、生存者に再トラウマを引き起こす可能性があります。
「性的に露骨なディープフェイクは本物の画像や動画と区別がつかないことが多く、それにより性的行為を行っている人々の身体に無断で顔を重ねられた被害者を利用し、屈辱を与えたり脅迫したりすることができる」とメリーランド州反性暴力連合(MCASA)は述べました。
このコンテンツのターゲットとされた人々は、多くの場合、搾取された後に深刻な評判の害を被りました。これは、彼らが採用されにくくなったり、既存の仕事を維持することが難しくなったことを意味します。一度ディープフェイクポルノが作成されると、ターゲットの名前を検索した後に誰でも故意にまたは偶然にそのコンテンツをオンラインで見つけることが容易になります。
これは深刻な感情的苦痛を引き起こす可能性があるだけでなく、仕事上や家族との関係、友人間、そして/または恋人との間の対人関係においても混乱や緊張を引き起こす可能性があります。たとえそれがターゲットの過失でなかったとしても、彼らの評判、人間関係、そして機会に大きな影響を与える可能性があります。
これらの素材のますます広範な展開は、性的暴力を正当化する有害な文化も生み出しています。性的侵害が単なる「クリック」に還元されると、被害者はもはや感情を持つ人間としてではなく、他者の目的のために操作される対象として認識されてしまいます。
AI技術によって提供されるツールは、多くの場合、フォト編集フィルターのようなアプリを模倣しており、ユーザーにとって使いやすいです。そのため、人に対する侵害行為が犯罪というよりも創造的な行為として描かれることがあります。このようなコンテンツを簡単に作成できることが、ハラスメントの文化を助長し、性的虐待に関与することの社会的コストを低下させます。
AI生成の性的虐待資料が現代社会で大きな問題になりつつあることはますます明らかです。これはAIが100%悪の機械であり、良いことに使えないという意味ではありませんが、より大きな法的および規制上の措置、技術的な予防策、および産業とプラットフォームの確実な行動が必要であることを示しています。
ディープフェイクポルノの作成と所持の犯罪化を確実にすることから始まる社会的反発があるかもしれません。幸いなことに、政府はすでにAI生成コンテンツを明示的に含めるように児童性的虐待資料(CSAM)の定義を拡大するよう促され始めています。
例えば、Thorn (2025)は、「ENFORCE Act of 2025」はAIにより改変された素材に対し一貫した罰則を保証することで、米国における連邦のギャップを埋めることを目的としていると報告しています。TAKE IT DOWN Actのような法律により、生存者は損害賠償を訴えることができ、AIプラットフォームがそのような有害な内容に対する正式な通知と削除手続きを実施することを要求されます。
技術的な予防措置には、これらのAIツールの実際の制作者により大きな重点を置き、彼らが自分の技術を使用して作成されたコンテンツに対して責任を負うようにすることが含まれます。開発者は、AIのデータセットのトレーニングにCSAMや無断の親密な画像(NCII)が含まれないように求められることがあります。
「コンテンツ認証情報」を義務付けるための働きかけもあり、これはAIによって作成されたファイルにラベルや透かしを付けることです。これにより、プラットフォームがAI生成による虐待行為を検出しやすくなるでしょう。また、企業が厳格な「レッドチーミング」を行うことが奨励されており、これにより虐待的な素材の生成につながる可能性のあるプロンプトを見つけてブロックすることができます。
この虐待の対象となった人々は、のようなツールを使用できます。 StopNCII.org そして、「Take It Down Act」はデジタルの「指紋」を生成し、同じ素材が他の場所にアップロードされるのを自動的にブロックします。教育機関や家庭では、ディープフェイク・ポルノグラフィーや類似の虐待的な素材がサイバーブリングの一形態であるという考えを定義し強化することができます。彼らはNetSmartzのようなプログラムを利用して、子供や親にデジタル搾取を認識し、抵抗し、報告する方法を教えることができます。
意識を広め、このコンテンツが何であるか、そして法的かつ市民的にそれを終わらせる方法を教育することは、この反撃運動に支持を集める素晴らしい方法です。他の重要なリソースには、AI生成の性的虐待の生存者に24時間いつでも機密サポートを提供するRAINN全国ホットラインなどがあります。 Know2Protect (DHS) オンラインでの児童搾取の認識促進キャンペーンに焦点を当てています。
他人の写真を投稿する前に必ず尋ねることを一般的なルールにすることで、「デジタル同意」を実践することができます。これにより、個人の画像が私有財産と見なされ、他人によって有害で悪意のある目的で使用または操作されるものではないという社会的文化の形成を助けます。
不審な活動や明らかにAIが生成した素材を見た場合でも、それをオンラインで再投稿したり広めたりしないでください。「意識を高める」ことや、どうすればよいかを考えることが目的であったとしても、これによりさらなる害を引き起こすだけです。代わりに、すぐに報告し、できる限りの方法で対処してください。
ソーシャルメディアプラットフォームやアプリでできる限り高いプライバシー設定を使用することで、自分のデータを保護しましょう。被害者が狙われるのは被害者の責任ではありませんが、他人が悪意を持ってあなたのコンテンツを見つけて盗むことを少しでも難しくすることは良い習慣です。
この種の資料の対象となっている人を知っているなら、その人を支え、資料が偽物であることと、他の性的虐待の生存者と同じサポートを受けるに値することを認めましょう。これにより、問題に対する社会的理解が深まり、そのような状況からしばしば生じる評判の損傷を制限するのに役立ちます。
現代の世界とその無限の技術進歩において、新しいシステムが私たちの個人や社会の世界に新たな問題をもたらすことを認識することが重要です。AIの公共利用の増加により、残酷で悪意のある人々が、有害で不快な材料を生成するツールにアクセスできるようになっています。
この問題は小さくない問題であり、ターゲットにされたディープフェイクポルノグラフィーの生存者たちの経験とトラウマもまた正当であることを理解することが重要です。しかし、希望はあります。生存者を保護する法律を拡大し強化するため、法的および市民の世界で大きな動きがあり、AIシステムに技術的な変更を実施してより良い安全策を作り、社会に認識と重要なリソースを広めることが進められています。
参照:
最新情報、イベント、支援方法をあなたの受信ボックスにお届けします。
CanadaOur Wave は、501(c)(3) の非営利団体であり、匿名のサービスです。追加のリソースについては、Our Wave Resources Hub をご覧ください。緊急の場合は、お住まいの地域の緊急サービスに連絡してください。