大多数の人が人工知能 (AI) について懸念しているにもかかわらず、約 70% の人が児童性的虐待コンテンツの作成に人工知能 (AI) がすでに使用されていることを知らないことが、新しい調査で明らかになりました。
英国に本拠を置く児童保護慈善団体であるルーシー・フェイスフル財団が英国の2,500人以上を対象に調査を行ったところ、調査対象者の約88%がAIが生成した18歳未満の性的画像は違法であるべきであることに同意した。
しかし、調査対象者のうち、このような事実を知らなかった、またはこのコンテンツが英国で合法であると考えていたのはわずか 40% でした。
EU と英国では、AI テクノロジーを使用して作成された素材を含む、未成年者の性的画像を作成、閲覧、共有することは違法です。
英国の慈善団体も運営しています。今すぐやめてくださいヘルプライン子どもや他の大人の行動に対する考えや行動を心配する人々を支援する機密サービスが、警鐘を鳴らしている。
同ヘルプラインのディレクター、ドナルド・フィンドレイター氏は、AIの急速な進化により、すでにオンライン上で児童性犯罪者が毎日悪用していると強調した。
「ここ英国で児童への性的虐待を閲覧したとして警察に逮捕されている人々から毎日私たちに電話がかかってきます。その中にはAIで生成された画像を見ている人も増えています」と同氏はユーロニュース・ネクストに語った。昨年、AI によって生成された児童性的虐待に関する報告数が増加しました。
AIが有害なコンテンツを作成するためにどのように使用されるかについて「国民の間に深刻な知識のギャップ」があるため、「社会はこの問題に注意を払う必要がある」と同氏は述べた。
「これらの画像を見るのは良くありません。これは子供を性的対象とする方法です。これは適切な行為ではありません。子どもたちは私たちの尊敬に値します。彼らには権利があります。私たちは彼らの権利を踏みにじってはならないし、そうすることによって何らかの結果が生じることを理解してください」と付け加え、直接的または間接的に関係する人々に助けを求めるよう呼び掛けた。
217,000人以上が連絡を取った今すぐ停止ヘルプライン2023 年には、彼らの約 80% が自分自身のことを心配しています。
AI 性的コンテンツの台頭現象
AI によって生成された児童性的虐待資料の拡散は、憂慮すべき報告Internet Watch Foundation (IWF) によって昨年出版されました。
IWFのアナリストが評価したダークウェブの児童性的虐待フォーラム上のAI生成画像1万1000枚のうち、2500枚以上が犯罪と評価された。
「私たちは、既知の本物の被害者の顔を使用したAI CSAM(児童性的虐待素材)画像を見ています。有名人の『老化』と、有名人の子供の似姿を使用したAI CSAMを見ています」とIWFのCEOは述べた。スージー・ハーグリーブス。
「私たちは、完全に正当な理由で服を着た画像がオンラインにアップロードされた子供たちをテクノロジーがどのように「裸化」しているかを目の当たりにしています。そして私たちは、これらすべてのコンテンツがどのように商業化されているかを目の当たりにしています。」
フィンドレイター氏は、人々は「これをしても何の影響もないと思い込んではいけません」と付け加えた。
「テクノロジーが進むところには虐待も伴います。私たちは現在、全米各地でAIが生成した子どもの性的画像の影響に対処している」と国家警察署長評議会(NPCC)の児童保護・虐待捜査責任者イアン・クリッチリー氏は声明で述べた。
「AIによって作成されたものも含め、子どもの性的画像を作成、閲覧、共有することは決して被害者を出さないものであり、法律に違反します。そして私たちはあなたを見つけます」とクリッチリーは付け加えた。
英国警察は、オンラインのおとり捜査官を使って年間 1,700 件の逮捕を行ったが、そのすべてが AI によって作成されたコンテンツにリンクされていたわけではありません。
また、AI が生成したコンテンツは、仮想作品から被害者を特定する際に、捜査官に新たな困難をもたらします。最近のニューヨークタイムズの記事AI技術の進歩に伴い法執行機関が苦戦していると報告している。
プラットフォームが十分に機能していない
専門家らはまた、この問題に関してAI企業やソーシャルメディアプラットフォームに対する規制を強化することを望んでいる。
研究者らは昨年、3,200枚の画像非営利団体 LAION が作成したデータセットで、生成 AI ツール Stable Diffusion のトレーニングに使用された、児童性的虐待の疑いのあるデータのデータ。
数週間前、Stable Diffusionは「モデルが利用規約に違反する画像を生成することを実際には阻止できない」ため、「児童性的虐待画像の制作者が好むツール」として注目されていたとインターネット監視財団は述べた。
「私は規制が強化されることを望んでいます。 AI企業が開発するこの種のツールが悪用されないように、したがって児童の性的虐待画像が作成され共有されないように技術を開発してほしいと願っています」とフィンドレイター氏は語った。
X(旧ツイッター)罰金を科せられた児童の性的搾取コンテンツへの取り組み方を十分に説明しなかったとして、オーストラリアは2023年10月に36万6,742ユーロを課した。
最近では、2023年12月にエンドツーエンド暗号化を導入するというメタ社の決定も、児童虐待者にオンライン上の安全な避難場所を与えることになるとの懸念に見舞われた。
EUは、検出プロセスが不十分であることを認め、児童性的虐待コンテンツと闘うための暫定措置を2026年4月3日まで延長することを決定した。
これにより、インターネット プロバイダーは自社のサービスでこの種のコンテンツを検索し、当局に報告することができます。