リアンノンさんは、オンラインで手入れされ、強要され、性的虐待を受けたとき、まだ 13 歳でした。
彼女の加害者は起訴されたが、彼の犯罪の影響は深刻である。
「私は長い間、自分の虐待について話しませんでした」と生存者でマリー・コリンズ財団の権利擁護責任者であるリアノン氏はユーロニュースに語った。 「私は不安症、パニック発作、うつ病、自傷行為、自殺未遂に苦しんでいました。」
33歳になった現在、彼女は自分への虐待の画像や動画が依然としてオンライン上に出回っていることを知りながら暮らしている。しかし彼女は声を上げ、性犯罪者を取り締まるための規制強化を求めている。
木曜日、欧州連合の閣僚は、オンラインでの児童性的虐待に取り組み、リアノンに対して犯された犯罪のような犯罪がインターネット上で日々再現されないようにするために欧州委員会が提案した抜本的な新法について議論する予定だ。
英国国民であるリアノン氏は、提案されているEU規制と、まもなく成立する英国のオンライン安全法案は、児童の性的虐待に対する世界的な闘いにおいて極めて重要であると述べた。
EUが計画している法律は、新興技術を利用して新規および既存の児童性的虐待資料(CSAM)や児童の手入れ活動を検出するほか、暗号化されたメッセージを含むユーザーの通信をスキャンすることをデジタルサービスに義務付ける権限を各国当局に与える内容となっている。
しかし、児童保護擁護団体とデジタル権利擁護団体との間で激しい論争が勃発し、これは大規模な監視体制を扇動し、私たちが知っているようなデジタルプライバシーに終焉をもたらすと主張している。支持者らは、この規制を通過できなければ犯罪者が発見されず、大手テクノロジー企業が規制されないままになると主張している。
両方の陣営の間には、オンラインでプライバシーを侵害することなく児童虐待者を捕まえるにはどうすればよいかという、綱渡りが困難であることがわかっています。
テクノロジーは十分に成熟していますか?
法執行機関に知られている既存の児童性的虐待資料 (CSAM) を検出するために、委員会は、有害なファイルのフィンガープリント (ハッシュ) を取得し、インターネット上の複製を検出する、いわゆる知覚ハッシュ関数の使用を提案しました。
しかし、学術専門家らは、加害者は検出を回避するために画像を簡単に操作でき、無実のユーザーが不当に告発される可能性があると警告している。「問題は、1ピクセルを変更したり、画像をわずかにトリミングしたりするだけで、ハッシュを簡単に破ることができることだ」とバート教授は言う。ルーヴェン大学の暗号専門家であるプレニール氏は、「完全に正当な画像が誤検知として報告される可能性もあります」と説明した。
欧州委員会は、ハーグに児童性的虐待に関するEUセンターを設立したいと考えており、法執行機関に誤検知が殺到することを避けるために、違法とフラグが立てられたコンテンツを手動でフィルタリングするスタッフを雇用する予定だ。
しかし、市民社会団体ECPATインターナショナルは、知覚ハッシュ技術が実際に機能するという十分な証拠があると述べている。
「これらのテクノロジーは単に有望なだけではありません。それらは証明されています。ハッシュベースの手法は 10 年以上にわたって有効であり、違法コンテンツに対する迅速な措置を可能にし、法執行を支援しています。例えば、200社以上の企業がPhotoDNA技術を利用して、自社のサービスが児童性的虐待資料の拡散に利用されることを防止している」とECPATの広報担当者は述べた。
同委員会はまた、人工知能 (AI) を利用して、新たに作成された CSAM を検出し、子供のグルーミングに該当する可能性のある行動パターンにフラグを立てたいと考えています。プレネル氏はユーロニュースに対し、これらの方法は冤罪のリスクをさらに高めるだろうと語った。
「たとえ誤り率を1%に下げたとしても、EU内では毎日数十億枚の画像が送信されるため、毎日数千万件の誤検知が発生する可能性がある」とプレニール氏は警告した。 「私たちは無実の人々を最も重大な犯罪で告発し、有罪としている可能性があります。」
プレニールはまた、ティーンエイジャーが自発的に、そして合法的にヌード画像をお互いに共有することは不当に犯罪となる可能性があると警告している。
しかし、ECPATは、毛づくろい行動を検出するための言語ベースのAIモデルはまだ成熟する必要があると認識しているが、AIは「低いエラー率」で新しいCSAMを検出するためにうまく導入されたと述べている。
「CSAM検出ツールは、合法的な画像を見つけないよう特別に訓練されている」とECPATの広報担当者は説明した。 「これらのツールは、特にこれらを区別し、良性の画像が CSAM として誤って解釈されるのを防ぐために、既知の CSAM、アダルト ポルノ、および良性の画像に基づいてトレーニングされています。」
生存者であり、ブレイブ運動の共同創設者であるフランス出身のミエ・コヒヤマさんは、リアンノンさんと同様に規制強化を主張しているが、オンライン上での児童虐待の画像や動画の蔓延は、欧州連合が行動を起こす責任があることを意味していると語る。
「これらの画像の 60% 以上がヨーロッパのサーバーでホストされているため、私たちにはそれに基づいて行動する責任があります」と彼女は説明しました。 「検出が鍵であり、除去が鍵です。」
新しい規則はプライバシーを侵害するのでしょうか?
欧州委員会の提案で最も争点となっているのは、リスクが発生した場合に、メタ社のWhatsappなどのプラットフォーム上でのエンドツーエンドの暗号化通信を含むユーザーのメッセージをスキャンするためにクライアントサイドスキャン(CSS)技術を導入するハイテク企業の義務である。特定された。
これは、ユーザーの暗号化されたメッセージ、写真、電子メール、音声メモが盗聴される可能性があることを意味します。
プライバシー擁護団体は、これはオンライン上でのプライバシーに対する人々の権利の重大な侵害に相当し、悪意のある者によって簡単に操作される可能性があると警告している。 CSSは、iCloudアップロードをスキャンするために2021年にAppleによって一時的に導入されましたが、システムがハイジャックされたため数週間以内に削除されました。
しかし ECPAT International は、CSS は「データが暗号化される前に」機能することを覚えておくことが重要だと述べています。
「これは、CSAM がアップロードされ、暗号化された環境を通じて送信される前に、CSAM にフラグを立てることによって行われます。これは、エンドツーエンドの暗号化サービスである WhatsApp がすでにマルウェアやウイルスを検出するテクノロジーを導入しているのと同じ方法です」と ECPAT の広報担当者は述べています。
批評家らはまた、暗号化を弱体化させることは権威主義政権にとって危険な前例を作る可能性があり、権威主義政権がその技術を操作して批判を検知し、反体制派を標的にする可能性があると警告している。
ミエさんは、そのような脅迫行為は単に本当の問題から注意をそらすための手段に過ぎないと言う。
「この規制には安全策があるだろう」と彼女は言う。 「欧州は民主主義国家であり、独裁国家ではない。世間知らずにならないようにしよう。独裁国家では、国民をスパイしたいときは国民をスパイすることになる。新たな規制は必要ない。」
この規制案はEU諸国の首都に大きな打撃を与え、多くの人が技術の成熟と消費者のプライバシーへの脅威を懸念している。大臣は、技術が十分に成熟するまで他の計画を保留しながら、文書の特定の側面にゴーサインを出すことを選択する可能性があります。
ミエ氏とリアノン氏はユーロニュースの閣僚らに対し、大手テクノロジーやデジタルロビーの圧力に屈することは避けるべきだと語った。彼らは、虐待的なコンテンツの急増は、コンテンツを検出して削除するためのハイテク企業の自主的な対策が明らかに不十分であることを示していると述べている。 WeProtect Global Allianceが火曜日に発表した調査によると、報告された児童性的虐待の内容は2019年以来87%増加している。
「テクノロジー企業は、子どもたちを魅了し、できるだけ長く関わってもらえるように製品を設計している。それが彼らのモデルであるなら、それは子どもたちにとって安全な環境でなければならない」とリアノン氏は語った。
「ハイテク企業の自主規制モデルが機能していないことは、虐待されている子どもの数を見れば明らかだ。私たちはこの問題について立法しなければならず、子どもたちを守るためにハイテク企業の手を強制しなければならない」と彼女は付け加えた。 。
ミー氏はまた、ブロックにはデジタル支援による虐待の被害者を、虐待の画像が毎日見られているという再トラウマから守る責任があるとも信じている。
「これらの生存者たちはすべてを恐れています。家から出ることもできません。中にはインターネットを使うことすら怖い人たちもいます。彼らは社会から完全に疎外された人々です」と彼女は語った。 「私たちは彼らを守らなければなりません。私たちは子供たちを守らなければなりません。それが誰の心の中でも第一に考えられなければなりません。」