ヒューマン・ライツ・ウォッチは、イスラエルの対ハマス戦争開始以来、メタのインスタグラムとフェイスブックがソーシャルメディアプラットフォーム上で親パレスチナの声を抑えてきた証拠を発見した。
Meta のコンテンツ モデレーション ポリシーは体系的に定められています。親パレスチナコンテンツの検閲ニューヨークに本拠を置くNGOヒューマン・ライツ・ウォッチ(HRW)は、ソーシャルメディアプラットフォーム上でこのような行為を行っていることを発見した。
HRWは最近の報告書で、10月7日のハマスによる攻撃とイスラエルによる武装勢力に対する戦争の開始を受けて、フェイスブックとインスタグラムのオーナーがインスタグラムとフェイスブックでの親パレスチナ人の声をますます沈黙させていると書いた。
NGOは、メタがパレスチナ人の苦痛の消去を促進し、パレスチナで何が起こっているかを世界に知らせる機会を事実上狭めていると非難した。ガザ。
ハマス攻撃に対するイスラエルの報復が始まって以来、約20,000人地元当局によると、ガザ地区で殺害されたと伝えられている。犠牲者の多くは女性と子供だった。イスラエルでは10月7日の虐殺で約1200人が殺害され、そのほとんどが民間人だった。
メタのプラットフォーム上のソーシャルメディアユーザーは、ガザでの停戦と地域民間人の保護を求める投稿が抑圧され、削除され、あるいは「シャドウバン」(一部のコンテンツが大幅に表示されなくなる)されていることに最初に気づいた。
HRWによると、ガザ人への平和的支持表明の削除は「欠陥のあるメタ政策とその一貫性のない誤った実施、コンテンツを管理するための自動化ツールへの過度の依存、およびコンテンツ削除に対する政府の不当な影響」の結果であるという。
それ以来、多くのユーザーが厳格なコンテンツ管理ポリシーを回避する方法を見つけました。インスタグラムやフェイスブックでは、親パレスチナ活動家たちが、メタがプラットフォーム上のコンテンツを隠すことを避けるために「G4z4」と書いたり、パレスチナ国旗の代わりにスイカを使ったりして、ガザで何が起こっているかを語るのが一般的になっている。
現在、HRWはメタに対し、そのプラットフォーム上での保護された表現を許可するよう求めており、「政策を人権基準と一致し、公平かつ非差別的なものにするために全面的に見直し」ている。
「パレスチナを支援するコンテンツに対するメタ社の検閲は、言葉では言い表せない残虐行為と弾圧がすでにパレスチナ人の表現を抑圧しているときに、さらなる侮辱となる」とHRWの技術・人権担当部長代理のデボラ・ブラウンは述べた。
「メタ社の検閲によりパレスチナ人の苦しみの抹殺が促進される中、ソーシャルメディアは人々が虐待を目撃し、反対の声を上げるための重要なプラットフォームです。」
どの声が沈黙させられているのでしょうか?
HRWは60カ国以上のオンライン検閲1,050件を分析し、6つの共通パターンを特定した:コンテンツの削除、アカウントの停止または削除、コンテンツに関与できない、コンテンツに関与できない、アカウントをフォローまたはタグ付けできない、使用制限Instagram や Facebook Live などの機能、シャドウ禁止など。
また、メタ社は、暴力的で生々しいコンテンツに関するポリシーに基づき、ガザ地区でパレスチナ人が受けた傷害を記録した数十件の投稿を、企業の方針ではニュース価値があるとみなされるべきだったにもかかわらず、検閲していたことが判明した。
HRWによると、マーク・ザッカーバーグ氏の会社はこの問題を認識しており、2021年にNGOから初めて知らされたという。
Business for Social Responsibility が Meta の委託を受けて実施した独立調査では、2021 年の同社のコンテンツモデレーションが「パレスチナ人のユーザーの権利に人権に悪影響を及ぼしたようで」、「パレスチナ人の能力に悪影響を及ぼした」ことが判明した。起こったときの経験についての情報と洞察を共有します。」
昨年、Meta はポリシーの変更とコンテンツモデレーションの実施を約束しました。しかしHRWによれば、これらの変更は最終的には実施されなかったという。
「ほぼ2年が経ち、メタ社はその約束を履行しておらず、同社は人権に関する責任を果たしていない」とHRWは結論付けた。 「メタが約束を破ったことで、過去の虐待パターンが再現され、増幅された。」
ユーロニュースからコメントを求められたメタ社の広報担当者は、次のような声明を発表した。「この報告書は、急速に進み、極度に分極化した激しい紛争の中で世界的に我が国の政策を執行するという現実を無視しており、そのことが当社に報告される内容の増加につながっている」 。
「私たちのポリシーは、誰もが発言できるようにすると同時に、私たちのプラットフォームを安全に保つように設計されています。私たちは、人々をイライラさせるような間違いを犯していることをすぐに認めますが、特定の声を意図的かつ組織的に抑圧しているという意味は誤りです。
「紛争に関して投稿された膨大な量のコンテンツのうち、1,000件の例が『組織的な検閲』の証拠であると主張することは、良い見出しになるかもしれないが、だからといってこの主張の誤解が軽減されるわけではない。」