2024年12月05日
2024年12月05日
Snapの安全への取り組みに関する洞察を提供するために、年2回、この透明性レポートを公表しています。 当社は、これらの取り組みにコミットしており、当社のコンテンツのモデレーション、法執行機関の慣行、Snapchatコミュニティの安全と幸福について深く関心を持つ多くのステークホルダーにとって、これ等の報告書がより包括的かつ有益なものになるよう継続的に努力しています。
この透明性レポートは、2024年上半期(1月1日~6月30日)を対象としています。 これまでの報告書と同様に、コミュニティガイドライン違反の特定のカテゴリについて、当社のトラスト&セーフティーチームが受理または対処したアプリ内コンテンツの世界的な量とアカウントレベルのサポート、および施行に関するデータ、法執行機関や政府からの要請への対応、そして、著作権および商標権侵害の通知への対応 がどのように行われかを共有しています。 また、このページの一番下にあるリンク先のファイルに国別の洞察も提供しています。
透明性レポートを継続的に改善するという継続的な取り組みの一環として、コミュニティガイドラインの広範囲にわたる違反を検出し、実施するための積極的な取り組みを強調する新しいデータを導入しています。 このレポートには世界レベルと国レベルのデータが含まれており、今後もそうしていく予定です。 また、以前の報告でラベル付けエラーを修正しました。以前は「実施された総コンテンツ」と言及しており、関連する列に提供されたデータがコンテンツレベルとアカウントレベルの両方を含むという事実を反映するため、現在は「実施総数」と表しています。
オンライン上の潜在的な危害に対処するためのポリシー、および報告慣行を進化させる計画の詳細については、この透明性レポートに関する最近のセーフティ&インパクトブログをご覧ください。 Snapchatの安全性とプライバシーに関する追加リソースについては、ページ下部の透明性の報告についてタブをご覧ください。
この透明性レポートの最新版は、EN-USロケールでご覧いただけます。
トラスト&セーフティチームのコミュニティガイドラインの実施に関するアクションの概要
トラスト&セーフティチームは、このレポートの次のセクションに詳しく記載されているように、プロアクティブ(自動化ツールの使用を通じて)とリアクティブ(報告に応じて)のコミュニティガイドラインを積極的に実施しています。 この報告サイクル(2024年上半期)で、トラスト&セーフティチームは、次のような措置を講じました。
Total Enforcements
Total Unique Accounts Enforced
10,032,110
5,698,212
以下は、違反を検出した時(積極的に、または報告を受けた場合)から、関連するコンテンツまたはアカウントについて最終的な措置を講じた日までの所要時間の中央値を含め、関連するコミュニティガイドライン違反の種類別の内訳です。
Policy Reason
Total Enforcements
Total Unique Accounts Enforced
Median Turnaround Time (minutes) From Detection To Final Action
Sexual Content
3,860,331
2,099,512
2
Child Sexual Exploitation
961,359
577,682
23
Harassment and Bullying
2,716,966
2,019,439
7
Threats & Violence
199,920
156,578
8
Self-Harm & Suicide
15,910
14,445
10
False Information
6,539
6,176
1
Impersonation
8,798
8,575
2
Spam
357,999
248,090
1
Drugs
1,113,629
718,952
6
Weapons
211,860
136,953
1
Other Regulated Goods
247,535
177,643
8
Hate Speech
324,478
272,025
27
Terrorism & Violent Extremism
6,786
4,010
5
報告期間中の違反視聴率(VVR)は0.01%でした。これはSnapchat上のSnapおよびストーリー再生1万回のうち、1回にコミュニティガイドライン違反のコンテンツが含まれていたことを意味します。
トラスト&セーフティチームに報告されたコミュニティガイドライン違反
2024年1月1日~6月30日より、Snapのトラスト&セーフティチームは、3,842,507のユニークアカウントに対する強制措置を含む、全世界で合計6,223,618件の強制措置を実施しました。 トラスト&セーフティチームが、これらの報告に応じて実施するまでの所要時間の中央値は、約24分でした。 報告カテゴリ別の内訳は、以下に示されています。
Total Content & Account Reports
Total Enforcements
Total Unique Accounts Enforced
19,379,848
6,346,508
4,075,838
Policy Reason
Content & Account Reports
Total Enforcements
% of the Total Reports Enforced by Snap
Total Unique Accounts Enforced
Median Turnaround Time (minutes) From Detection To Final Action
Sexual Content
5,251,375
2,042,044
32.20%
1,387,749
4
Child Sexual Exploitation
1,224,502
469,389
7.40%
393,384
133
Harassment and Bullying
6,377,555
2,702,024
42.60%
2,009,573
7
Threats & Violence
1,000,713
156,295
2.50%
129,077
8
Self-Harm & Suicide
307,660
15,149
0.20%
13,885
10
False Information
536,886
6,454
0.10%
6,095
1
Impersonation
678,717
8,790
0.10%
8,569
2
Spam
1,770,216
180,849
2.80%
140,267
1
Drugs
418,431
244,451
3.90%
159,452
23
Weapons
240,767
6,473
0.10%
5,252
1
Other Regulated Goods
606,882
199,255
3.10%
143,560
8
Hate Speech
768,705
314,134
4.90%
263,923
27
Terrorism & Violent Extremism
197,439
1,201
<0.1%
1,093
4
2024年上半期の全体的な報告量は、前6ヶ月と比較してかなり安定しました。 このサイクルでは、強制措置の総数と強制措置されたユニークアカウント数が約16%増加しました。
過去12ヶ月の間(2024年上半期)に、Snapは、ユーザー向けに新しい報告メカニズムを導入しました。これは報告および強制措置されたボリュームの変化とこの報告機関における所要時間の増加によるものです。具体的には:
グループチャット報告:2023年10月13日にグループチャット報告を導入しました。このレポートは、ユーザーがマルチユーザーチャットで発生した虐待を報告することができます。 この変更は、報告カテゴリ全体の指標の構成に影響を与えました(チャットコンテキストでは潜在的な危害が起こる可能性が高いため)、および報告の実行可能性が向上しました。
アカウント報告の強化:また、アカウント報告機能を進化させ、悪質業者が運営していると疑われるアカウントを報告する際に、チャット証拠を提出するオプションを報告ユーザーに提供しています2024年2月29日に開始されたこの変更により、アカウント報告を評価するためのより大きな証拠と文脈を得ることができます。
チャット報告、特にグループチャット報告は、レビューに最も複雑で時間のかかるものの1つであり、全体で所要時間が延びました。
児童性的搾取と虐待(CSEA)、ハラスメントといじめ、ヘイトスピーチの報告は、特に上記の2つの変化、およびより広範囲にわたるエコシステムでの変化の影響を受けました。 具体的には:
CSEA:2024年上半期のCSEA関連の報告と強制措置の増加を観察しました。 具体的には、ユーザーによるアプリ内報告総数が64%、強制措置数が82%増加、強制措置されたユニークアカウント数が108%増加しました。 これらの増加は、主にグループチャットとアカウント報告機能の導入により促進されました。 このモデレーションキューの敏感な性質を考慮して、高度な訓練を受けたエージェントからなる選抜チームが、CSEA関連の違反の可能性に関する報告を審査するために割り当てられています。 追加報告の流入とチームが新しいトレーニングに適応したことにより、所要時間が延びました。 今後、所要時間の短縮と潜在的なCSEAの報告を正確に措置するために、グローバルベンダーチームの規模を大幅に拡大しました。 2024年下半期の透明性レポートが、この取り組みの成果を大幅に改善し、所要期間を大幅に改善できたと考えています。
ハラスメントといじめ:報告に基づき、チャット、特にグループチャットでハラスメントといじめが不釣合いに発生することが観察されました。 グループチャット報告とアカウント報告に導入された改善により、この報告カテゴリの報告を評価する際に、より包括的な措置を講じることができました。 さらに、この期間から、ハラスメントといじめ報告を提出する際、ユーザーにコメントを入力するよう求めています。 各報告の文脈を理解するために、このコメントをレビューしています。 これらの変更により、強制措置総数(+91%)、強制措置されたユニークアカウント数(+82%)、および対応報告の所要時間(+245分)が大幅に増加しました。
ヘイトスピーチ:2024年上半期、ヘイトスピーチの報告内容、強制措置総数、所要時間の増加を観察しました。 具体的には、アプリ内報告が61%、強制措置総数が127%、強制措置されたユニークアカウント数が125%増加しました。 これは、チャット報告の仕組みが改善されたこと(以前に議論されたように)所要因であり、地政学的環境、特にイスラエル・ハマス紛争の継続により、さらに悪化しました。
この報告期間中、スパムおよび不正使用の疑いがあるとの報告を受けて、総強制措置件数は約65%減少し、総ユニークアカウントの総強制措置件数が60%減少しました。これは、積極的な検出と強制措置ツールが改善さたことを反映しています。 自傷行為と自殺に関するコンテンツの報告に応じて、実施総数が同様の減少(約80%減少)を経験しました。これは、更新された被害者中心のアプローチを反映しています。トラスト&セーフティチームは、適切な場合、ユーザーに対して措置を行うのではなく、関連するユーザー自助リソースを送信します。 このアプローチは、インタラクティブメディアとインターネット障害を専門とする小児科教授、医師を含む、安全諮問委員会のメンバーから報告されました。
コミュニティガイドラインの違反を積極的に検出し、実施するための取り組み
コミュニティガイドラインの違反を積極的に検出し、場合によっては実施するために自動ツールを導入しています。 これらのツールには、ハッシュマッチングツール(PhotoDNAやGoogleの児童の性的虐待画像(CSAI)マッチなど)、虐待的な言語検出ツール(特定され、定期的に更新された虐待的なキーワードや絵文字のリストに基づいて検出し、実施する)、およびマルチモーダル人工知能/機械学習技術が含まれます。
2024年上半期には、自動化ツールの使用を通じてコミュニティガイドラインの違反を積極的に検出した後、次のような実施措置を講じました。
Total Enforcements
Total Unique Accounts Enforced
3,685,602
1,845,125
Policy Reason
Total Enforcements
Total Unique Accounts Enforced
Median Turnaround Time (minutes) From Detection To Final Action
Sexual Content
1,818,287
828,590
<1
Child Sexual Exploitation
491,970
188,877
1
Harassment and Bullying
14,942
11,234
8
Threats & Violence
43,625
29,599
9
Self-Harm & Suicide
761
624
9
False Information
85
81
10
Impersonation
8
6
19
Spam
177,150
110,551
<1
Drugs
869,178
590,658
5
Weapons
205,387
133,079
<1
Other Regulated Goods
48,280
37,028
9
Hate Speech
10,344
8,683
10
Terrorism & Violent Extremism
5,585
2,951
21
当社のコミュニティのメンバー、特に未成年者に対する性的搾取は違法かつ著しく不快な行為であり、当社のコミュニティガイドラインによって禁止されています。当社のプラットフォームにおける児童性的搾取・虐待(CSEA)の防止、検出、撲滅は、Snapの最優先事項であり、これらの犯罪やその他の犯罪に対処するための能力を継続的に進化させています。
PhotoDNAロバスト・ハッシュマッチングやGoogleの児童性的虐待画像(CSAI)マッチなどのアクティブ技術検出ツールを使用して、それぞれCSEAの既知の違法な画像と動画を特定します。 さらに、場合によっては、その他の違法となりうるCSEA活動を取り締まるために行動シグナルを使用します。 法律で定められている通り、当社は、CSEA関連のコンテンツを全米失踪・被搾取児童センター(NCMEC)に報告しています。そして、NCMECは必要に応じて国内または国際的な法執行機関と連携しています。
2024年上半期、SnapchatでCSEAを検出した際に(積極的に、または報告を受けた場合)次の措置を講じました。
Total Content Enforced
Total Accounts Disabled
Total Submissions to NCMEC*
1,228,929
242,306
417,842
*Note that each submission to NCMEC can contain multiple pieces of content. The total individual pieces of media submitted to NCMEC is equal to our total content enforced.
Snapchatユーザーにリソースとサポートを提供する取り組み
当社は、Snapchatユーザーのメンタルヘルスや幸福について深い関心を払っています。そのため、Snapchatの構築に関する当社の決定をさまざまな方法でお知らせしています。実際の友人間でのコミュニケーションのためにデザインされたプラットフォームとして、Snapchatは、困難な場面に遭遇したときに相互に助け合う力を発揮するというユニークな役割を果たすことができると、当社では考えています。そのため、Snapchatユーザーにリソースとサポートを開発しました。
Here For You検索ツールは、ユーザーがメンタルヘルス、不安、うつ病、ストレス、自殺願望、悲しみ、いじめに関連する特定のトピックを検索した際に、現地の専門家からのリソースを表示します。 また、苦しんでいる人々をサポートするために、リベンジポルノ恐喝および性的なリスクと危害に特化したページも開発しました。 安全に関するグローバル・リストは、プライバシー、セーフティ、ポリシーハブでSnapchatユーザー全員に公開されています。
トラスト&セーフティチームが困難な状況にあるSnapchatユーザーを認識した場合、自傷行為の防止とサポートのためのリソースを転送し、必要に応じて緊急対応担当者に通知することができます。当社が共有するリソースは、当社の安全リソースのグローバルなリストに掲載されています。これらは、すべてのSnapchatユーザーに公開されています。
Total Times Suicide Resources Shared
64,094
アピール
以下は、アカウントロックの決定の見直しを求めるユーザーからの問合せに関する情報です。
Policy Reason
Total Appeals
Total Reinstatements
Total Decisions Upheld
Median Turnaround Time (days) to Process Appeals
TOTAL
493,782
35,243
458,539
5
Sexual Content
162,363
6,257
156,106
4
Child Sexual Exploitation
102,585
15,318
87,267
6
Harassment and Bullying
53,200
442
52,758
7
Threats & Violence
4,238
83
4,155
5
Self-Harm & Suicide
31
1
30
5
False Information
3
0
3
<1
Impersonation
847
33
814
7
Spam
19,533
5,090
14,443
9
Drugs
133,478
7,598
125,880
4
Weapons
4,678
136
4,542
6
Other Regulated Goods
9,153
168
8,985
6
Hate Speech
3,541
114
3,427
7
Terrorism & Violent Extremism
132
3
129
9
地域および国の概要
本項では、当社のトラスト&セーフティチームが、積極的にまたはアプリ内違反の報告に応じて、コミュニティガイドラインの実施に関するアクションの概要を説明します。 当社のコミュニティガイドラインは、場所に関係なく、世界中のSnapchat上のすべてのコンテンツとSnapchatユーザーに適用されます。
すべてのEU加盟国を含む各国に関する情報は、添付のCSVファイルからダウンロードできます。
Region
Total Enforcements
Total Unique Accounts Enforced
North America
3,828,389
2,117,048
Europe
2,807,070
1,735,054
Rest of World
3,396,651
1,846,110
Total
10,032,110
5,698,212
Region
Content & Account Reports
Total Enforcements
Total Unique Accounts Enforced
North America
5,916,815
2,229,465
1,391,304
Europe
5,781,317
2,085,109
1,378,883
Rest of World
7,681,716
2,031,934
1,319,934
Total
19,379,848
6,346,508
4,090,121
Total Enforcements
Total Unique Accounts Enforced
1,598,924
837,012
721,961
417,218
1,364,717
613,969
3,685,602
1,868,199
広告モデレーション
Snapは、すべての広告が当社の広告ポリシーに完全に準拠していることの確認に取り組んでいます。当社は、広告に対して責任と敬意のあるアプローチを採用することで、すべてのユーザーに安全で楽しい体験を提供できると信じています。 すべての広告は、当社の審査および承認の対象となります。さらに、当社は、ユーザーからのフィードバックを真撃に受け止め、広告を削除する権利を留保します。
以下は、Snapchatに掲載された後に報告された有料広告のモデレーションに関する洞察です。 Snapchatの広告は、虚偽のコンテンツ、アダルトコンテンツ、暴力的または不快なコンテンツ、ヘイトスピーチ、知的財産権侵害など、Snapの広告ポリシーに記載されているように、さまざまな理由で削除される場合があります。さらに、この透明性レポートのナビゲーションバーからSnapchatの広告ギャラリーを見つけることができます。
Total Ads Reported
Total Ads Removed
43,098
17,833