Snap Values
透明性レポート
2024年1月1日~2024年6月30日

リリース日:

2024年12月05日

更新日:

2024年12月05日

Snapの安全への取り組みに関する洞察を提供するために、年2回、この透明性レポートを公表しています。 当社は、これらの取り組みにコミットしており、当社のコンテンツのモデレーション、法執行機関の慣行、Snapchatコミュニティの安全と幸福について深く関心を持つ多くのステークホルダーにとって、これ等の報告書がより包括的かつ有益なものになるよう継続的に努力しています。 

この透明性レポートは、2024年上半期(1月1日~6月30日)を対象としています。 これまでの報告書と同様に、コミュニティガイドライン違反の特定のカテゴリについて、当社のトラスト&セーフティーチームが受理または対処したアプリ内コンテンツの世界的な量とアカウントレベルのサポート、および施行に関するデータ、法執行機関や政府からの要請への対応、そして、著作権および商標権侵害の通知への対応 がどのように行われかを共有しています。 また、このページの一番下にあるリンク先のファイルに国別の洞察も提供しています。

透明性レポートを継続的に改善するという継続的な取り組みの一環として、コミュニティガイドラインの広範囲にわたる違反を検出し、実施するための積極的な取り組みを強調する新しいデータを導入しています。 このレポートには世界レベルと国レベルのデータが含まれており、今後もそうしていく予定です。 また、以前の報告でラベル付けエラーを修正しました。以前は「実施された総コンテンツ」と言及しており、関連する列に提供されたデータがコンテンツレベルとアカウントレベルの両方を含むという事実を反映するため、現在は「実施総数」と表しています。

オンライン上の潜在的な危害に対処するためのポリシー、および報告慣行を進化させる計画の詳細については、この透明性レポートに関する最近のセーフティ&インパクトブログをご覧ください。 Snapchatの安全性とプライバシーに関する追加リソースについては、ページ下部の透明性の報告についてタブをご覧ください。

この透明性レポートの最新版は、EN-USロケールでご覧いただけます。

トラスト&セーフティチームのコミュニティガイドラインの実施に関するアクションの概要

トラスト&セーフティチームは、このレポートの次のセクションに詳しく記載されているように、プロアクティブ(自動化ツールの使用を通じて)とリアクティブ(報告に応じて)のコミュニティガイドラインを積極的に実施しています。 この報告サイクル(2024年上半期)で、トラスト&セーフティチームは、次のような措置を講じました。 

Total Enforcements

Total Unique Accounts Enforced

10,032,110

5,698,212

以下は、違反を検出した時(積極的に、または報告を受けた場合)から、関連するコンテンツまたはアカウントについて最終的な措置を講じた日までの所要時間の中央値を含め、関連するコミュニティガイドライン違反の種類別の内訳です。

Policy Reason

Total Enforcements

Total Unique Accounts Enforced

Median Turnaround Time (minutes) From Detection To Final Action

Sexual Content

3,860,331

2,099,512

2

Child Sexual Exploitation

961,359

577,682

23

Harassment and Bullying

2,716,966

2,019,439

7

Threats & Violence

199,920

156,578

8

Self-Harm & Suicide

15,910

14,445

10

False Information

6,539

6,176

1

Impersonation

8,798

8,575

2

Spam

357,999

248,090

1

Drugs

1,113,629

718,952

6

Weapons

211,860

136,953

1

Other Regulated Goods

247,535

177,643

8

Hate Speech

324,478

272,025

27

Terrorism & Violent Extremism

6,786

4,010

5

報告期間中の違反視聴率(VVR)は0.01%でした。これはSnapchat上のSnapおよびストーリー再生1万回のうち、1回にコミュニティガイドライン違反のコンテンツが含まれていたことを意味します。

トラスト&セーフティチームに報告されたコミュニティガイドライン違反

2024年1月1日~6月30日より、Snapのトラスト&セーフティチームは、3,842,507のユニークアカウントに対する強制措置を含む、全世界で合計6,223,618件の強制措置を実施しました。 トラスト&セーフティチームが、これらの報告に応じて実施するまでの所要時間の中央値は、約24分でした。 報告カテゴリ別の内訳は、以下に示されています。 

Total Content & Account Reports

Total Enforcements

Total Unique Accounts Enforced

19,379,848

6,346,508

4,075,838

Policy Reason

Content & Account Reports

Total Enforcements

% of the Total Reports Enforced by Snap

Total Unique Accounts Enforced

Median Turnaround Time (minutes) From Detection To Final Action

Sexual Content

5,251,375

2,042,044

32.20%

1,387,749

4

Child Sexual Exploitation

1,224,502

469,389

7.40%

393,384

133

Harassment and Bullying

6,377,555

2,702,024

42.60%

2,009,573

7

Threats & Violence

1,000,713

156,295

2.50%

129,077

8

Self-Harm & Suicide

307,660

15,149

0.20%

13,885

10

False Information

536,886

6,454

0.10%

6,095

1

Impersonation

678,717

8,790

0.10%

8,569

2

Spam

1,770,216

180,849

2.80%

140,267

1

Drugs

418,431

244,451

3.90%

159,452

23

Weapons

240,767

6,473

0.10%

5,252

1

Other Regulated Goods

606,882

199,255

3.10%

143,560

8

Hate Speech

768,705

314,134

4.90%

263,923

27

Terrorism & Violent Extremism

197,439

1,201

<0.1%

1,093

4

2024年上半期の全体的な報告量は、前6ヶ月と比較してかなり安定しました。 このサイクルでは、強制措置の総数と強制措置されたユニークアカウント数が約16%増加しました。

過去12ヶ月の間(2024年上半期)に、Snapは、ユーザー向けに新しい報告メカニズムを導入しました。これは報告および強制措置されたボリュームの変化とこの報告機関における所要時間の増加によるものです。具体的には:

  • グループチャット報告:2023年10月13日にグループチャット報告を導入しました。このレポートは、ユーザーがマルチユーザーチャットで発生した虐待を報告することができます。 この変更は、報告カテゴリ全体の指標の構成に影響を与えました(チャットコンテキストでは潜在的な危害が起こる可能性が高いため)、および報告の実行可能性が向上しました。 

  • アカウント報告の強化:また、アカウント報告機能を進化させ、悪質業者が運営していると疑われるアカウントを報告する際に、チャット証拠を提出するオプションを報告ユーザーに提供しています2024年2月29日に開始されたこの変更により、アカウント報告を評価するためのより大きな証拠と文脈を得ることができます。


チャット報告、特にグループチャット報告は、レビューに最も複雑で時間のかかるものの1つであり、全体で所要時間が延びました。 

児童性的搾取と虐待(CSEA)、ハラスメントといじめ、ヘイトスピーチの報告は、特に上記の2つの変化、およびより広範囲にわたるエコシステムでの変化の影響を受けました。 具体的には:

  • CSEA:2024年上半期のCSEA関連の報告と強制措置の増加を観察しました。 具体的には、ユーザーによるアプリ内報告総数が64%、強制措置数が82%増加、強制措置されたユニークアカウント数が108%増加しました。 これらの増加は、主にグループチャットとアカウント報告機能の導入により促進されました。 このモデレーションキューの敏感な性質を考慮して、高度な訓練を受けたエージェントからなる選抜チームが、CSEA関連の違反の可能性に関する報告を審査するために割り当てられています。 追加報告の流入とチームが新しいトレーニングに適応したことにより、所要時間が延びました。 今後、所要時間の短縮と潜在的なCSEAの報告を正確に措置するために、グローバルベンダーチームの規模を大幅に拡大しました。 2024年下半期の透明性レポートが、この取り組みの成果を大幅に改善し、所要期間を大幅に改善できたと考えています。

  • ハラスメントといじめ:報告に基づき、チャット、特にグループチャットでハラスメントといじめが不釣合いに発生することが観察されました。 グループチャット報告とアカウント報告に導入された改善により、この報告カテゴリの報告を評価する際に、より包括的な措置を講じることができました。 さらに、この期間から、ハラスメントといじめ報告を提出する際、ユーザーにコメントを入力するよう求めています。 各報告の文脈を理解するために、このコメントをレビューしています。 これらの変更により、強制措置総数(+91%)、強制措置されたユニークアカウント数(+82%)、および対応報告の所要時間(+245分)が大幅に増加しました。 

  • ヘイトスピーチ:2024年上半期、ヘイトスピーチの報告内容、強制措置総数、所要時間の増加を観察しました。 具体的には、アプリ内報告が61%、強制措置総数が127%、強制措置されたユニークアカウント数が125%増加しました。 これは、チャット報告の仕組みが改善されたこと(以前に議論されたように)所要因であり、地政学的環境、特にイスラエル・ハマス紛争の継続により、さらに悪化しました。 

この報告期間中、スパムおよび不正使用の疑いがあるとの報告を受けて、総強制措置件数は約65%減少し、総ユニークアカウントの総強制措置件数が60%減少しました。これは、積極的な検出と強制措置ツールが改善さたことを反映しています。 自傷行為と自殺に関するコンテンツの報告に応じて、実施総数が同様の減少(約80%減少)を経験しました。これは、更新された被害者中心のアプローチを反映しています。トラスト&セーフティチームは、適切な場合、ユーザーに対して措置を行うのではなく、関連するユーザー自助リソースを送信します。 このアプローチは、インタラクティブメディアとインターネット障害を専門とする小児科教授、医師を含む、安全諮問委員会のメンバーから報告されました。

コミュニティガイドラインの違反を積極的に検出し、実施するための取り組み

コミュニティガイドラインの積極的な検出と実施


コミュニティガイドラインの違反を積極的に検出し、場合によっては実施するために自動ツールを導入しています。 これらのツールには、ハッシュマッチングツール(PhotoDNAやGoogleの児童の性的虐待画像(CSAI)マッチなど)、虐待的な言語検出ツール(特定され、定期的に更新された虐待的なキーワードや絵文字のリストに基づいて検出し、実施する)、およびマルチモーダル人工知能/機械学習技術が含まれます。 

2024年上半期には、自動化ツールの使用を通じてコミュニティガイドラインの違反を積極的に検出した後、次のような実施措置を講じました。

Total Enforcements

Total Unique Accounts Enforced

3,685,602

1,845,125

Policy Reason

Total Enforcements

Total Unique Accounts Enforced

Median Turnaround Time (minutes) From Detection To Final Action

Sexual Content

1,818,287

828,590

<1

Child Sexual Exploitation

491,970

188,877

1

Harassment and Bullying

14,942

11,234

8

Threats & Violence

43,625

29,599

9

Self-Harm & Suicide

761

624

9

False Information

85

81

10

Impersonation

8

6

19

Spam

177,150

110,551

<1

Drugs

869,178

590,658

5

Weapons

205,387

133,079

<1

Other Regulated Goods

48,280

37,028

9

Hate Speech

10,344

8,683

10

Terrorism & Violent Extremism

5,585

2,951

21

児童の性的搾取と虐待への対策 

当社のコミュニティのメンバー、特に未成年者に対する性的搾取は違法かつ著しく不快な行為であり、当社のコミュニティガイドラインによって禁止されています。当社のプラットフォームにおける児童性的搾取・虐待(CSEA)の防止、検出、撲滅は、Snapの最優先事項であり、これらの犯罪やその他の犯罪に対処するための能力を継続的に進化させています。

PhotoDNAロバスト・ハッシュマッチングやGoogleの児童性的虐待画像(CSAI)マッチなどのアクティブ技術検出ツールを使用して、それぞれCSEAの既知の違法な画像と動画を特定します。 さらに、場合によっては、その他の違法となりうるCSEA活動を取り締まるために行動シグナルを使用します。 法律で定められている通り、当社は、CSEA関連のコンテンツを全米失踪・被搾取児童センター(NCMEC)に報告しています。そして、NCMECは必要に応じて国内または国際的な法執行機関と連携しています。

2024年上半期、SnapchatでCSEAを検出した際に(積極的に、または報告を受けた場合)次の措置を講じました。

Total Content Enforced

Total Accounts Disabled

Total Submissions to NCMEC*

1,228,929

242,306

417,842

*Note that each submission to NCMEC can contain multiple pieces of content. The total individual pieces of media submitted to NCMEC is equal to our total content enforced.

Snapchatユーザーにリソースとサポートを提供する取り組み

当社は、Snapchatユーザーのメンタルヘルスや幸福について深い関心を払っています。そのため、Snapchatの構築に関する当社の決定をさまざまな方法でお知らせしています。実際の友人間でのコミュニケーションのためにデザインされたプラットフォームとして、Snapchatは、困難な場面に遭遇したときに相互に助け合う力を発揮するというユニークな役割を果たすことができると、当社では考えています。そのため、Snapchatユーザーにリソースとサポートを開発しました。 

Here For You検索ツールは、ユーザーがメンタルヘルス、不安、うつ病、ストレス、自殺願望、悲しみ、いじめに関連する特定のトピックを検索した際に、現地の専門家からのリソースを表示します。 また、苦しんでいる人々をサポートするために、リベンジポルノ恐喝および性的なリスクと危害に特化したページも開発しました。 安全に関するグローバル・リストは、プライバシー、セーフティ、ポリシーハブでSnapchatユーザー全員に公開されています。 

トラスト&セーフティチームが困難な状況にあるSnapchatユーザーを認識した場合、自傷行為の防止とサポートのためのリソースを転送し、必要に応じて緊急対応担当者に通知することができます。当社が共有するリソースは、当社の安全リソースのグローバルなリストに掲載されています。これらは、すべてのSnapchatユーザーに公開されています。

Total Times Suicide Resources Shared

64,094

アピール

以下は、アカウントロックの決定の見直しを求めるユーザーからの問合せに関する情報です。

Policy Reason

Total Appeals

Total Reinstatements

Total Decisions Upheld

Median Turnaround Time (days) to Process Appeals

TOTAL

493,782

35,243

458,539

5

Sexual Content

162,363

6,257

156,106

4

Child Sexual Exploitation

102,585

15,318

87,267

6

Harassment and Bullying

53,200

442

52,758

7

Threats & Violence

4,238

83

4,155

5

Self-Harm & Suicide

31

1

30

5

False Information

3

0

3

<1

Impersonation

847

33

814

7

Spam

19,533

5,090

14,443

9

Drugs

133,478

7,598

125,880

4

Weapons

4,678

136

4,542

6

Other Regulated Goods

9,153

168

8,985

6

Hate Speech

3,541

114

3,427

7

Terrorism & Violent Extremism

132

3

129

9

地域および国の概要

本項では、当社のトラスト&セーフティチームが、積極的にまたはアプリ内違反の報告に応じて、コミュニティガイドラインの実施に関するアクションの概要を説明します。 当社のコミュニティガイドラインは、場所に関係なく、世界中のSnapchat上のすべてのコンテンツとSnapchatユーザーに適用されます。

すべてのEU加盟国を含む各国に関する情報は、添付のCSVファイルからダウンロードできます。

トラスト&セーフティチームのコミュニティガイドラインの実施に関するアクションの概要

Region

Total Enforcements

Total Unique Accounts Enforced

North America

3,828,389

2,117,048

Europe

2,807,070

1,735,054

Rest of World

3,396,651

1,846,110

Total

10,032,110

5,698,212

トラスト&セーフティチームに報告されたコミュニティガイドライン違反

Region

Content & Account Reports

Total Enforcements

Total Unique Accounts Enforced

North America

5,916,815

2,229,465

1,391,304

Europe

5,781,317

2,085,109

1,378,883

Rest of World

7,681,716

2,031,934

1,319,934

Total

19,379,848

6,346,508

4,090,121

コミュニティガイドラインのプロアクティブな検出と実施

Total Enforcements

Total Unique Accounts Enforced

1,598,924

837,012

721,961

417,218

1,364,717

613,969

3,685,602

1,868,199

広告モデレーション

Snapは、すべての広告が当社の広告ポリシーに完全に準拠していることの確認に取り組んでいます。当社は、広告に対して責任と敬意のあるアプローチを採用することで、すべてのユーザーに安全で楽しい体験を提供できると信じています。 すべての広告は、当社の審査および承認の対象となります。さらに、当社は、ユーザーからのフィードバックを真撃に受け止め、広告を削除する権利を留保します。 


以下は、Snapchatに掲載された後に報告された有料広告のモデレーションに関する洞察です。 Snapchatの広告は、虚偽のコンテンツ、アダルトコンテンツ、暴力的または不快なコンテンツ、ヘイトスピーチ、知的財産権侵害など、Snapの広告ポリシーに記載されているように、さまざまな理由で削除される場合があります。さらに、この透明性レポートのナビゲーションバーからSnapchatの広告ギャラリーを見つけることができます。 

Total Ads Reported

Total Ads Removed

43,098

17,833

OSZAR »