Snap Values
Relazione per la trasparenza
1 gennaio 2024 - 30 giugno 2024

Pubblicato:

05 dicembre 2024

Aggiornato:

05 dicembre 2024

Pubblichiamo questa relazione per la trasparenza due volte all'anno per fornire informazioni sugli sforzi di Snap in materia di sicurezza. Ci impegniamo continuamente a favore di questi sforzi per rendere queste relazioni più complete e informative per i numerosi stakeholder che hanno a cuore la moderazione dei contenuti, le pratiche di applicazione della legge e la sicurezza e il benessere della community di Snapchat.

La presente relazione per la trasparenza riguarda il primo semestre del 2024 (1 gennaio - 30 giugno). Come nelle nostre relazioni precedenti, condividiamo i dati sul volume totale di segnalazioni in-app a livello di contenuti e di account che hanno ricevuto i nostri team Trust and Safety e nei confronti delle quali abbiamo preso provvedimenti per specifiche categorie di violazioni delle Linee Guida per la Community, sul modo in cui abbiamo risposto alle richieste delle forze dell'ordine e degli enti governativi; e come abbiamo risposto agli avvisi di violazione del diritto d'autore e di marchi registrati. Forniamo inoltre approfondimenti specifici per paese nei file collegati in fondo a questa pagina.

Nell'ambito del nostro impegno continuo a migliorare le nostre relazioni sulla trasparenza, stiamo anche introducendo nuovi dati che evidenziano i nostri sforzi proattivi per rilevare e contrastare una gamma più ampia di violazioni delle Linee Guida per la Community. Abbiamo incluso questi dati a livello globale e nazionale nella presente relazione, e continueremo a farlo in futuro. Abbiamo anche corretto un errore di denominazione nelle nostre relazioni precedenti: mentre in precedenza facevamo riferimento alle "Moderazioni totali dei contenuti", ora facciamo riferimento alle "Moderazioni totali" per riflettere il fatto che i dati forniti nelle colonne pertinenti includono moderazioni sia a livello di contenuto che a livello di account.

Per ulteriori informazioni sulle nostre politiche per la lotta ai potenziali danni online e sui piani per continuare a sviluppare le nostre pratiche di segnalazione, leggere il nostro recente blog sulla sicurezza e sull'impatto della presente relazione per la trasparenza. Per ulteriori risorse in materia di sicurezza e privacy su Snapchat, consultare la scheda Informazioni sulla relazione per la trasparenza in fondo alla pagina.

Tenere presente che la versione più aggiornata della presente relazione per la trasparenza è disponibile nella versione en-US.

Panoramica delle azioni dei nostri team Trust and Safety per il rispetto delle Linee Guida per la Community

I nostri team Trust and Safety applicano le Linee Guida per la Community sia proattivamente (mediante l'uso di strumenti automatizzati) e reattivamente (in risposta alle segnalazioni), come spiegato approfonditamente nelle sezioni seguenti del presente rapporto. In questo ciclo di segnalazioni (primo semestre 2024), i nostri team Trust and Safety hanno adottato le seguenti azioni di moderazione:

Total Enforcements

Total Unique Accounts Enforced

10,032,110

5,698,212

Di seguito è riportata una panoramica per tipo di violazione delle Linee Guida per la Community interessate, incluso il tempo medio di elaborazione tra il momento in cui abbiamo rilevato la violazione (proattivamente o al momento della ricezione di una segnalazione) e il momento in cui abbiamo intrapreso un'azione finale sul contenuto o sull'account in questione:

Policy Reason

Total Enforcements

Total Unique Accounts Enforced

Median Turnaround Time (minutes) From Detection To Final Action

Sexual Content

3,860,331

2,099,512

2

Child Sexual Exploitation

961,359

577,682

23

Harassment and Bullying

2,716,966

2,019,439

7

Threats & Violence

199,920

156,578

8

Self-Harm & Suicide

15,910

14,445

10

False Information

6,539

6,176

1

Impersonation

8,798

8,575

2

Spam

357,999

248,090

1

Drugs

1,113,629

718,952

6

Weapons

211,860

136,953

1

Other Regulated Goods

247,535

177,643

8

Hate Speech

324,478

272,025

27

Terrorism & Violent Extremism

6,786

4,010

5

Durante il periodo in esame, abbiamo registrato un tasso di visualizzazione delle violazioni (VVR) dello 0,01%, ovvero su 10.000 visualizzazioni di Snap e Storie su Snapchat, 1 visualizzazione conteneva contenuti che violavano le nostre politiche.

Violazioni delle Linee Guida per la Community segnalate ai nostri team Trust and Safety

Dal 1 gennaio al 30 giugno 2024, in risposta alle segnalazioni in-app di violazioni delle Linee guida della Community, i team Trust and Safety di Snap hanno effettuato un totale di 6.223.618 azioni di moderazione globali, compresi 3.842.507 interventi su account singoli. Il tempo medio di elaborazione necessario ai nostri team Trust and Safety per effettuare interventi di moderazione in risposta a tali segnalazioni è stato di circa 24 minuti. Di seguito è riportata una ripartizione per categoria di segnalazione.

Total Content & Account Reports

Total Enforcements

Total Unique Accounts Enforced

19,379,848

6,346,508

4,075,838

Policy Reason

Content & Account Reports

Total Enforcements

% of the Total Reports Enforced by Snap

Total Unique Accounts Enforced

Median Turnaround Time (minutes) From Detection To Final Action

Sexual Content

5,251,375

2,042,044

32.20%

1,387,749

4

Child Sexual Exploitation

1,224,502

469,389

7.40%

393,384

133

Harassment and Bullying

6,377,555

2,702,024

42.60%

2,009,573

7

Threats & Violence

1,000,713

156,295

2.50%

129,077

8

Self-Harm & Suicide

307,660

15,149

0.20%

13,885

10

False Information

536,886

6,454

0.10%

6,095

1

Impersonation

678,717

8,790

0.10%

8,569

2

Spam

1,770,216

180,849

2.80%

140,267

1

Drugs

418,431

244,451

3.90%

159,452

23

Weapons

240,767

6,473

0.10%

5,252

1

Other Regulated Goods

606,882

199,255

3.10%

143,560

8

Hate Speech

768,705

314,134

4.90%

263,923

27

Terrorism & Violent Extremism

197,439

1,201

<0.1%

1,093

4

I nostri volumi complessivi di segnalazioni sono rimasti abbastanza stabili nel primo semestre del 2024, rispetto ai precedenti. In questo ciclo, abbiamo assistito a un aumento del totale delle moderazioni e del totale degli account singoli moderati di circa il 16%.

Negli ultimi 12 mesi, Snap ha introdotto nuovi meccanismi di segnalazione per gli utenti, che tengono conto delle modifiche ai nostri volumi segnalati e moderati, e degli aumenti dei tempi di elaborazione in questo periodo (primo semestre 2024). Nello specifico:

  • Segnalazione delle chat di gruppo: il 13 ottobre 2023 abbiamo introdotto la possibilità di segnalare le chat di gruppo, che consente agli utenti di segnalare gli abusi che si verificano in una chat con più persone. Questa modifica ha inciso sulla composizione delle nostre statistiche in tutte le categorie di segnalazione (poiché alcuni potenziali danni hanno maggiori probabilità di verificarsi tramite chat) e ha aumentato la possibilità di intraprendere azioni legali sulle segnalazioni.

  • Miglioramenti nella segnalazione degli account: abbiamo anche perfezionato la nostra funzione di segnalazione degli account per offrire agli utenti che effettuano segnalazioni la possibilità di inviare prove quando segnalano un account sospettato di essere gestito da un malintenzionato. Questa modifica, che ci fornisce maggiori prove e un contesto per la valutazione delle segnalazioni degli account, è stata introdotta il 29 febbraio 2024. 


Le relazioni sulle chat, e in particolare le relazioni sulle chat di gruppo, sono tra le più complesse e dispendiose in termini di tempo e sono il motivo dell'aumento dei tempi di elaborazione in tutti i processi.

La segnalazione dei sospetti casi di sfruttamento e abuso sessuale di minori (CSEA), delle molestie e del bullismo, e di incitamento all'odio, è stata particolarmente influenzata dalle due modifiche sopra descritte e dai cambiamenti nell'ecosistema in generale. Nello specifico:

  • CSEA: abbiamo osservato un aumento delle segnalazioni e delle moderazioni legate a CSEA nel primo semestre del 2024. Nello specifico, abbiamo registrato un aumento del 64% del totale delle segnalazioni in-app da parte degli utenti, un aumento dell'82% del totale delle moderazioni e un aumento del 108% del totale degli account singoli moderati. Questi aumenti sono in gran parte dovuti all'introduzione delle funzionalità di segnalazione delle chat di gruppo e degli account. Data la natura sensibile di tale coda di moderazione, un team selezionato di agenti altamente qualificati è incaricato di esaminare le segnalazioni di potenziali violazioni correlate a CSEA. L'afflusso di ulteriori relazioni, combinato con l'adattamento dei nostri team ai nuovi corsi di formazione, ha comportato un aumento dei tempi di elaborazione. In prospettiva per il futuro, abbiamo aumentato significativamente le dimensioni dei nostri team di fornitori globali per ridurre i tempi di elaborazione e garantire le moderazioni di potenziali segnalazioni di CSEA. Ci aspettiamo che il nostro rapporto per la trasparenza relativo al secondo semestre del 2024 rifletta i frutti di questo sforzo con tempi di elaborazione notevolmente migliorati.

  • Molestie e bullismo: sulla base delle segnalazioni, abbiamo osservato che le molestie e il bullismo si verificano in modo sproporzionato nelle chat, in particolare nelle chat di gruppo. I miglioramenti che abbiamo introdotto alle segnalazioni delle chat di gruppo e degli account ci aiutano a prendere provvedimenti più completi nella valutazione delle segnalazioni in questa categoria. Inoltre, a partire da questo periodo, chiediamo agli utenti di inserire un commento quando inviano una segnalazione di molestie e bullismo. Esaminiamo tale commento per contestualizzare ciascuna segnalazione. Insieme, queste modifiche hanno portato a un aumento sostanziale del totale delle moderazioni (+91%), del totale degli account singoli moderati (+82%) e dei tempi di elaborazione (+245 minuti) per le segnalazioni corrispondenti.

  • Incitamento all'odio: nel primo semestre del 2024 abbiamo osservato un aumento dei contenuti segnalati, delle moderazioni totali e dei tempi di elaborazione per i casi di incitamento all'odio. Nello specifico, abbiamo registrato un aumento del 61% delle segnalazioni in-app, un aumento del 127% del totale delle moderazioni e un aumento del 125% del totale degli account singoli moderati. Ciò è stato dovuto, in parte, ai miglioramenti dei nostri meccanismi di segnalazione delle chat (come discusso in precedenza) ed è stato ulteriormente accentuato dal contesto geopolitico, in particolare dal protrarsi del conflitto tra Israele e Hamas.

Nel periodo di riferimento, abbiamo registrato una diminuzione di circa il 65% del totale delle moderazioni e una diminuzione di circa il 60% del totale degli account singoli moderati in risposta a segnalazioni di sospetti casi di spam e abusi, dati che riflettono i miglioramenti dei nostri strumenti proattivi di rilevamento e moderazione. Abbiamo registrato un calo simile nelle moderazioni totali in risposta alle segnalazioni di contenuti relativi all'autolesionismo e al suicidio (diminuzioni di circa l'80%), a dimostrazione del nostro approccio aggiornato incentrato sulle vittime in base al quale, nei casi appropriati, i nostri team Trust and Safety inviano agli utenti pertinenti risorse di auto-aiuto, piuttosto che attuare misure di moderazione nei loro confronti. Tale approccio è stato definito dai membri del nostro comitato consultivo per la sicurezza, tra cui un professore di pediatria e un medico specializzato in media interattivi e dipendenza da Internet.

I nostri sforzi per rilevare proattivamente e intervenire contro le violazioni delle Linee Guida per la Community

Rilevamento proattivo e applicazione delle Linee Guida per la Community


Implementiamo strumenti automatizzati per rilevare proattivamente e, in alcuni casi, intervenire contro le violazioni delle Linee Guida per la Community. Tali strumenti includono strumenti di hash-matching (tra cui PhotoDNA e Google Child Sexual Abuse Imagery (CSAI) Match), strumenti di rilevamento del linguaggio abusivo (che rilevano e moderano in base a un elenco di parole chiave ed emoji abusive) e tecnologia di intelligenza artificiale multimodale e apprendimento automatico.

Nel primo semestre del 2024, abbiamo adottato le seguenti azioni di moderazione dopo aver rilevato proattivamente, attraverso l'uso di strumenti automatizzati, violazioni delle Linee Guida per la Community:

Total Enforcements

Total Unique Accounts Enforced

3,685,602

1,845,125

Policy Reason

Total Enforcements

Total Unique Accounts Enforced

Median Turnaround Time (minutes) From Detection To Final Action

Sexual Content

1,818,287

828,590

<1

Child Sexual Exploitation

491,970

188,877

1

Harassment and Bullying

14,942

11,234

8

Threats & Violence

43,625

29,599

9

Self-Harm & Suicide

761

624

9

False Information

85

81

10

Impersonation

8

6

19

Spam

177,150

110,551

<1

Drugs

869,178

590,658

5

Weapons

205,387

133,079

<1

Other Regulated Goods

48,280

37,028

9

Hate Speech

10,344

8,683

10

Terrorism & Violent Extremism

5,585

2,951

21

Lotta contro lo sfruttamento e gli abusi sessuali sui minori 

Lo sfruttamento sessuale di qualsiasi membro della nostra community, in particolare dei minori, è considerato pratica illegale, ripugnante e vietata dalle nostre Linee Guida per la Community. La prevenzione, l'individuazione e l'eliminazione delle immagini di sfruttamento e abuso sessuale dei bambini (CSEA) sulla nostra piattaforma sono una priorità assoluta per Snap, che migliora continuamente le proprie capacità per combattere questi e altri crimini.

Utilizziamo strumenti di rilevamento tecnologico attivi, come il sofisticato hash-matching di PhotoDNA e il sistema CSAI (Child Sexual Abuse Imagery) di Google per identificare, rispettivamente, le immagini e i video illegali noti di CSEA. Inoltre, in alcuni casi, utilizziamo segnali comportamentali per contrastare altre attività di CSEA potenzialmente illegali. Segnaliamo le violazioni relativi a contenuti di CSEA al National Center for Missing and Exploited Children (NCMEC) degli Stati Uniti, come richiesto dalla legge. Il NCMEC, a sua volta, si coordina con le forze dell'ordine nazionali o internazionali, come richiesto.

Nel primo semestre del 2024, abbiamo adottato le seguenti misure dopo aver rilevato CSEA su Snapchat (in modo proattivo o dopo aver ricevuto una segnalazione):

Total Content Enforced

Total Accounts Disabled

Total Submissions to NCMEC*

1,228,929

242,306

417,842

*Note that each submission to NCMEC can contain multiple pieces of content. The total individual pieces of media submitted to NCMEC is equal to our total content enforced.

I nostri sforzi per fornire risorse e supporto agli Snapchatter in difficoltà

L'attenzione che riserviamo alla salute mentale e al benessere degli Snapchatter ha influenzato (e continua a influenzare) molte delle decisioni che abbiamo preso su come sviluppare Snapchat in modo diverso. In quanto piattaforma concepita per favorire la comunicazione tra amici, crediamo che Snapchat possa svolgere un ruolo unico nel permettere loro di aiutarsi a vicenda in momenti difficili. Ecco perché abbiamo sviluppato risorse e supporto per gli Snapchatter in difficoltà.

Il nostro strumento di ricerca Here For You mostra delle risorse di partner esperti locali quando gli utenti cercano determinati argomenti legati a salute mentale, ansia, depressione, stress, pensieri suicidi, dolore e bullismo. Abbiamo anche sviluppato una pagina dedicata alla sextortion e ad altri rischi e danni sessuali, per aiutare chi è in difficoltà. La nostra lista globale di risorse per la sicurezza è accessibile pubblicamente a tutti gli Snapchatter, nel nostro Privacy, Safety and Policy Hub.

Quando i nostri team Trust and Safety vengono a conoscenza di uno Snapchatter in difficoltà, possono inoltrare risorse di prevenzione e supporto all'autolesionismo e avvisare il personale di emergenza, se necessario. Le risorse che condividiamo sono disponibili sulla nostra lista globale di risorse per la sicurezza e sono accessibili pubblicamente a tutti gli Snapchatter.

Total Times Suicide Resources Shared

64,094

Ricorsi

Di seguito sono riportate informazioni sui ricorsi che abbiamo ricevuto dagli utenti che hanno richiesto una revisione della nostra decisione di bloccare il loro account:

Policy Reason

Total Appeals

Total Reinstatements

Total Decisions Upheld

Median Turnaround Time (days) to Process Appeals

TOTAL

493,782

35,243

458,539

5

Sexual Content

162,363

6,257

156,106

4

Child Sexual Exploitation

102,585

15,318

87,267

6

Harassment and Bullying

53,200

442

52,758

7

Threats & Violence

4,238

83

4,155

5

Self-Harm & Suicide

31

1

30

5

False Information

3

0

3

<1

Impersonation

847

33

814

7

Spam

19,533

5,090

14,443

9

Drugs

133,478

7,598

125,880

4

Weapons

4,678

136

4,542

6

Other Regulated Goods

9,153

168

8,985

6

Hate Speech

3,541

114

3,427

7

Terrorism & Violent Extremism

132

3

129

9

Panoramica regionale e nazionale

Questa sezione fornisce una panoramica delle azioni dei nostri team Trust and Safety per applicare le Linee Guida della Community, sia proattivamente che in risposta alle segnalazioni di violazioni in-app, in un campione di regioni. Le Linee guida della Community si applicano a tutti i contenuti pubblicati su Snapchat nonché a tutti gli Snapchatter in tutto il mondo, a prescindere dalla posizione geografica.

Le informazioni per i singoli Paesi, compresi tutti gli Stati membri dell'UE, sono disponibili per il download tramite il file CSV.

Panoramica delle azioni dei nostri team Trust and Safety per l'applicazione delle Linee Guida per la Community

Region

Total Enforcements

Total Unique Accounts Enforced

North America

3,828,389

2,117,048

Europe

2,807,070

1,735,054

Rest of World

3,396,651

1,846,110

Total

10,032,110

5,698,212

Violazioni delle Linee Guida per la Community segnalate ai nostri team Trust and Safety

Region

Content & Account Reports

Total Enforcements

Total Unique Accounts Enforced

North America

5,916,815

2,229,465

1,391,304

Europe

5,781,317

2,085,109

1,378,883

Rest of World

7,681,716

2,031,934

1,319,934

Total

19,379,848

6,346,508

4,090,121

Rilevamento proattivo e applicazione delle Linee Guida per la Community

Total Enforcements

Total Unique Accounts Enforced

1,598,924

837,012

721,961

417,218

1,364,717

613,969

3,685,602

1,868,199

Moderazione degli annunci

Snap si impegna a garantire che tutti gli annunci siano pienamente conformi alle nostre Informative sulla Pubblicità. Crediamo in un approccio responsabile e rispettoso alla pubblicità, creando un'esperienza sicura e piacevole per tutti i nostri utenti. Tutti gli annunci pubblicitari sono soggetti alla nostra revisione e approvazione. Inoltre, ci riserviamo il diritto di rimuovere gli annunci, anche in seguito a feedback degli utenti, che prendiamo in seria considerazione.


Di seguito abbiamo incluso informazioni sulla nostra moderazione degli annunci a pagamento che ci vengono segnalati in seguito alla loro pubblicazione su Snapchat. Va notato che gli annunci su Snapchat possono essere rimossi per una serie di motivi, come indicato nelle Informative sulla Pubblicità di Snap, tra cui contenuti ingannevoli, contenuti per adulti, contenuti violenti o inquietanti, incitamento all'odio e violazione della proprietà intellettuale. Inoltre, ora è possibile trovare la Galleria degli annunci di Snapchat nella barra di navigazione della presente relazione per la trasparenza.

Total Ads Reported

Total Ads Removed

43,098

17,833

OSZAR »