05 dicembre 2024
05 dicembre 2024
Pubblichiamo questa relazione per la trasparenza due volte all'anno per fornire informazioni sugli sforzi di Snap in materia di sicurezza. Ci impegniamo continuamente a favore di questi sforzi per rendere queste relazioni più complete e informative per i numerosi stakeholder che hanno a cuore la moderazione dei contenuti, le pratiche di applicazione della legge e la sicurezza e il benessere della community di Snapchat.
La presente relazione per la trasparenza riguarda il primo semestre del 2024 (1 gennaio - 30 giugno). Come nelle nostre relazioni precedenti, condividiamo i dati sul volume totale di segnalazioni in-app a livello di contenuti e di account che hanno ricevuto i nostri team Trust and Safety e nei confronti delle quali abbiamo preso provvedimenti per specifiche categorie di violazioni delle Linee Guida per la Community, sul modo in cui abbiamo risposto alle richieste delle forze dell'ordine e degli enti governativi; e come abbiamo risposto agli avvisi di violazione del diritto d'autore e di marchi registrati. Forniamo inoltre approfondimenti specifici per paese nei file collegati in fondo a questa pagina.
Nell'ambito del nostro impegno continuo a migliorare le nostre relazioni sulla trasparenza, stiamo anche introducendo nuovi dati che evidenziano i nostri sforzi proattivi per rilevare e contrastare una gamma più ampia di violazioni delle Linee Guida per la Community. Abbiamo incluso questi dati a livello globale e nazionale nella presente relazione, e continueremo a farlo in futuro. Abbiamo anche corretto un errore di denominazione nelle nostre relazioni precedenti: mentre in precedenza facevamo riferimento alle "Moderazioni totali dei contenuti", ora facciamo riferimento alle "Moderazioni totali" per riflettere il fatto che i dati forniti nelle colonne pertinenti includono moderazioni sia a livello di contenuto che a livello di account.
Per ulteriori informazioni sulle nostre politiche per la lotta ai potenziali danni online e sui piani per continuare a sviluppare le nostre pratiche di segnalazione, leggere il nostro recente blog sulla sicurezza e sull'impatto della presente relazione per la trasparenza. Per ulteriori risorse in materia di sicurezza e privacy su Snapchat, consultare la scheda Informazioni sulla relazione per la trasparenza in fondo alla pagina.
Tenere presente che la versione più aggiornata della presente relazione per la trasparenza è disponibile nella versione en-US.
Panoramica delle azioni dei nostri team Trust and Safety per il rispetto delle Linee Guida per la Community
I nostri team Trust and Safety applicano le Linee Guida per la Community sia proattivamente (mediante l'uso di strumenti automatizzati) e reattivamente (in risposta alle segnalazioni), come spiegato approfonditamente nelle sezioni seguenti del presente rapporto. In questo ciclo di segnalazioni (primo semestre 2024), i nostri team Trust and Safety hanno adottato le seguenti azioni di moderazione:
Total Enforcements
Total Unique Accounts Enforced
10,032,110
5,698,212
Di seguito è riportata una panoramica per tipo di violazione delle Linee Guida per la Community interessate, incluso il tempo medio di elaborazione tra il momento in cui abbiamo rilevato la violazione (proattivamente o al momento della ricezione di una segnalazione) e il momento in cui abbiamo intrapreso un'azione finale sul contenuto o sull'account in questione:
Policy Reason
Total Enforcements
Total Unique Accounts Enforced
Median Turnaround Time (minutes) From Detection To Final Action
Sexual Content
3,860,331
2,099,512
2
Child Sexual Exploitation
961,359
577,682
23
Harassment and Bullying
2,716,966
2,019,439
7
Threats & Violence
199,920
156,578
8
Self-Harm & Suicide
15,910
14,445
10
False Information
6,539
6,176
1
Impersonation
8,798
8,575
2
Spam
357,999
248,090
1
Drugs
1,113,629
718,952
6
Weapons
211,860
136,953
1
Other Regulated Goods
247,535
177,643
8
Hate Speech
324,478
272,025
27
Terrorism & Violent Extremism
6,786
4,010
5
Durante il periodo in esame, abbiamo registrato un tasso di visualizzazione delle violazioni (VVR) dello 0,01%, ovvero su 10.000 visualizzazioni di Snap e Storie su Snapchat, 1 visualizzazione conteneva contenuti che violavano le nostre politiche.
Violazioni delle Linee Guida per la Community segnalate ai nostri team Trust and Safety
Dal 1 gennaio al 30 giugno 2024, in risposta alle segnalazioni in-app di violazioni delle Linee guida della Community, i team Trust and Safety di Snap hanno effettuato un totale di 6.223.618 azioni di moderazione globali, compresi 3.842.507 interventi su account singoli. Il tempo medio di elaborazione necessario ai nostri team Trust and Safety per effettuare interventi di moderazione in risposta a tali segnalazioni è stato di circa 24 minuti. Di seguito è riportata una ripartizione per categoria di segnalazione.
Total Content & Account Reports
Total Enforcements
Total Unique Accounts Enforced
19,379,848
6,346,508
4,075,838
Policy Reason
Content & Account Reports
Total Enforcements
% of the Total Reports Enforced by Snap
Total Unique Accounts Enforced
Median Turnaround Time (minutes) From Detection To Final Action
Sexual Content
5,251,375
2,042,044
32.20%
1,387,749
4
Child Sexual Exploitation
1,224,502
469,389
7.40%
393,384
133
Harassment and Bullying
6,377,555
2,702,024
42.60%
2,009,573
7
Threats & Violence
1,000,713
156,295
2.50%
129,077
8
Self-Harm & Suicide
307,660
15,149
0.20%
13,885
10
False Information
536,886
6,454
0.10%
6,095
1
Impersonation
678,717
8,790
0.10%
8,569
2
Spam
1,770,216
180,849
2.80%
140,267
1
Drugs
418,431
244,451
3.90%
159,452
23
Weapons
240,767
6,473
0.10%
5,252
1
Other Regulated Goods
606,882
199,255
3.10%
143,560
8
Hate Speech
768,705
314,134
4.90%
263,923
27
Terrorism & Violent Extremism
197,439
1,201
<0.1%
1,093
4
I nostri volumi complessivi di segnalazioni sono rimasti abbastanza stabili nel primo semestre del 2024, rispetto ai precedenti. In questo ciclo, abbiamo assistito a un aumento del totale delle moderazioni e del totale degli account singoli moderati di circa il 16%.
Negli ultimi 12 mesi, Snap ha introdotto nuovi meccanismi di segnalazione per gli utenti, che tengono conto delle modifiche ai nostri volumi segnalati e moderati, e degli aumenti dei tempi di elaborazione in questo periodo (primo semestre 2024). Nello specifico:
Segnalazione delle chat di gruppo: il 13 ottobre 2023 abbiamo introdotto la possibilità di segnalare le chat di gruppo, che consente agli utenti di segnalare gli abusi che si verificano in una chat con più persone. Questa modifica ha inciso sulla composizione delle nostre statistiche in tutte le categorie di segnalazione (poiché alcuni potenziali danni hanno maggiori probabilità di verificarsi tramite chat) e ha aumentato la possibilità di intraprendere azioni legali sulle segnalazioni.
Miglioramenti nella segnalazione degli account: abbiamo anche perfezionato la nostra funzione di segnalazione degli account per offrire agli utenti che effettuano segnalazioni la possibilità di inviare prove quando segnalano un account sospettato di essere gestito da un malintenzionato. Questa modifica, che ci fornisce maggiori prove e un contesto per la valutazione delle segnalazioni degli account, è stata introdotta il 29 febbraio 2024.
Le relazioni sulle chat, e in particolare le relazioni sulle chat di gruppo, sono tra le più complesse e dispendiose in termini di tempo e sono il motivo dell'aumento dei tempi di elaborazione in tutti i processi.
La segnalazione dei sospetti casi di sfruttamento e abuso sessuale di minori (CSEA), delle molestie e del bullismo, e di incitamento all'odio, è stata particolarmente influenzata dalle due modifiche sopra descritte e dai cambiamenti nell'ecosistema in generale. Nello specifico:
CSEA: abbiamo osservato un aumento delle segnalazioni e delle moderazioni legate a CSEA nel primo semestre del 2024. Nello specifico, abbiamo registrato un aumento del 64% del totale delle segnalazioni in-app da parte degli utenti, un aumento dell'82% del totale delle moderazioni e un aumento del 108% del totale degli account singoli moderati. Questi aumenti sono in gran parte dovuti all'introduzione delle funzionalità di segnalazione delle chat di gruppo e degli account. Data la natura sensibile di tale coda di moderazione, un team selezionato di agenti altamente qualificati è incaricato di esaminare le segnalazioni di potenziali violazioni correlate a CSEA. L'afflusso di ulteriori relazioni, combinato con l'adattamento dei nostri team ai nuovi corsi di formazione, ha comportato un aumento dei tempi di elaborazione. In prospettiva per il futuro, abbiamo aumentato significativamente le dimensioni dei nostri team di fornitori globali per ridurre i tempi di elaborazione e garantire le moderazioni di potenziali segnalazioni di CSEA. Ci aspettiamo che il nostro rapporto per la trasparenza relativo al secondo semestre del 2024 rifletta i frutti di questo sforzo con tempi di elaborazione notevolmente migliorati.
Molestie e bullismo: sulla base delle segnalazioni, abbiamo osservato che le molestie e il bullismo si verificano in modo sproporzionato nelle chat, in particolare nelle chat di gruppo. I miglioramenti che abbiamo introdotto alle segnalazioni delle chat di gruppo e degli account ci aiutano a prendere provvedimenti più completi nella valutazione delle segnalazioni in questa categoria. Inoltre, a partire da questo periodo, chiediamo agli utenti di inserire un commento quando inviano una segnalazione di molestie e bullismo. Esaminiamo tale commento per contestualizzare ciascuna segnalazione. Insieme, queste modifiche hanno portato a un aumento sostanziale del totale delle moderazioni (+91%), del totale degli account singoli moderati (+82%) e dei tempi di elaborazione (+245 minuti) per le segnalazioni corrispondenti.
Incitamento all'odio: nel primo semestre del 2024 abbiamo osservato un aumento dei contenuti segnalati, delle moderazioni totali e dei tempi di elaborazione per i casi di incitamento all'odio. Nello specifico, abbiamo registrato un aumento del 61% delle segnalazioni in-app, un aumento del 127% del totale delle moderazioni e un aumento del 125% del totale degli account singoli moderati. Ciò è stato dovuto, in parte, ai miglioramenti dei nostri meccanismi di segnalazione delle chat (come discusso in precedenza) ed è stato ulteriormente accentuato dal contesto geopolitico, in particolare dal protrarsi del conflitto tra Israele e Hamas.
Nel periodo di riferimento, abbiamo registrato una diminuzione di circa il 65% del totale delle moderazioni e una diminuzione di circa il 60% del totale degli account singoli moderati in risposta a segnalazioni di sospetti casi di spam e abusi, dati che riflettono i miglioramenti dei nostri strumenti proattivi di rilevamento e moderazione. Abbiamo registrato un calo simile nelle moderazioni totali in risposta alle segnalazioni di contenuti relativi all'autolesionismo e al suicidio (diminuzioni di circa l'80%), a dimostrazione del nostro approccio aggiornato incentrato sulle vittime in base al quale, nei casi appropriati, i nostri team Trust and Safety inviano agli utenti pertinenti risorse di auto-aiuto, piuttosto che attuare misure di moderazione nei loro confronti. Tale approccio è stato definito dai membri del nostro comitato consultivo per la sicurezza, tra cui un professore di pediatria e un medico specializzato in media interattivi e dipendenza da Internet.
I nostri sforzi per rilevare proattivamente e intervenire contro le violazioni delle Linee Guida per la Community
Implementiamo strumenti automatizzati per rilevare proattivamente e, in alcuni casi, intervenire contro le violazioni delle Linee Guida per la Community. Tali strumenti includono strumenti di hash-matching (tra cui PhotoDNA e Google Child Sexual Abuse Imagery (CSAI) Match), strumenti di rilevamento del linguaggio abusivo (che rilevano e moderano in base a un elenco di parole chiave ed emoji abusive) e tecnologia di intelligenza artificiale multimodale e apprendimento automatico.
Nel primo semestre del 2024, abbiamo adottato le seguenti azioni di moderazione dopo aver rilevato proattivamente, attraverso l'uso di strumenti automatizzati, violazioni delle Linee Guida per la Community:
Total Enforcements
Total Unique Accounts Enforced
3,685,602
1,845,125
Policy Reason
Total Enforcements
Total Unique Accounts Enforced
Median Turnaround Time (minutes) From Detection To Final Action
Sexual Content
1,818,287
828,590
<1
Child Sexual Exploitation
491,970
188,877
1
Harassment and Bullying
14,942
11,234
8
Threats & Violence
43,625
29,599
9
Self-Harm & Suicide
761
624
9
False Information
85
81
10
Impersonation
8
6
19
Spam
177,150
110,551
<1
Drugs
869,178
590,658
5
Weapons
205,387
133,079
<1
Other Regulated Goods
48,280
37,028
9
Hate Speech
10,344
8,683
10
Terrorism & Violent Extremism
5,585
2,951
21
Lo sfruttamento sessuale di qualsiasi membro della nostra community, in particolare dei minori, è considerato pratica illegale, ripugnante e vietata dalle nostre Linee Guida per la Community. La prevenzione, l'individuazione e l'eliminazione delle immagini di sfruttamento e abuso sessuale dei bambini (CSEA) sulla nostra piattaforma sono una priorità assoluta per Snap, che migliora continuamente le proprie capacità per combattere questi e altri crimini.
Utilizziamo strumenti di rilevamento tecnologico attivi, come il sofisticato hash-matching di PhotoDNA e il sistema CSAI (Child Sexual Abuse Imagery) di Google per identificare, rispettivamente, le immagini e i video illegali noti di CSEA. Inoltre, in alcuni casi, utilizziamo segnali comportamentali per contrastare altre attività di CSEA potenzialmente illegali. Segnaliamo le violazioni relativi a contenuti di CSEA al National Center for Missing and Exploited Children (NCMEC) degli Stati Uniti, come richiesto dalla legge. Il NCMEC, a sua volta, si coordina con le forze dell'ordine nazionali o internazionali, come richiesto.
Nel primo semestre del 2024, abbiamo adottato le seguenti misure dopo aver rilevato CSEA su Snapchat (in modo proattivo o dopo aver ricevuto una segnalazione):
Total Content Enforced
Total Accounts Disabled
Total Submissions to NCMEC*
1,228,929
242,306
417,842
*Note that each submission to NCMEC can contain multiple pieces of content. The total individual pieces of media submitted to NCMEC is equal to our total content enforced.
I nostri sforzi per fornire risorse e supporto agli Snapchatter in difficoltà
L'attenzione che riserviamo alla salute mentale e al benessere degli Snapchatter ha influenzato (e continua a influenzare) molte delle decisioni che abbiamo preso su come sviluppare Snapchat in modo diverso. In quanto piattaforma concepita per favorire la comunicazione tra amici, crediamo che Snapchat possa svolgere un ruolo unico nel permettere loro di aiutarsi a vicenda in momenti difficili. Ecco perché abbiamo sviluppato risorse e supporto per gli Snapchatter in difficoltà.
Il nostro strumento di ricerca Here For You mostra delle risorse di partner esperti locali quando gli utenti cercano determinati argomenti legati a salute mentale, ansia, depressione, stress, pensieri suicidi, dolore e bullismo. Abbiamo anche sviluppato una pagina dedicata alla sextortion e ad altri rischi e danni sessuali, per aiutare chi è in difficoltà. La nostra lista globale di risorse per la sicurezza è accessibile pubblicamente a tutti gli Snapchatter, nel nostro Privacy, Safety and Policy Hub.
Quando i nostri team Trust and Safety vengono a conoscenza di uno Snapchatter in difficoltà, possono inoltrare risorse di prevenzione e supporto all'autolesionismo e avvisare il personale di emergenza, se necessario. Le risorse che condividiamo sono disponibili sulla nostra lista globale di risorse per la sicurezza e sono accessibili pubblicamente a tutti gli Snapchatter.
Total Times Suicide Resources Shared
64,094
Ricorsi
Di seguito sono riportate informazioni sui ricorsi che abbiamo ricevuto dagli utenti che hanno richiesto una revisione della nostra decisione di bloccare il loro account:
Policy Reason
Total Appeals
Total Reinstatements
Total Decisions Upheld
Median Turnaround Time (days) to Process Appeals
TOTAL
493,782
35,243
458,539
5
Sexual Content
162,363
6,257
156,106
4
Child Sexual Exploitation
102,585
15,318
87,267
6
Harassment and Bullying
53,200
442
52,758
7
Threats & Violence
4,238
83
4,155
5
Self-Harm & Suicide
31
1
30
5
False Information
3
0
3
<1
Impersonation
847
33
814
7
Spam
19,533
5,090
14,443
9
Drugs
133,478
7,598
125,880
4
Weapons
4,678
136
4,542
6
Other Regulated Goods
9,153
168
8,985
6
Hate Speech
3,541
114
3,427
7
Terrorism & Violent Extremism
132
3
129
9
Panoramica regionale e nazionale
Questa sezione fornisce una panoramica delle azioni dei nostri team Trust and Safety per applicare le Linee Guida della Community, sia proattivamente che in risposta alle segnalazioni di violazioni in-app, in un campione di regioni. Le Linee guida della Community si applicano a tutti i contenuti pubblicati su Snapchat nonché a tutti gli Snapchatter in tutto il mondo, a prescindere dalla posizione geografica.
Le informazioni per i singoli Paesi, compresi tutti gli Stati membri dell'UE, sono disponibili per il download tramite il file CSV.
Region
Total Enforcements
Total Unique Accounts Enforced
North America
3,828,389
2,117,048
Europe
2,807,070
1,735,054
Rest of World
3,396,651
1,846,110
Total
10,032,110
5,698,212
Region
Content & Account Reports
Total Enforcements
Total Unique Accounts Enforced
North America
5,916,815
2,229,465
1,391,304
Europe
5,781,317
2,085,109
1,378,883
Rest of World
7,681,716
2,031,934
1,319,934
Total
19,379,848
6,346,508
4,090,121
Total Enforcements
Total Unique Accounts Enforced
1,598,924
837,012
721,961
417,218
1,364,717
613,969
3,685,602
1,868,199
Moderazione degli annunci
Snap si impegna a garantire che tutti gli annunci siano pienamente conformi alle nostre Informative sulla Pubblicità. Crediamo in un approccio responsabile e rispettoso alla pubblicità, creando un'esperienza sicura e piacevole per tutti i nostri utenti. Tutti gli annunci pubblicitari sono soggetti alla nostra revisione e approvazione. Inoltre, ci riserviamo il diritto di rimuovere gli annunci, anche in seguito a feedback degli utenti, che prendiamo in seria considerazione.
Di seguito abbiamo incluso informazioni sulla nostra moderazione degli annunci a pagamento che ci vengono segnalati in seguito alla loro pubblicazione su Snapchat. Va notato che gli annunci su Snapchat possono essere rimossi per una serie di motivi, come indicato nelle Informative sulla Pubblicità di Snap, tra cui contenuti ingannevoli, contenuti per adulti, contenuti violenti o inquietanti, incitamento all'odio e violazione della proprietà intellettuale. Inoltre, ora è possibile trovare la Galleria degli annunci di Snapchat nella barra di navigazione della presente relazione per la trasparenza.
Total Ads Reported
Total Ads Removed
43,098
17,833


