05 دسمبر 2024
05 دسمبر 2024
ہم اس شفافیت کی رپورٹ کو سال میں دو مرتبہ شائع کرتے ہیں تاکہ Snap کے حفاظتی اقدامات کے حوالے سے معلومات و آگاہی فراہم کی جا سکے۔ ہم ان کوششوں کے لیے پرعزم ہیں اور مسلسل کوشش کرتے ہیں کہ یہ رپورٹس ہمارے مواد کی نگرانی، قانون کے نفاذ کے طریقوں، اور Snapchat کمیونٹی کی حفاظت اور فلاح و بہبود کے بارے میں گہری دلچسپی رکھنے والے تمام اسٹیک ہولڈرز کے لیے مزید جامع اور معلوماتی بنائی جا سکیں۔
یہ شفافیت کی رپورٹ 2024 کی پہلی ششماہی (1 جنوری - 30 جون) پر مشتمل ہے۔ ہماری گزشتہ رپورٹس کی طرح، ہم اس رپورٹ میں بھی ان-ایپ کے مواد اور اکاؤنٹ کی سطح پر ہونے والی رپورٹس کے عالمی ڈیٹا کو شیئر کرتے ہیں، جو ہماری ٹرسٹ اور سیفٹی ٹیموں نے کمیونٹی کی ہدایات کی خلاف ورزیوں کے مخصوص زمرے میں موصول اور نافذ کیں؛ اور ہم نے قانون نافذ کرنے والے اداروں اور حکومتوں کی درخواستوں کا کس طرح جواب دیا؛ اور ہم نے حق اشاعت اور ٹریڈ مارک کی خلاف ورزیوں کے نوٹسز پر کس طرح ردعمل ظاہر کیا۔ ہم اس صفحہ کے نچلے حصے میں منسلک فائلوں میں ملک کے لحاظ سے مخصوص بصیرتیں بھی فراہم کرتے ہیں۔
اپنی شفافیت کی رپورٹوں کو مسلسل بہتر بنانے کے اپنے پختہ عزم کے تحت، ہم نئے ڈیٹا کا تعارف کرا رہے ہیں جو کہ ہماری پیشگی کوششوں کو اجاگر کرتا ہے تاکہ ہم کمیونٹی کی ہدایات کی خلاف ورزیوں کی ایک وسیع تر رینج کی شناخت کر کے ان کا نفاذ کر سکیں ہم نے اس ڈیٹا کو عالمی اور ملکی سطح پر اس رپورٹ میں شامل کیا ہے اور آئیندہ بھی ایسا کرتے رہیں گے۔ ہم نے اپنی گزشتہ رپورٹس میں ایک لیبلنگ کے نقص کو بھی درست کیا ہے: جہاں ہم نے پہلے "مجموعی مواد کا نفاذ" کا ذکر کیا تھا، اب ہم "مجموعی نفاذ" کا ذکر کرتے ہیں تاکہ یہ بات واضح ہو سکے کہ متعلقہ کالموں میں فراہم کردہ ڈیٹا میں مواد کی سطح اور اکاؤنٹ کی سطح دونوں کے نفاذ شامل ہیں۔
ہماری آن لائن ممکنہ نقصانات کے خلاف اقدامات کرنے والی پالیسیوں اور رپورٹنگ کے طریقوں کو مزید بہتر بنانے کے ہمارے منصوبوں کے بارے میں مزید معلومات کے لیے، براہ کرم اس شفافیت کی رپورٹ پر ہماری حالیہ سیفٹی اور امپیکٹ بلاگ پڑھیں۔ Snapchat پر اضافی حفاظتی اور پرائیویسی وسائل تلاش کرنے کے لیے، براہ کرم صفحے کے نیچے موجود شفافیت کی رپورٹنگ کے بارے میں ہمارا ٹیب دیکھیں۔
براہ کرم نوٹ کریں کہ اس شفافیت کی رپورٹ کا سب سے حالیہ ترین ورژن EN-US لوکیل میں دستیاب ہے۔
ہماری کمیونٹی کی ہدایات کو نافذ کرنے کے لیے ہماری ٹرسٹ اور سیفٹی ٹیموں کے اقدامات کا جائزہ
ہماری ٹرسٹ اور سیفٹی ٹیمیں ہماری کمیونٹی کی ہدایات کو دونوں طرح سے نافذ کرتی ہیں: پہلے سے اقدامات کے طور پر (خودکار ٹولز کی مدد سے) اور جوابی طور پر (رپورٹس کے جواب میں)، جیسا کہ اس رپورٹ کے آئندہ حصوں میں تفصیل سے بتایا گیا ہے۔ اس رپورٹنگ سائیکل (H1 2024) میں، ہماری ٹرسٹ اور سیفٹی ٹیموں نے جو نفاذ کے لیے اقدامات اٹھائے، وہ درج ذیل ہیں:
Total Enforcements
Total Unique Accounts Enforced
10,032,110
5,698,212
ذیل میں کمیونٹی کی ہدایات کی ہر قسم کی خلاف ورزیوں کی تقسیم ہے، جن میں وہ وقت شامل ہے جس میں ہم نے خلاف ورزی کا پتہ لگایا ہے (یا تو فعال طور پر یا رپورٹ موصول ہونے پر) اور جب ہم نے متعلقہ مواد یا اکاؤنٹ پر حتمی کارروائی کی تھی:
Policy Reason
Total Enforcements
Total Unique Accounts Enforced
Median Turnaround Time (minutes) From Detection To Final Action
Sexual Content
3,860,331
2,099,512
2
Child Sexual Exploitation
961,359
577,682
23
Harassment and Bullying
2,716,966
2,019,439
7
Threats & Violence
199,920
156,578
8
Self-Harm & Suicide
15,910
14,445
10
False Information
6,539
6,176
1
Impersonation
8,798
8,575
2
Spam
357,999
248,090
1
Drugs
1,113,629
718,952
6
Weapons
211,860
136,953
1
Other Regulated Goods
247,535
177,643
8
Hate Speech
324,478
272,025
27
Terrorism & Violent Extremism
6,786
4,010
5
رپورٹنگ کی مدت میں، ہمیں وائولیٹو ویو ریٹ (VVR) 0.01 فیصد دیکھنے کو ملا، جس کا مطلب یہ ہے کہ Snapchat پر ہر 10,000 Snap اور کہانی کے ویوز میں سے 1 ویو میں ایسا مواد تھا، جو ہماری کمیونٹی کی ہدایات کے خلاف پایا گیا۔
کمیونٹی کی ہدایات کی خلاف ورزیاں جو کہ ہماری ٹرسٹ اور سیفٹی ٹیموں کو رپورٹ کی گئیں
1 جنوری سے 30 جون 2024 تک، کمیونٹی کی ہدایات کی خلاف ورزیوں کی ان-ایپ رپورٹس کے جواب میں، Snap کی ٹرسٹ اور سیفٹی ٹیموں نے، عالمی سطح پر مجموعی طور پر 6,223,618 نفاذی کارروائیاں کیں، جن میں 3,842,507 منفرد اکاؤنٹس کے خلاف کارروائیاں شامل ہیں۔ ہماری، ٹرسٹ اور سیفٹی ٹیموں کے لیے، ان رپورٹس پر نفاذ کی کارروائی کرنے کا درمیانہ وقت تقریباً 24 منٹ تھا۔ ذیل میں ہر رپورٹنگ کیٹیگری/زمرہ کا تفصیلی تجزیہ فراہم کیا گیا ہے۔
Total Content & Account Reports
Total Enforcements
Total Unique Accounts Enforced
19,379,848
6,346,508
4,075,838
Policy Reason
Content & Account Reports
Total Enforcements
% of the Total Reports Enforced by Snap
Total Unique Accounts Enforced
Median Turnaround Time (minutes) From Detection To Final Action
Sexual Content
5,251,375
2,042,044
32.20%
1,387,749
4
Child Sexual Exploitation
1,224,502
469,389
7.40%
393,384
133
Harassment and Bullying
6,377,555
2,702,024
42.60%
2,009,573
7
Threats & Violence
1,000,713
156,295
2.50%
129,077
8
Self-Harm & Suicide
307,660
15,149
0.20%
13,885
10
False Information
536,886
6,454
0.10%
6,095
1
Impersonation
678,717
8,790
0.10%
8,569
2
Spam
1,770,216
180,849
2.80%
140,267
1
Drugs
418,431
244,451
3.90%
159,452
23
Weapons
240,767
6,473
0.10%
5,252
1
Other Regulated Goods
606,882
199,255
3.10%
143,560
8
Hate Speech
768,705
314,134
4.90%
263,923
27
Terrorism & Violent Extremism
197,439
1,201
<0.1%
1,093
4
گزشتہ چھ مہینوں کے مقابلے میں، 2024 کے پہلے نصف میں، ہمارے رپورٹنگ والیوم/حجم میں کوئی خاص تبدیلی نہیں آئی، اور وہ مستحکم رہا۔ اس عرصہ میں، ہم نے مجموعی طور پر نافذ کیے جانے والے اقدامات اور منفرد اکاؤنٹس کی تعداد میں تقریباً %16 کا اضافہ دیکھا۔
گذشتہ 12 مہینوں میں Snap نے یوزرز کے لیے نئے رپورٹنگ میکانزم متعارف کرائے، جس کے باعث ہماری رپورٹ کردہ اور نافذ کردہ والیوم/حجم میں تبدیلی آئی اور اس رپورٹنگ دورانیے (H1 2024) میں ٹرن اراؤنڈ ٹائمز میں اضافہ دیکھا گیا۔ خاص طور پر:
گروپ چیٹ رپورٹنگ: ہم نے 13 اکتوبر 2023 کو گروپ چیٹ رپورٹنگ متعارف کرائی، جس کے ذریعے یوزرز کو متعدد افراد پر مشتمل چیٹ میں ہونے والے ابیوز/بدسلوکی کی رپورٹ کرنے کی سہولت ملی۔ اس تبدیلی نے ہماری رپورٹنگ کیٹیگریز میں میٹرکس کی ساخت کو متاثر کیا (کیونکہ بعض ممکنہ نقصانات چیٹ کے سیاق و سباق میں زیادہ ہونے کا امکان رکھتے ہیں) اور رپورٹ کی عمل درآمد کی صلاحیت میں اضافہ کیا۔
اکاؤنٹ رپورٹنگ کی بہتری: ہم نے اپنی اکاؤنٹ رپورٹنگ کی خصوصیت میں تبدیلی کی تاکہ رپورٹ کرنے والے یوزرز کو یہ سہولت دی جا سکے کہ وہ کسی بھی مشتبہ اکاؤنٹ کی رپورٹ کرتے وقت چیٹ کے شواہد بھی جمع کر سکیں، اگرچہ وہ اکاؤنٹ کسی بدکردار فرد کے زیر استعمال ہو۔ یہ تبدیلی، جو اکاؤنٹ رپورٹوں کا تجزیہ کرنے کے لیے ہمیں مزید شواہد اور سیاق و سباق فراہم کرتی ہے، 29 فروری 2024 کو شروع کی گئی۔
چیٹ رپورٹس، بالخصوص گروپ چیٹ رپورٹس، جائزہ لینے میں سب سے زیادہ پیچیدہ اور وقت طلب ہیں، جس کی وجہ سے مجموعی طور پر ٹرن اراؤنڈ ٹائمز میں اضافہ ہوا۔
مشکوک چائلڈ سیکسول ایکسپلوئٹیشن اینڈ ابیوز (CSEA)، ہراسانگی اور بولئنگ/دھونس، اور نفرت انگیز تقاریر کی رپورٹنگ خاص طور پر مذکورہ بالا بیان کردہ تبدیلیوں اور مجموعی ماحولیاتی تبدیلیوں سے متاثر ہوئیں۔ خاص طور پر:
CSEA: ہم نے 2024 کے پہلے نصف میں CSEA سے متعلقہ رپورٹوں اور ان کے نفاذ میں اضافہ محسوس کیا۔ خصوصی طور پر، ہم نے صارفین کی جانب سے ایپ میں کی جانے والی رپورٹوں میں %64 کا اضافہ، نافذ کردہ کارروائیوں میں %82 کا اضافہ، اور منفرد اکاؤنٹس پر نافذ اقدامات میں %108 کا اضافہ دیکھا۔ یہ اضافہ بنیادی طور پر گروپ چیٹ اور اکاؤنٹ رپورٹنگ کی خصوصیات کے متعارف ہونے کے باعث ہوا ہے۔ چونکہ اس موڈریشن کی قطار کا معاملہ انتہائی حساس ہے، اس لیے ممکنہ CSEA سے متعلق خلاف ورزیوں کی رپورٹس کا جائزہ لینے کے لیے ایک منتخب اور تربیت یافتہ ایجنٹس کی ٹیم مقرر کی گئی ہے۔ اضافی رپورٹس کی موصولی اور نئی تربیتوں کے مطابقت میں ہماری ٹیموں کی ہم آہنگی کے نتیجہ میں ٹرن اراؤنڈ ٹائمز میں اضافہ ہوا ہے۔ آگے پیشرفت کرتے ہوئے، ہم نے اپنی عالمی وینڈر ٹیموں کے والیوم/حجم میں کافی اضافہ کیا ہے تاکہ ٹرن اراؤنڈ ٹائمز کو کم کیا جا سکے اور ممکنہ CSEA کی رپورٹس پر درست نفاذ کیا جا سکے۔ ہمیں توقع ہے کہ ہماری، H2 2024 کی شفافیت کی رپورٹ، اس کاوش کے مثبت نتائج کو ظاہر کرے گی اور ٹرن اراؤنڈ ٹائم میں نمایاں بہتری آئے گی۔
ہراسانگی اور بولئینگ: رپورٹوں کی بنیاد پر، ہم نے یہ مشاہدہ کیا ہے کہ ہراسانگی اور بولئینگ غیر متناسب طور پر چیٹس، اور خاص طور پر گروپ چیٹس میں ہوتی ہے۔ گروپ چیٹ رپورٹنگ اور اکاؤنٹ رپورٹنگ میں کی گئی بہتریوں کی بدولت، ہم اس رپورٹنگ کیٹیگری میں رپورٹس کا تجزیہ کرتے وقت زیادہ جامع اور مؤثر کارروائی کر پاتے ہیں۔ اس کے علاوہ، اس عرصہ میں، ہم یوزرز کی جانب سے ہراسانگی اور بولئینگ کی رپورٹ جمع کراتے وقت، ایک تبصرہ داخل کرنا مطلوب رکھتے ہیں۔ ہم اس تبصرے کا جائزہ لے کر ہر رپورٹ کو بہتر طور پر سمجھنے کی کوشش کرتے ہیں۔ یہ تبدیلیاں مجموعی طور پر متعلقہ رپورٹس کے لیے مجموعی نفاذ (%91+)، منفرد اکاؤنٹس پر نفاذ (%82+)، اور ٹرن اراؤنڈ ٹائم (245+ منٹ) میں اہم اضافہ کا سبب بنیں۔
نفرت انگیز تقاریر: H1 2024 میں، ہم نے نفرت انگیز تقاریر کی رپورٹ کردہ مواد، مجموعی نفاذ اور ٹرن اراؤنڈ ٹائم میں اضافہ دیکھا۔ خاص طور پر، ہم نے ایپ میں کی جانے والی رپورٹوں میں %61 کا اضافہ، مجموعی نفاذ میں %127 کا اضافہ، اور منفرد اکاؤنٹس پر نافذ کردہ اقدامات میں %125 کا اضافہ دیکھا۔ یہ جزوی طور پر ہماری چیٹ رپورٹنگ کی خصوصیات میں بہتری (جیسا کہ پہلے بات کی گئی) کی وجہ سے تھا، اور اس کے علاوہ اسرائیل-حماس تنازعہ کی جاری صورتحال نے جغرافیائی سیاسی ماحول کو مزید بڑھاوا دیا۔
اس رپورٹنگ دورانیے میں، مشتبہ اسپام اور بدسلوکی کی رپورٹس کے جواب میں ہم نے مجموعی نفاذ میں تقریباً %65 کی کمی اور منفرد اکاؤنٹس پر نفاذ میں تقریباً %60 کی کمی دیکھی، جو کہ ہمارے شناخت کرنے اور نفاذ کے نظام میں بہتری کو ظاہر کرتا ہے۔ ہم نے خودکشی اور خود کو نقصان پہنچانے سے متعلق مواد کی رپورٹس پر ردعمل میں مجموعی نفاذ میں (تقریباً %80) کی کمی دیکھی، جو ہماری اپ ڈیٹ شدہ متاثرہ شخص پر مرکوز پالیسی کی عکاسی کرتی ہے، جس کے تحت ہماری ٹرسٹ اور سیفٹی ٹیمیں مناسب کیسز میں متعلقہ صارفین کو خود مدد کے وسائل فراہم کریں گی، بجائے اس کے کہ ان کے خلاف نفاذ کا اقدام اٹھایا جائے۔ یہ حکمت عملی ہمارے سیفٹی ایڈوائزری بورڈ کے ارکان کی مشاورت سے ترتیب دی گئی تھی، جن میں ایک پیڈیاٹرک پروفیسر اور میڈیکل ڈاکٹر شامل ہیں جو انٹرایکٹو میڈیا اور انٹرنیٹ کے نقائص سے متعلقہ مہارت رکھتے ہیں۔
ہماری جانب سے کمیونٹی کی ہدایات کی خلاف ورزیوں کی پیشگی شناخت کرنے اور ان کے خلاف نفاذ کی کوششیں۔
ہم خودکار ٹولز کو تعینات کرتے ہیں تاکہ کمیونٹی کی ہدایات کی خلاف ورزیوں کا پیشگی طور پر پتہ لگایا جا سکے اور بعض صورتوں میں ان کے خلاف نفاذ کیا جا سکے۔ یہ ٹولز ہیش-میچنگ ٹولز (جن میں PhotoDNA اور Google چائلڈ سیکسوئل ایبیوز امیجری (CSAI) میچ شامل ہیں)، توہین آمیز زبان کی تشخیص کرنے والے ٹولز (جو ایک باقاعدہ اپ ڈیٹ ہونے والی توہین آمیز کی ورڈز اور ایموجیز کی فہرست پر مبنی ہوتے ہیں)، اور ملٹی موڈل آرٹیفیشل انٹیلیجنس / مشین لرننگ ٹیکنالوجی، پر مشتمل ہیں۔
H1 2024 میں، ہم نے خودکار ٹولز کے ذریعے کمیونٹی کی ہدایات کی خلاف ورزیوں کو پیشگی طور پر شناخت کرنے کے بعد مندرجہ ذیل نفاذ کے اقدامات کیے:
Total Enforcements
Total Unique Accounts Enforced
3,685,602
1,845,125
Policy Reason
Total Enforcements
Total Unique Accounts Enforced
Median Turnaround Time (minutes) From Detection To Final Action
Sexual Content
1,818,287
828,590
<1
Child Sexual Exploitation
491,970
188,877
1
Harassment and Bullying
14,942
11,234
8
Threats & Violence
43,625
29,599
9
Self-Harm & Suicide
761
624
9
False Information
85
81
10
Impersonation
8
6
19
Spam
177,150
110,551
<1
Drugs
869,178
590,658
5
Weapons
205,387
133,079
<1
Other Regulated Goods
48,280
37,028
9
Hate Speech
10,344
8,683
10
Terrorism & Violent Extremism
5,585
2,951
21
ہماری کمیونٹی کے کسی بھی فرد، خاص کر نابالغوں کے جنسی استحصال کو غیر قانونی، گھناؤنا، اور ہماری کمیونٹی کی ہدایات کے مطابق ممنوع قرار دیا گیا ہے۔ ہمارے پلیٹ فارم پر بچوں کے جنسی استحصال اور بدسلوکی کی تصویر کشی (CSEAI) کو روکنا، ان کا پتہ لگانا اور اسے ختم کرنا Snap کی اولین ترجیح ہے، اور ہم ان جیسے اور دیگر اقسام کے جرائم کا مقابلہ کرنے کے لیے اپنی صلاحیتوں کو مسلسل ابھارتے ہیں۔
ہم فعال ٹیکنالوجی ڈیٹیکشن ٹولز استعمال کرتے ہیں، جیسے PhotoDNA کی مضبوط ہیش-میچنگ اور گوگل کا چائلڈ سیکسوئل ایبیوز امیجری (CSAI) میچ، تاکہ بالترتیب CSEA کی معروف غیر قانونی تصاویر اور ویڈیوز کی شناخت کی جا سکے۔ مزید برآں، کچھ صورتوں میں ہم دیگر ممکنہ غیر قانونی CSEA سرگرمیوں کے خلاف نفاذ کے لیے رویے کے اشارے استعمال کرتے ہیں۔ ہم CSEA سے متعلق مواد کو قانون کے مطابق یو ایس نیشنل سینٹر فار مسنگ اینڈ ایکسپلائٹڈ چلڈرن (NCMEC) کو رپورٹ کرتے ہیں۔ NCMEC پھر، بدلے میں، ضرورت کے مطابق، ملکی یا بین الاقوامی قانون نافذ کرنے والے اداروں کے ساتھ تعاون کرتا ہے۔
سال 2024 کے پہلے نصف میں، ہم نے Snapchat پر CSEA کی نشاندہی کرنے پر (چاہے وہ پیشگی طور سے ہو یا رپورٹ وصول کرنے کے بعد) مندرجہ ذیل اقدامات کیے:
Total Content Enforced
Total Accounts Disabled
Total Submissions to NCMEC*
1,228,929
242,306
417,842
*Note that each submission to NCMEC can contain multiple pieces of content. The total individual pieces of media submitted to NCMEC is equal to our total content enforced.
ہماری جانب سے سنیپ چیٹرز
کی مدد کے لیے وسائل اور معاونت فراہم کرنے کی کوششیں
ہمیں سنیپ چیٹرز
کی ذہنی صحت اور بہبود کا بہت خیال ہے، جو Snapchat کو مختلف طریقے سے بنانے کے ہمارے فیصلوں سے آگاہ کرتا رہتا ہے۔ ایک پلیٹ فارم کے طور پر جو حقیقی دوستوں کے بیچ اور ان کے درمیان مواصلت کے لیے ڈیزائن کیا گیا ہے، ہمیں یقین ہے کہ Snapchat دوستوں کو مشکل میں ایک دوسرے کی مدد کرنے کے لیے بااختیار بنانے میں منفرد کردار ادا کر سکتا ہے۔ یہی وجہ ہے کہ ہم نے سنیپ چیٹرز
کے لیے وسائل اور معاونت تیار کی ہیں۔
ہمارا Here For You سرچ ٹول جب کوئی یوزرز، ذہنی صحت، اضطراب، افسردگی، تناؤ، خودکشی کے خیالات، غم یا تنگ کرنے سے متعلق کسی مخصوص موضوع پر تلاش کرتے ہیں، تو مقامی ماہرین کی جانب سے فراہم کردہ وسائل دکھاتا ہے۔ ہم نے فنانشیل سیکسٹورژن اور دیگر جنسی خطرات اور نقصانات کے حوالے سے ایک خصوصی صفحہ تیار کیا ہے، تاکہ پریشانی میں مبتلا افراد کی مدد کی جا سکے۔ ہماری عالمی حفاظتی وسائل کی فہرست تمام سنیپ چیٹرز
کے لیے عوامی طور پر دستیاب ہے، جو ہماری پرائیویسی، سیفٹی اور پالیسی ہب میں موجود ہے۔
جب ہماری، ٹرسٹ اور سیفٹی ٹیمیں کسی اسنیپ چیٹر کی پریشانی سے آگاہ ہوتی ہیں، تو وہ خود کو نقصان پہنچانے سے روک تھام اور معاونت کے وسائل فراہم کر سکتی ہیں، اور جب ضروری ہو تو ایمرجنسی ریسپانس عملے کو اطلاع دے سکتی ہیں۔ ہم جن وسائل کو شیئر کرتے ہیں وہ ہماری حفاظتی وسائل کی عالمی فہرست میں دستیاب ہیں، اور یہ تمام سنیپ چیٹرز
کے لیے عوامی طور پر دستیاب ہیں۔
Total Times Suicide Resources Shared
64,094
اپیلیں
ذیل میں ہم ان اپیلوں کی معلومات فراہم کرتے ہیں جو یوزرز نے اپنے اکاؤنٹ کو لاک کرنے کے فیصلے کے بارے میں نظرثانی کی درخواست کرتے ہوئے کیں۔
Policy Reason
Total Appeals
Total Reinstatements
Total Decisions Upheld
Median Turnaround Time (days) to Process Appeals
TOTAL
493,782
35,243
458,539
5
Sexual Content
162,363
6,257
156,106
4
Child Sexual Exploitation
102,585
15,318
87,267
6
Harassment and Bullying
53,200
442
52,758
7
Threats & Violence
4,238
83
4,155
5
Self-Harm & Suicide
31
1
30
5
False Information
3
0
3
<1
Impersonation
847
33
814
7
Spam
19,533
5,090
14,443
9
Drugs
133,478
7,598
125,880
4
Weapons
4,678
136
4,542
6
Other Regulated Goods
9,153
168
8,985
6
Hate Speech
3,541
114
3,427
7
Terrorism & Violent Extremism
132
3
129
9
علاقائی اور ملک کا جائزہ
یہ سیکشن ہماری کمیونٹی کی ہدایات کو نافذ کرنے کے لیے ہماری ٹرسٹ اور سیفٹی ٹیموں کی کارروائیوں کا ایک جائزہ فراہم کرتا ہے، دونوں طرح سے، جغرافیائی علاقوں کے نمونے لینے میں، خلاف ورزیوں کی درون ایپ رپورٹس کے جواب میں۔
ہماری کمیونٹی کی ہدایات — Snapchat اور دنیا بھر میں موجود تمام سنیپ چیٹرز
— پر، بنا کسی جغرافیائی حد کے، موجود تمام مواد پر لاگو ہوتی ہیں۔
انفرادی ممالک کی معلومات، جن میں تمام یورپی یونین EU کے رکن ممالک شامل ہیں، منسلک CSV فائل کے ذریعے ڈاؤن لوڈ کی جا سکتی ہیں۔
Region
Total Enforcements
Total Unique Accounts Enforced
North America
3,828,389
2,117,048
Europe
2,807,070
1,735,054
Rest of World
3,396,651
1,846,110
Total
10,032,110
5,698,212
Region
Content & Account Reports
Total Enforcements
Total Unique Accounts Enforced
North America
5,916,815
2,229,465
1,391,304
Europe
5,781,317
2,085,109
1,378,883
Rest of World
7,681,716
2,031,934
1,319,934
Total
19,379,848
6,346,508
4,090,121
Total Enforcements
Total Unique Accounts Enforced
1,598,924
837,012
721,961
417,218
1,364,717
613,969
3,685,602
1,868,199
اشتہارات کی ماڈریشن
Snap یہ یقینی بنانے کے لئے پرعزم ہے کہ تمام اشتہارات ہماری تشہیری پالیسیوں کے ساتھ پوری طرح مطابقت رکھتے ہیں۔ ہم اپنے تمام صارفین کے لیے ایک محفوظ اور پرلطف تجربہ تخلیق کرتے ہوئے تشہیر کاری کے لیے ایک ذمہ دار اور باعزت طریقے پر یقین رکھتے ہیں۔ تمام اشتہارات ہماری نظرِ ثانی اور منظوری سے مشروط ہیں۔ اس کے علاوہ، ہم اشتہارات کو ہٹانے کا حق محفوظ رکھتے ہیں، بشمول یوزر کے تاثرات کے جواب میں، جسے ہم انتہائی سنجیدگی سے لیتے ہیں۔
نیچے ہم نے Snapchat پر اشہتاروں کی اشاعت کے بعد رپورٹ ہونے والے اشتہارات کی ماڈریشن کے بارے میں معلومات شامل کی ہیں۔ نوٹ کریں کہ Snapchat پر اشتہارات کو مختلف وجوہات کی بنا پر ہٹایا جا سکتا ہے جیسا کہ Snap کی تشہیری پالیسیوں میں بیان کیا گیا ہے، بشمول فریب آمیز مواد، بالغوں کا مواد، پرتشدد یا پریشان کن مواد، نفرت انگیز زبان، اور املاکِ دانش کی خلاف ورزی۔ مزید برآں، اب آپ اس شفافیت کی رپورٹ کے نیویگیشن بار میں Snapchat کے اشتہارات کی گیلری تلاش کر سکتے ہیں۔
Total Ads Reported
Total Ads Removed
43,098
17,833


