Lok Shakti

Nationalism Always Empower People

फेसबुक ने साझा करना बंद करने, बाल यौन शोषण सामग्री की खोज के लिए नए टूल जोड़े हैं

Default Featured Image

फेसबुक ने छवियों, वीडियो और किसी भी अन्य सामग्री को साझा करने से रोकने के लिए नए टूल की घोषणा की है जिसमें इसके मंच पर बाल यौन शोषण सामग्री (CSAM) शामिल है। एक के लिए, यह उपयोगकर्ताओं को चेतावनी देगा जब वे चित्र साझा कर रहे हैं जिसमें संभावित CSAM सामग्री हो सकती है। दूसरा, यह उपयोगकर्ताओं को एक नए नोटिफिकेशन के साथ अपने प्लेटफॉर्म पर ऐसी सामग्री को खोजने से रोकेगा। जबकि पहला उद्देश्य उन लोगों के लिए है जो गैर-दुर्भावनापूर्ण इरादे से इस सामग्री को साझा कर रहे हैं, और दूसरा उन लोगों के लिए लक्षित है जो इस सामग्री का उपभोग करने या वाणिज्यिक उद्देश्यों के लिए उपयोग करने की योजना के साथ फेसबुक पर ऐसी सामग्री की खोज करते हैं। “हम बाल यौन शोषण या नाबालिगों के साथ अनुचित बातचीत के लिए हमारे मंच के उपयोग के उदाहरणों की अनुमति नहीं देते हैं। हम वास्तव में अतिरिक्त मील जाते हैं। कहते हैं कि जब माता-पिता या दादा-दादी कभी-कभी अपने बच्चों या पोते की निर्दोष तस्वीरें बाथटब में साझा करते हैं, तो हम ऐसी सामग्री की अनुमति नहीं देते हैं। हम यह सुनिश्चित करना चाहते हैं कि हमारे मंच की सामाजिक प्रकृति को देखते हुए हम दुरुपयोग के लिए कमरे को जितना संभव हो उतना कम करना चाहते हैं, ”फेसबुक पर ग्लोबल सेफ्टी पॉलिसी के निदेशक करुणा नैन ने मीडिया के साथ जूम कॉल के बारे में बताया। नए टूल के साथ, फेसबुक CSAM कंटेंट की खोज करने वालों को पॉप-अप दिखाएगा, जो उन्हें अपराधी डायवर्सन संगठनों से मदद की पेशकश करेगा। पॉप-अप अवैध सामग्री को देखने के परिणामों के बारे में भी जानकारी साझा करेगा। दूसरा एक सुरक्षा चेतावनी है जो लोगों को सूचित करता है जब वे किसी भी वायरल मेमे को साझा कर रहे हैं, जिसमें बाल शोषण सामग्री शामिल है। फेसबुक की अधिसूचना उपयोगकर्ता को चेतावनी देगी कि ऐसी सामग्री साझा करने से नुकसान हो सकता है और यह नेटवर्क की नीतियों के खिलाफ है, यह कहते हुए कि इस सामग्री को साझा करने के लिए कानूनी परिणाम हैं। यह उन उपयोगकर्ताओं के लिए अधिक लक्षित है जो आवश्यक रूप से दुर्भावनापूर्ण कारणों से सामग्री साझा नहीं कर सकते हैं, लेकिन सदमे या नाराजगी व्यक्त करने के लिए इसे साझा कर सकते हैं। CSAM सामग्री पर फेसबुक अध्ययन और इसे क्यों साझा किया जाता है उपकरण फेसबुक के अवैध बाल शोषण सामग्री का गहन अध्ययन है, जो अक्टूबर और नवंबर के महीनों के लिए यूएस नेशनल सेंटर फॉर मिसिंग एंड एक्सप्लॉइड चिल्ड्रन (NCMEC) को सूचित करता है। 2020. कानून द्वारा CSAM सामग्री की रिपोर्ट करना आवश्यक है। फेसबुक के स्वयं के प्रवेश से पता चला है कि इसने 2020 की चौथी तिमाही में बाल यौन शोषण से संबंधित लगभग 5.4 मिलियन सामग्री को हटा दिया। इंस्टाग्राम पर, यह संख्या 800,000 थी। फेसबुक उपयोगकर्ताओं को चेतावनी देगा जब वे छवियों को साझा कर रहे हैं जिसमें संभावित CSAM सामग्री हो सकती है। फेसबुक के अनुसार, “इस सामग्री का 90% से अधिक वैसा ही था या पहले की रिपोर्ट की गई सामग्री जैसा ही था,” जो बहुत बार दिए गए समान सामग्री को बार-बार साझा किए जाने पर आश्चर्य की बात नहीं है। अध्ययन से पता चला है कि “सिर्फ छह वीडियो की प्रतियां बाल शोषण सामग्री के आधे से अधिक के लिए जिम्मेदार थीं” जो अक्टूबर-नवंबर 2020 की अवधि के दौरान रिपोर्ट की गई थीं। मंच पर CSAM सामग्री को बेहतर तरीके से साझा करने के पीछे के कारण को समझने के लिए, फेसबुक का कहना है कि इसने एनसीएमईसी सहित बाल शोषण पर विशेषज्ञों के साथ काम किया है, ताकि इसके पीछे किसी व्यक्ति की स्पष्ट मंशा को वर्गीकृत करने के लिए शोध-समर्थित टैक्सोनॉमी विकसित की जा सके। इस वर्गीकरण के आधार पर, फेसबुक ने 150 खातों का मूल्यांकन किया जो जुलाई और 2020 और जनवरी 2021 के जुलाई और अगस्त में बाल शोषण सामग्री को अपलोड करने के लिए NCMEC को सूचित किए गए थे। यह अनुमान है कि इनमें से 75% से अधिक लोगों ने दुर्भावनापूर्ण इरादे का प्रदर्शन नहीं किया, क्योंकि उनका इरादा नहीं था किसी बच्चे को नुकसान पहुंचाने या सामग्री साझा करने से व्यावसायिक लाभ उठाने के लिए। कई लोग छवि पर नाराजगी या खराब हास्य व्यक्त कर रहे थे। लेकिन फेसबुक का कहना है कि अध्ययन के निष्कर्षों को बाल सुरक्षा पारिस्थितिकी तंत्र का सटीक माप नहीं माना जाना चाहिए और इस क्षेत्र पर काम अभी भी चालू है। यह बताते हुए कि कैसे काम करता है, नैन ने कहा कि उनके पास संभावित CSAM की तलाश में सामग्री को वर्गीकृत करने के लिए पांच व्यापक बाल्टियाँ हैं। स्पष्ट दुर्भावनापूर्ण श्रेणी है, दो बाल्टी हैं जो गैर-दुर्भावनापूर्ण हैं और एक एक मध्य बाल्टी है, जहां सामग्री में दुर्भावनापूर्ण बनने की क्षमता है लेकिन यह 100 प्रतिशत स्पष्ट नहीं था। “एक बार जब हम उस इरादे की रूपरेखा तैयार कर लेते हैं, तो हमें थोड़ा सा गोता लगाना पड़ता है। उदाहरण के लिए दुर्भावनापूर्ण बाल्टी में दो व्यापक श्रेणियां होंगी। एक तरजीही थी जहाँ आप पसंद करते थे या आपके पास इस तरह की सामग्री के लिए एक प्राथमिकता थी, और दूसरा वह व्यावसायिक था जहाँ आप वास्तव में ऐसा करते हैं क्योंकि आप इसमें से किसी प्रकार का मौद्रिक लाभ प्राप्त कर रहे थे, “उसने यह जोड़ते हुए समझाया कि रूपरेखा पूरी तरह से है और इस अंतरिक्ष में विशेषज्ञों के साथ विकसित किया गया। इस फ्रेमवर्क का उपयोग मानव समीक्षकों को संभावित CSAM सामग्री को लेबल करने में सक्षम बनाने के लिए किया जाता है। CSAM को फेसबुक पर कैसे पहचाना जाता है? CSAM की पहचान करने के लिए, रिपोर्ट की गई सामग्री हैशेड या चिह्नित की गई है और एक डेटाबेस में जोड़ी गई है। फेसबुक और उसके उत्पादों पर सभी सार्वजनिक स्थानों पर ‘हैशेड’ डेटा का उपयोग किया जाता है। हालांकि, एंड-टू-एंड (ई 2 ई) एन्क्रिप्टेड उत्पादों जैसे व्हाट्सएप मैसेंजर या एफबी मैसेंजर में गुप्त चैट की छूट होगी क्योंकि फेसबुक को पहले से ही उनके पास मौजूद किसी चीज के खिलाफ मैच करने के लिए सामग्री की जरूरत होती है। यह E2E उत्पादों में संभव नहीं है, यह देखते हुए कि सामग्री किसी और द्वारा नहीं पढ़ी जा सकती है, लेकिन इसमें शामिल पार्टियां हैं। कंपनी का दावा है कि जब यह बाल शोषण की कल्पना पर लगातार नजर रखने की बात आती है, तो इंस्टाग्राम और फेसबुक दोनों पर यह 98% से ऊपर की रेटिंग है। इसका मतलब यह है कि सिस्टम उपयोगकर्ताओं की ओर से किसी भी रिपोर्टिंग की आवश्यकता के बिना इस तरह की छवियों को अपने दम पर झंडे देता है। “हम यह सुनिश्चित करना चाहते हैं कि हमारे पास बाल संरक्षण के इस क्षेत्र में बहुत परिष्कृत खोज तकनीक है। जिस तरह से फोटो डीएनए काम करता है वह यह है कि किसी भी, किसी भी तस्वीर को हमारे प्लेटफॉर्म पर अपलोड किया जाता है, यह बाल शोषण की हैशटैड छवियों के एक ज्ञात डेटाबैंक के खिलाफ स्कैन किया जाता है, जिसे NCMEC द्वारा बनाए रखा जाता है, “नैन ने समझाया। उन्होंने कहा कि कंपनी “मशीन सीखने और कृत्रिम बुद्धिमत्ता का उपयोग उन खातों का पता लगाने के लिए भी कर रही है जो संभावित रूप से नाबालिगों के साथ अनुचित बातचीत में संलग्न हैं।” यह पूछे जाने पर कि जब CSAM सामग्री पर किसी को दोहराने वाला अपराधी पाया जाता है तो फेसबुक क्या कार्रवाई करता है, नैन ने कहा कि उन्हें व्यक्ति के खाते को नीचे ले जाना आवश्यक है। इसके अलावा, फेसबुक का कहना है कि यह उन प्रोफाइल, पेज, समूह और इंस्टाग्राम अकाउंट को हटा देगा, जो बच्चों की मासूम तस्वीरों को साझा करने के लिए समर्पित हैं, लेकिन कैप्शन, हैशटैग या टिप्पणियों का उपयोग करते हैं, जिसमें छवि में बच्चों के बारे में स्नेह या टिप्पणी के अनुचित संकेत शामिल हैं। यह स्वीकार करता है कि CSAM सामग्री को खोजना जो स्पष्ट रूप से “स्पष्ट नहीं है और बच्चे की नग्नता को चित्रित नहीं करता है” कठिन है और यह बेहतर सामग्री निर्धारित करने में मदद करने के लिए पाठ के साथ भरोसा करने की आवश्यकता है कि क्या सामग्री बच्चों का यौन शोषण कर रही है। फेसबुक ने “न्यूडिटी एंड सेक्सुअल एक्टिविटी” श्रेणी के तहत तस्वीर की रिपोर्ट करते समय “एक बच्चे को शामिल करना” चुनने का विकल्प भी जोड़ा है। इसने कहा कि इन रिपोर्टों को समीक्षा के लिए प्राथमिकता दी जाएगी। इसने Google की सामग्री सुरक्षा API का उपयोग करना शुरू कर दिया है ताकि यह बेहतर सामग्री को प्राथमिकता देने में मदद कर सके जिसमें मूल्यांकन करने के लिए हमारे सामग्री समीक्षकों के लिए बाल शोषण हो सकता है। गैर-सहमति से साझा किए गए अंतरंग चित्रों के बारे में या आम बोलचाल में ‘बदला लेने वाला पोर्न’ के रूप में जाना जाता है, नैन ने कहा कि फेसबुक की नीतियों ने न केवल फ़ोटो और वीडियो दोनों को साझा करने पर रोक लगा दी है, बल्कि इस तरह की सामग्री को साझा करने की धमकी देने पर भी प्रतिबंध लगा दिया है। उन्होंने कहा कि फेसबुक अब तक नशेड़ी के खाते को निष्क्रिय करने के लिए गया था। “हमने इस जगह में फोटो मिलान प्रौद्योगिकियों का उपयोग करना शुरू कर दिया है। यदि आप एक अंतरंग छवि देखते हैं, जो हमारे मंच पर किसी की सहमति के बिना साझा की जाती है और आप इसे हमें रिपोर्ट करते हैं, तो हम उस सामग्री की समीक्षा करेंगे और हां निर्धारित करेंगे, यह एक गैर-सहमति से साझा अंतरंग छवि है, और फिर एक हैश जोड़ा जाएगा फोटो, जो एक डिजिटल फिंगरप्रिंट है। यह किसी को भी हमारे प्लेटफार्मों पर इसे फिर से साझा करने में सक्षम होने से रोक देगा, ”उसने समझाया। फेसबुक ने यह भी कहा कि यह कृत्रिम बुद्धिमत्ता और मशीन लर्निंग का उपयोग कर रहा है ताकि पीड़ितों को दी गई ऐसी सामग्री का पता लगाया जा सके, जिसमें कहा गया था कि कई बार यह सामग्री उन जगहों को साझा कर रही है जो सार्वजनिक नहीं हैं जैसे कि निजी समूह या किसी और की प्रोफ़ाइल। ।