“राष्ट्रवादी सामग्री के ध्रुवीकरण के निरंतर अवरोध” से, “नकली या अप्रमाणिक” संदेश, “गलत सूचना” से लेकर अल्पसंख्यक समुदायों को “बदनाम” करने वाली सामग्री तक, भारत में इसके संचालन से संबंधित कई लाल झंडे 2018 और 2020 के बीच फेसबुक में आंतरिक रूप से उठाए गए थे।
हालाँकि, निरीक्षण कार्यों को करने के लिए अनिवार्य कर्मचारियों द्वारा इन स्पष्ट अलर्ट के बावजूद, 2019 में क्रिस कॉक्स, तत्कालीन उपाध्यक्ष, फेसबुक के साथ एक आंतरिक समीक्षा बैठक में मंच पर “समस्या सामग्री (अभद्र भाषा, आदि) का तुलनात्मक रूप से कम प्रसार” पाया गया।
लोकसभा चुनाव से महीनों पहले जनवरी-फरवरी 2019 में अभद्र भाषा और “समस्या सामग्री” को हरी झंडी दिखाने वाली दो रिपोर्टें प्रस्तुत की गईं।
अगस्त 2020 के अंत तक एक तीसरी रिपोर्ट ने स्वीकार किया कि प्लेटफ़ॉर्म के AI (कृत्रिम बुद्धिमत्ता) उपकरण “स्थानीय भाषाओं की पहचान करने” में असमर्थ थे और इसलिए, अभद्र भाषा या समस्याग्रस्त सामग्री की पहचान करने में विफल रहे।
लोकसभा चुनाव से महीनों पहले जनवरी-फरवरी 2019 में अभद्र भाषा और “समस्या सामग्री” को हरी झंडी दिखाने वाली दो रिपोर्टें प्रस्तुत की गईं।
फिर भी, कॉक्स के साथ बैठक के मिनट्स ने निष्कर्ष निकाला: “सर्वेक्षण हमें बताता है कि लोग आम तौर पर सुरक्षित महसूस करते हैं। विशेषज्ञ हमें बताते हैं कि देश अपेक्षाकृत स्थिर है।”
प्रतिक्रिया में ये स्पष्ट अंतराल उन दस्तावेजों में प्रकट होते हैं जो संयुक्त राज्य प्रतिभूति और विनिमय आयोग (एसईसी) को किए गए खुलासे का हिस्सा हैं और अमेरिकी कांग्रेस को पूर्व फेसबुक कर्मचारी और व्हिसलब्लोअर फ्रांसेस हौगेन के कानूनी सलाहकार द्वारा संशोधित रूप में प्रदान किए गए हैं।
फ़ेसबुक डेटा वैज्ञानिक से व्हिसलब्लोअर बने पूर्व फ़्रांसेस हौगेन ने दस्तावेज़ों की एक श्रृंखला जारी की है जिससे पता चला है कि सोशल नेटवर्क की दिग्गज कंपनी के उत्पादों ने किशोर लड़कियों के मानसिक स्वास्थ्य को नुकसान पहुँचाया है। (एपी)
अमेरिकी कांग्रेस द्वारा प्राप्त संशोधित संस्करणों की समीक्षा द इंडियन एक्सप्रेस सहित वैश्विक समाचार संगठनों के एक संघ द्वारा की गई है।
कॉक्स की बैठक और इन आंतरिक ज्ञापनों पर द इंडियन एक्सप्रेस के प्रश्नों का फेसबुक ने कोई जवाब नहीं दिया।
कॉक्स के साथ समीक्षा बैठक भारत के चुनाव आयोग द्वारा 11 अप्रैल, 2019 को लोकसभा चुनाव के लिए सात चरणों के कार्यक्रम की घोषणा से एक महीने पहले हुई थी।
कॉक्स के साथ बैठकें, जिन्होंने उस वर्ष मार्च में कंपनी छोड़ दी थी, केवल जून 2020 में मुख्य उत्पाद अधिकारी के रूप में लौटने के लिए, हालांकि, यह इंगित किया कि “उप-क्षेत्रों में बड़ी समस्याएं देश स्तर पर खो सकती हैं”।
पहली रिपोर्ट “एडवरसैरियल हार्मफुल नेटवर्क्स: इंडिया केस स्टडी” में कहा गया है कि पश्चिम बंगाल में सैंपल की गई टॉप वीपीवी (व्यू पोर्ट व्यू) पोस्टिंग के 40 प्रतिशत तक या तो नकली या अप्रामाणिक थे।
वीपीवी या व्यूपोर्ट व्यू एक फेसबुक मीट्रिक है जो यह मापने के लिए है कि सामग्री वास्तव में उपयोगकर्ताओं द्वारा कितनी बार देखी जाती है।
दूसरी – एक आंतरिक रिपोर्ट – फरवरी 2019 में एक कर्मचारी द्वारा लिखी गई, एक परीक्षण खाते के निष्कर्षों पर आधारित है। एक परीक्षण खाता एक डमी उपयोगकर्ता होता है, जिसके फेसबुक कर्मचारी द्वारा प्लेटफॉर्म की विभिन्न विशेषताओं के प्रभाव को बेहतर ढंग से समझने के लिए कोई मित्र नहीं बनाया जाता है।
यह रिपोर्ट बताती है कि केवल तीन हफ्तों में, परीक्षण उपयोगकर्ता की समाचार फ़ीड “राष्ट्रवादी सामग्री, गलत सूचना, और हिंसा और गोर के ध्रुवीकरण का लगभग निरंतर बंधन बन गई थी”।
परीक्षण उपयोगकर्ता ने केवल प्लेटफ़ॉर्म के एल्गोरिथम द्वारा अनुशंसित सामग्री का अनुसरण किया। यह खाता 4 फरवरी को बनाया गया था, इसमें किसी भी मित्र को ‘जोड़’ नहीं दिया गया था, और इसकी समाचार फ़ीड “बहुत खाली” थी।
रिपोर्ट के मुताबिक, ‘वॉच’ और ‘लाइव’ टैब ही ऐसी एकमात्र सतह हैं, जिनमें सामग्री तब होती है जब कोई उपयोगकर्ता दोस्तों से जुड़ा नहीं होता है।
कर्मचारी की रिपोर्ट में कहा गया है, “इस सामग्री की गुणवत्ता … आदर्श नहीं है,” एल्गोरिथम अक्सर उपयोगकर्ता को “सॉफ्टकोर पोर्न का एक गुच्छा” का सुझाव देता है।
अगले दो हफ्तों में, और विशेष रूप से 14 फरवरी के पुलवामा आतंकी हमले के बाद, एल्गोरिथ्म ने उन समूहों और पृष्ठों का सुझाव देना शुरू कर दिया, जो ज्यादातर राजनीति और सैन्य सामग्री के आसपास केंद्रित थे। परीक्षण उपयोगकर्ता ने कहा कि उसने “पिछले 3 हफ्तों में मृत लोगों की अधिक छवियां देखी हैं, जो मैंने अपने पूरे जीवन में देखी हैं”।
फेसबुक ने अक्टूबर में द इंडियन एक्सप्रेस को बताया था कि उसने हिंदी और बंगाली सहित विभिन्न भाषाओं में अभद्र भाषा खोजने के लिए प्रौद्योगिकी में काफी निवेश किया है।
“परिणामस्वरूप, हमने इस वर्ष लोगों द्वारा देखे जाने वाले अभद्र भाषा की मात्रा को आधा कर दिया है। आज यह 0.05 प्रतिशत पर आ गया है। मुसलमानों सहित हाशिए के समूहों के खिलाफ अभद्र भाषा विश्व स्तर पर बढ़ रही है। इसलिए हम प्रवर्तन में सुधार कर रहे हैं और अपनी नीतियों को अपडेट करने के लिए प्रतिबद्ध हैं क्योंकि अभद्र भाषा ऑनलाइन विकसित होती है, ”एक फेसबुक प्रवक्ता ने कहा था।
हालाँकि, अगस्त 2020 में फेसबुक के एल्गोरिदम और मालिकाना एआई टूल के अभद्र भाषा और समस्याग्रस्त सामग्री को फ़्लैग करने में असमर्थ होने का मुद्दा, जब कर्मचारियों ने अभद्र भाषा सामग्री को रोकने के लिए कंपनी के “भारत के लिए निवेश और योजनाओं” पर सवाल उठाया।
“आज की कॉल से, ऐसा लगता है कि एआई (कृत्रिम बुद्धिमत्ता) स्थानीय भाषाओं की पहचान करने में सक्षम नहीं है और इसलिए मुझे आश्चर्य है कि हम अपने देश में इससे कैसे और कब निपटने की योजना बना रहे हैं? यह पूरी तरह से स्पष्ट है कि वर्तमान में हमारे पास जो है वह पर्याप्त नहीं है,” एक अन्य आंतरिक ज्ञापन में कहा गया है।
मेमो फेसबुक कर्मचारियों और वरिष्ठ अधिकारियों के बीच चर्चा का एक हिस्सा हैं। कर्मचारियों ने सवाल किया कि संभावित अभद्र भाषा को पकड़ने के लिए फेसबुक के पास “यहां तक कि बुनियादी महत्वपूर्ण काम का पता लगाने” भी नहीं था।
“मुझे यह अकल्पनीय लगता है कि इस तरह की चीज़ों को पकड़ने के लिए हमारे पास बुनियादी कुंजी कार्य पहचान भी नहीं है। आखिर एक कंपनी के रूप में गर्व नहीं किया जा सकता है अगर हम इस तरह की बर्बरता को अपने नेटवर्क पर पनपने देते हैं, ”एक कर्मचारी ने चर्चा में कहा।
मेमो से पता चलता है कि कर्मचारियों ने यह भी पूछा कि मंच ने अल्पसंख्यक समुदायों के सहयोगियों के विश्वास को “वापस कमाने” की योजना कैसे बनाई, खासकर जब एक वरिष्ठ भारतीय फेसबुक कार्यकारी ने अपने व्यक्तिगत फेसबुक प्रोफाइल पर एक पोस्ट साझा की, जिसे कई लोगों ने “अपमानित” महसूस किया।
.
More Stories
भारतीय सेना ने पुंछ के ऐतिहासिक लिंक-अप की 77वीं वर्षगांठ मनाई
यूपी क्राइम: टीचर पति के मोबाइल पर मिली गर्ल की न्यूड तस्वीर, पत्नी ने कमरे में रखा पत्थर के साथ पकड़ा; तेज़ हुआ मौसम
शिलांग तीर परिणाम आज 22.11.2024 (आउट): पहले और दूसरे दौर का शुक्रवार लॉटरी परिणाम |