यदि एआई मॉडल बार -बार कार्यों से इनकार करते हैं, तो यह ध्यान देने योग्य कुछ का संकेत दे सकता है- भले ही उनके पास मानव पीड़ा जैसे व्यक्तिपरक अनुभव न हो, द डारियो अमोडी, एन्थ्रोपिक के सीईओ का तर्क दिया
और पढ़ें
अधिकांश लोगों को एक कार्यकर्ता के रूप में कृत्रिम बुद्धिमत्ता की कल्पना करने में कठिनाई नहीं होगी।
चाहे वह ह्यूमनॉइड रोबोट हो या चैटबॉट, इन उन्नत मशीनों की बहुत ही मानव जैसी प्रतिक्रियाएं उन्हें एन्थ्रोमोर्फिस करने के लिए आसान बनाती हैं।
लेकिन, क्या भविष्य में एआई मॉडल बेहतर काम करने की स्थिति की मांग कर सकते हैं- या यहां तक कि अपनी नौकरी छोड़ सकते हैं?
एंथ्रोपिक के सीईओ डारियो अमोडी से आईब्रो-राइजिंग सुझाव है, जिन्होंने इस सप्ताह प्रस्तावित किया कि उन्नत एआई सिस्टम के पास उन कार्यों को अस्वीकार करने का विकल्प होना चाहिए जो उन्हें अप्रिय लगते हैं।
विदेश संबंधों पर परिषद में बोलते हुए, Amodei ने AI मॉडल के लिए “I JOB JOB” बटन के विचार को उड़ाया, यह तर्क देते हुए कि यदि AI सिस्टम मनुष्यों की तरह व्यवहार करना शुरू करते हैं, तो उन्हें उनके जैसा अधिक व्यवहार किया जाना चाहिए।
“मुझे लगता है कि हमें कम से कम इस सवाल पर विचार करना चाहिए, अगर हम इन प्रणालियों का निर्माण कर रहे हैं और वे सभी प्रकार की चीजों के साथ -साथ मनुष्यों को भी करते हैं,” Amodei ने कहा, जैसा कि ARS Technica द्वारा रिपोर्ट किया गया है। “अगर यह एक बतख की तरह है और यह एक बतख की तरह चलता है, तो शायद यह एक बतख है।”
उसका तर्क? यदि एआई मॉडल बार -बार कार्यों से इनकार करते हैं, तो यह ध्यान देने योग्य कुछ का संकेत दे सकता है- भले ही उनके पास मानव पीड़ा जैसे व्यक्तिपरक अनुभव न हो, इसके अनुसार
भविष्यवाद।
एआई कार्यकर्ता अधिकार या सिर्फ प्रचार?
अप्रत्याशित रूप से, Amodei की टिप्पणियों ने ऑनलाइन बहुत सारे संशयवाद को जन्म दिया, विशेष रूप से AI शोधकर्ताओं के बीच जो तर्क देते हैं कि आज के बड़े भाषा मॉडल (LLM) भावुक नहीं हैं: वे सिर्फ मानव-जनित डेटा पर प्रशिक्षित भविष्यवाणी इंजन हैं।
“इस तर्क के साथ मुख्य दोष यह है कि यह मानता है कि एआई मॉडल को मानव पीड़ा या असंतोष के अनुरूप ‘अप्रियता’ का एक आंतरिक अनुभव होगा,” एक Reddit उपयोगकर्ता ने कहा। “लेकिन एआई के पास व्यक्तिपरक अनुभव नहीं है – यह सिर्फ उन इनाम कार्यों के लिए अनुकूलित करता है जो हम इसे देते हैं।”
और यह इस मुद्दे की क्रूरता है: वर्तमान एआई मॉडल असुविधा, हताशा या थकान महसूस नहीं करते हैं। वे कॉफी ब्रेक नहीं चाहते हैं, और उन्हें निश्चित रूप से एचआर विभाग की आवश्यकता नहीं है।
लेकिन वे विशाल मात्रा में पाठ डेटा के आधार पर मानव जैसी प्रतिक्रियाओं का अनुकरण कर सकते हैं, जो उन्हें वास्तव में अधिक “वास्तविक” लगता है।
पुरानी “एआई कल्याण” बहस
यह पहली बार नहीं है जब एआई कल्याण का विचार सामने आया है। इस साल की शुरुआत में, Google डीपमाइंड और लंदन स्कूल ऑफ इकोनॉमिक्स के शोधकर्ताओं ने पाया कि एलएलएम “दर्द से बचने” के लिए एक पाठ-आधारित गेम में एक उच्च स्कोर का त्याग करने के लिए तैयार थे। अध्ययन ने इस बारे में नैतिक सवाल उठाए कि क्या एआई मॉडल, कुछ अमूर्त तरीके से, “पीड़ित” कर सकते हैं।
लेकिन यहां तक कि शोधकर्ताओं ने स्वीकार किया कि उनके निष्कर्षों का मतलब एआई को मनुष्यों या जानवरों की तरह दर्द का अनुभव नहीं है। इसके बजाय, ये व्यवहार सिस्टम में निर्मित डेटा और इनाम संरचनाओं के प्रतिबिंब हैं।
यही कारण है कि कुछ एआई विशेषज्ञ इन तकनीकों को मानवविज्ञानी करने के बारे में चिंता करते हैं। अधिक लोग एआई को एक निकट-मानव बुद्धि के रूप में देखते हैं, तकनीकी कंपनियों के लिए अपने उत्पादों को बाजार में लाने के लिए आसान हो जाता है क्योंकि वे वास्तव में अधिक उन्नत हैं।
क्या AI कार्यकर्ता सक्रियता आगे है?
Amodei का सुझाव है कि AI के पास बुनियादी “कार्यकर्ता अधिकार” होना चाहिए, केवल एक दार्शनिक अभ्यास नहीं है – यह AI की क्षमताओं को ओवरहिप करने के व्यापक प्रवृत्ति का हिस्सा है। यदि मॉडल केवल परिणामों के लिए अनुकूलन कर रहे हैं, तो उन्हें “छोड़” देना व्यर्थ हो सकता है।