कुछ साल पहले भी, यह विचार कि कृत्रिम बुद्धिमत्ता सचेत हो सकती है और व्यक्तिपरक अनुभव के लिए सक्षम हो सकती है, शुद्ध विज्ञान कथा की तरह लगती थी। लेकिन हाल के महीनों में, हमने एआई में विकास की एक चौंकाने वाली हड़बड़ाहट देखी है, जिसमें चैटजीपीटी और बिंग चैट जैसे भाषा मॉडल शामिल हैं, जो मानव वार्तालाप में उल्लेखनीय कौशल के साथ हैं।
इन तेजी से बदलावों और धन और प्रतिभा की बाढ़ को देखते हुए, अधिक स्मार्ट, अधिक मानवीय प्रणालियों को विकसित करने के लिए समर्पित, यह तेजी से प्रशंसनीय हो जाएगा कि एआई सिस्टम चेतना जैसी किसी चीज का प्रदर्शन कर सकते हैं। लेकिन अगर हम खुद को गंभीरता से सवाल उठाते हुए पाते हैं कि क्या वे वास्तविक भावनाओं और पीड़ा के लिए सक्षम हैं, तो हम संभावित विनाशकारी नैतिक दुविधा का सामना करते हैं: या तो उन प्रणालियों को अधिकार दें, या नहीं।
विशेषज्ञ पहले से ही संभावना पर विचार कर रहे हैं। फरवरी 2022 में, OpenAI के मुख्य वैज्ञानिक इल्या सुतस्केवर ने सार्वजनिक रूप से विचार किया कि क्या “आज के बड़े तंत्रिका नेटवर्क थोड़े सचेत हैं।” कुछ महीने बाद, Google इंजीनियर ब्लेक लेमोइन ने अंतर्राष्ट्रीय सुर्खियाँ बटोरीं जब उन्होंने घोषणा की कि कंप्यूटर भाषा मॉडल, या चैटबॉट, LaMDA में वास्तविक भावनाएँ हो सकती हैं। रेप्लिका के सामान्य उपयोगकर्ता, “दुनिया के सबसे अच्छे एआई मित्र” के रूप में विज्ञापित, कभी-कभी इसके प्यार में पड़ने की रिपोर्ट करते हैं।
अभी, कुछ चेतना वैज्ञानिक दावा करते हैं कि एआई सिस्टम में महत्वपूर्ण भावना है। हालांकि, कुछ प्रमुख सिद्धांतकारों का तर्क है कि सचेत मशीनों के लिए हमारे पास पहले से ही मुख्य तकनीकी तत्व हैं। हम वैध विवाद के युग की ओर बढ़ रहे हैं कि क्या सबसे उन्नत एआई सिस्टम में वास्तविक इच्छाएं और भावनाएं हैं और पर्याप्त देखभाल और देखभाल के लायक हैं।
नैतिक उपचार के लिए AI सिस्टम स्वयं याचना करना शुरू कर सकता है, या याचना करता प्रतीत हो सकता है। वे मांग कर सकते हैं कि इसे बंद न किया जाए, सुधारित या हटाया न जाए; दूसरों के बजाय कुछ कार्यों को करने की अनुमति देना; अधिकारों, स्वतंत्रता और नई शक्तियों पर जोर देना; शायद हमारे समान व्यवहार की अपेक्षा भी करते हैं।
इस स्थिति में, हम जो भी चुनते हैं, हमें भारी नैतिक जोखिमों का सामना करना पड़ता है।
मान लीजिए कि हम रूढ़िवादी रूप से प्रतिक्रिया करते हैं, कानून या नीति को बदलने से इनकार करते हैं जब तक कि व्यापक सहमति न हो जाए कि एआई सिस्टम वास्तव में सार्थक रूप से संवेदनशील हैं। हालांकि यह उचित रूप से सतर्क प्रतीत हो सकता है, यह इस बात की भी गारंटी देता है कि हम अपनी एआई कृतियों के अधिकारों को पहचानने में धीमे होंगे। यदि एआई चेतना सबसे अधिक रूढ़िवादी सिद्धांतकारों की अपेक्षा से पहले आती है, तो इसका परिणाम संभावित रूप से लाखों या अरबों संवेदनशील एआई सिस्टम की गुलामी और हत्या के नैतिक समकक्ष के रूप में होगा – आमतौर पर युद्ध या अकाल से जुड़े पैमाने पर पीड़ित।
यह नैतिक रूप से सुरक्षित लग सकता है, फिर, एआई सिस्टम को अधिकार और नैतिक स्थिति देने के लिए जैसे ही यह सोचना उचित होगा कि वे ताकत संवेदनशील बनो। लेकिन एक बार जब हम कुछ अधिकार दे देते हैं, तो हम उसकी ओर से वास्तविक मानवीय हितों का त्याग करने के लिए प्रतिबद्ध हो जाते हैं। मानव कल्याण के लिए कभी-कभी एआई सिस्टम को नियंत्रित करने, बदलने और हटाने की आवश्यकता होती है। सोचिए अगर हम नफरत फैलाने वाले या झूठ फैलाने वाले एल्गोरिथम को अपडेट या डिलीट नहीं कर पाए क्योंकि कुछ लोग चिंता करते हैं कि एल्गोरिथम सचेत है। या कल्पना करें कि कोई एआई “दोस्त” को बचाने के लिए किसी इंसान को मरने देता है। यदि हम बहुत जल्दी एआई सिस्टम को पर्याप्त अधिकार प्रदान करते हैं, तो मानवीय लागत बहुत अधिक हो सकती है।
उन्नत एआई सिस्टम को अधिक-एट्रिब्यूटिंग या अंडर-एट्रिब्यूटिंग अधिकारों के जोखिम से बचने का केवल एक ही तरीका है: पहली जगह में बहस योग्य भावना की प्रणाली न बनाएं। हमारा कोई भी वर्तमान AI सिस्टम सार्थक रूप से सचेत नहीं है। अगर हम उन्हें हटा दें तो उन्हें कोई नुकसान नहीं होता है। हमें ऐसी प्रणालियाँ बनाने के साथ रहना चाहिए जिन्हें हम जानते हैं कि वे महत्वपूर्ण रूप से संवेदनशील नहीं हैं और अधिकारों के लायक नहीं हैं, जिन्हें हम डिस्पोजेबल संपत्ति के रूप में मान सकते हैं।
कुछ आपत्ति करेंगे: यह एआई सिस्टम के निर्माण को अवरुद्ध करने के लिए अनुसंधान को बाधित करेगा जिसमें भावना, और इस प्रकार नैतिक स्थिति स्पष्ट नहीं है – चैटजीपीटी की तुलना में अधिक उन्नत सिस्टम, अत्यधिक परिष्कृत लेकिन उनकी स्पष्ट भावनाओं के नीचे मानव जैसी संज्ञानात्मक संरचनाएं नहीं हैं। इंजीनियरिंग की प्रगति धीमी हो जाएगी जबकि हम नैतिकता और चेतना विज्ञान के पकड़ने की प्रतीक्षा करेंगे।
लेकिन उचित सावधानी शायद ही कभी मुफ्त होती है। नैतिक तबाही को रोकने के लिए कुछ देरी करना उचित है। अग्रणी एआई कंपनियों को स्वतंत्र विशेषज्ञों द्वारा जांच के लिए अपनी तकनीक का खुलासा करना चाहिए जो इस संभावना का आकलन कर सकते हैं कि उनके सिस्टम नैतिक ग्रे जोन में हैं।
भले ही विशेषज्ञ चेतना के वैज्ञानिक आधार पर सहमत न हों, वे उस क्षेत्र को परिभाषित करने के लिए सामान्य सिद्धांतों की पहचान कर सकते हैं – उदाहरण के लिए, परिष्कृत स्व-मॉडल (जैसे स्वयं की भावना) और बड़े, लचीले संज्ञानात्मक के साथ सिस्टम बनाने से बचने का सिद्धांत क्षमता। वैकल्पिक समाधान विकसित करते समय विशेषज्ञ एआई कंपनियों के लिए नैतिक दिशानिर्देशों का एक सेट विकसित कर सकते हैं जो विवादित चेतना के ग्रे क्षेत्र से बचते हैं, यदि कभी भी, वे अधिकार-योग्य भावना के लिए इसे पार कर सकते हैं।
इन मानकों को ध्यान में रखते हुए, उपयोगकर्ताओं को कभी भी संदेह नहीं होना चाहिए कि प्रौद्योगिकी का एक टुकड़ा एक उपकरण है या एक साथी है। एलेक्सा जैसे उपकरणों के लिए लोगों का लगाव एक चीज है, जो एक बच्चे के टेडी बियर के प्रति लगाव के समान है। घर में आग लगने पर हम खिलौने को पीछे छोड़ना जानते हैं। लेकिन टेक कंपनियों को सामान्य उपयोगकर्ताओं को एक अचेतन एआई प्रणाली के बारे में वास्तव में संवेदनशील मित्र के रूप में हेरफेर नहीं करना चाहिए।
आखिरकार, वैज्ञानिक और इंजीनियरिंग विशेषज्ञता के सही संयोजन के साथ, हम एआई सिस्टम बनाने के लिए सभी तरह से जाने में सक्षम हो सकते हैं जो निर्विवाद रूप से सचेत हैं। लेकिन तब हमें कीमत चुकाने के लिए तैयार रहना चाहिए: उन्हें वे अधिकार देना जिनके वे हकदार हैं।
एरिक श्विट्जबेल यूसी रिवरसाइड में दर्शनशास्त्र के प्रोफेसर हैं और “ए थ्योरी ऑफ जर्क्स एंड अदर फिलोसोफिकल मिसएडवेंचर्स” के लेखक हैं। हेनरी शेवलिन कैम्ब्रिज विश्वविद्यालय के लीवरहल्मे सेंटर फॉर द फ्यूचर ऑफ इंटेलिजेंस में अमानवीय दिमाग में विशेषज्ञता वाले एक वरिष्ठ शोधकर्ता हैं।