डीएनए वैज्ञानिकों ने एक बार अपने स्वयं के सर्वनाशकारी अनुसंधान को रोक दिया था। क्या AI शोधकर्ता भी ऐसा ही करेंगे?

1974 की गर्मियों में, अंतरराष्ट्रीय शोधकर्ताओं के एक समूह ने एक तत्काल खुला पत्र प्रकाशित किया जिसमें उनके सहयोगियों से संभावित खतरनाक नई तकनीक पर काम निलंबित करने के लिए कहा गया। यह पत्र विज्ञान के इतिहास में पहली बार था – और अब, आधी सदी के बाद, यह फिर से हुआ है।

पहला पत्र, “पुनः संयोजक डीएनए अणुओं के संभावित खतरे,” ने कुछ प्रयोगों पर रोक लगाने का आह्वान किया, जो विभिन्न प्रजातियों के बीच जीन स्थानांतरित करते हैं, जो आनुवंशिक इंजीनियरिंग के लिए मौलिक तकनीक है।

इस मार्च में पत्र, “विशालकाय एआई प्रयोगों को रोकें”, प्रमुख कृत्रिम बुद्धिमत्ता शोधकर्ताओं और एलोन मस्क और स्टीव वोज्नियाक जैसे प्रतिष्ठित लोगों की ओर से आया था। पुनः संयोजक डीएनए पत्र की तरह, शोधकर्ताओं ने संभावित “एआई विलुप्त होने की घटना” की चेतावनी देते हुए कुछ एआई परियोजनाओं पर रोक लगाने का आह्वान किया।

कुछ एआई वैज्ञानिकों ने 2017 में पहले से ही सतर्क एआई अनुसंधान का आह्वान किया था, लेकिन जेनेरिक एआई के आने तक उनकी चिंता ने बहुत कम लोगों का ध्यान आकर्षित किया, जिसे पहली बार चैटजीपीटी के रूप में सार्वजनिक रूप से जारी किया गया था। अचानक, एक एआई उपकरण कहानियां लिख सकता है, चित्र बना सकता है, बातचीत कर सकता है, यहां तक ​​कि गाने भी लिख सकता है – सभी पहले की अद्वितीय मानवीय क्षमताएं। मार्च पत्र में सुझाव दिया गया कि एआई किसी दिन प्रतिकूल हो सकता है और संभवतः हमारा विकासवादी प्रतिस्थापन भी बन सकता है।

हालाँकि 50 वर्षों के अंतर के बावजूद, डीएनए और एआई पत्रों के बाद हुई बहसों में एक महत्वपूर्ण समानता है: दोनों में, शोधकर्ताओं द्वारा उठाई गई एक अपेक्षाकृत विशिष्ट चिंता जल्दी ही राजनीतिक, सामाजिक और यहां तक ​​कि आध्यात्मिक चिंताओं की एक पूरी श्रृंखला के लिए एक सार्वजनिक प्रॉक्सी बन गई।

पुनः संयोजक डीएनए पत्र आकस्मिक रूप से नई घातक बीमारियाँ पैदा होने के जोखिम पर केंद्रित था। आनुवंशिक इंजीनियरिंग के विरोधियों ने उस चिंता को विभिन्न आपदा परिदृश्यों में विस्तारित किया: एक नरसंहार वायरस जिसे केवल एक नस्लीय समूह को मारने के लिए प्रोग्राम किया गया था, आनुवंशिक रूप से इंजीनियर किए गए सैल्मन इतने शक्तिशाली थे कि वे मछली के खेतों से बच सकते थे और तटीय पारिस्थितिक तंत्र को नष्ट कर सकते थे, भ्रूण की बुद्धि वृद्धि केवल अमीरों के लिए सस्ती थी। सैन फ्रांसिस्को और कैम्ब्रिज, मास सहित प्रमुख अनुसंधान शहरों में पुनः संयोजक डीएनए प्रयोग के खिलाफ सड़क पर विरोध प्रदर्शन भी हुए। कैम्ब्रिज के मेयर ने बायोइंजीनियर्ड “राक्षसों” को चेतावनी दी और पूछा: “क्या यह डॉ. फ्रेंकस्टीन के सपने का उत्तर है?”

“पॉज़ जाइंट एआई एक्सपेरिमेंट्स” पत्र के बाद के महीनों में, आपदा परिदृश्य भी बढ़े हैं: एआई परम अधिनायकवादी निगरानी राज्य को सक्षम बनाता है, एक पागल सैन्य एआई एप्लिकेशन परमाणु युद्ध शुरू करता है, सुपर-बुद्धिमान एआई ग्रह के बुनियादी ढांचे को कमजोर करने के लिए सहयोग करते हैं। और कम प्रलयकारी पूर्वाभास भी हैं: अजेय एआई-संचालित हैकर्स, बड़े पैमाने पर वैश्विक एआई गलत सूचना अभियान, बड़े पैमाने पर बेरोजगारी क्योंकि कृत्रिम बुद्धिमत्ता हमारी नौकरियां ले लेती है।

पुनः संयोजक डीएनए पत्र के कारण मोंटेरे प्रायद्वीप पर असिलोमर सम्मेलन मैदान में चार दिवसीय बैठक हुई, जहां 140 शोधकर्ता नए काम के लिए सुरक्षा दिशानिर्देशों का मसौदा तैयार करने के लिए एकत्र हुए। मैंने एक पत्रकार के रूप में उस सम्मेलन को कवर किया था, और कार्यवाही ने एक इतिहास रच दिया: शीर्ष आणविक आनुवंशिकीविदों में से एक, जिसमें नोबेल पुरस्कार विजेताओं के साथ-साथ युवा शोधकर्ता भी शामिल थे जिन्होंने मिश्रण में 1960 के दशक के आदर्शवाद को जोड़ा। सत्र दर सत्र चर्चा विवादास्पद रही; करियर, प्रगति पर काम, वैज्ञानिक जांच की स्वतंत्रता सभी संभावित रूप से दांव पर थे। लेकिन यह भी अंतर्निहित डर था कि यदि शोधकर्ताओं ने अपने स्वयं के नियमों का मसौदा तैयार नहीं किया, तो कांग्रेस उनके लिए इसे और अधिक कठोर तरीके से करेगी।

अंतिम दिन केवल कुछ घंटे शेष रहते हुए, सम्मेलन ने उन दिशानिर्देशों को मंजूरी देने के लिए मतदान किया जिन्हें राष्ट्रीय स्वास्थ्य संस्थान द्वारा संहिताबद्ध और लागू किया जाएगा; उन नियमों के संस्करण आज भी मौजूद हैं और संघीय वित्त पोषण प्राप्त करने वाले किसी भी अनुसंधान संगठन द्वारा इसका पालन किया जाना चाहिए। दिशानिर्देश अप्रत्यक्ष रूप से वाणिज्यिक बायोटेक उद्योग को भी प्रभावित करते हैं, जो नए विचारों के लिए बड़े पैमाने पर संघ द्वारा वित्त पोषित विज्ञान पर निर्भर करता है। नियम सही नहीं हैं, लेकिन उन्होंने काफी अच्छा काम किया है। उसके बाद के 50 वर्षों में, हमारे यहां कोई जेनेटिक इंजीनियरिंग आपदा नहीं आई है। (भले ही COVID-19 वायरस किसी प्रयोगशाला से बच गया हो, उसके जीनोम ने आनुवंशिक इंजीनियरिंग का सबूत नहीं दिखाया।)

कृत्रिम बुद्धिमत्ता चुनौती एक अधिक जटिल समस्या है। अधिकांश नए एआई शोध निजी क्षेत्र में किए जाते हैं, छोटे स्टार्टअप से लेकर बहुराष्ट्रीय तकनीकी दिग्गजों तक सैकड़ों कंपनियों द्वारा – किसी को भी अकादमिक संस्थानों जितना आसानी से विनियमित नहीं किया जाता है। और साइबर अपराध, गोपनीयता, नस्लीय पूर्वाग्रह और अधिक के बारे में पहले से ही मौजूदा कानून हैं जो उन्नत एआई के आसपास कई आशंकाओं को कवर करते हैं; वास्तव में कितने नये कानूनों की जरूरत है? अंत में, जेनेटिक इंजीनियरिंग दिशानिर्देशों के विपरीत, एआई नियम संभवतः राजनेताओं द्वारा तैयार किए जाएंगे। जून में यूरोपीय संघ की संसद ने अपना मसौदा एआई अधिनियम पारित किया, एआई को विनियमित करने के लिए एक दूरगामी प्रस्ताव जिसे वर्ष के अंत तक अनुमोदित किया जा सकता है, लेकिन शोधकर्ताओं द्वारा पहले से ही निषेधात्मक रूप से सख्त होने की आलोचना की गई है।

अब तक कोई भी प्रस्तावित कानून एआई अधिस्थगन पत्र की सबसे नाटकीय चिंता: मानव विलुप्ति को संबोधित नहीं करता है। लेकिन असिलोमर सम्मेलन के बाद से जेनेटिक इंजीनियरिंग का इतिहास बताता है कि किसी भी संभावित एआई सर्वनाश से पहले हमारे पास अपने विकल्पों पर विचार करने के लिए कुछ समय हो सकता है।

जेनेटिक इंजीनियरिंग 50 साल पहले की अपेक्षा कहीं अधिक जटिल साबित हुई है। 1970 के दशक की शुरुआती आशंकाओं और आशावाद के बाद, प्रत्येक दशक में शोधकर्ताओं को नई पहेलियों का सामना करना पड़ा है। एक जीनोम में दोहराए जाने वाले, समान जीनों की विशाल श्रृंखला हो सकती है, जिसके कारण अभी भी पूरी तरह से समझ में नहीं आए हैं। मानव रोगों में अक्सर सैकड़ों व्यक्तिगत जीन शामिल होते हैं। एपिजेनेटिक्स शोध से पता चला है कि बाहरी परिस्थितियाँ – आहार, व्यायाम, भावनात्मक तनाव – जीन के कार्य करने के तरीके को महत्वपूर्ण रूप से प्रभावित कर सकती हैं। और आरएनए, जिसे कभी केवल एक रासायनिक संदेशवाहक माना जाता था, जीनोम में बहुत अधिक शक्तिशाली भूमिका निभाता है।

वह उभरती जटिलता एआई के लिए भी सच साबित हो सकती है। यहां तक ​​कि एआई द्वारा निर्मित सबसे मानवीय कविताएं या पेंटिंग या वार्तालाप भी इंटरनेट जैसे विशाल डेटाबेस के विशुद्ध सांख्यिकीय विश्लेषण द्वारा उत्पन्न होते हैं। मानव विलुप्ति उत्पन्न करने के लिए एआई से बहुत अधिक की आवश्यकता होगी: विशेष रूप से, एक आत्म-जागरूकता जो अपने रचनाकारों की इच्छाओं को अनदेखा करने और इसके बजाय एआई के अपने हित में कार्य करने में सक्षम है। संक्षेप में, चेतना. और, जीनोम की तरह, जितना अधिक हम इसका अध्ययन करेंगे, चेतना निश्चित रूप से और अधिक जटिल होती जाएगी।

जीनोम और चेतना दोनों लाखों वर्षों में विकसित हुए, और यह मान लेना कि हम कुछ दशकों में रिवर्स-इंजीनियरिंग कर सकते हैं, थोड़ा अभिमान है। फिर भी अगर इस तरह के अहंकार से अत्यधिक सावधानी बरती जाती है, तो यह अच्छी बात है। इससे पहले कि हम वास्तव में विकास या चेतना का पूर्ण नियंत्रण अपने हाथ में लें, हमारे पास यह समझने के लिए पर्याप्त समय होगा कि जिम्मेदार वयस्कों की तरह कैसे आगे बढ़ना है।

माइकल रोजर्स एक लेखक और भविष्यवादी हैं जिनकी सबसे हालिया पुस्तक “ईमेल फ्रॉम द फ्यूचर: नोट्स फ्रॉम 2084” है।. पुनः संयोजक डीएनए असिलोमर सम्मेलन का उनका फ्लाई-ऑन-द-वॉल कवरेज, “पेंडोरा बॉक्स कांग्रेस,” 1975 में रोलिंग स्टोन में प्रकाशित हुआ था।

Leave a Comment