के एआईले मानव अस्तित्व नै खतरामा पर्ला ?

कृत्रिम बौद्धिकताबाट मानव अस्तित्व जोखिममा पर्न सक्ला ? पछिल्लो समय धेरै विज्ञहरूले यस्तो सम्भावना रहेको चेतावनी दिँदै आएका छन् । यस्तो चेतावनी दिनेहरूमा ओपनएआई र गुगल डिपमाइन्डका प्रमुखहरू पनि छन् ।

यस सम्बन्धमा जारी विज्ञप्ति ‘सेन्टर फर एआई सेफ्टी’ को वेबपेजमा प्रकाशित गरिएको छ । यस भनाइसँग धेरै विज्ञहरूले आफ्नो सहमति व्यक्त गरेका छन् । विज्ञहरूले चेतावनी दिएका छन्, ‘समाजलाई असर पार्ने अन्य खतराहरू, जस्तै महामारी र आणविक युद्ध जस्तै गरी एआई (कृत्रिम बौद्धिकता) ले उत्पन्न गरेको अस्तित्वको खतरालाई न्यूनीकरण गर्नु पनि विश्वव्यापी प्राथमिकता हुनुपर्छ ।’

च्याटजीपीटीका प्रमुख कार्यकारी सैम अल्टम्यान, गुगल डीपमाइन्डका प्रमुख कार्यकारी डेमिस हासाबिस र एन्थ्रोपिकका डारियो अमोदेईले उक्त कथनलाई समर्थन गरेका छन् । ‘सेन्टर फर एआई सेफ्टी’ को चेतावनीलाई डा. जेफ्री हिन्टनले पनि समर्थन गरेका छन् । उनले पहिले नै सुपर इन्टेलिजेन्ट एआईको खतराबारे चेतावनी जारी गरिसकेका छन्

युनिभर्सिटी अफ मोन्ट्रियलका कम्प्युटर साइन्सका प्रोफेसर योशुआ बेन्जोले पनि विज्ञप्तिमा हस्ताक्षर गरेका छन् । यो क्षेत्रमा उल्लेखनीय कामको कारण डा. हिन्टन, प्रोफेसर बेन्जो र प्रोफेसर यान लाकेनलाई ‘एआईको गडफादर’ भनिन्छ । यसका लागि बेन्जोलाई सन् २०१८ मा संयुक्त रुपमा ‘टर्निङ अवार्ड’ प्रदान गरिएको थियो । कम्प्युटर विज्ञानको क्षेत्रमा उल्लेखनीय योगदान पु¥याएबापत यो अवार्ड प्रदान गरिन्छ ।

प्रोफेसर लेकान मेटाको लागि काम गर्छन् । उनले सर्वनाशसँग सम्बन्धित यो चेतावनी बढाइचढाइ गरिएको बताए । अरु धेरै विज्ञहरुको राय पनि यस्तै छ । तिनीहरू भन्छन् कि एआईले मानवतालाई नष्ट गर्नेछ, यो डर वास्तविक होइन ।

अक्सफोर्ड इन्स्टिच्युट फर एथिक्स इन एआईका वरिष्ठ अनुसन्धान सहयोगी एलिजाबेथ रेनिरीस वर्तमानको तुलनामा निकट अवधिका खतराहरूबारे बढी चिन्तित छिन् । ‘एआईमा भएको प्रगतिले पक्षपाती, भेदभावपूर्ण, अलग्गै र निष्पक्ष हुने स्वचालित निर्णयहरूको सम्भावना बढाउनेछ। तिनीहरूको समीक्षा र कार्यान्वयन गर्न सकिँदैन,’ उनले भनिनन् ।

उनका अनुसार, ‘यसले गलत सूचनाको फैलावटमा वृद्धि निम्त्याउनेछ । यसले वास्तविकतालाई सही रूपमा प्रतिबिम्बित गर्दैन । यसले जनविश्वासलाई घटाउनेछ । यसले असमानतालाई अझ बढाउँछ ।’

उनी भन्छिन् कि एआईका धेरै उपकरणहरू ‘अहिलेसम्म मानव अनुभवमा निःशुल्क सवारी जस्तै’ छन् । यी धेरैजसो प्रशिक्षणहरू मानव निर्मित सामग्री, पाठ, कला र संगीतमार्फत भएका छन् । त्यही आधारमा काम गर्छन् । यिनीहरूलाई तसामान्य जनताबाट सबै सम्पत्ति र शक्तिलाई निजी संस्थाहरूमा फर्काएको बेन्जोले टिप्पणी गरे ।
तर सेन्टर फर सेफ्टीका निर्देशक दत्तन हेन्ड्रिक्सले आगामी जोखिम र आजको चिन्तालाई ‘द्वन्द्वात्मक रूपमा हेर्नु नहुने’ बताए । उनी भन्छन्, ‘आज केही समस्या समाधान भयो भने अगाडि आउने धेरै जोखिमलाई समाधान गर्न मद्दत पुग्छ ।

एआईमार्फत अस्तित्वमा सम्भावित खतराको सन्दर्भ मार्च २०२३ देखि बढेको छ । त्यसपछि टेस्लाका मालिक एलोन मस्कलगायत धेरै विज्ञहरूले खुला पत्र लेखे । पत्रमा एआई प्रविधिको अर्को पुस्ताको विकास रोक्न अनुरोध गरिएको थियो ।

पत्रमा सोधिएको थियो, ‘के हामीले गैर–मानव मस्तिष्क बनाउनु पर्छ जसले अन्ततः हामी भन्दा धेरै होशियार र हामीलाई प्रतिस्थापन गर्ने हुनेछ ?’ यस खतरालाई आणविक युद्धसँग तुलना गरिएको छ । ओपनएआईलेसुपरइन्टेलिजेन्सलाई आणविक उर्जा जस्तै नियन्त्रण गर्नुपर्ने जनाएको छ । ‘सुपरइन्टेलिजेन्सका लागि हामीलाई आईएईए (अन्तर्राष्ट्रिय आणविक ऊर्जा एजेन्सी) जस्तो संस्था चाहिन्छ,’ ब्लगमा लेखिएको छ ।

साम अल्टम्यान र गुगलका प्रमुख कार्यकारी सुन्दर पिचाई प्राविधिक क्षेत्रका प्रमुख व्यक्तित्वहरू हुन्, जसले भर्खरै बेलायतका प्रधानमन्त्री ऋषि सुनकसँग एआई कसरी नियन्त्रण गर्ने भन्ने बारेमा कुरा गरेका छन् । एआईका खतराहरूबारे दिइएको चेतावनीबारे पत्रकारहरूसँग कुरा गर्दै ऋषि सुनकले यसले अर्थतन्त्र र समाजमा ल्याउन सक्ने फाइदाहरूमा जोड दिए ।

उनले भने, ‘तपाईले भर्खरै हेर्नुभयो कि यसले पक्षाघात भएका मानिसहरूलाई हिँड्न मद्दत गरिरहेको छ । नयाँ एन्टिबायोटिकहरू पत्ता लागिरहेका छन् तर हामीले यो सबै सुरक्षित तरिकाले गर्ने निर्णय गर्नुपर्छ ।’ ‘त्यसैले मैले गत साता सबै प्रमुख एआई कम्पनीका सीईओहरूसँग भेट गरें, जसमा हामीले कुन अवरोधहरू राख्न आवश्यक छ, हामीले के नियन्त्रणहरू राख्नु पर्छ ताकि हामी सुरक्षित हुन सक्छौं भन्ने छलफल भएको छ,’ उनले भने । बेलायतका प्रधानमन्त्री ऋषि सुनकले जी७ शिखर सम्मेलनमा अन्य नेताहरूसँग यस विषयमा छलफल गरेको र छिट्टै अमेरिकामा पनि यो विषय उठाउने बताएका छन् ।

केके हुन सक्छ खतरा

सेन्टर फर एआई सेफ्टी वेबसाइटले विनाशका धेरै सम्भावित परिदृश्यहरू सूचीकृत गरेको छ । एआईलाई हतियारको रूपमा प्रयोग गर्न सकिन्छ । उदाहरणका लागि, औषधिसम्बन्धी उपकरणहरूको प्रयोगबाट रासायनिक हतियार बनाउन सकिन्छ ।एआईको गलत सूचनाले समाजलाई अस्थिर बनाउन सक्छ र सामूहिक निर्णयलाई प्रभाव पार्न सक्छ । एआईको शक्ति केही हातहरूमा केन्द्रित हुन सक्छ । एजेन्सी

प्रतिक्रिया

Leave a Reply

Your email address will not be published. Required fields are marked *