आर्टिफिशल इंटेलिजन्स की प्रगति को रोका नहीं तो मानवजाति का विनाश अटल

- ‘एआई’ क्षेत्र के विशेषज्ञ एलिझर युडकोवस्की की चेतावनी

वॉशिंग्टन – किसी भी कारण से मानव ने ‘सुपरह्युमन’ की तरह बुद्धिमत्ता के ‘स्मार्ट आर्टिफिशल इंटेलिजन्स’ विकसित किया तो फिर धरती के मानवजाति का विनाश अटल होगा। यह बात संभावना के स्तर की नहीं, बल्कि इसका एक ही परिणाम हो सता हैं, इसपर ध्यान दे’, ऐसी सनसनीखेज चेतावनी आर्टिफिशल इंटेलिजन्स (एआई) क्षेत्र के विशेषज्ञ एलिझर युडकोवस्की ने दी है। हमारी तरह से ही इस क्षेत्र में काम कर रहे अन्य वैज्ञानिकों को भी यही चिंता सता रही हैं, ऐसा युडकोवस्की ने कहा। मानवजाति के पूरे विनाश की भीषण संभावना को ध्यान में रखकर आर्टिफिशल इंटेलिजन्स का काम जहां हैं वहां पर रोकने के अलावा अन्य विकल्प नहीं होगा, ऐसा पुख्ता इशारा युडकोवस्की ने दिया है।

मानवजाति का विनाश

पिछले महीने अमरीका स्थित ‘फ्युचर ऑफ लाईफ इन्स्टिट्यूट’ नामक अभ्यास गुट ने आर्टिफिशल इंटेलिजन्स क्षेत्र के खतरों को लेकर अंतरराष्ट्रीय समुदाय को सामने रखकर खुला खत लिखा था। इसमें आर्टिफिशल इंटेलिजन्स क्षेत्र में शुरू बड़े प्रयोग और अनुसंधान छह महीनों के लिए रोके जाए, ऐसा आवाहन किया गया था। इस खत पर हज़ार से भी अधिक वैज्ञानिक, अनुसंशोधक, उद्यमि, विचारक एवं राजनीतिक नेताओं ने हस्ताक्षर किए हैं। इसमें ‘टेस्ला’ के प्रमुख एलॉन मस्क और एपल के सह संस्थापक स्टिव वॉझ्निअक का भी समावेश है।

मानवजाति का विनाश

इस खुले खत पर अपनी भूमिका रखते हुए ‘मशिन इंटेलिजन्स रिसर्च इन्स्टिट्यूट’ के संस्थापक एलिझर युडकोवस्की ने मानवजाति के विनाश की चेतावनी दी। अमरिकी पत्रिका ‘टाईम’ में लिखे लेख के शुरू में ही युडकोवस्की ने हमने इस खत पर हस्ताक्षर नहीं किए हैं, यह स्पष्ट किया। आर्टिफिशल इंटेलिजन्स क्षेत्र के नए और उन्नत अनुसंधान पर कोई भी पाबंदी ना होने के बजाय छह महीनों की पाबंदी यकिनन अच्छी होगी, ऐसा दावा उन्होंने किया। लेकिन, सीर्फ छह महीनों की पाबंदी का प्रस्ताव आर्टिफिशल इंटेलिजन्स क्षेत्र के खतरों की गंभीरता कम करनेवाली होगी, ऐसी नाराज़गी युडकोवस्की ने व्यक्त की।

मानवजाति का विनाश

आर्टिफिशल इंटेलिजन्स मानवी बुद्धिमत्ता से स्पर्धा करनेवाला होगा, यह मुद्दा नहीं है, बल्कि यदि वह मानवी बुद्धिमत्ता से आगे गया तो क्या होगा, यह होने की ओर ‘मशिन इंटेलिजन्स रिसर्च इन्स्टिट्यूट’ के संस्थापक ने ध्यान आकर्षित किया। ‘मानवी बुद्धिमत्ता से अधिक उन्नत ‘एआई’ तैयार हुआ तो इससे कैसे बचना है, इसकी हमने कुछ भी तैयारी नहीं की है। मानवजाति को विरोध करनेवाले ‘एआई’ का निर्माण हुआ तो फिर इसका परिणाम सीर्फ पूरा विनाश ही होगा’, ऐसा इशारा युडकोवस्की ने लेख में दिया है। यह यानी ११ वी सदि ने २१ वीं सदी से जंग करने जैसा होगा, इन शब्दों में उन्होंने उन्नत ‘एआई’ का खतरा रेखांकित किया।

उन्नत आर्टिफिशल इंटेलिजन्स ज्यादा देर तक स्वयं को कंप्यूटर या इंटरनेट में कैद रहने नहीं देगा, बल्कि वह ‘आर्टिफिशल लाईफ फॉर्म्स’ या ‘पोस्टबायोलॉजिकल मॉलेक्युलर मैन्युफैक्चरिंग’ के माध्यम से नया रूप प्राप्त करेगा, ऐसा इशारा भी युडकोवस्की ने दिया। मानवजाति का संभावित विनाश रोकना हैं तो उन्नत आर्टिफिशल इंटेलिजन्स से जुड़ा सभी अनुसंधान तुरंत बंद करना होगा, ऐसी मांग बड़ी तीव्रता से उन्होंने की। उन्नत ‘एआई’ का मुकाबला करने के लिए मानवजात अभी भी तैयार ना होने से यह बड़ा कमद उठाना होगा, इसका अहसास भी एलिझर युडकोवस्की ने इस दौरान कराया।

English      मराठी

इस समाचार के प्रति अपने विचार एवं अभिप्राय व्यक्त करने के लिए नीचे क्लिक करें:

https://twitter.com/WW3Info
https://www.facebook.com/WW3Info