आर्टिफिशल इंटेलिजन्सची प्रगती रोखली नाही तर मानवजातीचा विनाश अटळ

- ‘एआय’ क्षेत्रातील तज्ज्ञ एलिझर युडकोवस्की यांचा इशारा

वॉशिंग्टन – कुठल्याही कारणासाठी मानवाने ‘सुपरह्युमन’प्रमाणे बुद्धिमत्ता असणारा ‘स्मार्ट आर्टिफिशल इंटेलिजन्स’ विकसित केलाच, तर पृथ्वीवरील मानवजातीचा विनाश अटळ असेल. ही बाब शक्याशक्यतेच्या पातळीवरील नाही; तर याचा हाच एक परिणाम संभवतो, हे लक्षात घ्या’, असा खळबळजनक इशारा आर्टिफिशल इंटेलिजन्स (एआय) क्षेत्रातील तज्ज्ञ एलिझर युडकोवस्की यांनी दिला आहे. माझ्याप्रमाणेच या क्षेत्रात काम करणाऱ्या इतर संशोधकांनां देखील ही चिंता भेडसावते आहे, असेही युडकोवस्की यांनी सांगितले. मानवजातीच्या संपूर्ण विनाशाची भयाण शक्यता लक्षात घेऊन आर्टिफिशल इंटेलिजन्सवरील काम आहे तिथेच थांबवण्यावाचून गत्यंतर नाही, असे युडकोवस्की यांनी ठामपणे बजावले आहे.

मानवजातीचा विनाश

गेल्या महिन्यात अमेरिकास्थित ‘फ्युचर ऑफ लाईफ इन्स्टिट्यूट’ या अभ्यासगटाने आर्टिफिशल इंटेलिजन्स क्षेत्रातील धोक्यांबाबत आंतरराष्ट्रीय समुदायाला उद्देशून खुले पत्र लिहिले होते. यात आर्टिफिशल इंटेलिजन्स क्षेत्रात सुरू असणारे मोठे प्रयोग व संशोधन सहा महिन्यांसाठी थांबविण्यात यावे, असे आवाहन करण्यात आले होते. या पत्रावर हजाराहून अधिक संशोधक, वैज्ञानिक, उद्योजक, विचारवंत व राजकीय नेत्यांनी स्वाक्षऱ्या केल्या आहेत. यात ‘टेस्ला’चे प्रमुख एलॉन मस्क व ॲपलचे सहसंस्थापक स्टिव्ह वॉझ्निअक यांचा समावेश आहे.

मानवजातीचा विनाश

या खुल्या पत्रावर आपली भूमिका मांडताना ‘मशिन इंटेलिजन्स रिसर्च इन्स्टिट्यूट’चे संस्थापक एलिझर युडकोवस्की यांनी मानवजातीच्या विनाशाचा इशारा दिला. अमेरिकी पाक्षिक ‘टाईम’मध्ये लिहिलेल्या लेखाच्या सुरुवातीलाच युडकोवस्की यांनी आपण सदर पत्रावर स्वाक्षरी केली नसल्याचे स्पष्ट केले. आर्टिफिशल इंटेलिजन्स क्षेत्रातील नव्या व प्रगत संशोधनावर कोणतीच बंदी नसण्यापेक्षा सहा महिन्यांची बंदी नक्कीच चांगली, असा दावा त्यांनी केला. मात्र केवळ सहा महिन्याच्या बंदीचा प्रस्ताव आर्टिफिशल इंटेलिजन्स क्षेत्रातील धोक्यांचे गांभीर्य कमी करणारा असल्याची नाराजी युडकोवस्की यांनी व्यक्त केली.

मानवजातीचा विनाश

आर्टिफिशल इंटेलिजन्स मानवी बुद्धिमत्तेला स्पर्धा करणारा ठरेल, हा मुद्दा नसून तो मानवी बुद्धिमत्तेच्या पुढे गेला तर काय होईल हा असल्याकडे ‘मशिन इंटेलिजन्स रिसर्च इन्स्टिट्यूट’च्या संस्थापकांनी लक्ष वेधले. ‘मानवी बुद्धिमत्तेपेक्षा अधिक प्रगत एआय तयार झाला तर त्याच्यापासून कसे वाचायचे याबद्दल आपण काहीच तयारी केलेली नाही. मानवजातीला विरोध असणारा एआय विकसित झालाच तर त्याचा परिणाम फक्त संपूर्ण विनाश हाच असेल’, असे युडकोवस्की यांनी लेखात बजावले आहे. हे म्हणजे 11व्या शतकाने 21व्या शतकाशी लढण्यासारखे असेल, या शब्दात त्यांनी अतिप्रगत एआयचा धोका अधोरेखित केला.

अतिप्रगत आर्टिफिशल इंटेलिजन्स जास्त काळ स्वतःला कॉम्प्युटर अथवा इंटरनेटमध्ये बंदिस्त राहू देणार नाही तर तो ‘आर्टिफिशल लाईफ फॉर्म्स’ किंवा ‘पोस्टबायोलॉजिकल मॉलेक्युलर मॅन्युफॅक्चरिंग’च्या माध्यमातून नवे रुप घेईल, असा इशाराही युडकोवस्की यांनी दिला. मानवजातीचा संभाव्य विनाश रोखायचा असेल तर प्रगत आर्टिफिशल इंटेलिजन्ससंदर्भात सुरू असलेले सर्व संशोधन तत्काळ बंद करायला हवे, अशी आग्रही मागणी त्यांनी केली. प्रगत एआयचा मुकाबला करण्यासाठी मानवजात अजूनही तयार नसल्याने हे टोकाचे पाऊल उचलावे लागेल, याची जाणीवही एलिझर युडकोवस्की यांनी यावेळी करून दिली.

English      हिंदी

या बातमीबाबत आपले विचार आणि अभिप्राय व्यक्त करण्यासाठी खाली क्लिक करा:

https://twitter.com/WW3Info
https://www.facebook.com/WW3Info