इराणवर अमेरिकेच्या हल्ल्यानंतर गुगल, ओपनएआयच्या कर्मचाऱ्यांनी लष्करी एआय सौद्यांवर बंड केले

नवी दिल्ली: अनेक मोठ्या आर्टिफिशियल इंटेलिजन्स कंपन्यांमधील कर्मचारी लष्करी कार्यक्रमांमध्ये त्यांच्या तंत्रज्ञानाच्या वापराविरुद्ध मागे सरकत आहेत. Google आणि OpenAI सह कंपन्यांमधील शेकडो कामगारांनी खुल्या पत्रांवर स्वाक्षरी केली आहे ज्यात त्यांचे नियोक्ते संरक्षण एजन्सींशी कसे संलग्न आहेत यावर कठोर मर्यादा घालण्याची मागणी केली आहे. इराणवर अमेरिकेच्या अलीकडील हल्ल्यानंतर आणि पेंटागॉनसह एआय भागीदारीची वाढती छाननी झाल्यानंतर अंतर्गत विरोध तीव्र झाला.

या पत्रांवरून असे दिसून आले आहे की तंत्रज्ञान उद्योग युद्ध, पाळत ठेवणे आणि स्वायत्त शस्त्रास्त्रांमध्ये अत्याधुनिक एआय प्रणाली वापरण्याच्या संभाव्यतेबद्दल अधिक चिंतित आहे. कामगार सूचित करतात की शक्तिशाली AI अनुप्रयोग तयार करण्याचे लक्ष्य असलेल्या संस्थांनी नैतिक मर्यादा स्पष्टपणे स्थापित केल्या पाहिजेत आणि नंतर संरक्षण कार्यांना संमती दिली पाहिजे. राष्ट्रीय सुरक्षेची चिंता आणि तंत्रज्ञान कंपन्यांच्या चिंतेची जबाबदारी यांच्यातील हितसंबंधाचा संघर्षही या चर्चेत निदर्शनास आणला जात आहे.

ओपन लेटरला सर्व कंपन्यांमध्ये गती मिळाली

“आम्ही विभाजित होणार नाही” या शीर्षकातील एका पत्राने कर्मचाऱ्यांमध्ये पटकन आकर्षण निर्माण केले. या याचिकेवर काहीशे स्वाक्षरींवरून काही दिवसांतच ती जवळपास 900 पर्यंत वाढली. सुमारे 800 स्वाक्षरी करणारे Google चे आहेत, तर जवळपास 100 OpenAI चे कर्मचारी आहेत.

लष्करी एआय प्रकल्पांवर सहकार्य करण्यासाठी कंपन्यांवर वैयक्तिकरित्या दबाव टाकल्याबद्दल अमेरिकेच्या संरक्षण विभागावर या पत्रात टीका करण्यात आली आहे. कामगारांचा असा युक्तिवाद आहे की ही रणनीती संपूर्ण उद्योगातील चिंतेकडे लक्ष देण्याऐवजी कंपन्यांना वेगळे करून प्रतिकार कमकुवत करू शकते. स्वाक्षरीकर्त्यांनी चेतावणी दिली की तंत्रज्ञान कंपन्यांमधील विभागणी संरक्षण संस्थांना विवादास्पद AI वापरांना पुढे ढकलणे सोपे करू शकते.

अँथ्रोपिक इंधनावरील पेंटागॉनच्या निर्णयावर प्रतिक्रिया

पेंटागॉनने अँथ्रोपिकला “पुरवठा साखळी जोखीम” म्हणून नियुक्त केल्यानंतर वाद अधिक तीव्र झाला, ज्यामुळे कंपनीच्या मॉडेलला फेडरल वापरापासून प्रभावीपणे अवरोधित केले जाते. अँथ्रोपिकने त्याच्या तंत्रज्ञानाचा मोठ्या प्रमाणावर पाळत ठेवणे किंवा पूर्णपणे स्वायत्त शस्त्रे प्रणालीसाठी वापर करण्यास परवानगी देण्यास नकार दिल्याच्या अहवालानंतर हा निर्णय घेण्यात आला.

उद्योग कर्मचाऱ्यांचे म्हणणे आहे की या निर्णयामुळे काही लष्करी अर्ज नाकारल्याबद्दल कंपन्यांना दंडाचा सामना करावा लागू शकतो की नाही याबद्दल प्रश्न उपस्थित होतो. सेल्सफोर्स, डाटाब्रिक्स आणि आयबीएम या कंपन्यांच्या कामगारांनी स्वाक्षरी केलेले दुसरे खुले पत्र संरक्षण विभागाला पदनामावर पुनर्विचार करण्याचे आवाहन केले.

Google संरक्षण संबंधांवर नव्याने छाननी करत आहे

या समस्येने Google चे पुन्हा लक्ष वेधले आहे. अहवाल सूचित करतात की कंपनी पेंटागॉनशी आपले जेमिनी एआय मॉडेल वर्गीकृत सरकारी प्रणालींमध्ये तैनात करण्याबद्दल चर्चा करत आहे. या विकासाने 2018 मध्ये प्रोजेक्ट मावेन विरुद्ध झालेल्या प्रतिक्रियांच्या आठवणींना उजाळा दिला आहे, जेव्हा कर्मचाऱ्यांच्या निषेधामुळे Google ला लष्करासोबतच्या ड्रोन-विश्लेषण करारापासून दूर जाण्यास भाग पाडले.

AI मध्ये काम करणाऱ्या 100 हून अधिक Google कर्मचाऱ्यांनी कथितपणे एका वेगळ्या अंतर्गत पत्रावर स्वाक्षरी केली आहे ज्यात कंपनीला Anthropic ने प्रस्तावित केलेल्या स्पष्ट निर्बंधांचा अवलंब करण्यास सांगितले आहे. त्यांनी विशेषत: नेतृत्वाला मोठ्या प्रमाणावर पाळत ठेवणे किंवा स्वायत्त शस्त्रांशी जोडलेले AI वापर नाकारण्याचे आवाहन केले.

नो टेक फॉर अपार्थाइड सारख्या वकिली गटांद्वारे देखील चिंता व्यक्त केली गेली आहे, ज्याने प्रमुख क्लाउड प्रदात्यांना संरक्षण करार नाकारण्याचे आवाहन केले आहे ज्यामुळे हानिकारक पाळत ठेवणे किंवा लष्करी अनुप्रयोग सक्षम होऊ शकतात. युतीने मुख्य उदाहरण म्हणून वर्गीकृत वातावरणात Google च्या मिथुन मॉडेलच्या संभाव्य तैनातीकडे लक्ष वेधले आहे.

आधुनिक संरक्षण रणनीतींमध्ये कृत्रिम बुद्धिमत्ता कशी केंद्रस्थानी बनत आहे हे वाढती वादविवाद हायलाइट करते. सरकार शक्तिशाली AI साधनांमध्ये प्रवेश शोधत असताना, तंत्रज्ञान कंपन्यांना त्यांच्या स्वत: च्या कर्मचाऱ्यांकडून त्या प्रणाली कशा वापरल्या जातात यावर स्पष्ट नैतिक मर्यादा निश्चित करण्यासाठी दबाव वाढवत आहे.

Comments are closed.