अँथ्रोपिक पिव्होटिंग त्याच्या मूळ वचनापासून दूर आहे का?

जेव्हा Anthropic ने मार्च 2023 मध्ये Claude लाँच केले, तेव्हा सुरक्षिततेला प्रथम प्राधान्य असेल असे वचन देऊन फर्मने स्वतःला इतर अनेक कृत्रिम बुद्धिमत्ता प्रयोगशाळांपासून वेगळे केले. इतर अनेक प्रयोगशाळा अधिक शक्तिशाली आणि कार्यक्षम कृत्रिम बुद्धिमत्ता विकसित करण्यावर काम करत असताना, अँथ्रोपिक विश्वासाच्या छत्राखाली काम करत होती.
क्लॉड लाँच करण्याच्या घोषणेमध्ये, फर्मने म्हटले की कृत्रिम बुद्धिमत्ता एक सहाय्यक आहे ज्याचा हेतू उपयुक्त, प्रामाणिक आणि निरुपद्रवी आहे.
फर्मने जे नाव निवडले, ते “मानवी” या ग्रीक शब्दावरून घेतलेले आहे, हे सांगण्याचा हेतू होता की फर्म मानवतावादी विकासाच्या छत्राखाली काम करत आहे.
मानववंश त्याच्या सुरक्षिततेची वचनबद्धता पुन्हा परिभाषित करते
शक्ती आणि आकाराच्या दिशेने धावणारी दुसरी कंपनी म्हणून जगाने त्यांना पाहावे असे मानववंशीयांना वाटत नव्हते. मजबूत सीमांमुळे मार्ग दाखवणे शक्य आहे हे जगाने पाहावे अशी फर्मची इच्छा होती.
त्या वर्षाच्या शेवटी, फर्म रिस्पॉन्सिबल स्केलिंग पॉलिसी, किंवा RSP विकसित करून हे वचन प्रत्यक्षात आणण्यात सक्षम झाली.
हा नियमांचा एक संच होता ज्याचे पालन फर्म अधिक शक्तिशाली कृत्रिम बुद्धिमत्ता विकसित करण्याच्या बाबतीत करत होती आणि धोरणाचा मुख्य भाग म्हणजे इतर कोणतीही फर्म करत नसलेले वचन होते.
प्रणाली सुरक्षित असल्याची खात्री करण्यासाठी पूर्वीची क्षमता नंतरच्या क्षमतेच्या पलीकडे वाढल्यास, नंतरच्या सुरक्षा यंत्रणा वेगवान होईपर्यंत प्रशिक्षण थांबवण्याचे आणि नवीन मॉडेल तैनात करण्याचे वचन दिले.
या आठवड्यात, अँथ्रोपिकने या धोरणात सुधारणा केली आणि सुरक्षितता-प्रथम एआय मॉडेल म्हणून नंतरच्या ओळखीचा पाया असलेले वचन.
नवीन RSP पूर्वीच्या धोरणाला फ्रंटियर सेफ्टी रोडमॅप नावाच्या नवीन फ्रेमवर्कसह बदलते. हे अजूनही सुरक्षितता उद्दिष्टे आणि जोखीम तपासण्यांचे वर्णन करते, परंतु हे वचन सांगण्याचा मार्ग बदलण्यासाठी भाषा बदलली गेली आहे. विकास थांबवणाऱ्या हार्ड ट्रिगरऐवजी, नवीन धोरण पारदर्शकतेवर केंद्रित आहे.
मानववंशीय लोकांसोबत जोखीम सामायिक करण्यासाठी आणि जोखीम दूर करण्यासाठी योजना स्पष्ट करण्यासाठी वचनबद्ध आहे. विकास सुरू ठेवण्याची निवड कंपनीवरच सोडली जाते.
हे शिफ्ट सार्वजनिक उद्दिष्टांच्या सूचीच्या वचनबद्धतेच्या वचनापासून धोरण बदलते. मानववंशी अजूनही त्यांच्या स्वतःच्या प्रगतीचा मागोवा घेण्यासाठी आणि अहवाल देण्यासाठी वचनबद्ध आहेत परंतु सुरक्षिततेच्या समस्या वाढल्यास विराम देण्यास वचनबद्ध नाही.
AI सुरक्षिततेसह स्पर्धात्मक गती संतुलित करणे
मानववंशीयांचा असा विश्वास आहे की ही बदल एका मोठ्या वास्तवाचे प्रतिबिंब आहे. एआयचा धोका एका कंपनीवर अवलंबून नाही. जर एखादा सुरक्षित विकसक मागे हटत असेल तर इतर पुरेसे सुरक्षिततेच्या उपायांशिवाय पुढे जात असतील, तर ही अशी परिस्थिती आहे जिथे विराम दिल्याने संभाव्यतः नकारात्मक परिणाम होऊ शकतात, सुरक्षित परिणाम नाही.
मानववंशीय अजूनही त्यांच्या सुधारित धोरणांतर्गत विराम देण्यास वचनबद्ध आहेत. त्यांच्या प्रतिस्पर्ध्यांवर भक्कम आघाडी असल्यास किंवा प्रगत AI प्रणालींकडून गंभीर धोक्याचे ठोस पुरावे असल्यास ते विराम देण्याचा विचार करतील.
परंतु धोरण त्यांच्या प्रतिस्पर्ध्यांच्या बाबतीत वेगळे वचन देते. त्यांचे प्रतिस्पर्धी पुरेशा सुरक्षिततेच्या उपायांशिवाय पुढे जात असतील, तर अँथ्रोपिक मागे राहण्याऐवजी त्यांच्यासोबत राहण्यास वचनबद्ध आहे.
बदलाच्या वेळेमुळेही उत्सुकता वाढली आहे. अँथ्रोपिकने ज्या दिवशी अद्ययावत आरएसपी जारी केला त्याच दिवशी, यूएस संरक्षण सचिव पीट हेगसेथ यांनी सीईओ, डॅरियो अमोदेई यांची भेट घेतली आणि कंपनीला लष्करातील त्याच्या वापरावरील निर्बंध कमी करण्याची विनंती केली.
मेसेज वेळेवर आला असेल. अँथ्रोपिकचा पेंटागॉनसोबत $200 दशलक्षचा करार आहे आणि कराराच्या नुकसानीमुळे महसूल आणि संरक्षण उद्योगाशी संबंधित त्याच्या भागीदारीवर परिणाम होऊ शकतो.
एन्थ्रोपिकचे आरएसपी अपडेट आणि सेल्फ-रेग्युलेशनच्या दिशेने शिफ्ट
अँथ्रोपिकने असे सुचवले नाही की अद्यतनित आरएसपी मीटिंगशी संबंधित आहे, परंतु वेळ नक्कीच संशयास्पद आहे आणि एआय उद्योगातील बाहेरील दबाव आणि प्रोत्साहनांचा मुद्दा सुचवतो.
या बदलामुळे, कोणत्याही मोठ्या AI प्रयोगशाळेची सुरक्षा क्षमता विकास क्षमतांपेक्षा मागे पडल्यास विकास थांबविण्याची बंधनकारक वचनबद्धता नाही.
सुरक्षेसंबंधीची भाषा उद्योगात सामान्य आहे, परंतु हार्ड स्टॉप आवश्यकता यापुढे अस्तित्वात नाहीत. एआयची क्षमता पुढे जात राहिल्याने पारदर्शकता आणि स्वयं-नियमन पुरेसे होईल की नाही ही चर्चा आता आहे.
Comments are closed.