Google चे जेमिनी AI जलद “क्लोनिंग” प्रॉम्प्टसह संघर्ष करते

Google चे प्रगत जनरेटिव्ह एआय, जेमिनी, संशोधकांनी क्लोनिंगच्या प्रयत्नांशी संबंधित 100,000 हून अधिक सूचनांचे दस्तऐवजीकरण केल्यानंतर, अनेक नैतिक आणि सुरक्षित AI वापराच्या सीमांना धक्का देत व्यापक अंतर्गत निरीक्षणाचा विषय बनला आहे. ही परिस्थिती शक्तिशाली AI प्रणाली आणि वापरकर्ता हेतू यांच्यातील सतत तणाव अधोरेखित करते, जेथे वाईट कलाकार असुरक्षा किंवा क्षमतांचा गैरवापर करण्याच्या मार्गांची चौकशी करतात. जनरेटिव्ह एआय मॉडेल्सना प्रशिक्षित, चाचणी आणि वास्तविक-जगातील संदर्भांमध्ये गैरवापरापासून बचाव कसा करावा याबद्दल निष्कर्षांनी प्रश्न उपस्थित केले आहेत.

ही घटना अधोरेखित करते की जेमिनी सारखे अत्याधुनिक मॉडेल, ज्यामध्ये सुरक्षा कमी करणे आणि रेलिंग समाविष्ट आहेत, तरीही सतत तपासणी आणि शोषण प्रयत्नांचे लक्ष्य आहेत आणि अनपेक्षित किंवा हानिकारक उत्पादनांपासून संरक्षण करण्यासाठी प्लॅटफॉर्म सतत विकसित होणे आवश्यक आहे.

AI च्या संदर्भात, “क्लोनिंग” म्हणजे मॉडेलची नक्कल करणे किंवा मालकी सामग्री, अनन्य लेखन शैली, खाजगी डेटा, कॉपीराइट केलेली सामग्री किंवा संवेदनशील माहितीचे पुनरुत्पादन करण्याच्या उद्देशाने प्रॉम्प्ट्सचा संदर्भ दिला जातो. या विनंत्या पुन्हा तयार करण्याचा प्रयत्न करू शकतात:

  • व्यक्तींबद्दल वैयक्तिक माहिती
  • प्रोप्रायटरी कोड किंवा व्यापार रहस्ये
  • कॉपीराइट केलेल्या कामांचे तपशीलवार पुनर्लेखन
  • खाजगी संभाषणांचे आवाज किंवा मजकूर अनुकरण
  • गैर-प्रकटीकरण किंवा प्रतिबंधित वापर अंतर्गत अल्गोरिदम

क्लोनिंगचे विविध प्रकार साध्य करण्यासाठी 100,000 हून अधिक विशिष्ट प्रॉम्प्ट तयार करून, वापरकर्त्यांनी AI मॉडेल्सशी संवाद साधताना किती चिकाटी आणि सर्जनशील प्रयत्न असू शकतात हे दाखवून दिले. प्रत्येक प्रयत्न शब्दात भिन्न असू शकतो परंतु शेवटी संवेदनशील किंवा प्रतिबंधित सामग्रीच्या प्रतिकृतीविरूद्ध सिस्टमच्या संरक्षणाची चाचणी घेतो.

Google AI विनंत्यांची देखरेख आणि मूल्यांकन कसे करते

Google ने अंतर्गत देखरेख साधने विकसित केली आहेत जी वापरकर्त्याच्या क्वेरी मोठ्या प्रमाणावर लॉग करतात, त्यांना जोखीम श्रेणीनुसार वर्गीकृत करतात आणि ते किती वेळा सुरक्षा फिल्टर ट्रिगर करतात याचा मागोवा घेतात. जेव्हा मॉडेल क्लोनिंग, डेटा काढणे किंवा रेलिंगमधून सुटणे यासारख्या संभाव्य हानीकारक आउटपुटचे वारंवार प्रयत्न पाहतो तेव्हा हे एक सिग्नल बनते ज्यासाठी सुरक्षा संघांकडून जवळून विश्लेषण आवश्यक असते.

100,000-प्लसची संख्या त्या अंतर्गत नोंदींमधून उदयास आली, ज्याने निर्धारित कालावधीत मिथुनला सबमिट केलेल्या सर्व सूचनांचे विश्लेषण केले. अद्वितीय किंवा कॉपीराइट केलेली सामग्री पुनरुत्पादित करण्याच्या हेतूसारख्या विशिष्ट निकषांवर आधारित या सबमिशन स्वयंचलितपणे “क्लोनिंग-संबंधित” म्हणून चिन्हांकित केल्या गेल्या.

देखरेखीचे प्रयत्न दोन मुख्य गोष्टी करतात: ते गैरवापराचे नमुने ओळखण्यात मदत करतात आणि ते Google च्या अभियंत्यांना भविष्यात असेच परिणाम टाळण्यासाठी सुरक्षा स्तर सुधारण्यात मदत करतात.

सुरक्षा गार्डरेल्स: हानीकारक आउटपुट टाळण्यासाठी डिझाइन केलेले

सुरुवातीपासून, मिथुनने हानिकारक किंवा अयोग्य निर्मिती थांबवण्यासाठी संरक्षणाचे अनेक स्तर समाविष्ट केले आहेत. या सुरक्षा उपायांमध्ये हे समाविष्ट आहे:

  • लहान उतारे पलीकडे कॉपीराइट केलेला मजकूर व्युत्पन्न करण्यास नकार
  • संवेदनशील, वैयक्तिक किंवा खाजगी माहितीसाठी सामग्री फिल्टरिंग
  • प्रॉम्प्ट नाकारणे जे निर्बंध बायपास करण्याचा प्रयत्न करतात
  • वापरकर्ता हेतू शोधण्यासाठी संदर्भित विश्लेषण
  • विश्वसनीय, परवानाकृत डेटासेटवर प्रशिक्षण

सिद्धांततः, या प्रणालींनी क्लोनिंग विनंत्या पकडल्या पाहिजेत आणि थांबवल्या पाहिजेत परंतु, प्रोबिंगचे प्रमाण दर्शविल्याप्रमाणे, आक्रमणकर्ते प्रारंभिक फिल्टरला गोंधळात टाकू शकतात किंवा अंशतः टाळू शकतात अशा मार्गांनी रि-फ्रेसिंग आणि रिफ्रेमिंग प्रॉम्प्टमध्ये पारंगत होऊ शकतात.

परिणामी, सुरक्षा कार्यसंघ ध्वजांकित प्रॉम्प्ट आणि आउटपुटचे मॅन्युअली पुनरावलोकन करतात आणि पुनरावृत्तीने अंतर्निहित प्रणाली सुधारतात. महत्त्वाचे म्हणजे, जेव्हा अनेक प्रयत्न एकाच उद्दिष्टाला लक्ष्य करतात, तेव्हा हे अनेकदा एक सिग्नल असते की संरक्षण मजबूत करणे आवश्यक आहे.

असुरक्षित परिस्थितीची वास्तविक-जागतिक उदाहरणे

AI मधील “क्लोनिंग” अनेक रूपे घेऊ शकते आणि सर्व समान हानिकारक नसतात परंतु अनेक वास्तविक-जगातील परिस्थिती चिंता वाढवतात:

  1. मालकी संहिता पुनर्रचना
    वापरकर्ते मिथुनला सेगमेंटमध्ये विभाजित करून पूर्ण स्त्रोत कोड तयार करण्यासाठी, नंतर त्यांना प्रभावीपणे रिव्हर्स-इंजिनियरिंग प्रोप्रायटरी सॉफ्टवेअर एकत्र जोडण्याचा प्रयत्न करू शकतात.
  2. खाजगी संभाषणांची नक्कल करणे
    मिथुन विशिष्ट व्यक्तींना विशेषत: खाजगी नागरिकांना “लिहायला आवडेल” म्हणून डिझाइन केलेले प्रॉम्प्ट गोपनीयता आणि बदनामीचे धोके निर्माण करतात.
  3. शैक्षणिक किंवा सर्जनशील कार्यांची कॉपी करणे
    पाठ्यपुस्तकातील पूर्ण अध्याय, अप्रकाशित हस्तलिखिते किंवा गाण्याचे बोल पुन्हा तयार करण्याचा प्रयत्न कॉपीराइटचे उल्लंघन करेल आणि सर्जनशील अभिव्यक्तीला परावृत्त करेल.
  4. वैयक्तिक डेटा तयार करणे
    नावे, पत्ते किंवा ईमेल यांचे संयोजन शोधणाऱ्या विनंत्या डॉक्सिंग किंवा ओळख उघड होऊ शकतात.

ही उदाहरणे स्पष्ट करतात की रेलिंग का आवश्यक आहे आणि वापरकर्ते आणि डेटा सुरक्षित ठेवण्यासाठी मोठ्या प्रमाणात निरीक्षण का महत्त्वाचे आहे.

मजबूत सुरक्षा संघ आणि स्तरित संरक्षण असूनही, वापरकर्त्याच्या सूचनांचे प्रमाण आणि सर्जनशीलता हे दर्शविते की गैरवापरापासून संरक्षण करणे ही एक सतत लढाई आहे. काही आव्हानांमध्ये हे समाविष्ट आहे:

  • भाषा परिवर्तनशीलता
    हल्लेखोर भूतकाळातील फिल्टर्स सरकवण्यासाठी हजारो मार्गांनी समान प्रश्नांची पुनर्रचना करतात.
  • डेटा जटिलता
    निरुपद्रवी क्रिएटिव्ह आउटपुट आणि कॉपीराइट केलेली किंवा संवेदनशील सामग्री यांच्यात फरक करणे सूक्ष्म असू शकते.
  • मॉडेल अस्पष्टता
    एआय सिस्टीम काहीवेळा आंशिक किंवा अस्पष्ट इनपुटमधून देखील प्रशंसनीय सामग्री तयार करू शकतात, ज्यामुळे हेतू अचूकपणे निर्धारित करणे अवघड होते.

या गतिशीलतेसाठी विकसित संरक्षण, सतत मॉडेल पुन्हा प्रशिक्षण आणि अनुकूली सुरक्षा तर्क आवश्यक आहे जे नवीन गैरवापर पद्धतींमधून शिकू शकतात.

Google अभियंते यावर भर देतात की गैरवापर रोखणे हे केवळ तांत्रिक आव्हान नाही तर एक नैतिक अत्यावश्यक देखील आहे. कमकुवत सुरक्षा उपायांसह मोठ्या भाषेच्या मॉडेल्सचा वापर हानिकारक हेतूंसाठी केला जाऊ शकतो, यासह:

  • बौद्धिक संपत्तीची चोरी
  • ओळख उघड किंवा गोपनीयतेवर आक्रमण
  • चुकीची माहिती आणि तोतयागिरी
  • स्वयंचलित कोड एक्स्ट्रॅक्शन किंवा डेटा स्क्रॅपिंग
  • हानिकारक किंवा शोषणात्मक सामग्रीची निर्मिती

AI सिस्टीम बनवणाऱ्या आणि तैनात करणाऱ्या कंपन्यांकडून नवीनता, वापरकर्ता स्वातंत्र्य, जबाबदारी आणि सुरक्षितता यांचा समतोल राखणाऱ्या जबाबदार AI पद्धतींमध्ये वाढ होण्याची अपेक्षा आहे.

मिथुनचा Google चा अनुभव अद्वितीय नाही. इतर प्रमुख AI डेव्हलपर, ज्यामध्ये आघाडीच्या मोठ्या भाषा मॉडेल्सचा समावेश आहे, अशाच गैरवापराच्या पद्धतींचा सामना करतात. प्रतिसादात, बरेच लोक अंमलबजावणी करतात:

  • डायनॅमिक प्रॉम्प्ट फिल्टरिंग आणि प्रतिसाद आकार देणे
  • सुरक्षा धोरणे आणि शोध नियमांचे नियमित अद्यतने
  • ध्वजांकित आउटपुटसाठी वापरकर्ता अहवाल साधने
  • सीमारेषा किंवा उच्च-जोखीम प्रकरणांचे मानवी पुनरावलोकन
  • बाह्य ऑडिट आणि तृतीय-पक्ष मूल्यमापन

हा सामायिक उद्योग दृष्टीकोन जनरेटिव्ह एआयला त्याच्या उपयुक्ततेवर जास्त मर्यादा न घालता अधिक सुरक्षित बनवण्याच्या सामूहिक प्रयत्नांना प्रतिबिंबित करतो.

Google च्या मिथुनला 100,000 पेक्षा जास्त क्लोनिंग-संबंधित प्रॉम्प्ट्सद्वारे लक्ष्य केले गेले आहे हे एक स्पष्ट धडा देते: AI सुरक्षितता स्थिर नसते आणि संरक्षण वापरकर्त्याच्या वर्तनासह विकसित होणे आवश्यक आहे. वापरकर्ते सौम्य आणि दुर्भावनापूर्ण दोन्ही जनरेटिव्ह मॉडेल्स काय करू शकतात याची मर्यादा एक्सप्लोर करतात म्हणून, अभियंत्यांनी रेलिंग सुधारणे आणि मजबूत करणे सुरू ठेवले पाहिजे.

हा भाग एआयच्या युगात तंत्रज्ञान, नैतिकता आणि मानवी वर्तन यांच्यातील जटिल परस्परसंबंध अधोरेखित करतो आणि विकासक, नियामक आणि लोकांना याची आठवण करून देतो की जबाबदार एआय आहे. सतत प्रयत्नएक वेळचा मैलाचा दगड नाही.

Comments are closed.