आता AI सुद्धा धोक्यात, गुगल जेमिनी कॉपी करण्याचा कट, हॅकर्सना समजले 1 लाख प्रॉम्प्ट टाकून काम

AI सुरक्षा धोका: Google मोठा खुलासा केला आहे. कंपनीच्या म्हणण्यानुसार, हॅकर्सनी त्याचा AI चॅटबॉट हॅक केला आहे. Google मिथुन प्रत तयार करण्याचा प्रयत्न केला. यासाठी 1 लाखांहून अधिक विचारपूर्वक डिझाइन केलेले प्रॉम्प्ट सिस्टमवर टाकण्यात आले. या प्रश्नांचा उद्देश थेट कोड चोरणे हा नव्हता, तर AI कसे विचार करते, प्रतिसाद देते आणि निर्णय घेते हे समजून घेणे हा होता. कंपनीच्या मते, अशा हल्ल्यांना “मॉडेल एक्स्ट्रॅक्शन” किंवा “डिस्टिलेशन अटॅक” असे म्हणतात. म्हणजे सतत बाहेरून प्रश्न विचारून एआयच्या मनाचा नकाशा तयार करणे.
प्रॉम्प्टद्वारे क्लोनिंगचा प्रयत्न कसा केला गेला?
गुगलने सांगितले की हल्लेखोर वारंवार प्रश्न विचारत होते ज्यामुळे मिथुनचे अंतर्गत तर्क समजण्यास मदत होईल. यामध्ये परिस्थितीवर आधारित प्रश्न, तर्कशास्त्र कोडी, संदर्भ आधारित प्रश्न आणि वेगवेगळ्या परिस्थितींवर आधारित चाचण्यांचा समावेश होता. या प्रश्नांद्वारे, हल्लेखोर हे जाणून घेण्याचा प्रयत्न करत होते की मॉडेल माहितीवर प्रक्रिया कशी करते, संदर्भ समजून घेते आणि समस्यांचे निराकरण करते.
मोठ्या भाषेचे मॉडेल प्रत्येकाला उत्तर देत असल्याने, ही त्यांची सर्वात मोठी ताकद आणि कमकुवतता दोन्ही बनते. सततच्या उत्तरांमुळे, हॅकर्स हळूहळू नमुना समजून घेतात आणि त्याच आधारावर समान मॉडेल तयार करण्याचा प्रयत्न करतात.
हल्ला कसा उघड झाला?
ही संशयास्पद गतिविधी Google च्या अंतर्गत सुरक्षा टीम, Google Threat Intelligence Group द्वारे आढळून आली. ही टीम सतत डिजिटल धोक्यांवर लक्ष ठेवते. त्यांनी वर्तन विश्लेषण, स्वयंचलित वर्गीकरण आणि विसंगती शोध यासारखी साधने वापरली. जेव्हा काही खात्यांमधून हजारो प्रॉम्प्ट्स असामान्य पद्धतीने पाठवले जाऊ लागले, तेव्हा सिस्टमने त्यांना ध्वजांकित केले. तपासानंतर, संशयित खाती अवरोधित केली गेली आणि वारंवार चौकशीद्वारे संवेदनशील माहिती काढणे कठीण करण्यासाठी अतिरिक्त सुरक्षा उपाय लागू केले गेले.
केवळ मोठ्या कंपन्याच नाही तर स्टार्टअप्सही संकटात आहेत
तज्ञांचा असा विश्वास आहे की एआय मॉडेल्स पारंपरिक सॉफ्टवेअरप्रमाणे बंद प्रणाली नाहीत. ते परस्परसंवादी आहेत आणि वापरकर्त्याला सतत प्रतिसाद देतात. हे मोकळेपणा त्यांना रिव्हर्स-इंजिनिअरिंगसाठी सोपे लक्ष्य बनवते. गुगलने केवळ मोठ्या कंपन्याच नाही तर छोट्या कंपन्या आणि स्टार्टअप्सनाही धोका असल्याचा इशारा दिला आहे. अनेक कंपन्या त्यांच्या सानुकूल AI मॉडेल्समध्ये संवेदनशील व्यवसाय-संबंधित डेटा वापरतात. अशाच प्रकारचे प्रश्न त्या मॉडेल्सना सतत विचारले गेल्यास, व्यवसायाची माहिती लीक होऊ शकते.
हेही वाचा: भारत AI आणि क्लाउडची महासत्ता बनत आहे, पण तुमच्या डेटाला मोठा धोका आहे का?
हा धोका फक्त गुगलपुरता मर्यादित नाही
ही केवळ गुगलची बाब नाही. तत्पूर्वी, ओपनएआयने असा आरोप केला होता की काही कंपन्या अशाच डिस्टिलेशन तंत्रज्ञानाचा वापर करून त्याचे मॉडेल कॉपी करण्याचा प्रयत्न करत आहेत. हे स्पष्ट आहे की संपूर्ण एआय क्षेत्र या नवीन सायबर धोक्याशी झुंजत आहे. एआय टूल्स केवळ डेटाच नव्हे तर दैनंदिन जीवनाचा आणि व्यवसायाचा एक भाग बनत असल्याने “बुद्धिमत्ता” याचा अर्थ एआयच्या विचारांचेही संरक्षण करणे अनिवार्य झाले आहे.
Comments are closed.