नवीन AI धोका: प्रॉम्प्ट इंजेक्शन अटॅक गंभीर जोखीम व्यवसाय डेटा आहे

हैदराबादमधील सायबर सुरक्षा अधिकाऱ्यांनी व्यवसायांना वाढत्या प्रॉम्प्ट इंजेक्शन हल्ल्यांबद्दल चेतावणी दिली आहे जे एआय सिस्टमला संवेदनशील डेटा लीक करण्यासाठी फसवतात. तज्ञ म्हणतात की बऱ्याच संस्था एआय टूल्सला अंतर्गत सिस्टमशी जोडतात, मजबूत रेलिंगशिवाय गंभीर उल्लंघनाचा धोका वाढवतात
प्रकाशित तारीख – १ डिसेंबर २०२५, रात्री ८:४१
हैदराबाद: हैदराबादमधील सायबर सुरक्षा अधिकाऱ्यांनी प्रसिद्ध केलेल्या अहवालानुसार, कृत्रिम बुद्धिमत्ता (AI) प्रणालींवर अवलंबून असलेल्या आधुनिक व्यवसायांसाठी नुकतीच नोंदवलेली गंभीर असुरक्षा, प्रॉम्प्ट इंजेक्शन म्हणून ओळखली जाणारी एक मोठी जोखीम बनण्याचा धोका आहे.
हा हल्ला AI चॅटबॉट्सला शक्ती देणाऱ्या भाषा मॉडेल्सना लक्ष्य करतो, जे ग्राहक सेवांसाठी केंद्रस्थानी असतात. हे सायबर गुन्हेगारांना सुरक्षा नियमांचे पालन करण्यास आणि गोपनीय अंतर्गत किंवा ग्राहक डेटा उघड करण्यासाठी AI सिस्टममध्ये फेरफार करण्यास अनुमती देते.
एआय मॉडेल वापरकर्त्यांनी त्यांना दिलेल्या सूचनांवर आधारित कार्य करतात, ज्याला प्रॉम्प्ट्स म्हणून ओळखले जाते. सायबर गुन्हेगार आता या सूचनांचा वापर हानिकारक मार्गांनी करत आहेत. हुशारीने तयार केलेल्या दुर्भावनापूर्ण सूचना टाकून, आक्रमणकर्ते AI सिस्टीममध्ये हाताळणी करून माहिती उघड करू शकतात जी संरक्षित राहिली पाहिजे.
सोप्या भाषेत, यात विशिष्ट शब्द किंवा वाक्यांशांसह AI ला फसवणे आणि कंपनीचे अंतर्गत दस्तऐवज, ग्राहकांचे रेकॉर्ड किंवा सिस्टम तपशील लीक करण्यात गोंधळ घालणे समाविष्ट आहे. सायबर गुन्हेगारांमध्ये झपाट्याने पसरत असलेले हे तंत्र, एआय-चालित क्षेत्रातील सर्वात वेगाने वाढणारी हल्ला पद्धतींपैकी एक आहे.
सायबर क्राईम अधिकाऱ्यांच्या मते, बऱ्याच कंपन्या एआय टूल्स थेट संवेदनशील अंतर्गत प्रणाली, सीआरएम डेटाबेस, सपोर्ट-तिकीट डॅशबोर्ड, कर्मचारी माहिती आणि आर्थिक रेकॉर्डसह एकत्रित करतात.
“आदर्शपणे, हा डेटा अंतिम वापरकर्त्यांसाठी पूर्णपणे प्रवेश करण्यायोग्य नसावा. तथापि, एआयला गोपनीय डेटा उघड करण्यासाठी हॅकरची एकच फसवी आज्ञा पुरेशी असू शकते, ज्यामुळे संस्थांसाठी उच्च-जोखीम उल्लंघन होऊ शकते,” हैदराबाद सायबर क्राइम पोलिसांनी सांगितले.
दरम्यान, सायबरसुरक्षा तज्ञ म्हणतात की व्यवसायांनी त्वरित रेलिंग तैनात केले पाहिजेत, जे संरक्षणात्मक स्तर आहेत जे AI ला हानिकारक सूचनांचे पालन करण्यापासून प्रतिबंधित करतात. ते म्हणतात की सुरक्षा यापुढे एका अडथळ्यावर अवलंबून राहू शकत नाही आणि कंपन्यांनी बहु-स्तर संरक्षण धोरण अवलंबले पाहिजे.
संस्थांसाठी मुख्य सुरक्षा उपायः
सुरक्षा प्रशिक्षण आणि कठोर नियमांसह AI मॉडेल प्रदान करा.
दुर्भावनायुक्त किंवा हाताळणी प्रॉम्प्ट शोधण्यासाठी आणि अवरोधित करण्यासाठी सिस्टम तैनात करा.
डेटा ऍक्सेस, API आणि बॅकएंड एकत्रीकरणांवर मजबूत नियंत्रणे लागू करा.
वारंवार सिक्युरिटी ऑडिट करा आणि संवेदनशील डेटासेटचा प्रवेश कठोरपणे प्रतिबंधित करा.
Comments are closed.