5 गोष्टी तुम्ही कधीही ChatGPT ला सांगू नये

ChatGPT दररोज सुमारे 2.5 अब्ज प्रॉम्प्टला प्रतिसाद देते, यापैकी 330 दशलक्ष यूएसचा आहे. शोध इंजिनशी संवाद साधताना अनुभवाच्या विपरीत, AI प्रतिसाद हे आमच्या प्रश्नाचे उत्तर असू शकतील किंवा नसलेल्या वेबसाइटच्या साध्या सूचीपेक्षा मित्राकडून मिळालेल्या उत्तरासारखे असतात. लोक ChatGPT सारखी AI टूल्स काही अतिशय विचित्र मार्गांनी वापरत आहेत, परंतु माहिती शेअर करताना सावधगिरी बाळगणे आवश्यक आहे.
ChatGPT सारखे चॅटबॉट्स माहितीच्या स्थिर डेटाबेसवर आधारित प्रतिसादांना बाहेर काढणारी एक-मार्गी साधने नाहीत. ही एक सतत विकसित होत असलेली प्रणाली आहे जी तिला दिलेल्या डेटावरून शिकते आणि ती माहिती व्हॅक्यूममध्ये अस्तित्वात नाही. ChatGPT सारख्या सिस्टीमची रचना सुरक्षिततेसह केली गेली असली तरी, या सुरक्षा उपायांच्या परिणामकारकतेबद्दल महत्त्वपूर्ण आणि आवश्यक चिंता आहेत.
उदाहरणार्थ, जानेवारी 2025 मध्ये, Meta AI ने एक बग निश्चित केला ज्याने वापरकर्त्यांना इतर वापरकर्त्यांकडून खाजगी प्रॉम्प्ट ऍक्सेस करण्याची परवानगी दिली. विशेषत: ChatGPT सह, पूर्वीच्या आवृत्त्या प्रॉम्प्ट इंजेक्शन हल्ल्यांसाठी संवेदनाक्षम होत्या ज्याने आक्रमणकर्त्यांना वैयक्तिक डेटा रोखू दिला. सामायिक केलेल्या ChatGPT चॅट्सची अनुक्रमणिका आणि त्यांना शोध परिणामांमध्ये सार्वजनिकरीत्या उपलब्ध करून देण्याची Google (आणि इतर शोध इंजिनांची) दुर्दैवी प्रवृत्ती म्हणजे आणखी एक सुरक्षा त्रुटी.
याचा अर्थ असा की डिजिटल स्वच्छतेचे मूलभूत नियम जे आम्ही आमच्या ऑनलाइन उपस्थितीच्या इतर पैलूंवर लागू करतो ते ChatGPT लाही तितकेच लागू झाले पाहिजेत. खरंच, तंत्रज्ञानाच्या सुरक्षेशी संबंधित विवाद आणि त्याच्या सापेक्ष अपरिपक्वता लक्षात घेता, असा युक्तिवाद केला जाऊ शकतो की एआय चॅटबॉट्सशी व्यवहार करताना अधिक विवेकीपणा आवश्यक आहे. हे लक्षात घेऊन, आपण ChatGPT सह कधीही शेअर करू नये अशा पाच गोष्टी पाहू.
वैयक्तिकरित्या ओळखण्यायोग्य माहिती
कदाचित सर्वात स्पष्ट प्रारंभिक बिंदू वैयक्तिकरित्या ओळखण्यायोग्य माहिती (PII) सामायिक करणे (किंवा शक्यतो नाही) आहे. उदाहरण म्हणून, द सायबर सिक्युरिटी इंटेलिजन्स वेबसाइट सायबरसुरक्षा तज्ञांचा एक गट, सुरक्षा गुप्तहेरांनी केलेल्या संशोधन कार्यावर आधारित एक लेख अलीकडे प्रकाशित केला. संशोधनात सार्वजनिकरित्या उपलब्ध 1,000 ChatGPT संभाषणांवर नजर टाकली – निष्कर्ष डोळे उघडणारे होते. त्यांना आढळले की वापरकर्ते वारंवार पूर्ण नावे आणि पत्ते, आयडी क्रमांक, फोन नंबर, ईमेल पत्ते आणि वापरकर्तानाव आणि पासवर्ड यांसारखे तपशील शेअर करतात. Atlas — OpenAI च्या ChatGPT-आधारित AI-शक्तीवर चालणाऱ्या ब्राउझरसारख्या एजंटिक AI ब्राउझरच्या उदयामुळे नंतरचे अधिक संबंधित आहे.
रेझ्युमे आणि कव्हर लेटर यांसारख्या कामांसाठी ChatGPT खरोखर उपयुक्त आहे यात शंका नाही. तथापि, ते अनावश्यकपणे वैयक्तिक तपशील समाविष्ट न करता उत्तम प्रकारे कार्य करते. जॉन डो, नोव्हेअर स्ट्रीट, मिडलटाउन मधील गंभीर पत्र बाहेर जाणे टाळण्यासाठी तुम्हाला तपशील संपादित करणे आठवते तोपर्यंत प्लेसहोल्डर तसेच कार्य करतात. शेवटी, ही एक सोपी पायरी नाव, पत्ते आणि आयडी क्रमांक यासारख्या संवेदनशील डेटाला प्रतिबंधित करते — ज्या सर्व माहितीचा गैरवापर केला जाऊ शकतो, चुकीच्या हातात पडू शकतो.
दुसरा पर्याय म्हणजे ChatGPT ला तुमच्या चॅट्स डेटा प्रशिक्षणासाठी वापरण्याची निवड रद्द करणे. हे ChatGPT सेटिंग्जमधून केले जाऊ शकते आणि संपूर्ण सूचना वर आढळू शकतात OpenAI वेबसाइट. महत्त्वाचे म्हणजे, याचा अर्थ असा नाही की अचानक तुमचा PII शेअर करणे ठीक आहे, परंतु यामुळे अनवधानाने शेअर केलेली कोणतीही माहिती सार्वजनिकपणे उपलब्ध होण्याची शक्यता कमी होते. थोडक्यात, तुमचा PII ChatGPT सोबत शेअर करणे तुम्हाला काही करण्याची गरज नाही आणि ते सर्व परिस्थितीत टाळले पाहिजे.
आर्थिक तपशील
लोक ChatGPT वापरण्याचा आणखी एक सामान्य मार्ग म्हणजे वैयक्तिक वित्त सल्लागार. हे मासिक बजेट तयार करण्याइतके सोपे किंवा संपूर्ण सेवानिवृत्ती धोरण तयार करण्यासारखे काहीतरी जटिल असू शकते. सर्वप्रथम, OpenAI मोकळेपणाने कबूल करतो की, “ChatGPT चुका करू शकते. महत्त्वाची माहिती तपासा.”, म्हणूनच अनेक तज्ञ आर्थिक व्यावसायिकांसोबत गंभीर माहितीची पडताळणी न करता अशी साधने वापरण्याविरुद्ध सल्ला देतात. असे म्हटले जात आहे की, चॅटजीपीटी आर्थिक बाबींसाठी उपयुक्त ठरू शकते, परंतु त्यासोबत कोणतेही वैयक्तिक आर्थिक तपशील कधीही सामायिक करण्याची आवश्यकता नाही.
अर्थसंकल्प आणि आर्थिक नियोजन हे सामान्य वापराचे प्रकरण असले तरी, इतर वेळी वापरकर्त्यांना आर्थिक तपशील प्रविष्ट करण्याचा मोह होऊ शकतो. बँक स्टेटमेंट समजून घेणे, कर्ज ऑफरचे पुनरावलोकन करणे किंवा वर उल्लेखित एजंटिक AI वापरणे. कोणत्याही परिस्थितीत, वास्तविक तपशील क्वचितच आवश्यक असतात आणि प्लेसहोल्डर माहिती प्रविष्ट केली जाऊ शकते. वापरकर्ते आर्थिक विवरणे अपलोड करतात अशा प्रकरणांमध्ये, प्रथम PII माहिती संपादित करणे देखील कार्य करू शकते.
संवेदनशील माहितीमध्ये बँक खाते क्रमांक, क्रेडिट कार्ड तपशील, गुंतवणूक खाते क्रेडेन्शियल आणि कर रेकॉर्ड समाविष्ट आहेत. चॅटबॉट्स आर्थिक व्यवहारांचे संरक्षण करण्यासाठी डिझाइन केलेल्या सुरक्षित फ्रेमवर्कमध्ये काम करत नाहीत. मूलत:, याचा अर्थ असा होतो की एकदा एंटर केल्यावर, ती माहिती सामान्यत: आर्थिक डेटावर लागू केलेल्या सुरक्षिततेच्या बाहेर असते. सर्वात वाईट प्रकरणांमध्ये, यामुळे संवेदनशील आर्थिक डेटा 'वाईट कलाकारांच्या' हातात जाऊ शकतो जे नंतर आर्थिक फसवणूक, ओळख चोरी, रॅन्समवेअर हल्ले, फिशिंग किंवा वरील सर्व गोष्टींसाठी त्याचा वापर करू शकतात.
वैद्यकीय तपशील
लोकांनी वैद्यकीय सल्ल्यासाठी ChatGPT चा वापर करावा की नाही या युक्तिवादात आम्ही जास्त खोलवर जाणार नाही — हे सांगणे पुरेसे आहे की आम्ही तुम्हाला आमच्या मागील मुद्द्याकडे संदर्भ देऊ शकतो: “ChatGPT चुका करू शकते.” असे म्हंटले जात आहे, येथे मुद्दा तुम्ही वैद्यकीय सल्ल्यासाठी वापरावा की नाही हा नाही, तर तुम्ही तुमचे वैद्यकीय तपशील त्यासोबत शेअर करावेत की नाही हा आहे, विशेषत: वारंवार उल्लेख केलेल्या PII सोबत. हा फरक महत्त्वाचा आहे कारण लोकांची वाढती संख्या आरोग्याशी संबंधित माहितीसाठी ChatGPT सारख्या AI चॅटबॉट्सकडे वळत आहे. नुकत्याच झालेल्या सर्वेक्षणानुसार, सहापैकी एक प्रौढ व्यक्ती महिन्यातून किमान एकदा आरोग्यविषयक माहितीसाठी एआय चॅटबॉट्स वापरतो; तरुण प्रौढांसाठी ही संख्या चार पैकी एकापर्यंत वाढते.
पुन्हा, जोखीम उद्भवते जेव्हा सामान्य चर्चांमध्ये तपशील समाविष्ट करणे सुरू होते. निदान, चाचणी परिणाम, वैद्यकीय इतिहास आणि मानसिक आरोग्य समस्या यासारखी माहिती त्वरीत संवेदनशील बनू शकते, विशेषत: ओळखीच्या माहितीसह एकत्रित केल्यावर. आर्थिक माहितीप्रमाणे, समस्या वाढली आहे कारण एकदा एंटर केल्यावर, असा डेटा आरोग्य डेटा संरक्षण नेटवर्कसह अस्तित्वात असतो, म्हणजे एकदा तो 'जंगलीत' असतो, वापरकर्त्यांना ते कसे हाताळले जाते यावर थोडे दृश्य किंवा नियंत्रण नसते.
वस्तुस्थिती अशी आहे की लोकांना ChatGPT सोबत वैयक्तिक माहिती सामायिक करणे अधिक सोयीस्कर वाटू शकते जे ते साध्या जुन्या Google शोधने करतात. संभाषणासारखी परस्परसंवाद वैयक्तिक Google शोधांपेक्षा अधिक मानवी वाटतात आणि यामुळे वैयक्तिक वैद्यकीय माहिती उघड करण्याची इच्छा अधिक वाढू शकते.
चॅटजीपीटी वैद्यकीय संकल्पना व्यापक अर्थाने समजून घेण्यासाठी उपयुक्त ठरू शकते, परंतु डॉक्टरांच्या शस्त्रक्रियेचा विवेक आहे असे मानले जाऊ नये.
कामाशी संबंधित साहित्य
वैयक्तिक डेटा व्यतिरिक्त, माहितीची आणखी एक श्रेणी आहे जी ChatGPT मध्ये नाही – किमान फिल्टर न केलेल्या स्वरूपात – ती गोपनीय किंवा मालकी कार्याशी संबंधित सामग्रीशी संबंधित संभाषणे आहे. यामध्ये नियोक्ता, क्लायंट किंवा सार्वजनिक प्रदर्शनासाठी साफ न केलेल्या कोणत्याही चालू प्रकल्पाशी लिंक केलेली कोणतीही गोष्ट समाविष्ट आहे. दस्तऐवजांचा सारांश देण्यासाठी, ईमेल पुन्हा लिहिण्यासाठी किंवा अहवाल तपासण्यासाठी आणि संपादित करण्यासाठी ChatGPT वापरणे मोहक ठरू शकते, परंतु असे केल्याने अनेकदा संरक्षित डेटाच्या अखंडतेला अनावश्यक जोखीम येऊ शकतात.
उदाहरण म्हणून, आपण वैद्यकीय परिस्थितीकडे परत जाऊया, परंतु यावेळी आम्ही व्यावसायिक दृष्टिकोनातून पाहत आहोत. या उदाहरणात, व्यस्त डॉक्टरांना मसुदा रुग्णाचा सारांश, क्लिनिकल नोट्स किंवा ChatGPT सह संदर्भ पत्र सामायिक करण्याचा मोह होऊ शकतो ज्यामुळे भाषा घट्ट होण्यास किंवा जटिल विषय सुलभ करण्यात मदत होईल. तथापि, हेतू कार्यक्षमतेचा असला तरी, असे तपशील सामायिक करणे संभाव्यत: सामग्री सार्वजनिक डोमेनमध्ये ठेवते किंवा कमीतकमी अशा माहितीचे संरक्षण करण्यासाठी डिझाइन केलेल्या सुरक्षा प्रक्रियेच्या बाहेर ठेवते. क्रिएटिव्ह कामे आणि बौद्धिक संपदा देखील 'शेअर करू नका' वर्गात मोडतात.
थोडक्यात, एक चालू थीम आहे जी समस्येचा सारांश देण्यासाठी वापरली जाऊ शकते. ChatGPT सारख्या AI चॅटबॉट्ससह कधीही अशी कोणतीही गोष्ट सामायिक करू नका जी तुम्हाला कोणत्याही सार्वजनिक प्लॅटफॉर्मवर ठेवण्यास किंवा स्वीकार्य सुरक्षित आणि नियमन केलेल्या प्रणालीच्या बाहेर तृतीय पक्षांना सोपवण्यास सोयीस्कर होणार नाही. थोड्या परिश्रमाने वापरल्यास, चॅटबॉट्स आश्चर्यकारकपणे उपयुक्त साधने असू शकतात. ChatGPT हे वैशिष्ट्यांनी भरलेले आहे ज्याकडे तुम्ही दुर्लक्ष केले आहे परंतु कदाचित करू नये — सुरक्षित राहणे यापैकी एक नाही.
बेकायदेशीर काहीही
शेवटी, ChatGPT मध्ये काहीही बेकायदेशीर सामायिक करणे ही सर्वोत्तम गोष्ट टाळली जाते, आणि वैध कायदेशीर US प्रक्रियांच्या प्रतिसादात वापरकर्ता डेटा उघड करण्यासाठी OpenAI केवळ वचनबद्ध नाही, तर ते आंतरराष्ट्रीय विनंत्यांचे पालन देखील करतील.
देशांतर्गत आणि परदेशात कायदे नेहमीच बदलतात आणि सामान्य वर्तन अल्पावधीतच गुन्हेगारी बनू शकते, त्यामुळे तुम्ही ज्या कंपन्यांना नंतर कायद्याच्या अंमलबजावणीकडे सुपूर्द करता येईल त्याबद्दल तुम्ही काय उघड करता याबद्दल सावधगिरी बाळगणे चांगले.
OpenAI कडे चॅटजीपीटीचा वापर बेकायदेशीर किंवा अनैतिक हेतूंसाठी होण्यापासून प्रतिबंधित करणारे सुरक्षिततेचे उपाय आहेत आणि या सीमांशी खेळणे तुम्हाला ध्वजांकित केले जाऊ शकते. यामध्ये गुन्हे किंवा फसवणूक कशी करावी हे विचारणे आणि संभाव्य हानीकारक कृती करण्यासाठी लोकांना प्रभावित करणे समाविष्ट आहे. यात विशिष्ट “पाइपलाइन्स” देखील आहेत ज्या विशेषत: चॅट फिल्टर करतात जेथे वापरकर्ता इतरांना हानी पोहोचवण्याची योजना करत असल्याचे आढळले आहे.
नंतरचा मुद्दा कदाचित सर्वात गंभीर आणि ध्वजांकित करणे तुलनेने सोपे आहे. ChatGPT चे इतर बेकायदेशीर गैरवापर दाखवतात की त्याचे संरक्षण बुलेटप्रूफ नाहीत. दुर्भावनापूर्ण कोड लिहिण्यासाठी आणि सामाजिक अभियांत्रिकी योजना स्वयंचलित करण्यासाठी प्लॅटफॉर्मचा वापर चांगल्या प्रकारे दस्तऐवजीकरण केलेला आहे, जो ChatGPT वापरताना सावधगिरी-प्रथम दृष्टिकोनाचे महत्त्व अधोरेखित करतो.
Comments are closed.