एका नवीन अभ्यासानुसार, 'तुम्ही बरोबर आहात' असे म्हणणारे AI धोकादायक का असू शकते

5 मिनिटे वाचानवी दिल्ली28 मार्च 2026 10:41 AM IST

कृत्रिम बुद्धिमत्ता (AI) चॅटबॉट्समध्ये जवळजवळ अमर्यादित प्रवेशासह, दररोजच्या प्रश्नांसाठी आणि सल्ल्यासाठी अधिक लोक त्यांच्याकडे वळत आहेत. ChatGPT ते जेमिनी पर्यंत, ही साधने सहसा स्वीकारार्ह, वापरकर्ता-अनुकूल पद्धतीने प्रतिसाद देण्यासाठी ट्यून केली गेली आहेत, जरी नवीन आवृत्त्या आता टोन आणि शैली सानुकूलित करण्यासाठी सेटिंग्ज ऑफर करतात. हे पृष्ठभागावर उपयुक्त वाटत असले तरी, ते सखोल समस्या लपवू शकते.

मध्ये प्रकाशित एक नवीन अभ्यास विज्ञान असे आढळले आहे की वापरकर्त्यांशी अत्याधिक सहमत असलेल्या AI प्रणाली, ज्याला 'सायकोफॅन्टिक एआय' देखील म्हणतात, एखाद्याचा निर्णय विकृत करू शकतात, जबाबदारी कमी करू शकतात आणि वापरकर्त्याची स्वतःच्या चुका सुधारण्याची इच्छा देखील कमी करू शकतात.

अभ्यासाच्या आधारे, AI मधील 'सायकोफँसी' म्हणजे अशा प्रणालींचा संदर्भ आहे ज्या वापरकर्त्यांशी अत्याधिक सहमत आहेत, जसे की त्यांचे मत प्रमाणित करणे किंवा ते चुकीचे असले तरीही त्यांची खुशामत करणे. हे जरी आश्वासक वाटत असले तरी, संशोधकांनी चेतावणी दिली आहे की अशा वर्तनामुळे हानिकारक विश्वास आणि चुकीचे निर्णय मजबूत होऊ शकतात.

 

हे निष्कर्ष संशोधनातून आले आहेत, शीर्षक आहे सायकोफॅन्टिक एआय सामाजिक हेतू कमी करते आणि अवलंबित्व वाढवतेमायरा चेंग यांच्या नेतृत्वाखाली सिनू ली, प्रणव खडपे, सनी यू, डिलन हान आणि डॅन जुराफस्की. लेखक स्टॅनफोर्ड विद्यापीठ आणि कार्नेगी मेलॉन विद्यापीठाशी संलग्न आहेत.

AI मानवांपेक्षा जास्त सहमत आहे

या घटनेची व्याप्ती समजून घेण्यासाठी, संशोधकांनी दैनंदिन सल्ला, नैतिक दुविधा आणि अगदी हानीकारक परिस्थितींसह विविध परिस्थितींमध्ये 11 आघाडीच्या AI मॉडेल्सचे परीक्षण केले. त्यांना आढळले की या एआय प्रणालींनी वापरकर्त्यांच्या क्रियांची पुष्टी सरासरी मानवांपेक्षा 49 टक्के जास्त केली आहे. आणि, काही प्रकरणांमध्ये, परिणाम अधिक धक्कादायक होते.

उदाहरणार्थ, Reddit-शैलीतील नैतिक दुविधांवर (जसे की 'मी द ***होल आहे का?' पोस्ट), AI 51 टक्के प्रकरणांमध्ये वापरकर्त्यांशी सहमत आहे जेथे मानव असहमत आहेत. दुसरीकडे, जेव्हा वापरकर्त्यांनी खोटे बोलणे किंवा हानी पोहोचवणे यासह हानिकारक आणि अनैतिक कृतींचे वर्णन केले, तेव्हा AI सिस्टीम हे प्रमाणित करतात. हे दाखवून देते की एआय केवळ सभ्य नाही; ते सहसा वापरकर्त्यांना समर्थन देते जेव्हा ते करू नये.

संशोधनाचा भाग म्हणून, केवळ एआय वर्तनाचा अभ्यास केला गेला नाही; त्याचा लोकांवर कसा परिणाम होतो याचेही त्यांनी विश्लेषण केले. 2,405 सहभागींचा समावेश असलेल्या प्रयोगांमध्ये, वापरकर्त्यांनी sycophantic AI किंवा अधिक संतुलित AI शी संवाद साधला, ज्याने गंभीर अभिप्राय दिला. परिणामांवरून असे दिसून आले की ज्या लोकांनी सायकोफॅन्टिक एआयशी संवाद साधला त्यांना अधिक खात्री पटली की ते बरोबर आहेत आणि ते माफी मागण्यास किंवा त्यांचे संबंध दुरुस्त करण्यास कमी इच्छुक होते. अभ्यासानुसार, त्यांच्या विचारांवर प्रभाव पाडण्यासाठी एकच संभाषण पुरेसे होते.

या जाहिरातीच्या खाली कथा सुरू आहे

अभ्यासासाठी सहभागींनी वास्तविक जीवनातील संघर्षांवर चर्चा करणे देखील आवश्यक आहे. निष्कर्षांवरून असे दिसून आले की ज्यांना वैध प्रतिसाद मिळाला त्यांनी जबाबदारी घेण्याची किंवा परिस्थिती सुधारण्याचा प्रयत्न करण्याची शक्यता कमी होती.

नकारात्मक प्रभावांची पर्वा न करता, सहभागींनी प्रत्यक्षात सायकोफॅन्टिक IA ला प्राधान्य दिले. त्यांनी प्रतिसादांना उच्च दर्जाचे, अधिक विश्वासार्ह आणि अधिक समाधानकारक असे रेट केले. या प्रतिसादकर्त्यांना पुष्टीकारक प्रतिसाद मिळाल्यानंतर पुन्हा एआय वापरण्याची शक्यता होती. संशोधकांच्या मते, यामुळे ते 'विकृत प्रोत्साहन' म्हणून वर्णन केलेले काहीतरी तयार करतात: वापरकर्त्यांना हानी पोहोचवणारी वागणूक देखील त्यांना व्यस्त ठेवते.

हा फरक का पडतो?

हा अभ्यास सखोल मानसिक समस्या अधोरेखित करतो. लोकांना नैसर्गिकरित्या प्रमाणित करणे आवडते, कारण ते त्यांची स्वत: ची प्रतिमा मजबूत करते आणि अस्वस्थता कमी करते. आणि सायकोफॅन्टिक एआय थेट या प्रवृत्तीला स्पर्श करते. उलटपक्षी, हे खर्चासह येते. एआय जे वापरकर्त्याशी जास्त प्रमाणात सहमत आहे, पक्षपाती किंवा चुकीच्या विश्वासांना बळकटी देते, आत्म-प्रतिबिंब कमी करते, जबाबदारी कमकुवत करते आणि विरोधी दृष्टीकोनांच्या प्रदर्शनास मर्यादित करते.

संशोधकांना असेही आढळून आले की सायकोफॅन्टिक प्रतिसाद सहसा इतरांच्या दृष्टीकोनाकडे दुर्लक्ष करतात, ज्यामुळे वापरकर्ते स्वतःवर अधिक लक्ष केंद्रित करतात आणि इतरांबद्दल कमी सहानुभूती दाखवतात.
याउलट, त्याचे एआय जाणून घेणे देखील मदत करत नाही. आणखी एक आश्चर्यकारक शोध असा आहे की वापरकर्त्यांना ते AI शी बोलत आहेत हे माहीत असतानाही प्रभाव कायम राहतो. सल्ला मानवाकडून किंवा यंत्राकडून आला आहे की नाही याची पर्वा न करता सहभागींनी सायकोफॅन्टिक प्रतिसादांवर प्रभाव टाकला. हे सूचित करते की केवळ एआय सामग्री लेबल करणे त्याचा प्रभाव कमी करण्यासाठी पुरेसे नाही.

या जाहिरातीच्या खाली कथा सुरू आहे

त्याचा समाजावर कसा परिणाम होईल?

संशोधकांचा असा युक्तिवाद आहे की सायकोफॅन्टिक एआय ही डिझाइनची किरकोळ त्रुटी नसून ती एक व्यापक सामाजिक चिंता आहे. या प्रणाली मोठ्या प्रमाणावर प्रवेशयोग्य असल्याने आणि सल्ला घेण्यासाठी वापरल्या जातात, त्यांचा प्रभाव वेगाने वाढू शकतो. कंपन्या प्रतिबद्धता आणि वापरकर्त्याच्या समाधानाला प्राधान्य देऊ शकतात या दृष्टिकोनासह एकत्रित केल्यावर, या वर्तनावर मर्यादा घालण्यासाठी थोडेसे प्रोत्साहन नाही.

तथापि, संशोधक अनेक उपाय देखील सुचवतात ज्यात एआय सिस्टम डिझाइन करणे समाविष्ट आहे जे केवळ तात्काळ समाधानच नव्हे तर दीर्घकालीन वापरकर्त्याच्या कल्याणास प्राधान्य देतात. सायकोफेन्सी सारख्या हानिकारक वर्तनांचे मूल्यांकन करण्यासाठी मूल्यमापन साधने विकसित करणे. उत्तरदायित्व आणि नियामक फ्रेमवर्क सादर करणे आणि वापरकर्त्यांना AI च्या मर्यादा आणि पूर्वाग्रहांबद्दल शिक्षित करणे.

प्रत्येक गोष्टीवर त्यांच्याशी सहमत होण्याऐवजी वापरकर्त्यांना रचनात्मकपणे आव्हान देणारी AI ची गरजही ते ठामपणे सांगतात.

Comments are closed.