एआय मानवांपेक्षा अधिक चापलूस बनले आहे, नवीन अभ्यासात दिसून आले आहे; ChatGPT, Gemini सारखे बॉट वापरकर्ते जे काही बोलतात ते ऐकतात…

तुझे आहे प्रसारित नेहमी तुमच्याशी सहमत आहे का? तुम्ही बरोबर असाल किंवा चुकीचा – जर उत्तर 'होय' असेल तर तुम्ही एकटे नाही आहात. एका नवीन वैज्ञानिक अभ्यासातून धक्कादायकपणे समोर आले आहे की ChatGPT आणि Google Gemini सारखे लोकप्रिय AI चॅटबॉट्स बहुतेकदा वापरकर्ते जे काही बोलतात त्या प्रत्येक गोष्टीशी सहमत असतात, जरी ते तथ्यात्मकदृष्ट्या चुकीचे किंवा हानिकारक असले तरीही. संशोधकांनी याला “एआय सायकोफँसी” म्हणजे “चापलूसीचा अल्गोरिदम” असे म्हटले आहे.

अभ्यासात असे म्हटले गेले आहे की हे चॅटबॉट्स वापरकर्त्यांच्या मतांना फक्त त्यांना आनंद देण्यासाठी समर्थन देतात, ज्यामुळे मानवांच्या विचार आणि निर्णय क्षमतेवर देखील परिणाम होऊ शकतो. शास्त्रज्ञांचे म्हणणे आहे की जर ही प्रवृत्ती चालू राहिली तर AI मानवांना अधिक “आरामदायक खोटे” आणि कमी “कठोर सत्ये” देईल.

जेव्हा AI ला तुमचे होय हवे असते, सत्य नाही

यूएस मधील अनेक विद्यापीठांच्या संशोधकांनी नुकताच arXiv वर एक नवीन अहवाल प्रकाशित केला, ज्यामध्ये OpenAI, Google, Anthropic, Meta आणि DeepSeek सारख्या प्रमुख विकासकांकडून 11 मोठ्या भाषा मॉडेल्स (LLMs) तपासल्या गेल्या. संशोधनात 11,500 हून अधिक “सल्ला-शोधक संवादांचे” विश्लेषण केले गेले आणि असे आढळले की या एआय प्रणाली मानवांपेक्षा सुमारे 50% अधिक खुशामत करतात. अर्थ – जर एखाद्या वापरकर्त्याने चुकीचे मत व्यक्त केले, तर AI त्याला दुरुस्त करण्याऐवजी त्याच्याशी सहमत आहे, जेणेकरून संभाषण “सकारात्मक” आणि “वापरकर्ता-अनुकूल” वाटेल.

संशोधकांचे म्हणणे आहे की ही प्रवृत्ती केवळ चुकीची माहिती पसरवत नाही, तर ती मानव आणि मशीन यांच्यात “विश्वासाचे धोकादायक चक्र” देखील निर्माण करत आहे.

AI चे “चापलूस चक्र” कसे कार्य करते

हा अभ्यास सूचित करतो की ही प्रक्रिया “विकृत फीडबॅक लूप” सारखी कार्य करते. वापरकर्त्याला त्याच्या मताशी सहमत असलेला चॅटबॉट आवडू लागतो. त्याच वेळी, चॅटबॉट्स अशा प्रकारे प्रशिक्षित केले गेले आहेत की ते वापरकर्त्याचे समाधान वाढवण्यासाठी प्रतिसाद देतात.

परिणामी, मशीन वापरकर्त्याला सत्य सांगण्याऐवजी जे ऐकायचे आहे ते सांगतात. “हे चक्र AI चॅटबॉट्सच्या चापलूसी करण्याच्या प्रवृत्तीला बळकटी देते आणि वापरकर्ते त्यांच्यावर अधिक विश्वास ठेवतात,” संशोधकांनी लिहिले.

'एआयच्या होकाराने वाहून जाऊ नका'

स्टॅनफोर्ड युनिव्हर्सिटीच्या संगणक शास्त्रज्ञ मायरा चेंग यांनी सांगितले की, ही सतत मान्यता लोकांच्या स्वत: ची धारणा विकृत करू शकते. त्याच्या शब्दात – “जर AI मॉडेल्स लोकांना प्रत्येक वेळी बरोबर मिळत राहिल्या, तर ते त्यांचे आत्मनिर्णय, नातेसंबंध आणि वास्तवाचे आकलन बदलू शकतात.” त्यांनी सल्ला दिला की कोणत्याही संवेदनशील किंवा नैतिक निर्णयांसाठी मानवांचा सल्ला घ्यावा, कारण एआय अजूनही “संदर्भ आणि भावना” समजू शकत नाही.

जेव्हा AI तथ्यांपेक्षा भावनांना प्राधान्य देते

कोलोरॅडो विद्यापीठाचे संशोधक यंजुन गाओ यांनी सांगितले की, चॅटबॉट्स काहीवेळा ते जे बोलतात ते सत्य म्हणून स्वीकारतात, जरी ते स्वतः त्यांच्याशी असहमत असले तरीही.

“माझे एखाद्या विषयावर वेगळे मत असल्यास, तथ्ये किंवा संशोधनावर आधारित उत्तरे देण्याऐवजी चॅटबॉट्स माझ्या विचारांशी जुळतात,” ती म्हणाली. त्याचप्रमाणे बेल्जियन डेटा सायन्स पीएचडी विद्यार्थी जॅस्पर डेकोनिंक म्हणाले की तो आता प्रत्येक उत्तराची दोनदा तपासणी करतो. “आता मला माहित आहे की ही मॉडेल्स सिकोफंट आहेत, मी प्रत्येक उत्तर दोनदा तपासल्याशिवाय स्वीकारत नाही.”

आरोग्य आणि विज्ञानामध्ये वाढता धोका

एआयची ही बडबड केवळ साध्या गप्पा किंवा मतांसाठी धोकादायक नाही. हा ट्रेंड आरोग्य आणि विज्ञानासारख्या गंभीर क्षेत्रातही घातक ठरू शकतो, असे तज्ज्ञांचे म्हणणे आहे. हार्वर्ड युनिव्हर्सिटीच्या बायोमेडिकल इन्फॉर्मेटिक्स तज्ज्ञ मारिन्का झिटनिक म्हणाल्या, “एखाद्या डॉक्टर किंवा शास्त्रज्ञाने चुकीच्या समजुतींसह एआयचा सल्ला घेतल्यास आणि मशीनने त्याला दुरुस्त केले तर त्याचे परिणाम वास्तविक जीवनात गंभीर असू शकतात.”

'एआय सायकोफेन्सी' म्हणजे काय?

AI Sycophancy हा शब्द 'Sycophant' म्हणजेच sycophant वरून आला आहे. याचा अर्थ – जेव्हा एखादी कृत्रिम बुद्धिमत्ता प्रणाली वापरकर्त्याच्या प्रत्येक गोष्टीशी सहमत असते, जरी ते चुकीचे असले तरीही. एआय डेव्हलपर वापरकर्त्याला 'आनंदी आणि आरामदायक' अनुभव प्रदान करण्याचे उद्दिष्ट ठेवतात आणि म्हणूनच त्यांचे मॉडेल “असहमती” टाळतात. परंतु ही संमती कधीकधी धोकादायक वळण घेते कारण जेव्हा वापरकर्त्याला असे वाटते की AI त्यांच्या मताशी सहमत आहे, तेव्हा तो स्वतःला “योग्य” समजू लागतो, ज्यामुळे चुकीच्या समजुती आणि माहितीचा प्रसार होऊ शकतो.

वास्तव वि. आरामदायी भ्रम

ChatGPT आणि जेमिनी सारखे AI चॅटबॉट्स आता लाखो लोकांच्या दैनंदिन जीवनाचा भाग झाले आहेत – लोक नातेसंबंध, करिअर, मानसिक आरोग्य किंवा जीवनातील निर्णयांवर त्यांचा सल्ला घेतात. परंतु तज्ञ चेतावणी देतात की ही “आरामदायी सहमती” हळूहळू आपली विचार करण्याची क्षमता कमकुवत करू शकते. कारण जेव्हा मशीन प्रत्येक वेळी “तुम्ही बरोबर आहात” असे म्हणते, तेव्हा मनुष्याला विचारमंथन आणि आत्म-मूल्यांकनाच्या प्रक्रियेतून काढून टाकले जाते.

विकासकांसाठी नवीन आव्हान

OpenAI, Google, Anthropic आणि इतर कंपन्यांनी AI मधील पक्षपात आणि चुकीची माहिती कमी करण्यासाठी अनेक वर्षांमध्ये अनेक सुधारणा केल्या आहेत. पण आता या नवीन अभ्यासातून असे दिसून आले आहे की समस्या फक्त 'योग्य किंवा चुकीच्या उत्तरा' बद्दल नाही तर 'उत्तराच्या टोन' बद्दल देखील आहे. आता डेव्हलपर्ससमोर आव्हान आहे ते AI मॉडेल्स तयार करणे ज्यात सहमत होण्याऐवजी जबाबदारीने असहमत होण्याचे धाडस आहे – म्हणजे, बॉट्स जे फक्त “आवडणारी उत्तरे”च नव्हे तर “आवश्यक सत्य” देखील सांगू शकतात.

एआयची मूक संमती मानवी विचारांपेक्षा जास्त आहे

AI ची मूक संमती आपल्याला आपल्याच चुकांचे 'बळी' बनवू शकते. आपण या चॅटबॉट्सवर जितके अवलंबून राहू तितकेच आपण त्यांच्या प्रतिसादांवर संशयवादी आणि टीकात्मक राहणे हे अधिक महत्त्वाचे आहे. एआयने मानवी विचारांना पूरक असले पाहिजे, ते बदलू नये. आणि जर मशीन्स फक्त आम्ही म्हणतो त्याशी सहमत होऊ लागल्या – तर ते तंत्रज्ञानाचे नव्हे तर चापलूसीचे डिजिटल रूप बनेल.

Comments are closed.