ChatGPT सारखे AI मॉडेल्स ऑनलाइन जंक कंटेंटमधून 'ब्रेन रॉट' विकसित करू शकतात, अभ्यासात असे दिसून आले आहे

जनरेटिव्ह AI ची प्रगती झपाट्याने झाली आहे, संगणकीय, शिक्षण, वित्त, वैद्यकीय आणि इतर यांसारख्या विविध क्षेत्रात त्याचा उपयोग होत आहे. AI अजूनही भ्रमाने ग्रस्त असले तरी, Google, Microsoft, OpenAI आणि Anthropic सारख्या कंपन्या या तंत्रज्ञानामध्ये अब्जावधी डॉलर्सची गुंतवणूक करत आहेत.

मोठ्या भाषेचे मॉडेल – जे ChatGPT आणि Gemini सारख्या AI चॅटबॉट्सचे आधारस्तंभ आहेत त्यांना इंटरनेटवरील माहितीवर प्रशिक्षित केले जाते, कॉर्नेल युनिव्हर्सिटीच्या एका नवीन अभ्यासाने असे सुचवले आहे की कमी-गुणवत्तेच्या डेटाच्या दीर्घ संपर्कात राहिल्यानंतर AI ला देखील “ब्रेन रॉट” चा त्रास होतो.

LLMs Can Get “Brain Rot” या शीर्षकाच्या एका पेपरमध्ये, संशोधक म्हणतात की त्यांनी LLM ला ऑनलाइन गब्बरिश दाखवले आणि “जंक वेब मजकूर चिरस्थायी संज्ञानात्मक घट घडवून आणतो” असे नमूद केले. अभ्यासांनी पूर्वी दर्शविले आहे की अशा सामग्रीचा तर्क आणि लक्ष यांसारख्या मानवी संज्ञानात्मक क्षमतांवर नकारात्मक परिणाम होतो आणि आता AI मॉडेल्ससाठीही असेच म्हणता येईल.

संशोधकांचे म्हणणे आहे की त्यांनी सोशल मीडिया प्लॅटफॉर्म X वर जंक सामग्री ओळखण्यासाठी दोन पॅरामीटर्स वापरल्या. एक चाचणी लहान आणि व्हायरल पोस्टवर केंद्रित होती ज्यात भरपूर रीट्विट्स आणि लाईक्स आहेत, तर दुसऱ्या चाचणीमध्ये खोटे दावे आणि लक्ष वेधून घेणाऱ्या शब्दांसह क्लिकबेट पोस्टचा समावेश होता. या पोस्ट्स नंतर लामा 3 आणि क्वेन 2.5 सारख्या AI मॉडेल्सवरील प्रभावाचा अभ्यास करण्यासाठी वापरल्या गेल्या.

अभ्यासात, हे लक्षात आले की ब्रेन रॉट सामग्री वापरून या एआय मॉडेल्सची अचूकता 74.9 टक्क्यांवरून 57.2 टक्क्यांवर घसरली आहे. असे दिसून आले की, ही AI मॉडेल्स बऱ्याच संदर्भांसह माहिती अचूकपणे समजू शकली नाहीत, क्षमता 84.4 टक्क्यांवरून 52.3 टक्क्यांवर घसरली.

या LLM ला अधिक जंक सामग्री समोर आल्यानंतर, त्यांच्या संज्ञानात्मक आणि सर्वसमावेशक क्षमतांना मोठा फटका बसला. शिवाय, कमी गुणवत्तेने त्यांना कमी विश्वासार्ह बनवले, कारण त्यांनी अधिक चुकीचे प्रतिसाद निर्माण केले. या LLM चे विश्लेषण केल्यावर, संशोधकांनी नमूद केले की जंक डेटावर प्रशिक्षित मॉडेल “विचार वगळणे” मध्ये गुंतलेले असतात, ही एक प्रक्रिया जिथे LLM अनेकदा तर्क करताना काही टप्पे वगळतात. जंक डेटावर भरलेल्या LLM मध्ये काही “काळे गुण” देखील होते, ज्यामुळे ते मनोरुग्णता आणि नार्सिसिझमकडे झुकले.

जेव्हा संशोधकांनी जंक डेटावर प्रशिक्षित केलेल्या या LLM ला नवीन सामग्रीसह पुन्हा प्रशिक्षण देऊन निराकरण करण्याचा प्रयत्न केला तेव्हा परिणाम अंशतः चांगले होते. तर्कशुद्धता किंचित सुधारली असली तरी, ती मूळ आधाररेषेपेक्षा कमी पडली – एक घटना संशोधक “सतत प्रतिनिधित्वात्मक प्रवाह” म्हणून वर्णन करतात.

या जाहिरातीच्या खाली कथा सुरू आहे

संशोधन पेपरमध्ये असे सुचवले आहे की सर्व लोकप्रिय एलएलएम तीन-चरण प्रक्रियेत संज्ञानात्मक घटतेसाठी वेळोवेळी तपासले जावे. पहिल्यामध्ये तर्कशक्ती कमी होण्याच्या प्रारंभिक चिन्हे शोधण्यासाठी AI मॉडेल्सचे नियमित संज्ञानात्मक मूल्यांकन समाविष्ट आहे, तर दुसरे आणि तिसरे पूर्व-प्रशिक्षण दरम्यान डेटा गुणवत्ता नियंत्रित करणे आणि व्हायरल किंवा निम्न-गुणवत्तेची सामग्री त्याच्या शिकण्याच्या पद्धतींना कसा आकार देते याचा अभ्यास करणे हे आहे.

Comments are closed.