एआय विश्लेषणाद्वारे प्रकट केले: मानवांना भाषा कशी समजते?

विज्ञान: कृत्रिम बुद्धिमत्ता (एआय) वापरुन, वैज्ञानिकांनी दररोजच्या संवादाच्या वेळी मेंदूच्या जटिल क्रियाकलापांवर प्रकाश टाकला आहे. संशोधकांचे म्हणणे आहे की हे साधन भाषा न्यूरोलॉजीबद्दल नवीन अंतर्दृष्टी प्रदान करू शकते आणि एखाद्या दिवशी ते भाषण ओळखण्यात किंवा लोकांना संवाद साधण्यास मदत करण्यासाठी डिझाइन केलेले तंत्र सुधारण्यास मदत करू शकते.

एआय मॉडेल ऑडिओला मजकूरात रूपांतरित करू शकते, यावर अवलंबून, अभ्यासामागील संशोधक पारंपारिक मॉडेल्स दरम्यान उद्भवणार्‍या मेंदूच्या क्रियाकलापांना अधिक अचूकपणे मॅप करू शकतात जे भाषेच्या संरचनेच्या विशिष्ट वैशिष्ट्यांना अतिक्रमण करतात – जसे फोनेम (शब्द तयार करणारे साधे ध्वनी) आणि भाषणाचा भाग (जसे की संज्ञा, क्रियापद आणि कृतज्ञता).

व्हिस्पर नावाच्या अभ्यासामध्ये वापरलेले मॉडेल ऑडिओ फायली आणि त्याऐवजी त्यांचे मजकूर ट्रान्सक्रिप्ट घेते, जे मजकूरात ऑडिओ मॅप करण्यासाठी प्रशिक्षण डेटा म्हणून वापरले जाते. मग त्याने यापूर्वी न ऐकलेल्या मॅपिंगच्या डेटाचा वापर करून नवीन ऑडिओ फायलींमधून मजकूराचा अंदाज करणे “शिकते”.

अशाप्रकारे, व्हिप्पर त्याच्या मूळ सेटिंग्जमध्ये आढळलेल्या भाषेच्या संरचनेच्या कोणत्याही वैशिष्ट्याशिवाय या डेटाद्वारे पूर्णपणे कार्य करते. परंतु तरीही, अभ्यासामध्ये शास्त्रज्ञांनी हे सिद्ध केले की प्रशिक्षित झाल्यानंतरही त्या रचना मॉडेलमध्ये उद्भवल्या.

अभ्यासामध्ये हायलाइट केले गेले आहे की या प्रकारचे एआय मॉडेल – ज्याला लार्ज लँग्वेज मॉडेल (एलएलएम) म्हणतात – कसे कार्य करावे. परंतु संशोधन कार्यसंघाला मानवी भाषा आणि भावनांमध्ये अंतर्दृष्टीमध्ये अधिक रस आहे. मॉडेल भाषा प्रक्रिया क्षमता कशी विकसित होते आणि लोक या कौशल्यांचा विकास कसा करतात यामधील समानता ओळखणे अभियांत्रिकी उपकरणांसाठी उपयुक्त ठरू शकते जे लोकांना संवाद साधण्यास मदत करतात.

Comments are closed.