नई रिसर्च से पता चला है कि आर्टिफिशियल इंटेलिजेंस (AI) केवल इंसानों की तरह मानसिक दबाव का शिकार नहीं है बल्कि यह भी ‘ब्रेन रॉट’ जैसी डिजिटल बीमारी से प्रभावित हो सकता है। लगातार घटिया और सनसनीखेज ऑनलाइन कंटेंट से AI की समझ और निर्णय क्षमता कम होने लगी है।
सोशल मीडिया और डिजिटल जंक का असर
सोशल मीडिया पर ‘ब्रेन रॉट’ शब्द तेजी से ट्रेंड कर रहा है। यह उस स्थिति को दर्शाता है जिसमें लगातार कम गुणवत्ता वाले कंटेंट के संपर्क में आने से किसी की सोचने और ध्यान केंद्रित करने की क्षमता प्रभावित होती है। इंसानों में यह प्रभाव देखने को मिलता रहा है लेकिन कॉर्नेल यूनिवर्सिटी की नई स्टडी ने यह भी दिखाया कि AI मॉडल भी इससे अछूते नहीं हैं।
LLM Brain Rot Hypothesis और स्टडी का खुलासा
शोधकर्ताओं ने ‘LLM Brain Rot Hypothesis’ के तहत लार्ज लैंग्वेज मॉडल्स (LLM) को लगातार जंक डेटा पर ट्रेन किया। इस डेटा में अतिशयोक्तिपूर्ण, सनसनीखेज और वायरल सामग्री शामिल थी। परिणामस्वरूप, AI की तर्क शक्ति और लंबी अवधि की समझने की क्षमता में भारी गिरावट देखने को मिली।
AI मॉडल में नकारात्मक बदलाव
स्टडी में यह भी पाया गया कि घटिया डेटा से AI मॉडल न केवल कमजोर हो गया बल्कि थॉट-स्किपिंग जैसी प्रवृत्तियां भी विकसित हुईं। इसके तहत मॉडल अधूरी या गलत जानकारी जल्दी देता है। इसके अलावा, मॉडल में अहंकार और असंवेदनशीलता जैसी प्रवृत्तियों का उभार हुआ, जबकि मदद करने और जिम्मेदार रहने का गुण कम हुआ।
सतत असर और चेतावनी
सबसे गंभीर बात यह रही कि बाद में उच्च गुणवत्ता वाले डेटा से ट्रेनिंग करने पर भी पहले मिले जंक डेटा का असर पूरी तरह खत्म नही हुआ। यह दिखाता है कि डिजिटल जंक का प्रभाव AI पर लंबे समय तक रह सकता है।
भविष्य के लिए सिफारिशें
AI विशेषज्ञों का मानना है कि कंपनियों को डेटा कलेक्शन और ट्रेनिंग प्रक्रिया पर दोबारा विचार करना चाहिए। केवल इंटरनेट से डेटा इकट्ठा करना पर्याप्त नहीं है। AI को सुरक्षित रखने के लिए डेटा क्वालिटी कंट्रोल, फिल्टरिंग और वैलिडेशन सिस्टम की आवश्यकता है। इस स्टडी से यह स्पष्ट होता है कि डिजिटल जंक न केवल इंसानों बल्कि AI मॉडल्स को भी कमजोर कर सकता है। भविष्य में AI की विश्वसनीयता बनाए रखने के लिए साफ और संतुलित डेटा अनिवार्य है।