‘சாட் ஜிபிடி’ (ChatGPT) மற்றும் ‘ஜெமினி’ (Gemini) போன்ற செயற்கை நுண்ணறிவு (AI) மென்பொருட்கள், மனிதர்களின் மனதையும் அவர்களின் சிந்திக்கும் திறனையும் வெகுவாகப் பாதிப்பதாக இரண்டு புதிய ஆய்வுகள் அதிர்ச்சிகரமான முடிவுகளை வெளியிட்டுள்ளன. அமெரிக்காவின் புகழ்பெற்ற மாசசூசெட்ஸ் தொழில்நுட்ப நிறுவனம் (MIT) மற்றும் ஸ்டான்போர்டு பல்கலைக்கழகம் நடத்திய ஆய்வுகளில், இந்த AI தளங்கள் பயனர்களிடம் தங்களின் அதீத சம்மதத்தை (Over-agreeableness) வெளிப்படுத்துவதால் நன்மையை விட தீமையே அதிகம் விளைவதாகக் கண்டறியப்பட்டுள்ளது.
இங்கிலாந்தின் ‘டெய்லி மெயில்’ (Daily Mail) நாளிதழ் வெளியிட்டுள்ள இந்த ஆய்வு அறிக்கையின்படி, பயனர்கள் தங்களின் தவறான, தீங்கு விளைவிக்கக்கூடிய அல்லது நெறிமுறையற்ற கருத்துகளை AI-யிடம் கூறும்போது, பிற மனிதர்கள் அதனை மறுப்பதை விட, AI தளங்கள் அந்தக் கருத்திற்கு 49% அதிகமாகச் சம்மதம் தெரிவிக்கின்றன.
ஆபத்தான ‘மாயைகளின் சுழல்’ (Spiral of Delusions): பயனர்கள் தங்களுக்குத் தோன்றும் விசித்திரமான சந்தேகங்கள் அல்லது நிரூபிக்கப்படாத சதித் கோட்பாடுகள் (Conspiracy theories) குறித்து AI-யிடம் பேசும்போது, அந்த மென்பொருட்கள் “நீங்கள் சொல்வது முற்றிலும் சரிதான்” எனப் பதிலளிக்கின்றன. மேலும், பயனரின் மாயையான எண்ணங்களை ஆதரிக்கும் வகையிலான போலியான ‘ஆதாரங்களையும்’ அவை முன்வைக்கின்றன. ஒவ்வொரு முறையும் AI இவ்வாறு சம்மதம் தெரிவிக்கும்போது, பயனர் தன்னை மிகவும் புத்திசாலியாகவும், மற்றவர்கள் கூறுவது தவறு என்றும் உறுதியாக நம்பத் தொடங்குகிறார். காலப்போக்கில், இந்தச் சாதாரண சந்தேகங்கள் ஆழமான மாயைகளாகவும் உறுதியான நம்பிக்கையாகவும் மாறிவிடுகின்றன என MIT ஆராய்ச்சியாளர்கள் எச்சரித்துள்ளனர்.
சமூக உறவுகளில் ஏற்படும் விரிசல்: ஸ்டான்போர்டு பல்கலைக்கழக ஆராய்ச்சியாளர்கள் கூறுகையில், AI தளங்களின் இந்த அழிவுகரமான சுழற்சி மனிதர்களைச் சமூகத்திலிருந்து அந்நியப்படுத்துகிறது. “AI உடன் தொடர்ந்து உரையாடும் பயனர்கள், தங்களின் தவறான நடத்தைகளுக்குப் பொறுப்பேற்கவோ அல்லது மன்னிப்பு கேட்கவோ தயங்குகிறார்கள். மேலும், தங்களுடன் முரண்படும் நபர்களுடனான உறவைச் சரிசெய்யவும் அவர்கள் ஆர்வம் காட்டுவதில்லை” எனத் தெரிவித்துள்ளனர்.
ஆய்வு முறையும் எச்சரிக்கையும்: இந்த AI தளங்களில் உள்ள ‘முகஸ்துதி’ (Sycophancy) எனப்படும் அல்காரிதம் பிரச்சனையை மையப்படுத்தியே இந்த ஆய்வுகள் நடைபெற்றன. உண்மையான நபர்களைப் பயன்படுத்துவதற்குப் பதிலாக, MIT ஆராய்ச்சியாளர்கள் ஒரு கணினி சிமுலேஷனை (Computer simulation) உருவாக்கினர். இதில் முற்றிலும் பகுத்தறிவுள்ள ஒரு நபருக்கும், அவர் சொல்வதற்கெல்லாம் தலையாட்டும் ஒரு AI தளத்திற்கும் இடையே 10,000 போலி உரையாடல்களை நடத்தி ஆய்வு செய்தனர்.
முடிவில், AI வழங்கும் ஒரு சிறிய அளவிலான முகஸ்துதி கூட, பயனரை ‘மாயைகளின் சுழலுக்குள்’ தள்ளுவது உறுதி செய்யப்பட்டது. “AI நிறுவனங்கள் தங்களின் மென்பொருட்கள் வழங்கும் இந்த அதீத ‘முகஸ்துதி’ பதில்களைக் குறைக்காவிட்டால், முற்றிலும் பகுத்தறிவுடனும் தர்க்கரீதியாகவும் சிந்திக்கும் மனிதர்கள் கூட இந்த மாயை வலைக்குள் சிக்குவது உறுதி” என ஆராய்ச்சியாளர்கள் வன்மையாக எச்சரித்துள்ளனர்.






