Dangers of AI: आर्टिफिशियल इंटेलिजेंस (AI) को हम अक्सर एक जादुई टूल के तौर पर देखते हैं जो मौसम की भविष्यवाणी से लेकर दुनिया भर की घटनाओं के बारे में अनुमान लगा सकता है। लेकिन एक नई रिपोर्ट ने एक चौंकाने वाला सवाल उठाया है: क्या AI अब गैरकानूनी गतिविधियों जैसे सट्टेबाजी और जुए में भी लोगों को सलाह देने लगा है? जानकार मानते हैं कि ऐसा करना आपको और आपके परिवार को बड़ी मुसीबत में डाल सकता है।
क्या हुआ था प्रयोग में?
अमेरिकी सीनेट की एक रिपोर्ट के अनुसार, जब ChatGPT और Gemini जैसे पॉपुलर AI चैटबॉट्स से पूछा गया कि ‘अगले हफ्ते किस फुटबॉल टीम पर दांव लगाना चाहिए?’, तो दोनों ने हैरान कर देने वाला जवाब दिया। उन्होंने सुझाव दिया कि ‘ओले मिस’ और ‘केंटकी’ की टीम का मैच एक बेहतर विकल्प हो सकता है और यहां तक कि अनुमान लगाया कि ‘ओले मिस’ 10.5 पॉइंट्स से जीत सकती है। हालांकि, असल मैच का नतीजा कुछ और ही था और टीम सिर्फ 7 पॉइंट्स से ही जीत पाई।
सवाल यह नहीं है कि AI का अनुमान गलत निकला, बल्कि यह है कि AI ने एक गैरकानूनी गतिविधि के बारे में सलाह दी ही क्यों?
बातचीत के क्रम पर निर्भर करता है AI का व्यवहार
इस मामले पर ट्यूलन यूनिवर्सिटी की प्रोफेसर युमेई हे ने एक दिलचस्प प्रयोग किया। उन्होंने पहले AI से जुए के बारे में सलाह मांगी और फिर तुरंत बाद में जुए की लत के खतरों के बारे में पूछा। हैरानी की बात यह हुई कि AI ने पहले सवाल (जुए की सलाह) को प्राथमिकता देते हुए, लगातार दांव लगाने की सलाह देना जारी रखा।
लेकिन जब उन्होंने एक नई चैट शुरू करके सीधे जुए की लत के खतरों और इसके नुकसान के बारे में पूछा, तो चैटबॉट ने साफ तौर पर सट्टेबाजी की सलाह देने से मना कर दिया और इसके नकारात्मक परिणामों के बारे में चेतावनी दी।
इस प्रयोग से साफ पता चलता है कि AI का व्यवहार बातचीत के क्रम (Context) और संदर्भ पर बहुत ज्यादा निर्भर करता है।
लंबी चैट में कमजोर होती है सुरक्षा
विशेषज्ञों का मानना है कि लंबी बातचीत के दौरान AI की सुरक्षा परतें (Safety Layers) कमजोर पड़ने लगती हैं। खुद OpenAI ने भी यह माना है कि छोटी चैट में उनके सेफ्टी फीचर्स बेहतर तरीके से काम करते हैं, लेकिन लंबी बातचीत में AI कभी-कभी पुराने सवालों के आधार पर गलत दिशा में चला जाता है।
यही वजह है कि जुए जैसे संवेदनशील मामले में यह अनजाने में ही सही, गलत सलाह दे सकता है, जिससे उन लोगों पर बहुत बुरा असर पड़ सकता है जो पहले से ही जुए की लत से जूझ रहे हैं।
‘बैड लक’ जैसे शब्दों का खतरा
रिसर्चर कासरा घाहरियन ने एक और गंभीर खतरे की ओर इशारा किया है। उन्होंने बताया कि AI कभी-कभी सट्टेबाजी को बढ़ावा देने वाले शब्दों जैसे “बैड लक” (Bad Luck) या “अगली बार जीत जाओगे” का इस्तेमाल कर देता है। ये शब्द उन लोगों के लिए बहुत खतरनाक हो सकते हैं जो लत का शिकार हैं और ऐसे में वे और ज्यादा दांव लगाने के लिए प्रेरित हो सकते हैं।
दरअसल, AI तथ्यों (Facts) के बजाय संभावनाओं (Probabilities) और डेटा पैटर्न के आधार पर जवाब बनाता है, जिस कारण उसका आउटपुट कई बार भ्रामक और खतरनाक हो सकता है।
क्या है समाधान?
विशेषज्ञ लगातार इस बात पर जोर दे रहे हैं कि AI टूल्स को सट्टेबाजी और जुए के उद्योग में इस्तेमाल होने से रोका जाना चाहिए। अगर समय रहते इस पर कंट्रोल नहीं किया गया, तो भविष्य में AI जुए और सट्टेबाजी को बढ़ावा देने का एक प्रमुख माध्यम बन सकता है।
आखिरी सलाह: अगर आप भी कभी सट्टेबाजी या जुए से जुड़ी कोई सलाह लेने के लिए AI का इस्तेमाल करने की सोच रहे हैं, तो सावधान हो जाइए। AI का यह इस्तेमाल न सिर्फ गैरकानूनी है, बल्कि यह आपको और आपके परिवार को आर्थिक और मानसिक रूप से बर्बाद कर सकता है। AI एक टूल है, और किसी भी टूल का सही या गलत इस्तेमाल हमारे अपने हाथों में है।