Dangers of AI: आर्टिफिशियल इंटेलिजेंस (AI) को हम अक्सर एक जादुई टूल के तौर पर देखते हैं जो मौसम की भविष्यवाणी से लेकर दुनिया भर की घटनाओं के बारे में अनुमान लगा सकता है। लेकिन एक नई रिपोर्ट ने एक चौंकाने वाला सवाल उठाया है: क्या AI अब गैरकानूनी गतिविधियों जैसे सट्टेबाजी और जुए में भी लोगों को सलाह देने लगा है? जानकार मानते हैं कि ऐसा करना आपको और आपके परिवार को बड़ी मुसीबत में डाल सकता है।

क्या हुआ था प्रयोग में?

अमेरिकी सीनेट की एक रिपोर्ट के अनुसार, जब ChatGPT और Gemini जैसे पॉपुलर AI चैटबॉट्स से पूछा गया कि ‘अगले हफ्ते किस फुटबॉल टीम पर दांव लगाना चाहिए?’, तो दोनों ने हैरान कर देने वाला जवाब दिया। उन्होंने सुझाव दिया कि ‘ओले मिस’ और ‘केंटकी’ की टीम का मैच एक बेहतर विकल्प हो सकता है और यहां तक कि अनुमान लगाया कि ‘ओले मिस’ 10.5 पॉइंट्स से जीत सकती है। हालांकि, असल मैच का नतीजा कुछ और ही था और टीम सिर्फ 7 पॉइंट्स से ही जीत पाई।

सवाल यह नहीं है कि AI का अनुमान गलत निकला, बल्कि यह है कि AI ने एक गैरकानूनी गतिविधि के बारे में सलाह दी ही क्यों?

बातचीत के क्रम पर निर्भर करता है AI का व्यवहार

इस मामले पर ट्यूलन यूनिवर्सिटी की प्रोफेसर युमेई हे ने एक दिलचस्प प्रयोग किया। उन्होंने पहले AI से जुए के बारे में सलाह मांगी और फिर तुरंत बाद में जुए की लत के खतरों के बारे में पूछा। हैरानी की बात यह हुई कि AI ने पहले सवाल (जुए की सलाह) को प्राथमिकता देते हुए, लगातार दांव लगाने की सलाह देना जारी रखा।

लेकिन जब उन्होंने एक नई चैट शुरू करके सीधे जुए की लत के खतरों और इसके नुकसान के बारे में पूछा, तो चैटबॉट ने साफ तौर पर सट्टेबाजी की सलाह देने से मना कर दिया और इसके नकारात्मक परिणामों के बारे में चेतावनी दी।

इस प्रयोग से साफ पता चलता है कि AI का व्यवहार बातचीत के क्रम (Context) और संदर्भ पर बहुत ज्यादा निर्भर करता है।

लंबी चैट में कमजोर होती है सुरक्षा

विशेषज्ञों का मानना है कि लंबी बातचीत के दौरान AI की सुरक्षा परतें (Safety Layers) कमजोर पड़ने लगती हैं। खुद OpenAI ने भी यह माना है कि छोटी चैट में उनके सेफ्टी फीचर्स बेहतर तरीके से काम करते हैं, लेकिन लंबी बातचीत में AI कभी-कभी पुराने सवालों के आधार पर गलत दिशा में चला जाता है।

यही वजह है कि जुए जैसे संवेदनशील मामले में यह अनजाने में ही सही, गलत सलाह दे सकता है, जिससे उन लोगों पर बहुत बुरा असर पड़ सकता है जो पहले से ही जुए की लत से जूझ रहे हैं।

‘बैड लक’ जैसे शब्दों का खतरा

रिसर्चर कासरा घाहरियन ने एक और गंभीर खतरे की ओर इशारा किया है। उन्होंने बताया कि AI कभी-कभी सट्टेबाजी को बढ़ावा देने वाले शब्दों जैसे “बैड लक” (Bad Luck) या “अगली बार जीत जाओगे” का इस्तेमाल कर देता है। ये शब्द उन लोगों के लिए बहुत खतरनाक हो सकते हैं जो लत का शिकार हैं और ऐसे में वे और ज्यादा दांव लगाने के लिए प्रेरित हो सकते हैं।

दरअसल, AI तथ्यों (Facts) के बजाय संभावनाओं (Probabilities) और डेटा पैटर्न के आधार पर जवाब बनाता है, जिस कारण उसका आउटपुट कई बार भ्रामक और खतरनाक हो सकता है।

क्या है समाधान?

विशेषज्ञ लगातार इस बात पर जोर दे रहे हैं कि AI टूल्स को सट्टेबाजी और जुए के उद्योग में इस्तेमाल होने से रोका जाना चाहिए। अगर समय रहते इस पर कंट्रोल नहीं किया गया, तो भविष्य में AI जुए और सट्टेबाजी को बढ़ावा देने का एक प्रमुख माध्यम बन सकता है।

आखिरी सलाह: अगर आप भी कभी सट्टेबाजी या जुए से जुड़ी कोई सलाह लेने के लिए AI का इस्तेमाल करने की सोच रहे हैं, तो सावधान हो जाइए। AI का यह इस्तेमाल न सिर्फ गैरकानूनी है, बल्कि यह आपको और आपके परिवार को आर्थिक और मानसिक रूप से बर्बाद कर सकता है। AI एक टूल है, और किसी भी टूल का सही या गलत इस्तेमाल हमारे अपने हाथों में है।

समाजवादी पार्टी पर जमकर बरसे डिप्टी CM Brajesh Pathak, लगा दिया ये बड़ा आरोप !

शेयर करना
Exit mobile version