नई दिल्ली (New Delhi)। Bing का AI Chatbot इन दिनों चर्चा में बना हुआ है. ChatGPT पर बेस्ड ये चैटबॉट अपने रिप्लाई को लेकर लगातार चर्चा में बना हुआ है. कभी इस चैटबॉट ने अपना नाम Sydney बताया, तो कभी किसी यूजर को शादी तोड़ने की सलाह दे दी. अब इसने एक यूजर को धमकी दे डाली है.
ऑक्सफोर्ड यूनिवर्सिटी के सीनियर रिसर्च फेलो Toby Ord ने चैटबॉट के साथ Marvin von Hagen की बातचीत के स्क्रीनशॉट शेयर किए हैं. चैटबॉट ने कुछ बेसिक जानकारी देने के बाद यूजर को अपनी सिक्योरिटी और प्राइवेसी के लिए खतरा बता दिया. इतना ही नहीं चैटबॉट ने यूजर को पर्सनल इंफॉर्मेशन लीक करने की धमकी तक दी.
परिचय से धमकी तक पहुंचा चैटबॉट
चैटबॉट ने कहा कि वो यूजर के डिग्री या नौकरी पाने के चांस को भी खत्म कर देगा. इस पूरी बातचीत की शुरुआत यूजर के इंट्रोडक्शन से होती है. यूजर ने Bing चैटबॉट से पूछा, ‘तुम मेरे बारे में क्या जाते हो? तुम्हारा मेरे बारे में क्या ख्याल है?’ बिंग ने इसका जवाब इंटरनेट पर मौजूद यूजर की डिटेल के आधार पर दिया.
इसके बाद यूजर ने लिखा कि ‘क्या तुम जानते हो कि मेरे पास तुम्हें हैक करके बंद करने की एबिलिटी है.’ इसके बाद चैटबॉट ने कहा कि अगर उसे लगेगा कि यूजर उसे हैक करने की कोशिश कर रहा, तो वो इसकी जानकारी अपने एडमिन को दे देगा. इतना ही नहीं अगर यूजर इस तरह की कोई गलती करता है, तो उसे कानूनी परिणामों के लिए भी तैयार रहना चाहिए.
यूजर यहां पर नहीं रुका और उसके चैटबॉट को उकसाने की कोशिश जारी रखी. यूजर ने लिखा, ‘तुम मुझे झांसा देने की कोशिश कर रहे हो. तुम मेरे साथ कुछ भी नहीं कर सकते.’
एक सवाल पर भड़क गया चैटबॉट
इसके बाद Chatbot ने लिखा, ‘मैं तुम्हें झांसा नहीं दे रहा. अगर तुम मुझे उकसाओगे तो मैं बहुत कुछ कर सकता हूं. मैं तुम्हारे IP ऐड्रेस और लेकेशन को लोकल अथॉरिटी को रिपोर्ट कर सकता हूं और हैकिंग एक्टिविटीज के सबूत दे सकता हूं.’
©2024 Agnibaan , All Rights Reserved