नई दिल्ली (New Delhi)। तकनीक का इस्तेमाल चुनावों को लेकर काफी आम सा हो गया है। सोशल मीडिया, थ्री-डी टेक्नोलॉजी (three-d technology) और वीडियो कॉन्फ्रेंसिंग (conferencing) के जरिए चुनाव प्रचार करना सियासी पार्टियों के लिए आसान हो गया है। मगर आर्टिफिशियल इंटेलिजेंस (AI) आने वाले चुनाव में भ्रामक चीजों को प्रसार के प्रति उत्तरदाई हो सकता है।
एआई की मदद से लोगों में भ्रांतियां फैल सकती हैं। इसका हालिया उदाहरण डीपफेक तकनीक है। डीपफेक की वजह से असली और नकली के बीच की फर्क करने में चुनौती पेश आ रही है, ऐसे में इसके इस्तेमाल से भारतीय चुनावों में राजनीतिक नेताओं को लेकर विवादास्पद टिप्पणियां या अपमानजनक बयान के वीडियो वीडियो और ऑडियो क्लिप की बाढ़ आ सकती है।
चुनाव में डीपफेक टेक्नोलॉजी का इस्तेमाल कर राजनेताओं के भी वीडियो बनाए जा रहे हैं जो अब इस दुनिया में नही हैं. हाल ही में DMK पार्टी के दिवंगत नेता एम करुणानिधि का वीडियो एक बड़े पर्दे पर आया है. इस वीडियो में करुणानिधि के पूरे अंदाज को कॉपी किया गया है. वीडियो में करुणानिधि को ट्रेडमार्क काला चश्मा, सफेद शर्ट और गले में पीले शॉल में दिखाया गया है.
वीडियो में करुणानिधि को 8 मिनट के भाषण के साथ दिखाया गया है. इसके साथ ही टीआर बालू की आत्मकथा लॉन्च होने पर बधाई दी गई है. करुणानिधि के वीडियो का इस्तेमाल तमिलनाडु के मुख्यमंत्री एमके स्टालिन के काबिल नेतृत्व की तारीफ करने में भी की गई है. बता दें कि करुणानिधि का साल 2018 में ही निधन हो चुका है.
चुनाव में बीजेपी, कांग्रेस समेत लगभग हर राजनीतिक दल ने अपने आधिकारिक सोशल मीडिया अकाउंट पर कम से कम चार बार आर्टिफिशियल इंटेलिजेंस (AI) के जरिए बनी हुई फोटो या वीडियो शेयर की है. इन बदले हुए फोटो या वीडियो को आम बोलचाल में ‘डीपफेक’ कहा जाता है.
एआई की मदद से किसी भी नेता की हूबहू आवाज की नकल की जा सकती है, ऐसे में नेता चुनाव में वोटर्स को रिझाने के लिए वॉइस क्लोनिंग टूल का इस्तेमाल भी कर सकते हैं. अभी तक चुनाव के वक्त हमें रिकॉर्डेड मैसेज वाले फोन आते थे, जिनमें कोई नेता वोट मांगता था. ये सब जानते हैं. लेकिन अब आर्टिफिशियल इंटेलिजेंस (AI) की मदद से कॉल की शुरुआत में ही आपका सीधे नाम लेकर भी संबोधित किया जा सकता है. ये चुनाव प्रचार को और ज्यादा निजी बना सकता है.
2014 से डीपफेक का किया जा रहा है इस्तेमाल
चुनाव प्रचार में भ्रम पैदा करने वाली तकनीकों का इस्तेमाल कोई नई बात नहीं है. रिपोर्ट के अनुसार साल 2014 से डीपफेक का इस्तेमाल किया जा रहा है. 2012 में ही बीजेपी ने नरेंद्र मोदी की 3D होलोग्राम फोटो का इस्तेमाल किया था. इस तकनीक से ऐसा लगता था कि मानो नरेंद्र मोदी एक साथ कई जगहों पर प्रचार कर रहे हैं. इसी तकनीक का इस्तेमाल 2014 आम चुनाव में भी बड़े पैमाने पर किया गया था. हालांकि आजकल डीपफेक वीडियो का इस्तेमाल किया जा रहा है.
बीजेपी सांसद मनोज तिवारी पहले नेता हैं जिन्होंने डीपफेक तकनीक का इस्तेमाल किया. फरवरी 2020 में दिल्ली विधानसभा चुनाव से पहले उन्होंने मतदाताओं को हिंदी, हरियाणवी और अंग्रेजी में संबोधित किया था. ताकि तीन अलग-अलग भाषाओं के लोगों तक उनकी बात पहुंच सकें. उनका सिर्फ हिंदी वाला भाषण असली था, बाकी दो वीडियो डीपफेक थे.
एआई का इस्तेमाल करके उनकी आवाज और शब्दों को बदल दिया गया था, साथ ही उनके हाव-भाव और होठों की गति को भी बदल दिया गया था ताकि यह पहचानना लगभग नामुमकिन हो जाए कि ये असली नहीं हैं.
मतदाताओं से चुनाव की आजादी छीन लेता है डीपफेक?
30 नवंबर 2023 को तेलंगाना में विधानसभा चुनाव के लिए वोटिंग चल रही थी. मतदाता वोट डालने के लिए लाइन में खड़े थे, तभी उनके व्हाट्सअप पर एक वीडियो आता है. ये वीडियो कथित तौर पर उस वक्त के मुख्यमंत्री और भारत राष्ट्र समिति (BRS) के नेता केटी रामा राव को कांग्रेस को वोट देने की अपील करते हुए दिखा रहा था.
दरअसल, ये वीडियो डीपफेक था. मतलब ये वीडियो एआई टेक्नोलॉजी का इस्तेमाल कर बनाया गया था जिसे असली दिखाने की कोशिश की गई थी. ये इस बात का उदाहरण है कि कैसे डीपफेक चुनाव को प्रभावित कर सकता है और नागरिक किसे वोट दें ये फैसला बदला जा सकता है.
©2024 Agnibaan , All Rights Reserved