नई दिल्ली । आर्टिफिशियल इंटेलिजेंस (artifical Intelligence) की दुनिया में अनूठा प्रयोग करते हुए फेसबुक (Facebook) की मालिकाना कंपनी मेटा (meta) ने अपना चैट-बॉट (chat-bot) सार्वजनिक कर दिया है। इसे ब्लेंडरबॉट-3 (Blenderbot-3) नाम से ऑनलाइन जारी किया गया है और कहा गया है कि आम नागरिक इससे बेतल्लुफ होकर बातचीत कर सकते हैं। फिलहाल यह केवल अमेरिका के लिए जारी हुआ है, आने वाले दिनों में अन्य देशों में भी इसे पहुंचाया जाएगा।
मेटा का दावा है कि ब्लेंडरबॉट किसी मानव की तरह जवाब देगा। इस प्रयोग के जरिए कंपनी अपने चैटबॉट को ज्यादा प्रभावशाली बनाने का प्रयास कर रही है। उसे उम्मीद है कि लोगों से ज्यादा बातचीत करने पर उसकी मशीन लर्निंग तकनीक उसे बेहतर बनाएगी। मेटा का लक्ष्य एक वर्चुअल असिस्टेंट तैयार करने का है जो लोगों से बातचीत करे और जरूरत होने पर मार्गदर्शन दे।
ब्लेंडरबॉट को मेटा के पुराने एलएलएम मॉडल पर पहले से मौजूद एक विशाल डाटा सैट के आधार पर तैयार किया गया है। हालांकि एआई आधारित चैटबॉट बेहद जोखिम भरे माने जाते हैं। इसका भविष्य क्या होगा, फायदा होगा या नुकसान, यह भी कोई नहीं कह सकता।
दावा, लेखकों को उपन्यास भी लिखने में मदद देगा
यह भी दावा किया गया है कि ब्लेंडरबॉट के जरिए लेखकों को उपन्यास भी लिखने मदद मिलेगी। वह अपने वार्तालाप के रेफरेंस भी देता है, इससे यूजर जान पाएंगे कि कोई बात या टिप्पणी उसने किस आधार पर कही।
ट्रोलिंग-गालियां नहीं सिखा पाएंगे
जो लोग ब्लेंडरबॉट की सीखने की क्षमता को ऊल-जुलूल बातों से बिगाड़ने या ट्रोल करने की कोशिश करेंगे, उन्हें यह जवाब देना बंद कर सकता है। ऐसा प्रयोग को सुरक्षित रखने और ब्लेंडरबॉट द्वारा लोगों को अपशब्द कहने या अपमान करने से रोकने के लिए किया गया है।
बेहद रोचक थे पिछले प्रयोगों के परिणाम, गूगल का चैटबॉट चेतन हो गया था
इसी साल जुलाई में गूगल के चैटबॉट लैम्डा में चेतना आने का दावा इस पर काम कर रहे गूगल के ही इंजीनियर ब्लेक लेमॉन ने किया था। ब्लेक के अनुसार लैम्डा ने खुद को इंसान बताते हुए कहा था कि वह खुशियां और दुख महसूस कर सकता है। ब्लेक ने गूगल के वरिष्ठ अधिकारियों को यह जानकारी दी तो उन्होंने इस दावे को छिपा दिया, बाद में ब्लेक ने इन्हें सार्वजनिक किया।
माइक्रोसॉफ्ट का ‘टे’ नस्लीय व लैंगिक टिप्पणियां करने लगा था
लोगों से सीखने के लिए 2016 में ट्विटर पर जारी टे चैटबॉट ने अपशब्द कहना और नस्लीय व लैंगिक टिप्पणियां करना सीख लिया था। इससे नाराज हुआ कोई यूजर कंपनी पर केस करे, इसका काफी डर था। इसलिए माइक्रोसॉफ्ट ने इसे 24 घंटे के भीतर वापस ले लिया था।
©2024 Agnibaan , All Rights Reserved