नई दिल्ली। एलन मस्क की कंपनी xAI का AI चैटबॉट Grok एक बार फिर गंभीर विवादों में घिर गया है। इंडोनेशिया और मलेशिया ने Grok पर अस्थायी रूप से प्रतिबंध लगा दिया है। दोनों देशों का आरोप है कि इस AI टूल का इस्तेमाल फर्जी और अश्लील डीपफेक इमेज बनाने में किया जा रहा था, जिनमें महिलाओं और बच्चों को निशाना बनाया गया।
सरकारों का कहना है कि Grok की तकनीक डिजिटल दुनिया में एक नया और खतरनाक खतरा बनकर उभरी है। इससे पहले भारत सरकार भी X के AI टूल Grok के ज़रिए अश्लील और आपत्तिजनक कंटेंट फैलने को लेकर गंभीर चिंता जता चुकी है।
“AI की आज़ादी बिना नियमों के नहीं चलेगी”
मलेशिया और इंडोनेशिया द्वारा लगाया गया यह अस्थायी बैन साफ संकेत देता है कि अब AI तकनीक को बिना सख्त नियमों के खुली छूट नहीं दी जाएगी। मलेशिया के कम्युनिकेशन रेगुलेटर MCMC ने बताया कि Grok का दुरुपयोग पोर्नोग्राफिक और अश्लील कंटेंट बनाने में हो रहा था। यह कंटेंट कई मामलों में बिना लोगों की सहमति के तैयार किया गया, जिससे उनकी गरिमा, सुरक्षा और निजता को गंभीर खतरा पैदा हुआ।
नोटिस के बावजूद नहीं हुआ ठोस समाधान
मलेशियाई नियामक ने बताया कि उसने 3 और 8 जनवरी को X और xAI को नोटिस भेजे थे। इन नोटिसों में AI सिस्टम में प्रभावी तकनीकी सुरक्षा उपाय लागू करने की मांग की गई थी। हालांकि, कंपनी ने केवल यूज़र रिपोर्टिंग सिस्टम पर ध्यान दिया और डीपफेक जनरेशन जैसी मूल समस्या पर कोई ठोस तकनीकी समाधान पेश नहीं किया। इसी कारण Grok को ब्लॉक करने का फैसला लिया गया।
इंडोनेशिया ने बताया मानवाधिकार उल्लंघन
इंडोनेशिया की संचार और डिजिटल मंत्री मेउत्या हफीद (Meutya Hafid) ने कहा कि Grok से बनाए जा रहे फर्जी अश्लील कंटेंट महिलाओं और बच्चों के लिए गंभीर खतरा हैं। उन्होंने इसे मानवाधिकारों और डिजिटल सुरक्षा का खुला उल्लंघन बताया। सरकार ने स्पष्ट किया कि नागरिकों की इज्जत और सुरक्षा से कोई समझौता नहीं किया जाएगा और X से इस फीचर को लेकर तुरंत जवाब मांगा गया है।
Grok जैसे AI टूल्स से बनाई जा रही नकली तस्वीरें और वीडियो बेहद असली लगते हैं, जिससे लोगों की पहचान, प्रतिष्ठा और मानसिक सुरक्षा को भारी नुकसान हो सकता है। भारत और यूरोपीय यूनियन सहित कई देश पहले ही डीपफेक तकनीक को लेकर चिंता जता चुके हैं। सरकारें अब AI कंपनियों से सख्त सेफ्टी गार्डरेल्स लागू करने की मांग कर रही हैं ताकि तकनीक का दुरुपयोग रोका जा सके।