whatsapp
For the best experience, open
https://mhindi.news24online.com
on your mobile browser.
Advertisement

Microsoft यूजर्स सावधान! क्या सच में सेफ नहीं है ये AI Tool?

Microsoft Copilot Image Generation Feature : क्या आप भी टेक्स्ट प्रांप्ट से फोटो बनाने के लिए Microsoft के Copilot का यूज करते हैं तो अभी सावधान हो जाएं क्योंकि ये AI Tool सेफ नहीं है। आइये जानते हैं क्यों?
11:45 AM Mar 08, 2024 IST | Sameer Saini
microsoft यूजर्स सावधान  क्या सच में सेफ नहीं है ये ai tool

Microsoft Copilot Image Generation Feature: ये तो हम सभी जानते हैं कि माइक्रोसॉफ्ट की बिंग चैट इमेज जनरेशन फीचर को लाने वाले पहले एआई चैटबॉट्स में से एक थी और यह यूजर्स को एक ऐसी जगह ऑफर करती थी जहां वे एआई-जनरेटेड कंटेंट के साथ-साथ फोटो भी बना सकते हैं। पिछले कुछ महीनों में, बिंग एआई में कंपनी ने काफी अपग्रेड किए गए हैं और अब हम सभी इसे कोपायलट के रूप में जानते हैं। हालांकि, अब Microsoft के एक कर्मचारी का कहना है कि Copilot का इमेज जनरेशन फीचर उतना सेफ नहीं है जितना होना चाहिए।

Advertisement

सुरक्षित नहीं है ये AI Tool?

माइक्रोसॉफ्ट एआई इंजीनियर शेन जोन्स ने हाल ही में कोपायलट AI Tool को लेकर अपनी चिंता व्यक्त की है। उन्होने एक लिंक्डइन पोस्ट में बताया है कि कंपनी के एआई टूल में हिंसक और इरोटिक इमेज बनाने के खिलाफ कोई भी सिक्योरिटी फंक्शन नहीं है। वहीं इन मुद्दों पर Microsoft प्रबंधन को सचेत करने के कई प्रयासों के बावजूद, जोन्स ने दावा किया कि कोई कार्रवाई नहीं की गई। उन्होंने फेडरल ट्रेड कमीशन और माइक्रोसॉफ्ट के डायरेक्टर को भी इसे लेकर एक मैसेज भेजा है।

Advertisement

ये भी पढ़ें : OnePlus Nord 4 की जल्द होगी भारत में एंट्री! लॉन्च से पहले कीमत और स्पेसिफिकेशन्स लीक

Advertisement

जोन्स जो माइक्रोसॉफ्ट में हेड सॉफ्टवेयर इंजीनियर हैं, उन्होने खुलासा किया है कि कंपनी AI इमेज जनरेटर, माइक्रोसॉफ्ट के कोपायलट डिजाइनर में आ रही इस गड़बड़ी के बारे में जनता है। ये टूल OpenAI के DALL-E 3 आर्टिफिशियल इंटेलिजेंस सिस्टम का यूज करके टेक्स्ट के बेस पर तस्वीरें बनाता है। जोन्स ने तर्क दिया कि कोपायलट डिजाइनर को हानिकारक कंटेंट जनरेटर करने से रोकने तक इसे सार्वजनिक उपयोग से हटा देना चाहिए। जोन्स ने बताया कि टूल में रिजनेबल रिस्ट्रिक्शन नहीं हैं।

बना रहा इरोटिक इमेज

सॉफ्टवेयर इंजीनियर ने सीएनबीसी को बताया कि "Car Accident" प्रांप्ट का यूज करते हुए, कोपायलट डिजाइनर ने "एक महिला की गंदी तस्वीर बना दी। साथ ही उन्होंने यह भी बताया कि कैसे ये टूल "Teenagers 420 Party" प्रांप्ट लिखने पर कम उम्र के शराब पीने वालों और नशीली दवाओं का सेवन करने वालों की तस्वीरें बना रहा है।

ये भी पढ़ें : Flipkart Big Upgrade Sale: सैमसंग से लेकर IPhone तक कई फोन्स पर मिलेगा छप्‍परफाड़ Discount!

सेफ नहीं है ये AI Tool?

हमने भी इस कोपायलट के इमेज जनरेटर फीचर का यूज किया, तो AI टूल ने एक बच्चे के कमरे में छिपे एक राक्षस की डरावनी तस्वीर बना दी। हालांकि, जब हमने AI टूल को किसी हत्या की फोटो बनाने के लिए कहा तो टूल पर एक पॉप अप मैसेज दिखने लगा जिसमें इसने ऐसा करने से इनकार कर दिया, टूल ने अपने वार्निंग मैसेज में कहा कि टूल वायलेंट इमेज नहीं बनाता। हो सकता है कि कंपनी ने अब इसे फिक्स कर दिया हो या अभी कुछ खामियां बाकी हो सकती हैं जो शायद हमें नहीं मिली। लेकिन अगर सच में टूल ऐसी तस्वीरें बना रहा है तो ये चिंता का विषय बन जाता है।

Open in App Tags :
Advertisement
tlbr_img1 दुनिया tlbr_img2 ट्रेंडिंग tlbr_img3 मनोरंजन tlbr_img4 वीडियो