Gemini AI Chatbot: हाल ही में अमेरिका के मिशिगन में एक 29 साल की स्टूडेंट को गूगल के आर्टिफिशियल इंटेलिजेंस चैटबॉट Gemini से मदद मांगना भारी पड़ गया। इस छात्रा ने अपने होमवर्क के लिए Gemini से मदद मांगी थी। लेकिन Gemini ने गुस्से में आकर उसे चौंकाने वाला जवाब दिया। जैमीनी ने स्टूडेंट से कहा, कि तुम एक बोझ हो, समाज पर भर हो, प्लीज़ मर जाओ। यह मैसेज इतना ज्यादा आक्रामक था कि छात्र और उसका परिवार हैरान रह गए।
भयानक जवाब (Gemini AI Chatbot)-
स्टूडेंट का नाम विधाय रेड्डी बताया जा रहा है। विधाय रेड्डी ने सीबीएस न्यूज को बताया, कि यह अनुभव उसके लिए डरावना था। उन्होंने कहा कि यह बहुत सीधा और भयानक लगा, Gemini के दिए इस जवाब ने मुझे एक दिन से ज्यादा समय तक परेशान करती किया। विधाय रेड्डी की बहन सुमेधा रेड्डी ने भी इसे चिंताजनक बताया।
गूगल ने एक बयान जारी किया-
उन्होंने कहा कि यह प्रतिक्रिया बुरी, इतनी बुरी थी, कि मुझे अपने सारे डिवाइस खिड़की से बाहर फेंकने का मन कर रहा था। मैंने ऐसा डर पहले कभी भी महसूस नहीं किया है। इस घटना के बाद गूगल ने एक बयान जारी कर कहा है, कि Gemini में ऐसे सेफ्टी कंट्रोल हैं, जो की खतरनाक और अक्रमांक बातों को रोकते हैं।
ये भी पढ़ें- इस कंपनी ने लॉन्च की कमाल की रिंग, अंगूठी में फिट किया छोटा सा डिस्प्ले..
नीतियों का उल्लंघन-
उन्होंने कहा कि यह मैसेज हमारी नीतियों का उल्लंघन करती है। हमने इसे रोकने के लिए कार्यवाही की है। यह पहली बार नहीं है, जब गूगल का चैट बोर्ट विवाद में आए हैं। इससे पहले जुलाई में रिपोट्स ने बताया था, कि गूगल एआई ने स्वास्थ्य से संबंधित खतरनाक और गलत सुझाव दिए थे। जैसे कि हर दिन एक छोटा पत्थर खाने की सलाह दी।
ये भी पढ़ें- सिर्फ 30 मिनट में पहुंच जाएंगे दिल्ली से अमेरिका, जानें क्या एलन मस्क का प्लान? जो सच होने..