अंतर्राष्ट्रीय
17-Oct-2024
...


-फोटोज का हुआ गलत इस्तेमाल, अब कानूनी लड़ाई की तैयारी लंदन,(ईएमएस)। आर्टिफिशियल इंटेलिजेंस (एआई) का इस्तेमाल चैटबॉट के लिए किया जा रहा है। कई ऐसी कंपनियां हैं, जो लोगों को एआई बॉट्स की सुविधा दे रही है। हाल में एक चौकाने वाली बात सामने आई है जिसमें कंपनी ने मृतक के परिजनों की जानकारी के बिना एक पिता को उसकी मरी हुई बेटी की हमशक्ल दिखा दी, जो कोई इंसान नहीं बल्कि एक एआई चैटबॉट है। मृतक लड़की के पिता को एक नोटिफिकेशन मिला था। इस नोटिफिकेशन के सहारे वह एक वेबसाइट पर पहुंचे। चैटबॉट ने ना सिर्फ जेनिफर लड़की का नाम इस्तेमाल किया था, बल्कि उसकी फोटोज का भी इस्तेमाल किया और खुद को एक नॉलेजेबल एआई कैरेक्टर के रूप में पेश किया। लड़की की हत्या 2006 में हो गई थी। जब लड़की के पिता ने मामले की जांच की तो पता चला कि उनकी बेटी की फोटोज का इस्तेमाल करके इस एआई चैटबॉट तैयार किया गया है। ये बॉट 69 कन्वर्सेशन में शामिल था। इस मामले में मृतक लड़की के पिता ने एक वेबसाइट से संपर्क किया और उनसे चैटबॉट को रिमूव करने और मामले की जांच की मांग की। कैरेक्टर एआई ने पीड़ित की शिकायत को स्वीकार कर लिया, लेकिन उनसे इस बारे में सीधा संपर्क नहीं किया। हालांकि कंपनी ने पीड़ित के भाई के ट्वीट पर रिप्लाई किया। कंपनी ने जानकारी दी कि उस चैटबॉट को रिमूव कर दिया गया है और आगे की कार्रवाई के लिए कंपनी काम कर रही है। अब सवाल लोगों के डेटा को लेकर उठ रहा है। किसी शख्स की मृत्यु के बाद उसकी फोटोज और वीडियोज का गलत इस्तेमाल किया जा सकता है? एआई के इस्तेमाल को लेकर लोग चिंतित हैं। पीड़ित इस मामले में कानूनी लड़ाई लड़ने की तैयारी में हैं। सिराज/ईएमएस 17 अक्टूबर 2024