धक्कादायक: AIचा असाही 'गैर'वापर! तुझ्या बहिणीचा अपघात झालाय, पैसे दे म्हणत ५८ हजार उकळले

By ऑनलाइन लोकमत | Published: December 20, 2023 05:49 PM2023-12-20T17:49:32+5:302023-12-20T17:50:02+5:30

आर्टिफिशिअल इंटेलिजन्सच्या मदतीने एका व्यक्तीने एकाला चुना लावल्याचा धक्कादायक प्रकार समोर आला आहे.

Shocking Uttar Pradesh's Lucknow Man Duped By AI-Cloned Voice, Loses 45,000 In Extortion, read here details | धक्कादायक: AIचा असाही 'गैर'वापर! तुझ्या बहिणीचा अपघात झालाय, पैसे दे म्हणत ५८ हजार उकळले

धक्कादायक: AIचा असाही 'गैर'वापर! तुझ्या बहिणीचा अपघात झालाय, पैसे दे म्हणत ५८ हजार उकळले

लखनौ : आर्टिफिशिअल इंटेलिजन्सच्या मदतीने चुना लावल्याचा धक्कादायक प्रकार समोर आला आहे. दिल्लीत न्यायाधीश म्हणून कार्यरत असलेल्या व्यक्तीच्या मेहुण्याला बहिणीच्या आवाजात फोन करून लाखो रूपयांचा गंडा घातला. अज्ञात आरोपीने तुझ्या बहिणीचा अपघात झाला असल्याचे सांगून दीड लाख रूपये खात्यात पाठवायला सांगितले. बहिणीचा अपघात झाल्यामुळे न्यायाधीशाच्या मेहुण्याने देखील क्षणाचाही विलंब न करता मागितलेली रक्कम पाठवली. पण, जेव्हा त्याने त्याच्या बहिणीला फोन केला तेव्हा सर्व प्रकार उघडकीस आला. मग लक्षात आले की, आर्टिफिशिअल इंटेलिजन्सच्या मदतीने आपली फसवणूक झाली आहे. 

दरम्यान, याप्रकरणी लखनौमधील हुसैनगंज पोलीस स्थानकात एफआयआर दाखल करण्यात आला आहे. राजस्थानात वास्तव्यात असलेले फूलचंद्र दिवाकर यांचा मेहुणा दिल्लीत न्यायाधीश आहे. फूलचंद्र यांच्या मोबाईलवर एक व्हॉटसप कॉल येतो अन् मोठी फसवणूक होते. लक्षणीय बाब म्हणजे पीडित व्यक्तीने फोन उचलताच त्याला त्याच्या बहिणीचा आवाज ऐकू आला. फूलचंद्र यांनी दिलेल्या माहितीनुसार, बहिणीच्या आवाजात एका व्यक्तीने सांगितले की, मी कामानिमित्त लखनौला आले होते. पण वाटेत अपघात झाल्याने पैशांची गरज आहे. उपचारासाठी पैसे नाहीत. फोन करणाऱ्या व्यक्तीने त्याची आयडी दिली आणि पैसे पाठवण्यास सांगितले, ज्यामध्ये फूलचंद्र यांनी ५८ हजार रूपये ट्रान्सफर केले. थोड्या वेळानंतर जेव्हा पीडित फूलचंद्र यांनी त्यांच्या बहिणीला फोन करून प्रकृतीविषयी विचारणा केली तेव्हा त्यांना धक्का बसला. कारण 'मी घरी असून मला काहीच झाले नसल्याचे' त्यांच्या बहिणीने सांगितले. 

AIचा असाही 'गैर'वापर!
सायबर तज्ज्ञांच्या मते, सायबर गुन्हेगार आर्टिफिशियल इंटेलिजन्स म्हणजेच एआय तंत्रज्ञानाचा गैरवापर करत आहेत. हे सायबर गुन्हेगार आधी सोशल मीडियावर फेक अकाऊंट बनवून ते लोकांच्या जवळच्या मित्र आणि नातेवाईकांकडून पैसे मागायचे, पण आता या तंत्रज्ञानाचा वापर करून डीपफेक तयार करत आहेत. याकडे गांभीर्याने पाहायला हवे, हे तंत्रज्ञान खूप धोकादायक आहे. कारण आता यामध्ये तुमच्या ओळखीच्या व्यक्तींचे व्हिडीओ कॉलिंग आणि ऑडिओ करता येणार आहे. कॉलिंगमध्ये अगदी त्याच चेहऱ्याने आणि आवाजाने बोलून पैसे लुबाडले जाऊ शकतात. त्यामुळे लोकांनी सावध राहण्याची गरज आहे.

Web Title: Shocking Uttar Pradesh's Lucknow Man Duped By AI-Cloned Voice, Loses 45,000 In Extortion, read here details

Get Latest Marathi News , Maharashtra News and Live Marathi News Headlines from Politics, Sports, Entertainment, Business and hyperlocal news from all cities of Maharashtra.