सावधान! एआयने महिलांचे साधे फोटोही अश्लील; अशा वेबसाइटला भेट दिलेल्यांची संख्या २.४ कोटींवर
By ऑनलाइन लोकमत | Published: December 16, 2023 10:12 AM2023-12-16T10:12:09+5:302023-12-16T10:12:23+5:30
कृत्रिम बुद्धिमत्ता (एआय)ने महिलांसाठी धोका वाढवला आहे. ॲप्सच्या माध्यमातून महिलांच्या सामान्य फोटोंचे अश्लील फोटोंमध्ये रूपांतर केले जात आहे.
नवी दिल्ली : कृत्रिम बुद्धिमत्ता (एआय)ने महिलांसाठी धोका वाढवला आहे. ॲप्सच्या माध्यमातून महिलांच्या सामान्य फोटोंचे अश्लील फोटोंमध्ये रूपांतर केले जात आहे. जगभरात अशा ॲप्स आणि वेबसाइट्सची संख्या झपाट्याने वाढत आहे. सोशल नेटवर्किंग ॲनालिसिस कंपनी ग्राफिकच्या मते, एकट्या सप्टेंबरमध्ये २.४ कोटी लोकांनी अशा वेबसाइटला भेट दिली आहे. अनड्रेस करणाऱ्या सेवा आपल्या मार्केटिंगसाठी सोशल नेटवर्क्सची मदत घेत आहेत.
१० डॉलर दिले की हवे ते करा...
दरमहा सुमारे १० डॉलर शुल्क दिले की या सेवा कोणत्याही फोटो पुन्हा तयार करण्यासाठी एआयची मदत घेत फोटोतील व्यक्तीचे कापडे काढून टाकतात. पूर्वीचे डीपफेक अस्पष्ट होते.
सामान्य महिलांना टार्गेट करण्यासाठी याचा गैरवापर केला जात आहे. शाळा-महाविद्यालयात शिकणारी मुलंही हे ॲप वापरत आहेत. इंटरनेटवर अशी प्रतिमा फिरत असल्याची अनेकवेळा पीडितेला माहितीही नसते आणि ज्यांना कळते त्यांच्यासाठी कायदेशीर लढाई अवघड होऊन जाते.
काय करायला हवे?
महिलांनी त्यांचे सोशल मीडिया अकाउंट लॉक ठेवावे.
तुमच्या वैयक्तिक खात्यांमध्ये अज्ञात लोकांना जोडू नका आणि बनावट खाती ओळखा.
फोनमधील लॉगिन अलर्ट आणि सेटिंग्जमध्ये लेव्हल २ व्हेरीफिकेशन नेहमी चालू ठेवा.
अज्ञात लिंकवर क्लिक करू नका.
तुमचे किंवा तुमच्या कुटुंबातील सदस्यांचे फोटो व्हॉट्सॲपवर ग्रुपमध्ये शेअर करू नका.
सोशल मीडियावर फोटो किंवा व्हिडीओ फक्त मर्यादित लोकांसोबत शेअर करा.
अगदी आवश्यक असल्यास, वनटाइम व्ह्यू पर्यायासह फोटो शेअर करा किंवा पोस्ट करा.