विशेष लेख: ‘डीपफेक’च्या खतरनाक दुनियेत...
By विजय दर्डा | Published: November 27, 2023 08:31 AM2023-11-27T08:31:39+5:302023-11-27T08:34:00+5:30
Deepfake Technology: तंत्रज्ञानाच्या दोन बाजू असतात. त्याचे फायदे पुष्कळ आहेत यात शंका नाही, परंतु त्यामुळे होणाऱ्या नुकसानाविषयीही आपण सतर्क असण्याची गरज आहे.
- डाॅ. विजय दर्डा
(चेअरमन, एडिटोरियल बोर्ड, लोकमत समूह)
सध्या ‘डीपफेक’ याविषयावर सगळीकडे चर्चा होत आहे. आपले पंतप्रधान नरेंद्र मोदी यांनीही त्याविषयी चिंता व्यक्त केली आहे. ही चिंता स्वाभाविक असण्याचे कारण इंटरनेटवर स्वार होऊन चालणाऱ्या समाजमाध्यमांचा एकीकडे आपण भरपूर उपयोग करत आहोत; तर दुसरीकडे जगातील दहशतवादी संघटनाही त्याचा खूप फायदा घेत आहेत. आपल्या संघटनेत दहशतवाद्यांची भरती करण्यापासून माहिती जमवणे, प्रसारित करणे यासाठीही समाजमाध्यमांचा मोठ्या प्रमाणावर उपयोग केला जात आहे. म्हणून आपल्या गुप्तचर संस्थांसाठी समाजमाध्यमे डोकेदुखीचे कारण झाली आहेत.
वास्तविक कोणत्याही गोष्टींप्रमाणे तंत्रज्ञानाच्याही दोन बाजू आहेत. लोक जवळ आले ही यातली चांगली गोष्ट. आपण पाहा, वैद्यकीय क्षेत्रात कमालीची प्रगती झाली. तंत्रज्ञानाने लोकांचे प्राण वाचवले जात आहेत. शिक्षणाच्या क्षेत्रातही आपण तंत्रज्ञानाची कमाल पाहत आहोत. दूरदूरच्या गावातही इंटरनेटच्या माध्यमातून अभ्यास केला जात आहे.
मी वर्तमानपत्रांची गोष्ट सांगेन. आधी कोणाला स्वतंत्र आवृत्ती काढावयाची असेल तर संपूर्ण यंत्रणा स्वतंत्रपणे उभी करावी लागत होती. त्यासाठी खूप पैसे खर्च व्हायचे. ज्यांच्याजवळ पुष्कळ पैसे आहेत, त्यांनाच स्वतंत्र आवृत्ती उभी करणे शक्य होत असे; परंतु इंटरनेटच्या माध्यमातून आवृत्त्या वाढवणे आता सोपे झाले आहे. संरक्षण आणि अंतराळ क्षेत्रातही तंत्रज्ञानाची कमाल आपण पाहतो आहोत. आपल्याला आठवत असेल की, पूर्वी कुणाला फोन करावयाचा असेल तर ते अत्यंत कठीण आणि खर्चीक काम होते. परंतु आज सगळ्यांच्याच हातात मोबाइल आला आहे. अशा प्रकारचे आणखीही पैलू आहेत; आणि मला असे वाटते की, तंत्रज्ञानाचे फायदे जास्त आहेत. तंत्रज्ञानामुळे जीवन अधिक सुखकर झाले आहे. परंतु ज्या प्रकारे जास्त खाल्ले की त्रास होतो तशीच परिस्थिती बहुदा याबाबतीतही दिसते. पुष्कळशा चांगल्या गोष्टींबरोबरच काही वाईट गोष्टी आहेत आणि त्या आपल्याला त्रासदायक ठरणे स्वाभाविक आहे. कृत्रिम बुद्धिमत्तेचा पाया ज्या शास्त्रज्ञांनी घातला तेच आज याविषयी चिंतीत आहेत. कृत्रिम बुद्धिमत्तेच्या वेगवेगळ्या बाजूंकडे आपण गांभीर्याने पाहिले पाहिजे, असे जगातले मोठे लोक सांगत आहेत.
‘डीपफेक’ ही अशीच एक चिंतेची गोष्ट आहे. नावातूनच स्पष्ट होत असल्याप्रमाणे इंग्रजीतील ‘डीप’ या शब्दाचा अर्थ खोल आणि ‘फेक’ म्हणजे खोटे. जेव्हा एखादा बनावट व्हिडीओ हुबेहूब खऱ्या व्हिडीओसारखा तयार केला गेला तर तो खोटा म्हणून पकडणे कठीण जाते, त्याला ‘डीपफेक’ म्हणतात. मॉर्फिंगचे प्रगत तंत्रज्ञान असेही आपण त्याला म्हणू शकतो. तसे पाहता मॉर्फिंग काही नवी गोष्ट नाही. परंतु जेव्हा त्यात तांत्रिक आधुनिकता आली तेव्हा ते जास्त धोकादायक होण्याची शंका येणे स्वाभाविक आहे. गेल्या काही दिवसांपासून या शंकेबाबत चर्चा सुरू झालेली आपण पाहतो आहोत. अभिनेत्री रश्मी मंदानाचा एक ‘डीपफेक’ व्हिडीओ इंटरनेटवर प्रसारित झाला. त्यानंतर काजोल आणि कटरिना कैफ यांचेही असे काही व्हिडीओ समोर आले, ज्यात डीपफेक केले गेले होते. नंतर पंतप्रधान नरेंद्र मोदी यांनीही सांगितले की, एका ऑनलाइन व्हिडीओत त्यांना गरबा खेळताना दाखवले गेले आहे. अशा प्रकारचे आणखीही खोटे व्हिडीओ ऑनलाइन आहेत. डिजिटल जगासाठी ‘डीपफेक’ एक फार मोठा धोका असून, कोणत्याही परिस्थितीत तो रोखला पाहिजे.
‘एआय’ म्हणजेच कृत्रिम बुद्धिमत्ता आणि मशीन लर्निंग सॉफ्टवेअरचा उपयोग करून ‘डीपफेक’ व्हिडीओज अशा प्रकारे तयार केले जातात की खरे आणि खोटे यात फरक करणे मुश्कील व्हावे. व्हॉइस क्लोनिंग सॉफ्टवेअरच्या मदतीने कोणाच्याही आवाजाची हुबेहूब नक्कल आता करता येते. ऐकताना ती संपूर्णपणे खरी वाटते. अलीकडेच अनेक लोकांना त्यांच्या वाढदिवसाच्या दिवशी शुभेच्छा देताना कुण्या मुलीचा व्हिडीओ समोर आला. ती मुलगी संबंधित व्यक्तीचे नावही घेत होती. अशा प्रकारचे व्हिडीओ तयार करणे काही फार मोठे कठीण काम नाही. इंटरनेटवर असे अनेक ॲप आज उपलब्ध आहेत; त्यांच्या मदतीने अशा प्रकारचे व्हिडीओ तयार करता येतात.
भारतात आपण भले ‘डीपफेक’ची चर्चा आज करत असू; परंतु अमेरिकेत सहा-एक वर्षांपूर्वी अनेक सेलिब्रिटींचे पॉर्न व्हिडीओ प्रसारित केले गेले. आतापर्यंत कोणत्याही भारतीय सेलिब्रिटीचा ‘डीपफेक’ पॉर्न व्हिडीओ समोर आलेला नाही. परंतु आला तर आश्चर्य वाटू नये. कोणत्याही पॉर्न व्हिडीओवर कोणाचाही चेहरा बसवून आणि आवाजाचे क्लोनिंग करून अशा प्रकारचा उद्योग करता येऊ शकतो.
आपण आपल्या व्यक्तिगत जीवनातील छायाचित्रे, व्हिडीओज मोठ्या प्रमाणावर समाजमाध्यमांवर टाकत आहोत. असे कोणतेही छायाचित्र किंवा व्हिडीओ समाजमाध्यमांवर टाकताना आपण सावध राहिले पाहिजे. इतकेच नव्हे तर आपण कुठले संकेतस्थळ पाहतो आहोत, याबाबतीतही सावधगिरी बाळगली पाहिजे. एखादा माणूस पॉर्न पाहत असेल तर त्या स्क्रीनबरोबर त्याचा फोटो कॅमेऱ्यात कैद होतो आणि त्याला ब्लॅकमेल केले जाण्याचा धोका वाढतो. गेल्या पाच वर्षांत सायबर फसवणुकीत तिपटीने वाढ झाली आहे. अशा परिस्थितीत जर डीपफेक व्हिडीओज गुन्हेगारांच्या हातचे शस्त्र झाले तर परिस्थिती किती धोकादायक आणि विस्फोटक होईल, याचा अंदाज आपण सहज करू शकतो. परिस्थिती विस्फोटक होऊ द्यावयाची नसेल तर सर्वात आधी आपल्यामधली भीती काढून टाकावी लागेल. ज्या कुणाचा डीपफेक व्हिडीओ समोर येतो त्याने तत्काळ पोलिसांच्या सायबर सेलकडे तक्रार नोंदवली पाहिजे. जर व्हिडीओ बनावट असेल तर बदनामीची भीती कशाला? म्हणून समाजमाध्यमांचा उपयोग करताना सावध राहणे गरजेचे आहे.