- डाॅ. विजय दर्डा (चेअरमन, एडिटोरियल बोर्ड, लोकमत समूह)
सध्या ‘डीपफेक’ याविषयावर सगळीकडे चर्चा होत आहे. आपले पंतप्रधान नरेंद्र मोदी यांनीही त्याविषयी चिंता व्यक्त केली आहे. ही चिंता स्वाभाविक असण्याचे कारण इंटरनेटवर स्वार होऊन चालणाऱ्या समाजमाध्यमांचा एकीकडे आपण भरपूर उपयोग करत आहोत; तर दुसरीकडे जगातील दहशतवादी संघटनाही त्याचा खूप फायदा घेत आहेत. आपल्या संघटनेत दहशतवाद्यांची भरती करण्यापासून माहिती जमवणे, प्रसारित करणे यासाठीही समाजमाध्यमांचा मोठ्या प्रमाणावर उपयोग केला जात आहे. म्हणून आपल्या गुप्तचर संस्थांसाठी समाजमाध्यमे डोकेदुखीचे कारण झाली आहेत.वास्तविक कोणत्याही गोष्टींप्रमाणे तंत्रज्ञानाच्याही दोन बाजू आहेत. लोक जवळ आले ही यातली चांगली गोष्ट. आपण पाहा, वैद्यकीय क्षेत्रात कमालीची प्रगती झाली. तंत्रज्ञानाने लोकांचे प्राण वाचवले जात आहेत. शिक्षणाच्या क्षेत्रातही आपण तंत्रज्ञानाची कमाल पाहत आहोत. दूरदूरच्या गावातही इंटरनेटच्या माध्यमातून अभ्यास केला जात आहे.
मी वर्तमानपत्रांची गोष्ट सांगेन. आधी कोणाला स्वतंत्र आवृत्ती काढावयाची असेल तर संपूर्ण यंत्रणा स्वतंत्रपणे उभी करावी लागत होती. त्यासाठी खूप पैसे खर्च व्हायचे. ज्यांच्याजवळ पुष्कळ पैसे आहेत, त्यांनाच स्वतंत्र आवृत्ती उभी करणे शक्य होत असे; परंतु इंटरनेटच्या माध्यमातून आवृत्त्या वाढवणे आता सोपे झाले आहे. संरक्षण आणि अंतराळ क्षेत्रातही तंत्रज्ञानाची कमाल आपण पाहतो आहोत. आपल्याला आठवत असेल की, पूर्वी कुणाला फोन करावयाचा असेल तर ते अत्यंत कठीण आणि खर्चीक काम होते. परंतु आज सगळ्यांच्याच हातात मोबाइल आला आहे. अशा प्रकारचे आणखीही पैलू आहेत; आणि मला असे वाटते की, तंत्रज्ञानाचे फायदे जास्त आहेत. तंत्रज्ञानामुळे जीवन अधिक सुखकर झाले आहे. परंतु ज्या प्रकारे जास्त खाल्ले की त्रास होतो तशीच परिस्थिती बहुदा याबाबतीतही दिसते. पुष्कळशा चांगल्या गोष्टींबरोबरच काही वाईट गोष्टी आहेत आणि त्या आपल्याला त्रासदायक ठरणे स्वाभाविक आहे. कृत्रिम बुद्धिमत्तेचा पाया ज्या शास्त्रज्ञांनी घातला तेच आज याविषयी चिंतीत आहेत. कृत्रिम बुद्धिमत्तेच्या वेगवेगळ्या बाजूंकडे आपण गांभीर्याने पाहिले पाहिजे, असे जगातले मोठे लोक सांगत आहेत.
‘डीपफेक’ ही अशीच एक चिंतेची गोष्ट आहे. नावातूनच स्पष्ट होत असल्याप्रमाणे इंग्रजीतील ‘डीप’ या शब्दाचा अर्थ खोल आणि ‘फेक’ म्हणजे खोटे. जेव्हा एखादा बनावट व्हिडीओ हुबेहूब खऱ्या व्हिडीओसारखा तयार केला गेला तर तो खोटा म्हणून पकडणे कठीण जाते, त्याला ‘डीपफेक’ म्हणतात. मॉर्फिंगचे प्रगत तंत्रज्ञान असेही आपण त्याला म्हणू शकतो. तसे पाहता मॉर्फिंग काही नवी गोष्ट नाही. परंतु जेव्हा त्यात तांत्रिक आधुनिकता आली तेव्हा ते जास्त धोकादायक होण्याची शंका येणे स्वाभाविक आहे. गेल्या काही दिवसांपासून या शंकेबाबत चर्चा सुरू झालेली आपण पाहतो आहोत. अभिनेत्री रश्मी मंदानाचा एक ‘डीपफेक’ व्हिडीओ इंटरनेटवर प्रसारित झाला. त्यानंतर काजोल आणि कटरिना कैफ यांचेही असे काही व्हिडीओ समोर आले, ज्यात डीपफेक केले गेले होते. नंतर पंतप्रधान नरेंद्र मोदी यांनीही सांगितले की, एका ऑनलाइन व्हिडीओत त्यांना गरबा खेळताना दाखवले गेले आहे. अशा प्रकारचे आणखीही खोटे व्हिडीओ ऑनलाइन आहेत. डिजिटल जगासाठी ‘डीपफेक’ एक फार मोठा धोका असून, कोणत्याही परिस्थितीत तो रोखला पाहिजे.
‘एआय’ म्हणजेच कृत्रिम बुद्धिमत्ता आणि मशीन लर्निंग सॉफ्टवेअरचा उपयोग करून ‘डीपफेक’ व्हिडीओज अशा प्रकारे तयार केले जातात की खरे आणि खोटे यात फरक करणे मुश्कील व्हावे. व्हॉइस क्लोनिंग सॉफ्टवेअरच्या मदतीने कोणाच्याही आवाजाची हुबेहूब नक्कल आता करता येते. ऐकताना ती संपूर्णपणे खरी वाटते. अलीकडेच अनेक लोकांना त्यांच्या वाढदिवसाच्या दिवशी शुभेच्छा देताना कुण्या मुलीचा व्हिडीओ समोर आला. ती मुलगी संबंधित व्यक्तीचे नावही घेत होती. अशा प्रकारचे व्हिडीओ तयार करणे काही फार मोठे कठीण काम नाही. इंटरनेटवर असे अनेक ॲप आज उपलब्ध आहेत; त्यांच्या मदतीने अशा प्रकारचे व्हिडीओ तयार करता येतात.
भारतात आपण भले ‘डीपफेक’ची चर्चा आज करत असू; परंतु अमेरिकेत सहा-एक वर्षांपूर्वी अनेक सेलिब्रिटींचे पॉर्न व्हिडीओ प्रसारित केले गेले. आतापर्यंत कोणत्याही भारतीय सेलिब्रिटीचा ‘डीपफेक’ पॉर्न व्हिडीओ समोर आलेला नाही. परंतु आला तर आश्चर्य वाटू नये. कोणत्याही पॉर्न व्हिडीओवर कोणाचाही चेहरा बसवून आणि आवाजाचे क्लोनिंग करून अशा प्रकारचा उद्योग करता येऊ शकतो.
आपण आपल्या व्यक्तिगत जीवनातील छायाचित्रे, व्हिडीओज मोठ्या प्रमाणावर समाजमाध्यमांवर टाकत आहोत. असे कोणतेही छायाचित्र किंवा व्हिडीओ समाजमाध्यमांवर टाकताना आपण सावध राहिले पाहिजे. इतकेच नव्हे तर आपण कुठले संकेतस्थळ पाहतो आहोत, याबाबतीतही सावधगिरी बाळगली पाहिजे. एखादा माणूस पॉर्न पाहत असेल तर त्या स्क्रीनबरोबर त्याचा फोटो कॅमेऱ्यात कैद होतो आणि त्याला ब्लॅकमेल केले जाण्याचा धोका वाढतो. गेल्या पाच वर्षांत सायबर फसवणुकीत तिपटीने वाढ झाली आहे. अशा परिस्थितीत जर डीपफेक व्हिडीओज गुन्हेगारांच्या हातचे शस्त्र झाले तर परिस्थिती किती धोकादायक आणि विस्फोटक होईल, याचा अंदाज आपण सहज करू शकतो. परिस्थिती विस्फोटक होऊ द्यावयाची नसेल तर सर्वात आधी आपल्यामधली भीती काढून टाकावी लागेल. ज्या कुणाचा डीपफेक व्हिडीओ समोर येतो त्याने तत्काळ पोलिसांच्या सायबर सेलकडे तक्रार नोंदवली पाहिजे. जर व्हिडीओ बनावट असेल तर बदनामीची भीती कशाला? म्हणून समाजमाध्यमांचा उपयोग करताना सावध राहणे गरजेचे आहे.