विशेष लेख: ‘डीपफेक’च्या खतरनाक दुनियेत...

By विजय दर्डा | Published: November 27, 2023 08:31 AM2023-11-27T08:31:39+5:302023-11-27T08:34:00+5:30

Deepfake Technology: तंत्रज्ञानाच्या दोन बाजू असतात. त्याचे फायदे पुष्कळ आहेत यात शंका नाही, परंतु त्यामुळे होणाऱ्या नुकसानाविषयीही आपण सतर्क असण्याची गरज आहे.

Special Article: Into the Dangerous World of 'Deepfake'... | विशेष लेख: ‘डीपफेक’च्या खतरनाक दुनियेत...

विशेष लेख: ‘डीपफेक’च्या खतरनाक दुनियेत...

- डाॅ. विजय दर्डा 
(चेअरमन, एडिटोरियल बोर्ड, लोकमत समूह)

सध्या ‘डीपफेक’ याविषयावर सगळीकडे चर्चा होत आहे. आपले पंतप्रधान नरेंद्र मोदी यांनीही त्याविषयी चिंता व्यक्त केली आहे. ही चिंता स्वाभाविक असण्याचे कारण इंटरनेटवर स्वार होऊन चालणाऱ्या समाजमाध्यमांचा एकीकडे आपण भरपूर उपयोग करत आहोत; तर दुसरीकडे जगातील दहशतवादी संघटनाही त्याचा खूप फायदा घेत आहेत. आपल्या संघटनेत दहशतवाद्यांची भरती करण्यापासून माहिती जमवणे, प्रसारित करणे यासाठीही समाजमाध्यमांचा मोठ्या प्रमाणावर उपयोग केला जात आहे. म्हणून आपल्या गुप्तचर संस्थांसाठी समाजमाध्यमे डोकेदुखीचे कारण झाली आहेत.
वास्तविक कोणत्याही गोष्टींप्रमाणे तंत्रज्ञानाच्याही दोन बाजू आहेत. लोक जवळ आले ही यातली चांगली गोष्ट. आपण पाहा, वैद्यकीय क्षेत्रात कमालीची प्रगती झाली. तंत्रज्ञानाने लोकांचे प्राण वाचवले जात आहेत. शिक्षणाच्या क्षेत्रातही आपण तंत्रज्ञानाची कमाल पाहत आहोत. दूरदूरच्या गावातही इंटरनेटच्या माध्यमातून अभ्यास केला जात आहे. 

मी वर्तमानपत्रांची गोष्ट सांगेन. आधी कोणाला स्वतंत्र आवृत्ती काढावयाची असेल तर संपूर्ण यंत्रणा स्वतंत्रपणे उभी करावी लागत होती. त्यासाठी खूप पैसे खर्च व्हायचे. ज्यांच्याजवळ पुष्कळ पैसे आहेत, त्यांनाच स्वतंत्र आवृत्ती उभी करणे शक्य होत असे; परंतु इंटरनेटच्या माध्यमातून आवृत्त्या वाढवणे आता सोपे झाले आहे. संरक्षण आणि अंतराळ क्षेत्रातही तंत्रज्ञानाची कमाल आपण पाहतो आहोत. आपल्याला आठवत असेल की, पूर्वी कुणाला फोन करावयाचा असेल तर ते अत्यंत कठीण आणि खर्चीक काम होते. परंतु आज सगळ्यांच्याच हातात मोबाइल आला आहे. अशा प्रकारचे आणखीही पैलू आहेत; आणि मला असे वाटते की, तंत्रज्ञानाचे फायदे जास्त आहेत. तंत्रज्ञानामुळे जीवन अधिक सुखकर झाले आहे. परंतु ज्या प्रकारे जास्त खाल्ले की त्रास होतो तशीच परिस्थिती बहुदा याबाबतीतही दिसते. पुष्कळशा चांगल्या गोष्टींबरोबरच काही वाईट गोष्टी आहेत आणि त्या आपल्याला त्रासदायक ठरणे स्वाभाविक आहे. कृत्रिम बुद्धिमत्तेचा पाया ज्या शास्त्रज्ञांनी घातला तेच आज याविषयी चिंतीत आहेत. कृत्रिम बुद्धिमत्तेच्या वेगवेगळ्या बाजूंकडे आपण गांभीर्याने पाहिले पाहिजे, असे जगातले मोठे लोक सांगत आहेत.

‘डीपफेक’ ही अशीच एक चिंतेची गोष्ट आहे. नावातूनच स्पष्ट होत असल्याप्रमाणे इंग्रजीतील ‘डीप’ या शब्दाचा अर्थ खोल आणि ‘फेक’ म्हणजे खोटे. जेव्हा एखादा बनावट व्हिडीओ हुबेहूब खऱ्या व्हिडीओसारखा तयार केला गेला तर तो खोटा म्हणून पकडणे कठीण जाते, त्याला ‘डीपफेक’ म्हणतात. मॉर्फिंगचे प्रगत तंत्रज्ञान असेही आपण त्याला म्हणू शकतो. तसे पाहता मॉर्फिंग काही नवी गोष्ट नाही. परंतु जेव्हा त्यात तांत्रिक आधुनिकता आली तेव्हा ते जास्त धोकादायक होण्याची शंका येणे स्वाभाविक आहे. गेल्या काही दिवसांपासून या शंकेबाबत चर्चा सुरू झालेली आपण पाहतो आहोत. अभिनेत्री रश्मी मंदानाचा एक ‘डीपफेक’ व्हिडीओ इंटरनेटवर प्रसारित झाला. त्यानंतर काजोल आणि कटरिना कैफ यांचेही असे काही व्हिडीओ समोर आले, ज्यात डीपफेक केले गेले होते. नंतर पंतप्रधान नरेंद्र मोदी यांनीही सांगितले की, एका ऑनलाइन व्हिडीओत त्यांना गरबा खेळताना दाखवले गेले आहे. अशा प्रकारचे आणखीही खोटे व्हिडीओ ऑनलाइन आहेत. डिजिटल जगासाठी ‘डीपफेक’ एक फार मोठा धोका असून, कोणत्याही परिस्थितीत तो रोखला पाहिजे.

‘एआय’ म्हणजेच कृत्रिम बुद्धिमत्ता आणि मशीन लर्निंग सॉफ्टवेअरचा उपयोग करून ‘डीपफेक’ व्हिडीओज अशा प्रकारे तयार केले जातात की खरे आणि खोटे यात फरक करणे मुश्कील व्हावे. व्हॉइस क्लोनिंग सॉफ्टवेअरच्या मदतीने कोणाच्याही आवाजाची हुबेहूब नक्कल आता करता येते. ऐकताना ती संपूर्णपणे खरी वाटते. अलीकडेच अनेक लोकांना त्यांच्या वाढदिवसाच्या दिवशी शुभेच्छा देताना कुण्या मुलीचा व्हिडीओ समोर आला. ती मुलगी संबंधित व्यक्तीचे नावही घेत होती. अशा प्रकारचे व्हिडीओ तयार करणे काही फार मोठे कठीण काम नाही. इंटरनेटवर असे अनेक ॲप आज उपलब्ध आहेत; त्यांच्या मदतीने अशा प्रकारचे व्हिडीओ तयार करता येतात.

भारतात आपण भले ‘डीपफेक’ची चर्चा आज करत असू; परंतु अमेरिकेत सहा-एक वर्षांपूर्वी अनेक सेलिब्रिटींचे पॉर्न व्हिडीओ प्रसारित केले गेले. आतापर्यंत कोणत्याही भारतीय सेलिब्रिटीचा ‘डीपफेक’ पॉर्न व्हिडीओ समोर आलेला नाही. परंतु आला तर आश्चर्य वाटू नये. कोणत्याही पॉर्न व्हिडीओवर कोणाचाही चेहरा बसवून आणि आवाजाचे क्लोनिंग करून अशा प्रकारचा उद्योग करता येऊ शकतो.

आपण आपल्या व्यक्तिगत जीवनातील छायाचित्रे, व्हिडीओज मोठ्या प्रमाणावर समाजमाध्यमांवर टाकत आहोत. असे कोणतेही छायाचित्र किंवा व्हिडीओ समाजमाध्यमांवर टाकताना आपण सावध राहिले पाहिजे. इतकेच नव्हे तर आपण कुठले संकेतस्थळ पाहतो आहोत, याबाबतीतही सावधगिरी बाळगली पाहिजे. एखादा माणूस पॉर्न पाहत असेल तर त्या स्क्रीनबरोबर त्याचा फोटो कॅमेऱ्यात कैद होतो आणि त्याला ब्लॅकमेल केले जाण्याचा धोका वाढतो. गेल्या पाच वर्षांत सायबर फसवणुकीत तिपटीने वाढ झाली आहे. अशा परिस्थितीत जर डीपफेक व्हिडीओज गुन्हेगारांच्या हातचे शस्त्र झाले तर परिस्थिती किती धोकादायक आणि विस्फोटक होईल, याचा अंदाज आपण सहज करू शकतो. परिस्थिती विस्फोटक होऊ द्यावयाची नसेल तर सर्वात आधी आपल्यामधली भीती काढून टाकावी लागेल. ज्या कुणाचा डीपफेक व्हिडीओ समोर येतो त्याने तत्काळ पोलिसांच्या सायबर सेलकडे तक्रार नोंदवली पाहिजे. जर व्हिडीओ बनावट असेल तर बदनामीची भीती कशाला? म्हणून समाजमाध्यमांचा उपयोग करताना सावध राहणे गरजेचे आहे.

Web Title: Special Article: Into the Dangerous World of 'Deepfake'...

Get Latest Marathi News , Maharashtra News and Live Marathi News Headlines from Politics, Sports, Entertainment, Business and hyperlocal news from all cities of Maharashtra.