डीपफेकच्या गोष्टीत ‘लांडगा’ खरंच आला तर?

By ऑनलाइन लोकमत | Published: May 11, 2024 08:09 AM2024-05-11T08:09:06+5:302024-05-11T08:11:18+5:30

सततच्या डीपफेकमुळे धोक्याच्या खऱ्या इशाऱ्यांकडेही आपले दुर्लक्ष होईल का, सामाजिक विश्वासाची वीणच उसवत जाईल का, हे प्रश्न गंभीर आहेत.

What if the 'wolf' really comes into deepfake? | डीपफेकच्या गोष्टीत ‘लांडगा’ खरंच आला तर?

डीपफेकच्या गोष्टीत ‘लांडगा’ खरंच आला तर?

- विश्राम ढोले, माध्यम, तंत्रज्ञान आणि संस्कृती या विषयांचे अभ्यासक

आपण एखाद्याची मिमिक्री किंवा नक्कल करतो, म्हणजे नेमके काय करतो? एक म्हणजे आपण देहबोली, हावभाव आणि आवाजातून दुसऱ्या व्यक्तीचे विधान किंवा कृती जशीच्या तशी सादर करण्याचा म्हणजे पुनर्निर्मितीचा प्रयत्न करतो. हा  नकलेचा साधा प्रकार. साधे फेक. दुसरा प्रकार तसा अवघड, कारण त्यामध्ये नक्कल करायची त्या व्यक्तीच्या आवाजाची, बोलण्याची, देहबोलीची विशिष्ट शैली आपण उचलतो आणि मूळ व्यक्तीने कधी न केलेले विधान किंवा न अनुभवलेला प्रसंग सादर करतो. म्हणजे, तिच्या शैलीमध्ये नवनिर्मिती करतो. हे असते डीपफेक.

दोन्ही प्रकारांसाठी नकलाकारामध्ये दोन गोष्टी असाव्या लागतात :  जिची नक्कल करायचीय त्या व्यक्तीचा आवाज, हावभाव, देहबोली, बोलणे, भाषा यातील खोलवरच्या वृत्ती-प्रवृत्ती टिपण्याची, त्याचेकाहीएक प्रतिमान (मॉडेल) बनविण्याची समज. थोडक्यात  शैली टिपण्याची बौद्धिक क्षमता आणि ती शैली आत्मसात करून त्यानुसार पुनर्निर्माण किंवा नवनिर्माण करण्यासाठी लागणारे शारीरिक नियंत्रण आणि कौशल्य. 

मानवी बुद्धिमत्ता निरीक्षण, विश्लेषणातून ही शैली शिकते. प्रयत्न व सरावातून नकलेचे कौशल्य मिळविते. कृत्रिम बुद्धिमत्तेमध्ये  ही समज निर्माण होण्यासाठी  डिजिटल विदा लागते. तिचे विश्लेषण करणारी गणिती प्रतिमाने लागतात,  आशय निर्मितीच्या कौशल्यासाठी उत्तम गणनक्षमता, चांगले हार्डवेअर आणि काय हवे काय नको, ते सांगणाऱ्या नेमक्या मानवी सूचना अर्थात प्रॉम्प्ट यांची गरज असते. एकदा हे मिळाले की, कृत्रिम बुद्धिमत्ता मानवी नकलाकारांपेक्षा जास्त हुबेहूब नकली आशय आणि तोही मोठ्या प्रमाणावर निर्माण करू शकते.

या नकली निर्मितीला फसविण्याचा कुहेतू दिला, ती नक्कल पसरविण्यासाठी समाजमाध्यमांचे व्यासपीठ वापरले की, जन्माला येते ती मायावी भूलथाप अर्थात डीपफेक. ‘दी इंडियन डीपफेकर’ या डीपफेक बनविणाऱ्या भारतातील बहुधा पहिल्या कंपनीचे मुख्य दिव्येंद्रसिंग जादौन यांच्या म्हणण्यानुसार तीनेक वर्षांपूर्वी चेहराबदल करणारी बाळबोध भूलथाप तयार करायला सातआठ दिवस लागायचे, पण आता तसाच व्हिडीओ अगदी तीन-चार मिनिटांत तयार करता येऊ शकतो. व्हिडीओ बनवणाऱ्याला कोडींगचे प्राथमिक ज्ञान असेल, तर अजूनच उत्तम. त्यांच्या कंपनीने अलीकडे केलेले काही डीपफेक व्हिडीओ इतके हुबेहूब वठले होते की, फेसबुक आणि युट्यूबच्या चाळण्यांनाही ते रोखता आले नाहीत, असेही जादौन सांगतात. डीपफेक तंत्राच्या साह्याने निवडणुकीसाठी आशय निर्माण करण्याची बरीच व्यावसायिक कामे जादौन यांची कंपनी सध्या करीत आहे, पण त्यांच्या म्हणण्यानुसार हे तांत्रिक पातळीवर डीपफेक असले, तरी त्यामागे फसविणे, द्वेष पसरविणे, दिशाभूल करणे असा हेतू नाही. आकर्षक, अद्भूत, गुंगविणारा आशय निर्माण करण्यासाठी आपण या तंत्राचा वापर करतो, असा त्यांचा दावा आहे. निवडणूक काळात वाईट हेतूने डीपफेक करण्यासंबंधीचे सुमारे शंभरेक कामांचे प्रस्ताव आपण नाकारले, असेही त्यांचे म्हणणे आहे. पण, एक नक्की : डीपफेक आशय निर्माण करणे आता फार अवघड किंवा खर्चिक राहिले नाही. चॅट जीपीटी बनविणाऱ्या ओपन एआय या कंपनीची व्हॉइस इंजिन ही सुविधा तर कोणाच्याही आवाजाचा फक्त १५ सेकंदांचा नमुना वापरून त्या आवाजामध्ये नवी वाक्ये हुबेहूब वाचू शकते.  

वर्ल्ड इकाेनॉमिक फोरमने ‘२०२४ सालातील जागतिक महत्त्वाचे धोके’ या विषयावर तयार केलेल्या अहवालामध्ये ‘चुकीची, तसेच कुहेतूने पसरवलेली माहिती हा एक महत्त्वाचा धोका’ असल्याचे म्हटले आहे. फोरमने असा सर्वाधिक धोका असणाऱ्या देशांची यादीच प्रसिद्ध केली आहे. दुर्दैवाने त्यात भारत पहिल्या स्थानावर आहे. 
यावर उपाय नाही का? थोडे बारकाईने पाहिले, थोडा तर्क वापरला तर पन्नास टक्के डीपफेक सामान्य व्यक्तीही ओळखू शकते, असे बऱ्याच संशोधनामध्ये सिद्ध झाले आहे.  त्यासाठी सतत सजग राहावे लागते. व्यावहारिक पातळीवर ही एक कठीण अपेक्षा आहे. हलकेफुलके मिम्स बनविणाऱ्यांमुळेही डीपफेकविषयक साक्षरता वाढू शकते. विदूषक जसे हसविता हसविता मर्मावर बोट ठेवतो त्यासारखेच हे. असे काही उपाय असले, तरी डीपफेकचे खरे नियंत्रण समाजमाध्यम कंपन्या अधिक प्रभावीपणे करू शकतात. कृत्रिम बुद्धिमत्तेवरील अल्गोरिदम, व्यावसायिक कर्मचाऱ्यांची मोठी टीम आणि वापरकर्त्यांचे सामूहिक प्रयत्न, अशा काही मार्गांनी समाजमाध्यम कंपन्या हे करत आहेत, पण कुहेतू डीपफेकचे भविष्यातील प्रमाण व परिमाण लक्षात घेता, हे प्रयत्न कितपत पुरेसे ठरतील याबद्दल साशंकता आहे.

सतत प्रसवत व पसरत राहणाऱ्या डीपफेकमुळे होणारा  व्यापक सामाजिक परिणाम गंभीर आहे. ‘लांडगा आला रे आला’ ही गोष्ट आठवा.  मेंढपाळाच्या सततच्या खोट्या हाकाऱ्यामुळे वैतागलेले लोक लांडगा खरोखरच आल्यानंतर त्याने केलेल्या आकांतालाही प्रतिसाद देत नाहीत, असा या गोष्टीचा आशय. सततच्या डीपफेकमुळे एक समाज म्हणून आपलेही या गोष्टीसारखेच होईल काय, धोक्याच्या खऱ्या इशाऱ्यांकडेही आपले दुर्लक्ष होईल काय, खोट्या चलनाच्या पुरामुळे खऱ्या माहितीचे मूल्य कमी होईल काय आणि सततच्या अविश्वासाच्या अनुभवांमुळे आपली सामाजिक विश्वासाची वीणच उसवत जाईल का, हे प्रश्न म्हणूनच गंभीर आहेत!
vishramdhole@gmail.com

Web Title: What if the 'wolf' really comes into deepfake?

Get Latest Marathi News , Maharashtra News and Live Marathi News Headlines from Politics, Sports, Entertainment, Business and hyperlocal news from all cities of Maharashtra.