प्रसाद शिरगावकर, मुक्तस्रोत तंत्रज्ञानाचे प्रशिक्षक
गेल्या आठवड्यात अभिनेता आमीर खान बोलत आहे, असं दिसणारा एक व्हिडिओ X प्लॅटफॉर्मवर प्रकाशित झाला. आमीर खानच्या आयडीवरून नाही तर भलत्याच कोणीतरी तो प्रकाशित केला होता. त्या व्हिडिओमध्ये ‘‘प्रत्येक भारतीय श्रीमंत व्हायला हवा होता; पण १५ लाख रुपये न आल्याने आपण श्रीमंत झालो नाही आणि त्यामुळे हे देण्याचं वचन देणाऱ्या जुमला पार्टीला मत देऊ नका, असं तो सांगतोय’’ असं दिसत होतं.
त्यापाठोपाठ दोनच दिवसांमध्ये अभिनेता रणवीर सिंग बोलत आहे, असं दिसणारा एक व्हिडिओ प्रकाशित झाला. या व्हिडिओमध्ये रणवीर सिंग गंगेत नौकानयन करत असताना, ‘‘काशीमध्ये जो प्रचंड विकास झाला आहे तो विकास करणाऱ्या आणि असाच संपूर्ण देशाचा विकास व्हावा, असं वाटत असेल तर हे करणाऱ्या पक्षाला मत द्या’’ असं सांगताना दिसत होता. हे दोन्ही व्हिडिओज नव्याने विकसित होत असलेल्या ‘‘डीपफेक’’ या तंत्रज्ञानाने तयार केलेले वाटत आहेत. म्हणजे दोन्ही व्हिडिओज हे त्या त्या अभिनेत्यांनी कधीतरी प्रकाशित केलेले व्हिडिओज आहेत; पण त्यात ते जे बोलले होते ते मात्र तंत्रज्ञानाच्या आधाराने बदलून तिथे भलतंच काहीतरी घालून हे व्हिडिओज तयार केले आहेत. दोन्ही अभिनेत्यांनी तसा खुलासा करणारं निवेदन प्रकाशित केलं आहे आणि रीतसर पोलिस तक्रारही नोंदवली आहे.
कृत्रिम बुद्धिमत्ता (AI) या क्षेत्रामध्ये सध्या प्रचंड झपाट्याने नवनवीन प्रकारची ॲप्लिकेशन्स तयार होत आहेत. त्यात जनरेटिव्ह एआय, कॉम्प्युटर व्हिजन, रोबोटिक्स यासारखी अत्यंत सकारात्मक वापर होऊ शकणारी ॲप्लिकेशन्स जशी तयार होत आहेत, तशीच ‘डीपफेक’सारखी संभाव्यतः अत्यंत घातक असलेली ॲप्लिकेशन्सही तयार होत आहेत. डीपफेक व्हिडिओजमध्ये कोणत्याही व्यक्तीच्या बोलण्याचा व्हिडिओ घेऊन त्यातील आशय पूर्णपणे बदलणं किंवा एका व्यक्तीच्या बोलण्याचा व्हिडिओ घेऊन ती दुसरीच कोणी व्यक्ती बोलते आहे, असा व्हिडिओ निर्माण करणं, असे वेगवेगळे प्रकार करता येऊ शकतात.
आमीर आणि रणवीर या दोघांचे व्हिडिओज हे अगदीच प्राथमिक पातळीवरचे डीपफेक आहेत. यात त्या दोघांचे प्रत्यक्षातले कुठले तरी व्हिडिओज घेऊन त्याचा फक्त आशय किंवा ‘व्हॉइस ओव्हर’ बदलणे हे एवढंच केलेलं आहे. त्यातील आवाज त्यांचाच वाटावा, असा कदाचित कॉम्प्युटर जनरेटेड असेल किंवा एखाद्या दुसऱ्या व्यक्तीने दिलेला असू शकेल. पण हा डीपफेकचा अगदी बेसिक प्रकार आहे. मात्र हे तंत्रज्ञान जसजसं प्रगत होत जात आहे तसतसं संपूर्णपणे नवा व्हिडिओ कोणा विशिष्ट व्यक्तीच्या आवाजात आणि ती विशिष्ट व्यक्ती बोलते आहे, अशा पद्धतीने दाखवणं शक्य होऊ लागलं आहे.
हे अत्यंत घातक अशासाठी आहे की, कोणतीही व्यक्ती बोलतानाचा एखादा व्हिडिओ समोर आला, की तो खरोखर त्या व्यक्तीने तयार केलेला आहे, त्यात मांडलेले विचार खरोखर त्या व्यक्तीचे आहेत, का तो डीपफेक तंत्रज्ञान वापरून भलत्याच कोणी तरी तयार करून त्यांचे शब्द त्या व्यक्तीच्या तोंडी दिलेले आहेत, हे समजायला काहीही मार्ग नसतो.
तंत्रज्ञानाची फारशी जाण नसलेल्या सर्वसामान्य माणसाला तर नसतोच नसतो. त्यामुळे अमुक व्यक्ती ही तमुकच बोलत आहे, असं सांगून ज्या व्यक्तीची बदनामी करणारे किंवा निवडणूक प्रचारामध्ये मतदारांवर प्रभाव पडणारे व्हिडिओज तयार करणं, हे खूप मोठ्या प्रमाणावर व्हायची शक्यता आहे.
कदाचित हे घडायला सुरुवातही झाली आहे. असे डीपफेक पद्धतीने अपप्रचारासाठी तयार केलेले व्हिडिओज हे सोशल मीडियावर टाकले जातात. ते तिथे प्रचंड वेगाने व्हायरल होतात आणि एकदा व्हायरल झाले की ते सर्व ठिकाणाहून काढून टाकणं किंवा डिलीट करणं हे केवळ अशक्य असतं.
असे व्हिडिओज आणि त्यातून केल्या जाणाऱ्या कोणत्याही प्रकारच्या अपप्रचारापासून स्वतःचा बचाव करायचा असेल तर दोन मार्ग आहेत. त्यातला पहिला मार्ग म्हणजे व्हाॅट्सॲपवर आलेल्या कोणत्याही व्हिडिओवर विश्वास ठेवायचा नाही. व्हिडिओत बोलणारी व्यक्ती खरोखर असं काही बोलली आहे का हे आपल्याला जाणून घ्यायचंच असेल तर त्या व्यक्तीच्या अधिकृत चॅनेलवर, म्हणजे फेसबुक, इंस्टाग्राम, युट्युब किंवा ट्विटरवरच्या त्यांच्या अधिकृत पेजवर जाऊन, खरोखर तिथे त्यांनी असा कुठला व्हिडिओ प्रकाशित केला आहे का, हे तपासून घ्यायचं. तिथे असा काही व्हिडिओ नसेल तर मात्र व्हाॅट्सॲपला आलेला व्हिडिओ पुढे न पाठवता डिलीट करून टाकायचा!
थोडक्यात, समोर आलेल्या कुठल्याही थेट व्हिडिओवर विश्वास न ठेवणं. ठेवावासा वाटलाच तर व्हिडिओ खरा आहे का याची स्वतः खातरजमा करून घेणं आणि तो खरा नसेल तर तो पुढे न पाठवता तो डिलीट करून टाकणं, या सोप्या उपायांनी डीपफेकसारख्या अपप्रचार करण्यासाठी वापरल्या जाणाऱ्या अत्यंत घातक तंत्रज्ञानापासून स्वतःचा बचाव आपण करू शकतो. करत राहुया. prasad@aadii.net