'एलिझा'शी सहा आठवडे गप्पा मारल्यावर आत्महत्या केली; बेल्जियममधील धक्कादायक घटना
By ऑनलाइन लोकमत | Published: April 1, 2023 09:17 AM2023-04-01T09:17:53+5:302023-04-01T09:18:05+5:30
“चॅटबॉटशी संवाद साधला नसता तर, माझे पती अजूनही हयात असते, याची खात्री आहे” असे पत्नीने माध्यमांना सांगितले.
आर्टिफिशियल इंटेलिजन्सवर (एआय) आधारित चॅटबॉट ‘एलिझा’सोबत सलग सहा आठवडे संवाद साधल्यानंतर एका व्यक्तीने आत्महत्या केल्याची धक्कादायक घटना बेल्जियममध्ये घडली. हे संभाषण ‘गोंधळात टाकणारे आणि हानिकारक बनले’ आणि त्याला आत्महत्या करण्यास प्रवृत्त केले. चॅटबॉट माणसाला आत्महत्या करण्यास भाग पाडू शकते, असा दावा त्याच्या पत्नीने केला. “चॅटबॉटशी संवाद साधला नसता तर, माझे पती अजूनही हयात असते, याची खात्री आहे” असे पत्नीने माध्यमांना सांगितले.
रिपोर्ट्सनुसार, दोन वर्षांपूर्वी पतीला पर्यावरणाबाबत-हवामान बदलाबाबत अत्यंत चिंता वाटू लागली. मग त्याने एलिझासोबत संवाद साधण्यास सुरुवात केली. एलिझाने त्याच्या सर्व प्रश्नांची उत्तरे दिली. चॅटबॉट त्याचा विश्वासू बनला होता. व्यसन जडल्याप्रमाणे, तो सकाळपासून रात्रीपर्यंत त्याच्याशी संवाद साधायचा, जसे की तो त्याच्याशिवाय जगू शकत नाही. एलिझाने पृथ्वीची काळजी घेण्यास आणि कृत्रिम बुद्धिमत्तेद्वारे मानवतेचे रक्षण करण्यास सहमती दर्शविल्यास स्वतःचा त्याग करण्याची कल्पना त्याने मांडली होती. पण, चॅटबॉटने त्याला परावृत्त करण्याचा प्रयत्न केला नाही, असे स्थानिक दैनिकांनी पत्नीच्या हवाल्याने म्हटले आहे.
मंगळवारी पत्नीने डिजिटल विभागाचे राज्य सचिव मॅथ्यू मिशेल यांचीही भेट घेतली आणि भविष्यात असे पुन्हा घडू नये यासाठी बेल्जियम सरकारला चॅटबॉट्सच्या वापरावर नियमन आणि बंदी घालण्याचे आवाहन केले. मिशेल यांनीही अशा घटना रोखण्याची गरज असल्याचे म्हणत चिंता व्यक्त केली. तर, “एआयची सुरक्षितता सुधारण्यासाठी काम करत आहोत” असे एलिझा तयार करणाऱ्या कंपनीने सांगितले.