आर्टिफिशियल इंटेलिजन्सवर (एआय) आधारित चॅटबॉट ‘एलिझा’सोबत सलग सहा आठवडे संवाद साधल्यानंतर एका व्यक्तीने आत्महत्या केल्याची धक्कादायक घटना बेल्जियममध्ये घडली. हे संभाषण ‘गोंधळात टाकणारे आणि हानिकारक बनले’ आणि त्याला आत्महत्या करण्यास प्रवृत्त केले. चॅटबॉट माणसाला आत्महत्या करण्यास भाग पाडू शकते, असा दावा त्याच्या पत्नीने केला. “चॅटबॉटशी संवाद साधला नसता तर, माझे पती अजूनही हयात असते, याची खात्री आहे” असे पत्नीने माध्यमांना सांगितले.
रिपोर्ट्सनुसार, दोन वर्षांपूर्वी पतीला पर्यावरणाबाबत-हवामान बदलाबाबत अत्यंत चिंता वाटू लागली. मग त्याने एलिझासोबत संवाद साधण्यास सुरुवात केली. एलिझाने त्याच्या सर्व प्रश्नांची उत्तरे दिली. चॅटबॉट त्याचा विश्वासू बनला होता. व्यसन जडल्याप्रमाणे, तो सकाळपासून रात्रीपर्यंत त्याच्याशी संवाद साधायचा, जसे की तो त्याच्याशिवाय जगू शकत नाही. एलिझाने पृथ्वीची काळजी घेण्यास आणि कृत्रिम बुद्धिमत्तेद्वारे मानवतेचे रक्षण करण्यास सहमती दर्शविल्यास स्वतःचा त्याग करण्याची कल्पना त्याने मांडली होती. पण, चॅटबॉटने त्याला परावृत्त करण्याचा प्रयत्न केला नाही, असे स्थानिक दैनिकांनी पत्नीच्या हवाल्याने म्हटले आहे.
मंगळवारी पत्नीने डिजिटल विभागाचे राज्य सचिव मॅथ्यू मिशेल यांचीही भेट घेतली आणि भविष्यात असे पुन्हा घडू नये यासाठी बेल्जियम सरकारला चॅटबॉट्सच्या वापरावर नियमन आणि बंदी घालण्याचे आवाहन केले. मिशेल यांनीही अशा घटना रोखण्याची गरज असल्याचे म्हणत चिंता व्यक्त केली. तर, “एआयची सुरक्षितता सुधारण्यासाठी काम करत आहोत” असे एलिझा तयार करणाऱ्या कंपनीने सांगितले.