Apple नवीन सॉफ्टवेयरवर काम करत आहे जो iCloud Photo चे विश्लेषण करेल आणि बाल लैंगिक अत्याचाराचे (Child Sexual Abuse) फोटोज शोधेल. हा नवीन सॉफ्टवेअरचा वापर युजर्सचे iCloud मध्ये सेव केलेले फोटो तपासून सांगेल कि यात बाल लैंगिक अत्याचाराचे फोटोज आहेत कि नाही. जर एखाद्या युजरच्या अकॉउंटमध्ये असा कंटेंट आढळला तर त्या अॅप्पल युजरची माहिती पोलिसांना दिली जाईल. अॅप्पलच्या या सॉफ्टवेयरमुळे युजर्सच्या प्रायव्हसीला धक्का लागेल परंतु बाल लैंगिक अत्याचारच्या गुन्ह्यांना आळा बसेल.
ब्लूमबर्गने दिलेल्या माहितीनुसार, Apple च्या आयमेसेज अॅपमधून पाठवले जाणाऱ्या आणि रिसिव्ह केल्या जाणाऱ्या फोटोजचे विश्लेषण करून ते बाल लैंगिक अत्याचाराशी संबंधित आहेत कि नाही ते बघितले जाईल. असा एखादा फोटो सापडल्यास त्वरित अॅप्पल सर्वरला अहवाल पाठवला जाईल. अॅप्पलचे फिचर फक्त मेसेज पुरते मर्यादित राहणार नाही सिरीच्या माध्यमातून बाल लैंगिक अत्याचारासंबंधित कंटेन्ट शोधल्यास त्यात सिरी हस्तक्षेप करू शकते, असे रिपोर्टमध्ये सांगण्यात आले आहे.
एखाद्या युजरच्या अकॉउंटमध्ये मोठ्या प्रमाणावर बाल लैंगिक अत्याचाराचा कन्टेन्ट आढळल्यास कंपनी मॅन्युअली त्याचा तापास करेल आणि याची माहिती नॅशनल सेंटर फॉर मिसिंग अँड एक्सप्लॉइटेड चिल्ड्रेन संस्थेला देईल. Apple ने सांगितले आहे कि कंपनी युजर्सच्या iCloud मधील इमेजेस देखील स्कॅन करेल. अॅप्पलचे हे पाउल कदाचित युजर्सना आवडणार नाही कारण त्यांच्या खाजगी फाईल्स देखील क्लाऊडवर असतात. यावर कंपनीने प्रोग्रॅम फक्त CSAM (Child Sexual Abuse Material) चे विश्लेषण करण्यासाठी फोटोजचा वापर करेल, असे म्हटले आहेत.