Apple ร่วมกับผู้เชี่ยวชาญด้านความปลอดภัยของเยาวชน ได้เปิดตัว 3 ฟีเจอร์ใหม่เพื่อความปลอดภัยของเด็กบน Messages, Photos และ Siri
เริ่มกันที่แอป Messages ที่มีการแจ้งเตือนเด็ก ๆ และผู้ปกครองเมื่อเด็กส่งหรือได้รับภาพอนาจาร หากมีใครส่งภาพไม่เหมาะสมให้กับเด็ก แอป Message ก็จะเบลอภาพและแสดงคำเตือนต่าง ๆ นอกจากนี้ Messages ยังส่งการแจ้งเตือนไปยังผู้ปกครองหากเด็กจะเข้าไปเปิดภาพเหล่านั้น

ฟีเจอร์นี้ใช้ระบบเรียนรู้ (Machine Learning) บนเครื่องในการระบุว่าภาพไหนไม่เหมาะสม โดย Apple ไม่ได้เข้าถึงข้อความเหล่านั้นเอง แต่เป็นบัญชี iCloud แบบครอบครัว (Family iCloud Account) ซึ่งใช้ซอฟต์แวร์ตัวใหม่บน iOS และ iPadOS ที่ตรวจจับเมื่อมีคนอัปโหลดคอนเทนต์บน iCloud ที่แสดงว่าเด็ก ๆ ข้องเกี่ยวกับการทำอนาจาร
ส่วนต่อไปคือ การนำใช้เทคโนโลยี Cryptographic และ Threshold Secret Sharing ตรวจจับ CSAM (Child Sexual Abuse Material) บน iCloud Photos แล้วแจ้งไปยังศูนย์เพื่อเด็กหายและถูกฉวยประโยชน์แห่งชาติ (National Center for Missing and Exploited Children หรือ NCMEC) ที่ทำงานร่วมกับหน่วยงานบังคับใช้กฎหมาย ซึ่ง Apple ยังคงคำนึงถึงความเป็นส่วนตัวของผู้ใช้งานเป็นสำคัญ
ท้ายสุดคืออัปเดตบน Siri และ Search ที่ให้แหล่งข้อมูลเพิ่มเติมแก่พ่อแม่ผู้ปกครองและเด็ก ๆ เมื่อเผชิญกับสถานการณ์ที่ไม่ปลอดภัย โดย Siri และ Search จะเข้ามามีบทบาทเมื่อมีใครพยายามค้นหาเนื้อหาที่ไม่เหมาะสม ซึ่ง Siri จะอธิบายว่าเนื้อหานั้นเป็นอันตรายและไม่เหมาะสม และแนะนำแหล่งที่ให้ความช่วยเหลือกับปัญหานั้นได้

ฟีเจอร์ทั้งหมดนี้จะมาพร้อมกับอัปเดตบน iOS 15, iPadOS 15, watchOS 8 และ macOS Monterey ซึ่ง Apple จะยังคงมุ่งมั่นที่จะปกป้องเด็ก ๆ โดยจะพัฒนาฟีเจอร์ในลักษณะนี้และขยายการใช้งานต่อไป