中國日報網10月7日電 蘋果近期發布了三項保護兒童安全的新功能,其中一項為"信息通信安全",會掃描13歲以下用戶的iMessages,識別和模糊化色情圖片,并在孩子打開或發送含有此類圖片的信息時提醒父母。乍聽之下,這可能會是保護兒童不受性侵的一個好方法,事實上,這種方法可能會得不償失。
雖然所有的父母都希望孩子安全,但對許多孩子來說,這是不現實的。尤其是LGBTQ+的青少年面臨著父母實施暴力和虐待的危險,離家出走的可能性是其他青少年群體的兩倍,而這一類孩子占總寄養人數的三成。此外,他們更有可能因缺乏性教育而發送露骨圖片。一旦父母發現了這些短信,就會暴露孩子們的性偏好,可能會導致兒童遭受家庭暴力,甚至無家可歸。
由于這一功能所依托的技術在檢測有害圖像方面不太可能特別準確,因此此功能的弊也許會大于利。據稱,蘋果將使用“設備上的機器學習來分析圖像,并確定照片是否具有性暗示”。由13歲以下的用戶持有的蘋果賬戶發送或接收的所有照片都將被掃描,如果該賬戶與指定的父母賬戶相連,則將向家長發送通知。
目前還不清楚這種算法的效果,也不清楚它能準確檢測到什么。一些性暴露內容的檢測算法是根據皮膚顯示的百分比來標記內容的。例如,該算法可能標記出一對穿著泳衣的母女在海灘上的照片。如果兩個年輕人互相發送一張衣著暴露的名人照片,蘋果就可能向他們的父母發送通知。
計算機視覺存在眾所周知的難題,而現有的算法(如檢測人臉的算法)有諸多缺點,包括經常無法檢測到非白人的臉。蘋果的系統出現誤差的風險特別高,因為大多數學術界發表的裸體檢測算法都是以成年人的圖像作為檢測對象的。蘋果沒有提供任何有關所使用算法的詳細信息,所以不知道效果如何,特別是在檢測年輕人自己拍攝的圖像方面。
這些算法準確性的問題令人擔憂,因為它們有可能對年輕人產生誤導。當人們過分熱衷于判定行為“壞”或“危險”時——甚至是青少年之間分享泳裝照片,會干擾年輕人的判斷能力,讓他們無法察覺真正什么對他們真正有害。
事實上,這個功能還告訴年輕人,他們沒有隱私權。剝奪年輕人的隱私和同意權,與聯合國兒童基金會關于防止在線和離線兒童性剝削和虐待的循證指南所建議的完全相反。此外,這一功能不僅會造成傷害,還會讓私人談話暴露在光天化日之下,包括政府的監視。
在設計技術以保護年輕人的網絡安全方面,需要做得更好,并從讓可能受傷害的人自己參與安全系統的設計開始。讓受技術影響最大的人參與進來,是防止傷害和讓技術更有效的解決途徑。到目前為止,青少年還沒有成為技術企業或研究人員所考慮的因素。
必須記住,單憑技術不能解決社會問題。重要的是將資源和努力集中在預防有害情況的發生上。例如,通過遵循聯合國兒童基金會的指導方針和基于研究的建議,推進實施全面的、人們同意的性教育計劃,可以幫助青少年安全地了解性行為,培養健康的性觀念。
(編譯:金怡蘿 編輯:王旭泉)