黄爱龙:加强人工智能应用中的个人隐私保护
全国政协委员,九三学社重庆市委会副主委,重庆医科大学校长黄爱龙:
加强人工智能应用中的个人隐私保护
人工智能需要大量个人数据支撑,其中很多是个人隐私。隐私信息一旦泄露,可能对消费者人身、财产安全及企业、公共利益造成严重威胁。加强隐私保护,不但是人工智能开发、应用中的伦理道德底线,还是保障公民依法享有《宪法》《民法典》等所规定的人格权、隐私权的重要体现。
从2020国家网络安全宣传周“App个人信息保护”发布活动上了解到,工业和信息化部联合相关单位连续两年开展App违法违规收集使用个人信息专项治理。2020年累计巡查4.8万余款App,专项检查了200余款App,依法处置了7000余款存在违法违规行为的App。可见,问题App占比很大。各部门下了很大力气,制定技术规范、建立举报平台、督促问题整改,取得了很好的效果。
App安全认证制度是一项很好的措施。但目前认证的App数量较少,需要进一步推广,提升实施效果。希望监管部门持续开展治理工作,进一步扩大工作范围,加大处罚力度,提高违法违规成本,对违法违规行为形成有力震慑。加强对举报平台的宣传推广,鼓励公众积极参与提供问题线索,完善公众权益救济渠道,形成全民监督的良好社会氛围。在《App违法违规收集使用个人信息行为认定方法》统一标尺的基础上,针对金融、安防、医疗、教育等重点领域,出台有针对性的细化办法。
另外,我建议隐私信息采集应区分“战时”和“平时”,并坚持“最小够用”原则,比如,“健康码”采集的信息,疫情过后再使用的话,要有相关规定;“行程码”显示的行程信息,建议由逐一列出手机使用者去过的地区,调整为只列出去过的中高风险地区。
同时,建议构建“制度+科技”治理机制,政府、司法、行业、企业等多方协同治理,在推进人工智能应用的同时有效保护隐私。