随着人工智能(AI)应用日渐普及,有调查显示,逾8成在职人士于工作上使用AI。个人资料私隐专员钟丽玲表示,私隐专员公署将于本月发表《人工智能:个人资料保障模范框架》(简称《模范框架》),为机构在采购、实施和使用人工智能系统处理个人资料时,提供一系列有关管治及减低私隐风险的建议。
管理人工智能 须以人为本
钟丽玲表示,私隐专员公署于去年8月至今年2月,合共向28间本地机构进行循规审查,以了解相关机构在开发或使用人工智能时收集、使用及处理个人资料的情况。结果显示,公署在是次循规审查过程中未有发现有违反《私隐条例》相关规定的情况。
钟丽玲表示,人工智能的安全是国家安全的重点领域之一,公署推出《模范框架》,是体现国家于去年10月提出人工智能治理倡议,即使于用人工智能时,发展与安全需并重,并且须以人为本来管理人工智能。
钟丽玲进一步解释,机构使用人工智能时,需要极大量资料,包括个人资料,私隐公署看到此趋势,须让机构考虑如何保障个人资料的安全,故希望帮助一些机构,特别是中小企于处理及使用AI的流程时,符合私隐专员公署的规定。
管治团队应包含不同部门
钟丽玲指,《模范框架》是根据商业机构的流程设计出来,相当实用及容易使用,当中包括一系列管治考虑,如成立人工智能管治委员会团队,不应只有资讯科技的同事,而是不同部门的同事亦可参加,用家的意见亦要参与,同时要委托专家处理AI方案,如服务提供者有否符合国际准则,数据质量如何,是否从合法途径得来。
套取生物辨识 务必特别小心
另外,私隐专员公署早前裁定一个机构以虹膜扫瞄装置在香港收集巿民的虹膜及面容影像,违反私隐条例。钟丽玲表示,该类套取生物辨识的个人资料有增加趋势,市民大众是要特别小心,因为该类个人资料是独一无异,亦不可改变,市民必须小心保障自己,不要随便将生物辨识的个人资料交出。
钟丽玲指,私隐专员公署亦处理一些个案,有员工投诉公司使用人面识别的技术才能进入办公室,公司期后取消相关要求,因为根据《私隐条例》,收集个人资料的目的是否必须,有否超乎适度,及相关保安,与及是否有私隐侵犯程度较低的替代方案,“员工上班亦可使用其他方案,如职员证核实身份,其实是否已足够,係咪一定要去到面容识别呢?要视乎个别情况。”她又指,外国过去曾有超市使用人面识别收集大量个人资料,经执法机构调查后,最终亦停止使用。
以上内容归星岛新闻集团所有,未经许可不得擅自转载引用。