私隐公署发布AI个资保障框架涵盖,钟丽玲倡机构据风险,决定人为监督程度

发布时间:2024-06-12 11:37

香港个人资料私隐专员公署昨日发布《人工智能 (AI): 个人资料保障模范框架》,涵盖4大范畴,包括括制订AI策略及管治架构;进行风险评估及人为监督;实行AI模型的定制与AI系统的实施及管理;以及促进与持份者的沟通及交流。个人资料私隐专员钟丽玲今早(12日)在电台节目表示,香港企业使用AI有上升的趋势,希望《框架》为机构使用人工智能系统时提供指引,持续监督AI系统,降低个人资料外洩的风险,特别是风险高的范畴,应加强人为监督。

钟丽玲

▲个人资料私隐专员钟丽玲。资料图片

香港企业使用AI有上升的趋势

▲钟丽玲表示香港企业使用AI有上升的趋势。资料图片

钟丽玲:AI医疗诊断属高风险 医护人员须监督每项流程

钟丽玲表示,现时亦有个案显示,员工将客户个人资料或程式码、原始码输入到AI系统,或令有关的AI系统使用有关的资料回答其他用户问题,变相披露公司机密。因此《框架》内亦有提到如何小心应用相关资料。而《框架》亦建议根据AI系统使用的风险, 决定人为监督的程度,例如人工智能协助为疾病断症,就属于高风险,因而每个流程都应有医护人员审核,减低AI出错的机会。她续称,如果只提供资料予客户的人工智能系统,风险相对便较低,或可全自动化操作。

钟丽玲:《框架》涵盖人工智能事故应变6步骤

她又提到AI事故包括被人恶意向AI数据库进行恶意投毒、数据库生成错误、违法或涉歧视信息等,《框架》涵盖涉及人工智能事故应变系统的6个步骤,先介定是否属于人工智能系统的事故,监察事故是否继续发生,继续作出通报,防止事故扩大,作出调查以及如何复原等。她又说,如人工智能事故涉及私隐,亦有机会涉及道德问题,机构都要注意。

方保侨

▲香港资讯科技商会荣誉会长方保侨。资料图片

方保侨:人工智能生成图像或出现版权争拗

香港资讯科技商会荣誉会长方保侨在同一节目表示,现时常用的人工智能包括有生成式AI或客服常用的聊天机械人等,不少程式也预载了人工智能系统,产生的问题亦不少,包括个人资料有机会外洩。他举例指,有公司分析将客户资料放入消费模式,有机会令私隐或者数据的外泄。

方保侨指,人工智能发展迅速,现在的指引可能未能追得上相关的发展,因此需要不时修订,需要使用人工智能系统,例如想分析资料数据等,又想避免个人资料外洩,他建议公司在输入客户资料时,先删去或模糊客户的名字,或转换另一个模式存放入大数据。

他提到,现时有机构已制订人工智能使用守则或监察机制,但始终受限于公司规模及科技的发展程度。

他续称使用人工智能亦有机会产生版权问题,例如可能有不少人用人工智能绘图,制作图片,但制作过程中,学过或用过的图片可能本身已有版权。另外,生成出来的插图或图片又是否拥有版权,人工智能系统或机械人又是否拥有相关图像的版权,都是全球正在讨论的议题。

以上内容归星岛新闻集团所有,未经许可不得擅自转载引用


热门文章