申请试用
登录
热点聚焦
面向政府机构、企业、智库以及行业协会等组织机构,商汤智能产业研究院以研究和赋能为核心,建设开放、合作的产业生态。
首页 > AI伦理与治理 > 热点聚焦
商汤田丰: AIGC与大模型风险治理技术涌现
2023-03-06

在本次论坛上,上海市委统战部二级巡视员、上海市欧美同学会党组书记李霞为上海标准《信息技术人工智能系统生命周期治理指南》(以下简称《治理指南》)工作组核心编写成员颁发聘书,核心成员来自上海市人工智能行业协会、市软件开发中心、信通院华东分院、商汤科技、华东师范大学等五家单位。


开发者大会图1颁发聘书.JPG


“AIGC的快速发展推动‘基础模型即服务’模式加快落地普及。”田丰院长在《AIGC伦理与治理初探》演讲开篇中这样讲到,AIGC发展进入快车道,市场规模也正加速扩大,有分析预计,2023年至2032年全球生成AI市场将以27.02%的复合年增长率增长,2032年将达到1180.6亿美元左右。


田丰认为,在以AIGC为代表的人工智能产业高速发展的同时,其伦理治理风险也应受到关注,比如国内外多家核心期刊对学术发表中使用人工智能工具做出了严正回应,而除了学术造假和作弊等问题外,AIGC还会引发版权和虚假信息等问题。综合来看,AIGC伦理治理风险主要涉及应用风险、模型风险和数据风险。具体来看,应用风险主要包括滥用风险、就业替代、伦理冲突和不公平竞争;模型风险主要包括算法偏见、算法黑箱、后门嵌入和代码漏洞;数据风险主要包括版权保护、隐私保护、数据偏差和数据投毒。


田丰表示,商汤长期高度重视AI伦理治理,多年来成功建设伦理风险库,成立“人工智能伦理与治理委员会”,全面建立产品伦理风险审查机制,实现产品伦理风险分级分类管理,并建设伦理治理技术与管理工具箱。


对于实践方面的探索,田丰结合六个应用实例对商汤的AI伦理治理进行了介绍:比如数字水印技术,可实现对多图层(PSD)格式文件添加水印,在无损视觉效果的基础上,还保障了文件的真实性和可溯源性;而结合数据投毒技术,对创作者作品添加不可见扰动,可以使其风格无法被深度学习模型拟合,从而对作者独特的创作风格进行保护;创新性的数据沙箱模式可以在保护数据隐私的前提下,通过隐私传输,联合计算,让数据发挥最大价值等。


此外,商汤还建立了覆盖产品全生命周期的伦理审查体系,从设计阶段的自我审查、开发阶段的风险评估、部署阶段的伦理风险审核到产品上线后的跟踪审查,提供可信任的全栈AI伦理审查服务。


面对AIGC、大模型创新浪潮,伦理风险与安全机制尤为重要,商汤科技智能产业研究院院长田丰透露将会推出人工智能安全开放平台。该平台的目标是打造广泛验证使用的可信任的全栈AI安全服务,在深度模型安全上,平台提供模型体检(涵盖对抗安全、鲁棒性以及后门安全评估)和开源的防御解决方案。在内容创作保护上,平台提数字水印功能,并且利用投毒技术保护图片信息不被深度生成模型所利用。


展望未来,商汤将继续在AI伦理治理道路上贡献自己的力量,作为一家人工智能企业,我们也诚挚邀请各界共同打造开放、可信的人工智能创新生态,让技术赋能产业升级和创新发展。


推荐阅读