申请试用
登录
AI伦理与治理
人工智能正迅速发展,深刻地改变人类社会生活、改变世界。为促进新一代人工智能健康发展,加强人工智能法律、伦理、社会问题研究,积极推动人工智能全球治理,商汤科技成立了AI伦理与治理委员会,并发布《AI可持续发展白皮书》。
首页 > 关于商汤 > AI伦理与治理
“双面算法”圆桌论坛:AI也会作恶,科技向善应以人为本 | 搜狐科技5G&AI峰会
2021-05-17

5月17日,由搜狐科技主办、央广网作为战略支持媒体参与的“2021搜狐科技5G&AI峰会”在北京开幕。峰会大咖齐聚,共同探讨5G和AI技术的最前沿发展以及应用落地情况。

image.png

过去一年,网约车司机、外卖员被困在系统里的话题迭起,他们的处境也受到了社会广泛的关注。峰会下午的圆桌论坛则聚焦“双面算法”,以《被困在算法里的人:社会需要怎样的AI》为主题,邀请到清华大学新闻与传播学院教授、常务副院长陈昌凤,商汤智能产业研究院创始院长田丰,货拉拉CTO张浩参与讨论。

在讨论过程中,搜狐公司董事局主席兼CEO张朝阳也在台下与台上嘉宾发起互动,引发了一场AI技术善和恶的大讨论。本场论坛由科技智库甲子光年创始人、CEO张一甲主持。

 

怎么去看待算法?陈昌凤认为,算法就是为了要解决问题,并且找到决定和决策。田丰表示,算法是帮助人类进化的必需的工具和过程。张浩则称,算法是规则的精细化,算法可以把人的意图实现地完美无缺,它是为规则制造者服务的。

 

张朝阳在互动中提到,AI是一种对人类大脑的延伸,大大地提升了效率,提升之后会爆发出巨大的力量。但爆发出来以后,一定会带来伦理问题、法律问题。“我认为目前最大的问题是个人隐私问题。”张朝阳说。他还表示,在科技非均匀地爆发式发展,尤其在突发性发展的时候,相应的伦理道德和相应的法律都要同时齐头并进。

 

对于AI与科技向善的关系,陈昌凤表示,人和技术最初的时候,是人应用技术,接着是技术成为人的延伸。她认为,应该让善的人主导科技,向善的科技是以人为本的科技,底线原则是以人为本。

 

田丰则认为,现在不应把人当机器去用,所有的社会问题都是把人当机器管控,我们应把机器当人看,赋予机器学习正确的伦理观和价值观,提升社会的整体福祉。

 

以下为《被困在算法里的人:社会需要怎样的AI》的部分精彩观点。


怎么看待算法?


张浩:算法是规则的精细化,今天人工智能还做不到对创造性的东西进行主导,但是一定规则之内,算法可以把人的意图实现地完美无缺,这是算法的价值和边界,算法是为规则制造者服务的。

 

田丰:算法只是把我们的产业功耗,人与人之间的情感伦理的价值观数字化出来。如果未来是经济大航海时代,肉体是一个牵绊,人必须要实现数字孪生,这是一种进步,并不一定是困扰我们。算法是帮助人类进化的必需的工具和过程。

 

陈昌凤: 算法就是为了要解决问题,并且找到决定和决策。就是你刚才说到的选择。它的主要的手段应该是通过计算,利用计算去解决问题,并且找到自己决定的一个系统的过程。

 

张一甲: 刚才的回答和人工智能都没有关系。如果没有人工智能,算法可能相对好理解,只是代替人做人不愿意做或者懒得做的事情。不存在试错,不存在误差,它执行就好了,那是专家时代的算法,或者算法只是非常小的辅助作用,就像一本书也是把思想呈现给别人。但到了人工智能之后,算法慢慢在某种意义上逐渐地进入甚至是侵蚀人类很多的脑子需要做的事情,。我相信不会有一个工程师刻意写一套算法希望让一个小哥出车祸。但是在AI的运行逻辑下,事实造成了恶的结果。

 

田丰:人类是算法的父母,因为我们不断地喂真实数据给AI。人类社会充满不公平和偏见,人类确实不是完美父母,所以要求算法孩子一生下来就比父母还完美,有点不太合理,人类父母和算法孩子都需要时间来变得更好。从另一个方面来看,AI是一个快速提升效率的工具,算法可能造成较大的负面影响,这也是人类必须重视的客观风险,不管是骑手还是消费者,如果影响到公共道路上第三方安全的时候,这就是算法应承担和持续改进的责任,产品设计者就需要纠偏。

 

算法是不是吞金兽?

 

田丰:AI伦理的责权利边界是由三个核心要素共同决定,国家安全、国际规则、公民权利,这是一个动态平衡。每个国家都在努力做好,但是在不同时间阶段会有不同的优先级,比如在疫情期,中美欧都选择了国家安全第一。

 

陈昌凤:我觉得田院长画的图是一个大数的考虑,刚才三角是同一个逻辑上面的,既然不是同一个逻辑意义上很难做二元选择。

 

张浩: 不管是外卖还是出行都会遇到类似的问题。其实现在我们的AI离真正到底选择左还是右边的问题很远。

 

张一甲: 今天的AI已经超过了技术中性论的过程,在此时此刻真正的技术一线从业者,你们做的事情,尤其是货拉拉、滴滴这样的平台,某种意义上就是要影响很多人的福祉。

 

张朝阳: 首先关于AI是一种对人类大脑的延伸,大大提升了效率,因为我们人类大脑的记忆能力、存储能力、图象识别能力是很强的,但是容量不是那么大,或者经常忘记。AI可以把我们的图像识别能力延伸,帮助我们大大提升效率,提升之后会爆发出巨大的力量。


但像当时的原子能被释放出来一样,AI一定会带来伦理问题、法律问题。我们在今天讲AI的另外一面,这是非常重要的问题。不能一味说AI多么伟大,要大力发展,但我们自己被困住了。当前更具体的是什么?我觉得物流领域配送员的压榨问题,这是一个相对小的问题。我认为最大的问题是个人隐私问题。AI的技术在法律伦理上、道德上,同时在AI技术高速发展的情况下,如何解决个人隐私问题的解决,这是当前的问题。

田丰:商汤智能产业研究院持续研究AI治理,并在今年提了多个重要建议,其中很多还在多方专家的探讨、创新过程中。第一,个人隐私等生物特征数据建议保存在有公信力的AI训练平台上(国家数据银行或区域公共数据银行),在可信公共数据平台上,能集中采用数据安全技术(隐私计算、区块链等),并让数据使用留痕,便于追溯数据风险与责任。这样个人隐私包括生物特征数据是可用、可控、可追溯。 

第二,分级分类数据治理,比如每个人的基因数据一旦泄露造成影响是不可逆的,就需要更高强度的安全加密等保护体系, 相信不远的将来,在智能新基建浪潮中,针对数据交换、共享、开放需求,会基于AI超算中心建设有公信力的公共数据集创新平台。并且在机器学习的训练数据上,避免数据不完整引发的算法偏见。

 

张一甲: 真实世界的数据就是有偏见的。互联网数据本身就不是一个好的数据池子,不是一个干干净净和公平的池子。

 

田丰:有人的地方就不公平,这很正常,包括安全的保护,端到端的。很多时候算法训练出来以后是不是可解释,现在还是人工智能早期。

 

陈昌凤:人和技术之间的关系一直是很复杂,从技术层面来说,人和技术最初的时候是人应用技术,接着是技术成为人的延伸,接着技术成了我们的一部分。我们换一种思维去思考的话,可以不做二元对立,我们可以说技术是可以成为人的一部分,人不可缺少的一部分,这个时候如何让这部分更好,让这部分为我所用?

人和技术之间有很多变量,这些变量关系。今天在座的企业都在用算法、智能化,它们是会成为一个人和技术之间特别重要的关系的作用者。我们还是要找本质的关系,人和技术之间到底怎么相处?我相信人类一开始之所以成为人类其中一个重要的因素就是他会使用技术,所以人类会作为一个技术的主控者。


AI能否实现科技向善?


张一甲:我自己有一个担忧,人之所以成为是人使用技术,人有一天不再成为人,是从放弃了技术的主观控制权开始。人现在有一个主观地放弃数据,还有就是从大数据学习来的,不是自己做的选择。

 

陈昌凤:霍金等都认为技术对人类有很大破坏,但是仍然在开发技术,这是一个悖论。这个悖论,人类要面对现实,我们就要从悖论中间找到更适合,更利于人类的,更符合人本性的东西。

 

张浩: 科技向善和AI并不矛盾。我自己从业的经验可以看到很多公司在逐渐调整这方面,包括骑手困在算法之中。一开始大家希望用系统和算法提高效率,但逐渐发现当初的设想是偏差的。任何事情都需要所有的行业逐渐朝科技向善的方向努力,我们现在很多公司最开始只考虑当时当刻的效率,不考虑整体的生态、司机、用户、群体,不仅对体系有损伤,对个体的体验也会进一步损伤。现在很多行业做法逐渐把规则优化,算法是规则的延续。

 

张朝阳: 科技进步不是连续的曲线,是突发性的。当时蒸汽机的发明,后面原子核能的释放,计算机的发明,互联网的产生,以及AI有点爆炸的状态。但是在整个过程中,我们一定要知道,科技不一定是好的。

知道了这一点,在科技非均匀地爆发式发展,尤其在它突发性发展的时候,相应的伦理道德和相应的法律都要同时齐头并进。科技是生产力,科技能够更高更强更大,在科技进步过程当中,伦理、道德、法律一定要齐头并进跟上,每个人从事科技的时候,要记住这件事情可能爆发巨大的灾难。

 

陈昌凤:科技作恶,实际主宰者还是人,不是科技本身在作恶。

 

张朝阳: 但是在法律形成过程中更多是曾经性定义,未到达的水域只能通过公司发生问题,解决问题,反映到国家法律,制定法律,这是一个操作的路径。在过程中可能某些企业,一些物流公司、配送公司出现一些问题,出现问题,解决问题,确立问题。因为你根本不知道怎么定法律,只能通过操作型的出现问题,解决问题。当然自己首先要有良心,而且要知道道德上的指引。

 

陈昌凤:只要有经济活动就一定有工具理性和价值理性的冲突,这是必然的。这两者的冲突恰恰需要通过外力,因为伦理或者我们的自律,人很难做到理性,这个时候需要外力,他律和法律。工具理性和价值理性的冲突,在所有的技术发展时期都有。企业肯定首先要想到效益最大化,效益最大化是工具理性的最大特征。要保护隐私,还有其它对于美的追求,信仰的追求,这种东西很可能跟你的效益最大化是冲突的。

 

田丰:现在特别好的进展是在细分领域已经出现了行业指导规则与企业自律机制,2019-2020年全球都是形而上的提各种AI伦理原则,现在已经逐步落实在汽车出行、家居教育、公共医疗等领域,说明AI伦理保护在切实有效地推进。

更好的AI需要哪些行为准则?

 

田丰:我自己在不断探讨AI伦理的研究,但是每个企业和每个人都有认知的边界,我们特别倡议在AI伦理研究上一定要跨界,一定邀请法律专家,高校伦理专家,甚至产业专家,大家共同多维度探讨,保证到所有场景里面的利益相关方的价值,某些一个没有看到就可能会引爆变成导火索。人工智能是放大效应,可以放大善,也可以放大恶。我们如何在产品之前评估风险,风险的提前防范和评估,会成为后期不管是合规还是行业自律的非常重要的核心。

 

陈昌凤:向善的科技应该是以人为本的科技,底线原则是以人为本。现在底线原则变成了高线原则,但是很难做到,以人为本是向善的科技的核心。

 

张一甲:以人为本听起来特别简单,但是特别难,以人为本是主语还是宾语,是用法当工具的人,还是被算法困住的人?实际某种程度并没有解决社会公平的问题,包括信息茧房的问题,包括那些司机和外卖小哥变得很无奈,变成了被工具的人。

 

张浩:以人为本,我们全体社会每一个人一块参与,我对这个事情非常有信心。

 

田丰:现在不应把人当机器去用,所有的社会问题都是把人当机器管控,我们应把机器当人看,赋予机器学习正确的伦理观和价值观,提升社会的整体福祉。

 

陈昌凤:要让善的人主导科技。

推荐阅读