斯坦福和平创新实验室Margarita Quihuis:用价值重新定义技术产品 | 科技向善大咖说
腾讯研究院
2019年9月,腾讯研究院开始陆续深入访谈全球业界与学界大咖,围绕「何为科技向善」、「如何理解科技向善」的问题,广而寻求见解与共识。包括最著名的网络社会学家卡斯特教授、斯坦福和平科技实验室创始人玛格丽塔教授、创业者/硅谷投资人邵亦波先生、搜狗创始人兼CEO王小川先生、北京大学国家发展研究院BiMBA商学院院长陈春花女士、北大社会学系邱泽奇教授、清华传播学系金兼斌教授、北师大复杂科学系张江教授等等,从不同的背景与专业出发,分享了各自的思考。
与此同时,我们还将陆续发布的【科技向善案例集·产品行动】;【科技向善·大哉问】等等。
「科技向善」这场大型社会实验的下半场才刚刚开始,而且没有终点,而且每个人的行为都会影响它的实验结果。每一个数字公民,都无法置身事外。
若你有更多关于科技向善的好想法,请联系我们。
tencentresearch@tencent.com
【科技向善大咖说·第一期】
斯坦福大学和平创新实验室(Peace Innovation Lab)主任,斯坦福大学说服技术(Persuasive technology)实验室的研究团队成员,负责研究创新,游戏设计思维等。同时,Margarita也是一位行为设计师和社会企业家,专注创新、技术孵化和企业家精神。
斯坦福和平创新实验室致力于研究、制定标准帮助技术产品变得更加公平、多元、友好,这种实践和科技向善的理念一脉相承,研究院与斯坦福和平创新实验室对话,探索科技如何向善的可能性。
腾讯研究院: 你如何评价过去几十年中,互联网产品和服务带来的改变?它带来最显著的成就和最大的问题是什么?
Margarita Quihuis: 对于当下的每个人来说,新兴的技术产品让人类拥有更多可能性。比如,90年代初的互联网有极强的人道主义目的,它将人们团结在一起、让家庭重聚,真诚地相互连接,这在历史上是绝无仅有的。
然而,让我们没有想到的是技术的武器化。在90年代初期很多人认为,人们会像对待另一个人一样对待技术。然而在现实里的人与技术互动中,技术其实无法像人一样去影响另一个人,它会直接说服人们去做一些事情,在后续的测试中技术的这种说服力也被证实。这说明技术有潜在的威胁,同时也没有太多人关注并说我们如何去避免技术的威胁。在这种环境中,很多人在不知不觉就利用技术做了坏的事情。如果将技术比喻成影响说服力,会发现世界上优秀的领袖鼓舞说服别人成为更好的人,同时也有邪教组织利用说服力驱使人们做糟糕的事情。这些说服的技能和策略是相同的,只是看它被用于好的结果还是坏的结果。
显而易见的是,技术已经被用于做坏的事情,但是我们没有意识到问题的严重性,更别说评估它的风险,所以我们也无法从社会、经济、政治的层面采取任何措施。这也是为什么斯坦福大学希望关注技术带来的问题,去研究技术伦理学、产品设计伦理等。我们希望创造一个基于价值而非基于效用的世界,只追求利润、投入回报比、商业战略会让企业损失很多,比如损失信誉、尊重,这种损失是用金钱难以弥补的。
腾讯研究院: 作为一个行为设计师(behavior designer),您如何将价值伦理运用到产品实践中?
Margarita Quihuis: 我们有一套数据标准,可以用这套标准去测量产品,让测试结果来说明产品效果是不是人看期待看到的。不同的产品经理看待世界的方式不同,他们做出来的产品对用户影响的差异也会很大。比如,Twitter是由四位男性设计的,很多男性对安全的敏感度远远没有女性强,身为女性的我们如果置身于一段糟糕的关系中,我们也许会被困住被骚扰,甚至有遭遇暴力的风险,如果这种风险发生在Twitter平台上,可能很难被男性工程师感知,但试想一下,如果发现这种风险的是女性工程师,她们也许会提出一些方法在阻止这些潜在暴力的发生。
我们下一步要做的是将我们的标准产品化,是一套可以记录的嵌入代码,可以检测到用户是否正在遭受骚扰或是发生异常,然后请工程师立即修正它。它最好的一点在于,如果事情正在往不好的方向发展,我们能早早发现苗头加以控制,而不是像50年前,香烟已经对人们身体产生负面影响,而直到多年后癌症出现才意识到这个问题。
面对人工智能,我们也建立了Human-Centered Artificial Intelligence (HAI), 去探究当下的算法的公正性如何。因为算法是人在设计和控制,但他们甚至可能并不知道机器和数据集本身是含有偏见的,计算机进一步学习有偏见的数据,产生有偏见的结果。这就跟教育孩子一样,人们不会故意教小孩子一些不好的东西,都希望他们礼貌、正直。机器和数据是一样的道理。
腾讯研究院: 技术公司践行「科技向善」的动力何在?
Margarita Quihuis: 有一些外部动力。政法监管部门出台相关法律,严厉打击科技公司,认为互联网平台上的某些功能成为暴力事件的帮凶,其平台效应是推动者。外部的强监管很快让互联网产品变得安全。
同时,有很多年轻企业家,他们确实希望做正确的事情,用技术让世界变得更加美好。我们可以为他们提供工具和框架,他们也十分愿意采用,因为他们正在变得越来越价值导向。
事实上,我们的社会正在面临严重的问题,气候危机、社会极化、信任崩塌,如果我们无法信任彼此,就无法协作解决当下的难题。所以更多的年轻一代会意识到,如果不去做正确的事情,去解决真正的问题,我们甚至会难以生存。
腾讯研究院: 在实践科技向善的过程中,最大的挑战是什么?意识还是行动?
Margarita Quihuis: 我们觉得最重要的意识的变化,然后才有做某事的欲望。但是当下的情况是,很多企业在转变的过程中害怕风险,或者不知道如何改变,所以我们致力于研究系统性创新,帮助企业实现积极的转变。
腾讯研究院: 和平创新实验室如何定义自己的角色?更倾向于和年轻企业家合作,还是独立制定标准?
Margarita Quihuis: 我们制定标准,并将标准工具化给予企业使用。同时,我们也跟企业合作,理由很简单,谁具有充足的人力、资金来创新性解决问题?当然是企业。我花很多时间去跟想要做创新和转型的公司CEO沟通,帮助他们制定转型策略,我的要求是他们的业务必须对社会产生积极的影响、塑造合格的公民。我认为,对于很多已有市场规模的公司来说,还有很多有社会意义的事情可以做,同时这些事情可以盈利,也可以解决社会问题,并且我们可以用技术的方式快速实现这些需求。这是需要创造力和勇气的事情,有CEO惊喜地发现「哇,这真的可以实现!」所以,我们的机构更像一个保护伞,帮助企业开始一些创新性的尝试。
腾讯研究院: 您怎样看待当下人工智能产品中的隐私问题?是否有好的解决方案?
Margarita Quihuis: 当下的算法黑箱很像90年代的芯片黑箱问题,消费者并不关心电脑中的是AMD还是Intel芯片,于是Intel就在品牌战略活动中,请第三方来评估芯片的安全性,并将审查证书呈现给消费者,消费者当然愿意购买安全性更高的芯片。目前的苹果隐私上的策略也是这样,它会说:我们的手机和技术将保护您的隐私。隐私在某种意义上成为了奢侈品,所以苹果的售价也更高一些。但是这种隐私策略让一些人成为了苹果的死忠粉,最终隐私保护变成了市场竞争优势。
腾讯研究院: 您如何理解「科技向善」?
Margarita Quihuis: 我们做的事情和「科技向善」是一脉相承的。我们经常谈论伦理道德,不要这样做,不要那样做。但如果从一张白纸开始,我们想要生活的世界是什么样的?有花、有草、有新鲜空气……然后我们开始填充这张图片,并逐渐让它成为现实。如果我们从不想要的东西出发,工程师会无从下手,所以我们需要彻底想象10年、20年后我们期待怎样的世界,并朝着这个方向努力。我们需要拥有技术,并尝试找到目标,将其传达给工程师们。总而言之,技术不是目的,创造更好的世界才是。
--END--