每天我们都可能与某种形式的人工智能(AI)互动。从社交媒体和交通导航应用程序到产品推荐和虚拟助手,它在所有内容中均在后台运行。
人工智能系统可以执行通常需要人类智能的任务或做出预测,建议或决策。他们的目标是由人类设定的,但是系统的运作没有明确的人类指示。
随着AI在我们的工作和家庭生活中扮演着越来越重要的角色,人们开始提出疑问。我们如何愿意信任AI系统?对于如何部署和管理AI,我们有什么期望?
为了找出答案,我们在2020年6月和2020年7月对全国超过2500名澳大利亚人进行了抽样调查。我们的报告由毕马威会计师事务所(KPMG)制作,由妮可·吉莱斯皮(Nicole Gillespie)领导,显示澳大利亚人总体上并不了解如何使用人工智能,对AI系统几乎没有信任,并认为应该对其进行仔细的监管。
大多数人接受或容忍AI,很少人赞成或接受AI
信任对于AI的广泛接受和采用至关重要。但是,我们的研究表明,澳大利亚公众对信任AI系统存有矛盾。
我们将近一半的受访者(45%)不愿意与AI系统共享他们的信息或数据。五分之二(40%)的人不愿意依赖AI系统的建议或其他输出。
此外,许多澳大利亚人并不相信AI系统的可信赖性,但是更多的人认为AI是胜任的,而不是被设计为具有完整性和人性化。
尽管如此,澳大利亚人普遍接受(42%)或容忍AI(28%),但很少有人赞成(16%)或接受(7%)。
人工智能比业务更受研究和国防的信任
在开发和使用AI系统时,我们的受访者对澳大利亚的大学,研究机构和国防组织出于公共利益最有信心。(超过81%的人至少有中等信心。)
澳大利亚人对商业组织开发和使用AI的信心最差(37%的信任度为“低”或“低”)。这可能是由于大多数(76%)相信商业组织使用AI来获取经济利益而不是社会利益的事实。
这些发现为企业提供了与更受信任的实体(例如大学和研究机构)合作的机会,以确保以符合道德和可信赖的方式开发和部署AI来保护人权。他们还建议企业需要进一步思考如何以可以为利益相关者和整个社会创造积极成果的方式使用人工智能。
绝大多数(96%)的澳大利亚人期望对AI进行监管,而大多数人则期望外部,独立的监督。大多数澳大利亚人(超过68%)对联邦政府和监管机构对公众最大利益的监管和管理AI抱有中等至高度的信心。
但是,当前的法规和法律未能达到社区的期望。
我们的发现表明,对AI信任的最强驱动力是相信当前的法规和法律足以使AI安全使用。但是,大多数澳大利亚人不同意(45%)或对此持矛盾态度(20%)。
这些发现表明,有必要加强监管澳大利亚AI的法规和法律框架,并与公众进行交流,以帮助他们适应使用AI。
部署人工智能系统后,澳大利亚人期望什么?我们的大多数受访者(超过83%)对他们希望组织在AI系统的设计,开发和使用中坚持并得到信任的原则和实践有明确的期望。
这些包括:
高标准的强大性能和准确性
数据隐私,安全性和治理
人事代理与监督
透明度和可解释性
公平,包容和不歧视
问责制和竞争性
减轻风险和影响。
如果有确保标准和监督的保障机制,大多数澳大利亚人(超过70%)也将更愿意使用AI系统。其中包括独立的AI伦理审查,AI伦理认证,关于AI可解释性和透明度的国家标准以及AI行为准则。
组织可以通过清楚地支持和实施道德规范,监督和问责制,在适当的时候建立信任并使消费者更愿意使用AI系统。
AI知识差距
大多数澳大利亚人(61%)表示对AI的了解不高,包括对如何以及何时使用AI的意识不高。例如,尽管有78%的澳大利亚人报告使用社交媒体,但几乎三分之二(59%)的人不知道社交媒体应用程序使用AI。在过去的一年中,只有51%的人报告甚至听说过关于AI的信息。鉴于我们日常生活中使用了多少AI,这种低意识和了解是一个问题。
好消息是,大多数澳大利亚人(86%)想更多地了解AI。当我们综合考虑这些因素时,人工智能的公共扫盲计划便有其需求和胃口。
一个这样的模式来自芬兰,芬兰支持政府支持的AI素养课程,旨在教授500万以上的欧盟公民。到目前为止,已有530,000多名学生注册了该课程。
总体而言,我们的研究结果表明,可以通过加强管理AI的监管框架,不辜负澳大利亚人对可信赖AI的期望以及增强澳大利亚的AI素养来提高公众对AI系统的信任。