人工智能伦理与治理

采取跨学科的管理方法,在支持敏捷创新的同时,确保对人工智能系统的有效治理。

负责任地规模化人工智能

人工智能给企业带来了前所未有的机遇,但也带来了超乎想象的责任。人工智能系统的输出结果对人们的生活有着实质性影响,围绕人工智能伦理、数据治理、信任与合法性引发了一系列问题。交给人工智能的决策越多,企业承受的风险就越大,例如声誉、雇佣/人力资源、数据隐私、健康和安全等方面的状况。然而根据埃森哲的一项全球调研,88%的受访者均对基于人工智能的决策缺乏信心。

那么,我们如何才能信任人工智能?

负责任的人工智能是一种设计、开发和部署人工智能的实践模式,旨在增强员工和企业的能力,并公平地影响客户和社会——从而帮助企业生成信任并充满自信地规模化人工智能

为了建立对人工智能的信任,企业必须在了解负责任的人工智能原则基础上,并将这些原则付诸实践。

坚定信心

利用负责任的人工智能,企业可以塑造关键目标并建立治理战略,创建推动人工智能和业务蓬勃发展的系统。

最大程度减少无意识的偏见

将责任植入到人工智能系统当中,确保算法和底层数据尽可能公平公正、且具有代表性。

确保人工智能的透明度

为了使员工和客户建立信任,应开发可解释的人工智能系统,具备跨越流程和职能的透明度。

为员工创造机遇

支持企业中的每位员工都可以对人工智能系统提出质疑或担忧,并且能够有效地管理技术,同时避免抑制创新。

保护隐私和数据安全

恪守优先考虑隐私和安全的方法,确保永远不会违背伦理地使用个人和/或敏感数据。

造福客户和市场

通过为人工智能创建伦理基础,可以降低风险并打造全面有益于股东、员工和整个社会的系统。

查看全部

实现负责任的人工智能

采用有助创新的跨学科方法,可以帮助您从设计最初就将责任植入到人工智能系统当中。

运营:建立所需的治理方式和系统,支持人工智能蓬勃发展。

技术:确保系统和平台值得信赖,并且可以通过设计来加以解释。

组织:普及新的工作方式,促进人机协作。

声誉:阐明负责任人工智能的使命,并确保其锚定于企业的价值观、伦理边界和问责结构。

运营技术组织声誉

共同努力降低风险

基于我们负责任人工智能方法的每一支柱,针对企业的具体需求进行研讨。

运营研讨会

利用一套定制化的负责任人工智能原则,帮助您建立治理战略、塑造关键目标,并概括描述期望的结果。

技术研讨会

构建并部署可信赖、可通过设计解释的人工智能模型、系统和平台。

组织架构研讨会

确定新的、且不断变化的角色,并查看需要在哪些领域提高和重塑技能、或招募人才,由此适应新的工作方式。

声誉研讨会

以企业的核心价值观为基础,以品牌和公共风险评估与指南为依据,阐明负责任的业务使命。

查看全部

在规模化之前及早发现人工智能偏见

算法评判是一项技术考核,有助于识别和解决整个业务中人工智能系统的潜藏风险及意外后果,由此围绕人工智能决策生成信任并构建支持系统。

首先,应对人工智能的各种用例做出排序,确保评估和纠正具有最高风险和最大影响的模式。

一旦定义了次序,接下来就通过我们的算法评判进行衡量,其中涉及支持人工智能开发各个阶段的一系列定性和定量检查。评判包括四个关键步骤:

  1. 考虑不同的最终用户,围绕系统的公平性目标设定评判标准;
  2. 测量并发现,不同用户或群体之间可能出现的结果差异、以及偏见的来源;
  3. 使用推荐的补救策略减缓所有意外后果;
  4. 随着人工智能系统的发展进化,利用标记并消除未来结果差异的流程持续监控系统。
算法评估包含四个关键步骤:(1)目标设定(2)测量并发现(3)减缓(4)持续监控

思想领袖

订阅中心
关于我们的新闻中心 关于我们的新闻中心