湖南科技网 湖南科技网-科技创新战略,引领时代先锋

可解释的人工智能:4个关键行业

2019-06-13 12:00 已围观87次 来源:每日新闻 编辑:张馨予

 

  1.医疗保健行业

  就像医疗保健行业一样,人工智能对于保险行业可能会产生深远的影响,但信任、透明度、可审计性是绝对必要的。

  但这绝对是一个有相当大影响的领域。只需考虑关键的保险类别就可以感受到这些影响,例如生活、业主、健康、员工补偿等等。Sanchez表示,可解释的人工智能将非常重要;建议人们思考这些问题,而每个问题也适用于其他领域:

  考虑到这一点,各种人工智能专家和IT领导者为此确定可解释人工智能必不可少的行业和用例。银行业是一个很好的例子,可以这么说,可解释的人工智能非常适合机器在贷款决策和其他金融服务中发挥关键作用。在许多情况下,这些用途可以扩展到其他行业,其细节可能会有所不同,但原则保持不变,因此这些示例可能有助于思考组织中可解释的人工智能用例。

责编:baiyl

  IBM Watson物联网高级产品经理Heena Purohit指出,在制造行业中,现场技术人员在诊断和修复设备故障时往往依赖“部落知识”,也有一些行业也是如此。部落知识的问题在于团队成员变动频繁,有时甚至是显着的:人员流动频繁,他们的专业知识也会改变,而这些知识并不总是被记录或转移。

 

 

 

  Deshpande说,“但是如果不能解释是如何得出答案的,就不能使用它。这是因为‘黑盒’人工智能系统存在偏见的风险,这可能导致诉讼、对企业品牌以及资产负债表的重大责任和风险。”

 

  可解释的人工智能可以让人们理解人工智能系统是如何做出决定的,而这将成为医疗、制造、保险、汽车领域的关键。那么这对于组织意味着什么?

 

根据人口统计数据决定是否向某人发放信用卡或贷款

 

 

 

 

 

 

  在诊断和修复设备故障时,现场技术人员通常依赖“部落知识”。

 

法国布雷斯特商学院MBA班招生
法国布雷斯特商学院DBA班招生

  Ness数字工程公司首席技术官Moshe Kranc对可解释人工智能的潜在用例进行了探讨,他说,“任何影响人们生活的用例都可能受到偏见的影响。”其答案既简单又深远。

 

监管机构可以访问并了解此人工智能的工作原理吗?

 

 

 

 

 

  3.保险行业

 

  这是可解释人工智能的一个试金石——即机器学习算法和其他人工智能系统,它们可以产生人类可以容易理解并追溯到起源的结果。基于人工智能的结果越重要,对可解释人工智能的需求就越大。相反,相对低风险的人工智能系统可能只适合黑盒模型,人们很难理解其结果。

  他分享了一些越来越多地可能由人工智能做出决定的例子,但这从根本上需要信任、可审计性和其他可解释人工智能的特征:

 

 

  IT领导者需要采取措施确保其组织的人工智能用例在必要时正确地包含可解释性。 TigerGraph公司营销副总裁Gaurav Deshpande表示,许多企业首席信息官已经关注这个问题,即使他们了解到特定人工智能技术或用例的价值,他们通常还有一些犹豫。

  这些都是高风险的情况,尤其是在出现负面结果的情况下,人们可能需要明确地解释是如何得出特定结果的。在许多情况下,审计师、律师、政府机构和其他潜在当事人也会这样做。