人工智能正加速在金融、汽车、医疗、教育等行业的应用,特别是在智能客服等方面,已经替代了以前人工客服的一些工作。人工智能确实提升了工作效率,但也引起了一些恐慌。特别是 AlphaGo打败人类围棋大师彻底激发了大众对人工智能的争论,人工智能是会替代人类,还是使人更强大?
除此之外,牵扯到的一些伦理问题也亟待解决。如果一部人工智能操控的存货机器人撞伤了仓库工人,如果人工智能医生出现了误诊,谁将对此负责?目前,谷歌等许多知名公司已经成立了伦理委员会,监控人工智能技术的研发和部署。
近日提出“公民AI”概念,企业不应只是训练人工智能执行特定任务,而必须提高人工智能系统的责任意识,将其“培养”成为负责任的企业员工,为社会进步作出重要贡献。
人工智能能力快速增长,在社会中的应用面也日渐宽泛。从美国第一个人工智能律师ROSS到中国地震台网用机器写出的第一篇新闻稿,人工智能已经从一个单纯的技术工具发展成为人类的合作伙伴。在这样的背景下,企业应如何看待人工智能技术,怎样更好地为我所用?
人工智能:从程序化运营到自我学习
试想一下,一套机器学习系统希望在图片中找到一只狗,并分辨出品种。为此,大量带有“标记”的图片不可或缺:一组图片教会系统识别狗的位置,其他图片集则用于区分不同犬种。在监督学习模式下,图像通过手动标记,不仅告知系统动物位置,同时也说明其种类。
随着科技的发展,这种以程序方式构建的、仅可完成种类极为有限任务的人工智能系统已过于陈旧。并行处理技术和人工智能算法的发展,进一步刺激了深度神经网络的爆发式增长,AI得以突破单一程序的局限,拥有超越预期的行动能力。
人工智能系统获取的数据越多,其预测效果就越精准。在上面提到的识别宠物及其品种的实例中,测试数据集可以包括一幅在复杂或纷乱背景中存在多只宠物的图像。一旦模型达到了所需精度,就可在生产环境中使用。
鉴于人工智能参与做出的决策会给人类生活带来越来越多的影响,企业需要培养AI的责任意识,教会他们商业与社会规范。通过培养AI的责任感,企业可以创建具有不同技能的人工智能组合。在完成培训后,这些技能模块可以在企业内流通,按需使用。同时,AI还可以通过接受继续教育,适应新的工作要求。通过对AI做出社会责任方面的培训,企业有望创造出有能力、善合作的AI员工。
但,有一个前提——企业必须拥有准确的数据。弗吉尼亚大学的一项研究发现,人工智能会放大预料中的性别偏见,将站在炉灶旁的男性全部归类为女人。
在拥有了AI员工后,通过创建培训课程,消除数据偏见显得尤为重要。企业的人工智能系统需要从基本原则开始,随后逐步依照设定的分类机构建立技能。
企业还必须确保,无论AI的沟通对象是客户、员工、还是其他人工智能系统,双方都拥有相同的认知背景。企业还必须为正在收集和分享的各项模型标明出处,由此确保可复制的模型和训练数据之间的联系。如果能对数据录入加以整理,尽量消除各种偏差,建立良好的归档、组织和正确标记,企业就能建立起强大的AI模型库,反复对其利用。
创建更易懂、负责任的人工智能
在企业和社会中,对决策结果作出说明至关重要。88%的受访高管均表示,当企业利用人工智能进行决策时,确保员工和客户理解其决策原则非常重要。企业必须构建和培训其人工智能系统,以人们能够理解的方式清楚诠释其行为。
随着AI更加广泛而紧密地融入社会中,它所带来的直接影响和冲击将会是全方面的——从财务决策、医疗保健,一直延伸到刑事司法,乃至更广阔的领域。企业在培养人工智能方面的责任也将不断增加。欧洲议会已开始考虑授予机器或机器人有限的“电子人格”,类似于判定责任或损害时所使用的“法人”概念。
如果企业不主动提高AI的“心智”成熟度,法规和公众就会反过来对其提出要求,甚至整个人工智能行业都将因为AI的责任缺失受到严格监管控制。令人欣喜的是,《埃森哲技术展望2018》发现,72%的高管表示,所在企业正设法提高AI决策与行动的透明度,以此获取客户的信任和信心。这将是AI融入社会的关键一步。
2020-02-15 11274
2018-01-03 10452
2021-03-18 7731
2021-08-04 6811
2018-06-01 6602
2019-06-22 6027