作者:福布斯日本 翻译:石家庄陀螺科技AI研究员马丰敏 近年来,随着人工智能(AI)在全球范围内不断应用,关于人工智能的讨论也不断展开,关键词以人为本的AI被提出来。 今年3月,谷歌著名的AI研究员李飞飞率先在斯坦福大学成立了以人为本的AI研究所(HAI)。次月,日本内阁府制定了人工智能社会原则,其中包括以人为本的原则。 AI 讨论以人为本的AI,首先应该明白一个哲学问题,哲学要在假定人工智能对社会的好处的同时,也认真考虑人工智能对人类的不利影响。以人类为本的人工智能就在此前提下展开讨论。 那么,以人为本的AI是究竟什么类型的AI?实际上,这没有明确的答案,一切都还在讨论之中。 尽管尚未定义人类和AI的关系(并且将来也不太可能确定),但是AI问题已在世界范围内出现,人们总是要寻找一种应对的方案,此种情况下出现了一种使用负面清单方法寻求以人为中心的AI的运动。1以人为本的AI的特点是什么? 首先,有一种观点认为以人为本的AI应该是公平的AI。如果学习数据存在偏差,则机器学习会增加偏见和歧视。在国外,某些种族被认为具有较高的累犯率,或者面部识别系统的识别率较低,所以他们可能处于不利地位。 AI对抗人类 另外近年来,人工智能已越来越多地用于招聘和面试,公平的AI讨论也包括对不因性别,种族等因素产生偏见的AI。 接下来,可解释性和透明度对于实现以人为本的AI也是必不可少的。深度学习是高度准确的,但人类不能解释为什么这样。这就是所谓的黑匣子问题,但是当结果出了问题时,就无法做出原因澄清和责任判断,这对人类有很多不利之处。 第三是对攻击和恶意攻击具有强大抵抗力的人工智能。如果恶意人员更改了学习数据或使用手段引起误识别,则以人为本的AI必须能够承受这种情况。 机器人 近年来,通过技巧欺骗图像识别的AI技术(恶意样本)也是一个热门话题。能够抵御攻击和恶意意图的AI是可以被视为研究的重点,尤其是在保护人类生命的自动驾驶领域。2有很长的路要走吗? 有一种争论认为,以人为本的AI应该是不损害人类决策的AI。 该讨论基于这样的假设,即在诸如SNS之类的数字空间中会生成大量文本,或者会对诸如深层伪造之类的视频生成技术产生滥用或误用。 随着AI的普及,计算世界将产生人眼无法看到的复杂的、大规模的信息。应该基于特定人的利益进行信息过滤,即AI不应参与发送恶意信息。 还有一种辩论认为,以人为中心的AI应该是不会抢占人类工作的AI。但是,研究和开发AI的目的就是来代替人类工作,因此这样的讨论很有限。 这样,对以人为本的AI的技术要求非常高,并且实现之路似乎很遥远。将来,每当暴露出AI的弊端时,都应该更新概念。因为这些很难实现,所以这将是一个巨大的商机。 另一方面,产生的问题是,除非个人或社会本身是公平的,否则可能无法实现公平的AI等。这是因为,在技术出现之前,人类的思维方式和与之相关的价值观会产生更大的影响。 人工智能将会快速的发展,并且与以人为本的AI发展同时,不久就会产生以人为本的人社会哲学。 更多商业资讯、营销技术、获客工具,请关注石家庄陀螺科技