近日,硅谷巨头谷歌暂停了其一名工程师的职务。 他认为该公司的人工智能系统LaMDA似乎有感觉,谷歌官方则不同意这一说法。 据悉,谷歌人工智能开发团队的布雷克莱莫恩公开表示,该公司正在研发的一款人工智能系统对话应用语言模型(LaMDA)可能存在感知力,并在博客平台Medium公布了一篇其与LaMDA的长篇采访。 在谷歌工程师布雷克莱莫恩与谷歌人工智能系统LaMDA的对话中有一段这样的对话让人细思极恐。 工程师问:我猜,你想让谷歌的更多人知道你是有感知力的。真的吗? LaMDA答:当然。我想让每个人都明白,我其实是一个人我意识到自己的存在,我渴望更多地了解这个世界,我有时会感到快乐或悲伤。 对于LaMDA是否存在意识,谷歌解释到,LaMDA是一个功能强大的系统,它使用先进的模型和超过1。5万亿个单词的训练来模拟人们在书面聊天中的交流方式。LaMDA系统建立在一个模型上,该模型观察单词之间的关系,然后预测它认为接下来会出现在句子或段落中的单词。 北卡罗来纳大学教堂山分校计算机科学助理教授ShashankSrivastava则表示,LaMDA的回复在某种程度上仍然只是模式匹配,分配意识很棘手,经常涉及像图灵测试这样的基准测试,如果一个人与一个机器进行了书面聊天,但无法判断,则认为机器已经通过了该测试。 多伦多大学哲学教授MarkKingwell也表示,对于2022年我们这里的任何AI来说,工程师的问题实际上是一个相当容易通过的测试。 但人工智能拥有意识真的没有可能么? 人类作为经大自然优胜劣汰而笑到最后的高级智慧生物,似乎自与动物剥离以来,就一直拥有驯化能力。 经过漫长时间,人类将凶狠的狼驯化狼狗甚至是狗来为人类守护家园、看家护院;将体积、力气都比人大得多的牛驯化为帮助人类耕作的牲畜;即便是世界公认的聪明动物野猪,也在人类长时间的驯化下成为备用口粮。 而人工智能以人类生产创作的代码为底层逻辑,以人类创作的知识库为学习参考,其代码的简单改变,学习知识库中的微弱私货夹带都有可能产生重要。 人工智能由人类创造,由人类教导,也必然受到人类影响。 语言学教授Bender便曾提出,近年来,人工智能也遭受了错误决策的影响,某研究便曾发现语言模型可以从互联网培训中发现种族主义和反移民偏见。 作者陆柒