咨询热线:0212-302609572

‘华体会手机版下载’让AI模型“说人话”的背后:AI可知论与不可知论的纠葛缠斗

本文摘要:现在人类对AI的应用,就像带着母亲去餐厅睡觉一样,母亲们不仅想知道不吃,还想知道这些菜是怎么做的。就像神经网络越高效,我们就越奇怪黑盒子里发生了什么。至今为止,我们对AI说明性的执着可以分为两个层次。 一是从技术角度探索神经网络黑箱的运行机制,二是从社会角度更好地说明AI技术原理。计算机科学家们还没有暂停神经网络黑箱突破的探索,但也有多次具体应对的人,执着AI的说明性是好主意。 去年年底,谷歌大脑负责人GeoffHinton在拒绝接受媒体采访时说过AI不能说明的理由。

华体会手机版下载

现在人类对AI的应用,就像带着母亲去餐厅睡觉一样,母亲们不仅想知道不吃,还想知道这些菜是怎么做的。就像神经网络越高效,我们就越奇怪黑盒子里发生了什么。至今为止,我们对AI说明性的执着可以分为两个层次。

一是从技术角度探索神经网络黑箱的运行机制,二是从社会角度更好地说明AI技术原理。计算机科学家们还没有暂停神经网络黑箱突破的探索,但也有多次具体应对的人,执着AI的说明性是好主意。

去年年底,谷歌大脑负责人GeoffHinton在拒绝接受媒体采访时说过AI不能说明的理由。其中最重要的一点是,他指出很多人不能很好地说明自己决定的理由,强迫人说明自己的不道德,结果很可能是让人说不正当的谎言。

AI也一样,也许擅自在AI算法中添加了可解释性,得出结论的结果很可能只是说明市场需求的答案,不能充分发挥希望。GeoffHinton可以说是忠实的AI不知论支持者。

让人工智能模型说人工智能,但几天前,佐治亚理工学院推出了一种让人工智能用人工智能语言解释他们不道德的模型。模式整体的训练过程,创建在青蛙过马路的古老游戏中。在游戏中,玩家必须操纵青蛙前后左右逃离交易车辆,顺利到达道路对面。

佐治亚理工学院利用这个机会收集了很多人类样品,让人类实验员玩游戏,追溯整个游戏过程,说明了有自己每一步的动作的意图。比如,向左走是因为想逃离后方的车,向前冲刺是因为漂浮的荷叶正好回到自己面前。这样,自然语言和游戏控制可以结合起来建立同样的结构。

把这个模型转移到AI的训练中,最后AI每次展开一步的动作,都会用自然语言说明自己的意图。实验者可以根据四个维度对AI的不道德和说明进行评价。这四个维度分别是信赖(指出AI的这一步行动是正确的)、人性化(指出这是人类采取的行动)、理由充分(语言说明与不道德行动有关)、可解读性(可以理解得到的自然语言说明)。由此可以对AI的游戏能力和自我描述能力开展联合训练。

佐治亚理工学院开发的这个模型,给AI的可解释性带来了新的角度突破。AI展开错误决策时,可以清楚地看到AI错在哪里。

例如,在游戏中青蛙被路过的汽车撞倒,游戏结束了。通过自然语言的说明,AI可能没有想起逃离汽车而结束,或者已经想起了,但是因为想法和道德不顺利而结束了。后期开展参数调整时,可以更具体地找到问题。

更重要的是,这个过程几乎是人类的自然语言传达的,普通人也可以看到问题再次发生的整个过程,解读。技术的说明权还没有被信息技术知识的基础允许,更多的人可以参加AI训练。

AI从这里可以看出是进入技术的方向灯吗?但是,小青蛙模型不能解决GeoffHinton提到的AI不可知论的许多问题。首先,让人说明自己不道德,然后把语言和不道德建立对应关系的游戏限制在度上并不低。在小青蛙过马路这种非常简单的游戏中,人类可以清楚地说明自己的不道德。

但是,回到场景中,我们经常像Geoff-Hinton说的那样,自己也不知道自己决定的原因。尤其是在一些场景中,比如行车时碰撞马路上的动物还是碰撞其他车辆,人们自身的自由选择往往陷入道德困境而无法统一,如果与AI的决策模式有天然的差异,就无法构成语言描述与不道德之间的同构。另一个是,让AI自我说明这种不道德的投入和产量比如何?自然语言处理是AI领域非常不可撕裂的硬骨头,如果AI说人话的模式成为标准的话,结果不是所有领域的AI模型都要开展相关的训练吗?也就是说,未来实现智能呼叫产品的企业,为了AI的说明性,必须采用NLP领域的人才的未来,实现人脸识别产品的企业,为了AI的说明性,必须采用NLP领域的人才……NLP专业学生和仅次于胜利者。这样给AI产业带来的巨大成本,如何复盖面积?世界正在等待AIX在GeoffHinton发表AI不知论后,很多社会学专家拒绝了。

其中剑桥智能未来中心的研究人员明确提出,AI在事物效率上的提高和对社会的影响,本来就无法分离辩论,Geoff-Hinton这样的科学家,如果指出自己破坏了社会语境和政策语境,在研究过程的开始就回顾方向的可能性很高。但是,AI的理解论和不理解论之间,最核心的问题是AI经常出现问题该怎么办?的双曲馀弦值。’的双曲馀弦值。

不明论者指出,当人工智能经常出现问题时,我们应该像算法训练过程一样,在发现问题后立即进行有针对性的训练和纠正。然而,由此可见,论者指出,如果人工智能在现实场景中经常出现问题,一切都会迟到。现在的重要任务是让更多的社会角色参加AI的研究开发,在普遍的现实中应用需要从多个角度找到问题。

正因为如此,佐治亚理工学院这个让AI说人话的项目经常出现。在AI学会说人的话之前,AI和人之间、AI专家和其他专家之间还没有出现相当严重的交流断层。在非常宽的时间内,AIx的跨领域人才很受欢迎。


本文关键词:‘,华,体会,手机,版,下载,’,让,模型,“,现在,华体会

本文来源:华体会-www.nicktrew.com