谷歌计算机的学习能力太强了。据每日邮报报道,科学家霍金与美国连续创业家伊隆·马斯克都曾警告称人工智能变得太聪明非常危险,甚至导致人类灭绝。现在谷歌团队又向这个噩梦般的假设迈近了一步,正教授其神经网络系统如何保密。计算机系统已经学会如何保护自己的信息,以躲避人类窥探。到底是怎么回事呢?请看看光电工程师社区为您分享的内容吧。 来自谷歌Brain团队的研究人员马丁·阿巴迪与戴维·安德森发表论文,阐述计算机网络如何通过使用简单的加密技术,确保信息安全。谷歌的研究团队专注于深度学习领域,利用大量数据进行研究。谷歌的计算机系统是基于人类大脑神经网络的工作原理设计的,这种计算机又被称为“神经网络”。研究人员在论文中写道:“我们想知道神经网络是否能学习使用密匙,以便对其他神经网络保密信息。具体来说,我们主要想确保在多智能体系中确保保密性能。” 研究人员表示,他们创建了由爱丽丝与鲍勃组成的神经网络系统,同时限制名为艾娃(Eve)的第三方神经网络窃听爱丽丝与鲍勃之间的通信。爱丽丝、鲍勃以及艾娃都是参与实验的计算机科学家和物理学家的名字。为了确保信息保密,爱丽丝必须将它的纯文本信息转变成毫无意义的代码。这意味着任何拦截到信息的人,包括艾娃,都无法理解信息内容。当然,鲍勃可以理解爱丽丝的“密文”,但其他人不行。最初,爱丽丝与鲍勃并不善于隐藏信息,但是在经过多次实践后,它们的表现越来越好,甚至让艾娃难以获得有效信息。研究人员称,这是巨大突破,因为神经网络被设计得并不善于加密信息。 美国加密公司PKWARE的乔·斯特隆纳斯表示:“这种规模的神经网络在最近几年才成为可能,而我们找到了它的起点。”可是就在不久前,霍金还曾警告AI可能产生自我意识,而这种意识很可能与人类意识相冲突。这预示着,强大的自动化武器可能非常危险。但是如果进行充分研究可以避免危险,AI就可以帮助人类根除疾病和贫困。 看完上面的内容后,大家是不是觉得科学技术太强大呢?光电社区上面还有很多关于人工智能的文章,请大家看看哦。 |





|手机版|搜索|焦点光学|光电工程师社区
( 鄂ICP备17021725号-1 鄂网安备42011102000821号 )
Copyright 2015 光电工程师社区 版权所有 All Rights Reserved.
申明:本站为非盈利性公益个人网站,已关闭注册功能,本站所有内容均为网络收集整理,不代表本站立场。如您对某些内容有质疑或不快,请及时联系我们处理!
© 2001-2022 光电工程师社区 网站备案号:鄂ICP备17021725号 网站公安备案号:鄂42011102000821号 Powered by Discuz! X3.2
GMT+8, 2025-12-29 22:36