人工智能的安全发展面临着“内忧外患”

来源:新华日报阅读:

日前,在宁召开的第二届江苏省人工智能大会上,中国科学院院士何积丰带来主旨报告《可信人工智能》。他表示,随着人类生活被人工智能广泛渗透,公众接受人工智能的程度也越来越高,随之而来的就是人工智能的可信问题。

去年3月,美国优步的一辆自动驾驶车在路试时撞倒一名行人,当时行人正推着自行车在人行道之外横穿马路,关于责任认定,车辆使用者和自动驾驶系统设计者开始扯皮。

“这些人工智能案例,是因为这些突发的场景并不在训练范围,机器也就无法从容应对。” 何积丰说,“可信”是计算机领域的一个概念,主要强调的是计算机系统和其处理过程的可预测性、可验证性。近年来,“可信”的概念也被引入到人工智能领域。

可信人工智能由我国提出,并在G20会议上被各国所认可,这也是关注人工智能发展的核心所在。人、机、物融合是当前社会面临的一个很重要的系统状态。如果把人、机、物中间的物理运动以及众多事件进行组合,如何进行系统性的训练和测试尤为重要。

在何积丰看来,人工智能的安全发展面临着“内忧外患”,对内要处理数据偏差、系统失误等情况,对外则要应对黑客攻击、场景受限等问题。他解释,人工智能系统与传统的软件系统有很大区别,这使得其安全发展面临一系列新挑战。例如,让程序学习检测皮肤癌,程序却发现恶性皮肤病变的照片里往往放着一把尺子,便以尺子来作为判断标准。

如何保证人工智能安全可控?何积丰表示,人工智能能够与行业、社会治理结合,具备新的赋能功能。因此,对于其安全问题,应该从两个层面来讨论,一层是人工智能技术本身的安全问题,一层是人工智能与行业结合后的潜在风险。以网络安全为例,他认为,人工智能很多目前应用到一线的产品,其实效果远未达到理想状态,尤其是算法、算力、网络体系和数据体系的安全性等,比如,数据传输过程中会不会被篡改,很难去验证。

人工智能的“可信”,也需要建立相应的法律、法规、标准和社会伦理准则。比如,对数据进行分类,规定这个数据哪些地方能用,哪些地方不能用。人类应该为人工智能技术的开发设定边界,不能做无限开发。

此外,何积丰指出,现阶段人工智能的通用性较弱,行业应用场景差异较大,技术大规模的普及应用仍未真正实现。因此需要有更多的技术推动人工智能通用发展,此趋势不可阻挡,不仅是技术发展的需求,更是整个社会经济发展的需求。

“很多人担心人工智能会不会带来失业潮,机器人会不会取代人的工作,其实这些消息都有些夸大。”何积丰表示,很多职业其实是被时代发展而淘汰的,机器人只是取代了一些简单、重复的劳动,还有部分高危、人类不愿意参与的工作等。与此同时,技术的发展也带来新的就业机会和新的职业。同时,我们也不必纠结于究竟何时能够实现真正的人工智能,去为它划定时间界限,当技术发展到一定阶段,人工智能足够安全,可以被人们信任、接受时,这样的可信人工智能时代自然会到来。

本文链接地址: www.rrnqrz.com.cn true 中国机床网 http://www.rrnqrz.com.cn/news-2019-34608.html report 人工智能的安全发展面临着“内忧外患”资讯由中国机床网分析预测频道提供。中国机床网专业提供人工智能,机器人等方面的资讯,是机床商人获得人工智能,机器人信息的最佳网络平台。
更多资讯敬请关注分析预测频道
文本标签:人工智能机器人
文章来源:新华日报
声明:
如果您有机床相关新闻稿件发表,欢迎联系本站编辑。投稿邮箱 [email protected]
凡本站原创的所有作品,版权均属于本站所有,转载使用请注明来源和链接。
本站转载作品均注明出处,转载目的在于传递更多信息,并不代表本站赞同其观点和对其真实性负责。如涉及作品版权、作者署名权和其它问题,并非出于本站故意,在接到相关权利人通知后会加以更正。
搜索 更多
亲朋棋牌二人麻将外挂