资料配图
新华社北京5月17日电无人超市、自动驾驶、机器“诗人”……近年来,人工智能在全球多个领域掀起“智慧革命”。5月17日是世界电信和信息社会日,国际电信联盟将今年的主题确定为“推动人工智能的正当使用,造福全人类”。
为何要如此强调人工智能“正当使用”?因为,人工智能的突破犹如“双刃剑”,“正当使用”可以为社会发展提供新动能、造福人类,而滥用则可能带来无穷隐患。
今年4月,联合国《特定常规武器公约》政府专家小组在瑞士日内瓦召开会议,讨论致命自主武器系统研发,即“杀手机器人”可能带来的影响。人工智能界的专家学者及防务分析人士一致认为,军事机器人革命带来的伦理、法律及政策等问题,尤其是自主武器能否自行判断杀敌,是令人担忧和亟需讨论的现实问题。
实际上,警惕“杀手机器人”的呼声早已形成。在2017年人工智能国际会议上,有硅谷“钢铁侠”之称的马斯克、苹果联合创始人沃兹尼亚克、研发“阿尔法围棋”的深度思维公司创始人哈萨比斯等科技界名人曾签署公开信,呼吁联合国应像禁止生化武器一样,禁止在战争中使用致命的自主武器和“杀手机器人”。
大多数专家学者认为,人工智能迅速发展给社会各领域带来深远影响,对军事作战系统研发也带来全新理念,但就使用致命武器而言,人应当是起主导作用的要素。什么样的人工控制才是最适宜的,相关讨论仍在持续进行。
被美国《麻省理工学院技术评论》评为“全球十大突破性技术”之一的“对抗性神经网络”,旨在突破人工智能想象力、创造力的瓶颈。但在展现巨大潜力的同时,这项技术发展的负面影响也不容忽视。
在相关试验中,美国芯片企业英伟达的研究人员用明星照片训练出一套系统,进而生成了数百张根本不存在、但看起来很真实的人脸照片。还有研究团队让系统生成看起来十分逼真的梵高油画。
专家提醒,不法分子可能利用此类系统制造出图片甚至视频来混淆视听,给监管、安全带来新挑战。这一领域的技术先驱、美国科学家伊恩?古德费洛就表示,他当前的研究重心已经转向如何避免这类技术的滥用问题,希望它“不至误入歧途”。
任何一种新技术的出现,人们在充分享受其带来福祉的同时,也必须及时防范相关风险。如何进行适当引导和管理,同样考验人类智慧。
科学家一直希望以最简单的办法,保证以机器人为代表的人工智能不给人类带来任何威胁。人们最熟悉的莫过于科幻作家阿西莫夫设计的“机器人三定律”。美国机器智能研究院奠基人尤德科夫斯基也提出了“友好人工智能”的概念,认为“友善”从设计伊始就应当被注入机器的智能系统中。
不少专家建议,除了设计和建造要遵循技术规范,还可由政府有关部门牵头,成立由技术专家、社会科学研究人员、政府管理人员为核心的人工智能管理委员会,对涉及人工智能的研究和开发项目进行审核评估。
与生物技术、核技术相比,目前对人工智能领域的监管依然薄弱。如何对可能形成的负面影响未雨绸缪、为技术发展划出法律和伦理道德的边界,已经迫在眉睫。如何让人工智能更好地服务人类社会,也是世界范围内的一项共同议题。
去年7月,中国国务院发布的《新一代人工智能发展规划》就提出,“建立人工智能法律法规、伦理规范和政策体系,形成人工智能安全评估和管控能力”。
中国科学技术大学机器人实验室主任陈小平教授认为,要规范人工智能发展,首先要把基础技术研究好,“未雨绸缪,需要我们走到前列,才能有发言权,有具体的思考和对这一领域的深刻认知,才能具备治理的能力,进而提出我们自己的意见和规则”。
(执笔记者:刘石磊;参与记者:李宓、杨骏)
【 此内容为优化阅读,进入原网站查看全文。 如涉及版权问题请与我们联系。8610-87869823】 产品建议与投诉请联系:jianyi@chinaso.com