可信成为人工智能发展重要考量
法制日报全媒体记者 张维
小学生用照片攻破丰巢人脸识别系统、自动驾驶汽车失控撞人、AI换脸让你一秒成为黄片主角……随着人工智能技术的快速发展、普及和应用,随之而来的安全、伦理等问题也引发普遍担忧。
“人工智能安全作为人工智能研究和产业化应用的重要组成部分,应推动政府、学术界和产业界进行更加深度和广泛的合作,对人工智能的安全进行系统布局。”近日在清华大学举办的AI与安全研讨会上,清华大学副校长、中科院院士薛其坤说:“这一领域是快速发展的,要在关键时刻把握正确的方向,抓住关键的技术。
人工智能发展的快速和重要性已经不言而喻。2019年,美国、欧洲、日本等各国均出台各类促进人工智能发展的政策和国家战略;公开数据显示,2019年,中国人工智能相关公司总数超过2500家,到2020年,中国人工智能产业规模将接近500亿元。
“各类场景中,安防、医疗应用较为广泛,最近上海地铁一个摄像头抓到了潜逃20年的杀人犯,就是典型应用。”国家工业信息安全发展中心副主任李新社指出,人工智能当前面临数据、算法、网络、信息、伦理等多方面的安全问题,“建立可信的人工智能将成为发展的重要考量。”
清华大学人工智能研究院院长、中科院院士张钹早在1987年就带领清华成立全国第一个以人工智能命名的国家重点实验室,见证、参与中国第一代、第二代人工智能技术发展。张钹强调,必须发展安全、可靠、可信的第三代人工智能,才有可能使人工智能技术得到安全广泛的应用。“而发展技术的关键在于基础研究,必须在基础研究上进行重点投入和突破。”
“一张鸟的照片,加一点噪声,就能让AI识别为一只老虎,”张钹说,人工智能的安全问题源于深度学习技术的底层缺陷,采用非常简单的神经网络系统,用概率统计的方法来提取出低层次的特征,而正确的方法应该是像人类一样去提取高层次的语义特征,“我们正在往这个方向努力,但现实情况是,没有永远安全的系统,也不要指望有永远安全的人工智能系统,只有加强基础研究,才有前瞻性的判断,及时采取措施。”
中国科学院院士、大数据算法与分析技术国家工程实验室主任徐宗本强调:人工智能的未来发展,特别是在医疗等关键领域的应用技术,需要充分利用数学等工具加强基础研究,突破精确性瓶颈,打破数据孤岛,实现小样本和可解释的深度学习。
针对AI与安全的众多技术领域问题,中国科学技术大学网络空间安全学院副院长张卫明、上海交通大学网络空间安全技术研究院副院长伍军、西安交通大学网络空间安全副院长沈超、西交利物浦大学电气与电子工程系教授黄开竹、清华大学副教授张超等人从各个角度提供建议,如防止AI的滥用和误用,加强相关标准制定,加强人才培养,进一步深化人工智能与各个实体产业的融合等。
阿里巴巴给出了AI安全的典范。“当业界还在担忧AI安全性的问题,我们已经在阿里的安全场景中全面使用AI技术,安全本身的攻防对抗属性下,AI也在进化,” 阿里巴巴集团安全技术总经理钱磊说,阿里安全通过在打击假货、营商环境治理、网络安全、数据安全、新零售安全等领域的AI应用,希望打造出更安全、更可信、可解释的安全AI。“在2019年天猫双11当天,我们的安全AI大脑完成风险防控388亿次,99%的黄牛被系统准确拦截。”
钱磊公布了一组安全AI的防控数据:在打击假货方面,96%的疑似侵权链接一上线就被封杀、96%的知识产权投诉在24小时内被处理;在保障商家经营方面,每天应对千万级风险订单识别和判断,累计拦截上百万恶评攻击。这一成绩得到了徐宗本的认同与点赞:AI打假提供了更多机器学习、大数据分析,对真假甄别意义重大,AI打假是数字技术、人工智能的应用场景。