外交部原副部长、清华大学战略与安全研究中心主任傅莹在《人民论坛》撰文指出,人工智能技术的成长依靠的是世界各国科研人员分享思想、相互借鉴,是全球协作的产物,跨国企业构建的人工智能平台也在快速扩展。要想规范这个进程,各国需要制定互通的道德规范和行业规则。中国30多年来一直处于高速工业化的进程中,在立法和立规过程中广泛地参考了两个世纪以来世界上陆续出现的基本规则。今天,中国第一次跻身新技术进步的第一梯队,除了尽己所能地向前迈进,中国人也逐渐意识到自身肩负的参与国际新规则制订的责任。因此,中国在人工智能治理方面的努力,需要与世界其他国家和地区、包括在技术研发上领先的美国的努力相互联通和协调。为此,中国对与各国探讨扩大共识、缩小差异,秉持开放态度。
清华大学战略与安全研究中心的人工智能治理项目小组着眼于国际共同规则,于2018年7月,在世界和平论坛上提出“人工智能六点原则”,探讨人工智能综合性治理的宏观框架:一是福祉原则。人工智能的发展应服务于人类共同福祉和利益,其设计与应用须遵循人类社会基本伦理道德,符合人类的尊严和权利。二是安全原则。人工智能不得伤害人类,要保证人工智能系统的安全性、可适用性与可控性,保护个人隐私,防止数据泄露与滥用。保证人工智能算法的可追溯性与透明性,防止算法歧视。三是共享原则。人工智能创造的经济繁荣应服务于全体人类,构建合理机制,使极速体育,足球即时比分直播人受益于人工智能技术的发展、享受便利,避免数字鸿沟的出现。四是和平原则。人工智能技术须用于和平目的,致力于提升透明度和建立信任措施,倡导和平利用人工智能,防止开展致命性自主武器军备竞赛。五是法治原则。人工智能技术的运用,应符合《联合国宪章》的宗旨以及各国主权平等、和平解决争端、禁止使用武力、不干涉内政等现代国际法基本原则。六是合作原则。世界各国应促进人工智能的技术交流和人才交流,在开放的环境下推动和规范技术的提升。这六项原则为人工智能国际治理的讨论和共识构建提供了一种可能。(张悦辑)