2015年,包括中国学者在内的全球十多位科技政策与科技伦理专家在《科学》杂志上发表《承认人工智能的阴暗面》的公开信,倡议将人工智能的社会伦理问题纳入现实的社会政策与伦理规范议程。
人工智能大规模应用带来的伦理挑战,涉及安全威胁、数据隐私、算法歧视、人工智能主体权利等问题。2016年的十大人工智能失败案例中,就包括特斯拉自动驾驶汽车造成人员伤亡、机器人伤人事件等。如何确保人工智能产品的安全运用,显然是有关人工智能伦理的首要问题。
随着技术的进步,信息监控变得比以往任何时候更加容易和普遍,也更为隐性。尤其是,当我们寻求所谓便捷和安全时,常常有意无意地牺牲了隐私。能否在利用大数据进行分析的同时,确保信息数据和个人隐私的安全,直接影响每个公民的合法权益。
随着科技的进步,算法会越来越“聪明”,但算法本身并不必然是公平的。一方面,算法的设计者和开发者可能将自己的偏见嵌入其中;另一方面,算法的输出取决于数据的有效性和准确性,不完善的数据必然导致不完善的结果。
此外,随着人工智能系统在外在表现形式和内在机理方面越来越像人,一个不可回避的问题是到底该怎样对待人工智能,要不要承认人工智能的某些主体权利和地位。欧盟委会员在2016年便提出动议,将最先进的自动化机器定义为电子人,并赋予其著作权、劳动权等特定权利和义务。沙特阿拉伯还象征性地授予机器人索菲亚本国国籍,成为史上首个获得公民身份的机器人。
总的来看,对待人工智能,既要把握长远规划又要正视现实挑战,以前瞻性的行动理念推进人工智能的发展。政府需要自上而下地把握人工智能发展方向,为人工智能制定统一的安全标准和法律规范。科技企业既要承担科技研发的重任,也要承担相应的社会责任,严格实施自我监督与同行监督。民众则应以积极的姿态参与到规则制定,以监督的方式不断发声,自下而上地助推协同治理体系的构建。
作者|聂磊
来源|解放日报
编辑|肖启玉