人工智能产业领域发展态势研究
上QQ阅读APP看本书,新人免费读10天
设备和账号都新为新人

1.3.1 人工智能引发多维度风险

人工智能技术应用引发风险首先可以从人工智能三大要素的算法、算力和数据进行分析。以深度学习算法为代表的人工智能算法模型存在多个“隐层”,导致输入数据和输出结果之间的因果逻辑关系难以清楚解释,形成技术“黑箱”。另外,算法模型的自适应、自学习特性也使其极易偏离人类预设的目标。

用于人工智能模型训练的数据本质上是社会价值观的缩影与映射,包含一些落后的价值观与社会偏见,同时大规模数据的实时采集、分析和流动也将触动隐私、公平等人类基本价值。

算力具有纯技术性、客观性的特点,不涉及价值和伦理问题,基本不会引发相关风险。人工智能作为一项通用技术已广泛融入现代经济社会的方方面面,其风险产生的范围逐渐扩大、概率持续提高。人工智能在打造经济新引擎、推动社会进步的同时,给社会、企业和个人带来不同维度的风险和挑战。

1)影响社会稳定

① 冲击就业格局,加剧贫富分化。智能的算法、机器对传统人工的替代将消灭或大幅度减少重复性、机械性工作的岗位。据麦肯锡报告推测,到2030年,机器人将取代8亿人的工作;人工智能的发展所创造的社会财富将大幅度向资本一方倾斜,低收入与受教育程度较低的人群将在新一轮的社会资源分配中处于严重的不利地位。

② 影响政治进程,抹黑政治人物。人工智能在社交服务中的应用能够影响政治进程,利用机器人水军可以进行舆论干预,如剑桥分析(政治AI公司)利用人工智能影响美国大选和英国“脱欧”公投的结果。此外,可以利用深度伪造等智能信息服务技术制作关于政治人物的虚假负面视频,如在YouTube上被转发500多万次的美国前总统奥巴马的脸被“借用”来攻击特朗普总统的视频,特朗普转发并大加嘲讽的美国众议长佩洛西说话结巴的伪视频等。

③ 侵害事件频发,危及公共安全。人工智能安全事故、侵害事件频发,引发社会各界普遍关注。如特斯拉Model S在美国和我国境内都曾发生过自动驾驶致死事故和数起交通事故;委内瑞拉总统在公开活动中受到无人机炸弹袭击;Uber的一辆自动驾驶测试车在进行路试时发生事故,致一人死亡。

2)增加企业合规难度

① 不良信息频现,企业审核能力不足。如果向人工智能系统输入不完整、不正确、质量不高的数据,则会产生不良信息或歧视性信息。例如,微软公司的人工智能聊天机器人Tay上线后,被网民“教坏”;人工智能技术极大地促进数字内容产业的繁荣,企业很难对海量的信息内容进行有效审核。

② 法律责任不明,陷入责任划分困境。当前,人工智能产品在问题回溯上存在不可解释环节,现行立法也未明确界定人工智能的设计、生产、销售、使用等环节的各方主体责任与义务,这给人工智能安全事件的责任认定和划分带来严峻挑战。例如,人工智能医疗助理(如IBM的“沃森医生”)给出危险错误的癌症医疗建议时的责任如何认定,自动驾驶汽车因独立智能决策致损时的侵权主体和责任如何确定。

③ 知识产权保护不足,版权认定困难。目前,各国就人工智能生成物所包含的权利类型和权利归属存有争议,人工智能创作物的版权保护仍普遍面临法律滞后问题。例如,澳大利亚法院判定,利用人工智能生成的作品不能有版权保护,因为它不是人类制作的。如果人工智能创作物得不到法律有力的保护,会使人工智能生成信息的复制和扩散门槛更低,影响投资人、创作人投入人工智能创作的积极性。

3)个人权益受到侵犯

① 算法偏见现象,影响公平正义。算法偏见不仅是技术问题,更涉及数据集质量的完整性、设计者的主观情感偏向、人类社会所固有的偏见、不同地区文化差异等。例如,风险评估算法COMPAS被发现对黑人造成了系统性歧视,人脸识别软件Rekognition曾将美国国会议员中的28人误判为罪犯。

② 信息收集多样,侵犯个人隐私。随着人脸识别、虹膜识别等应用的普及,人工智能正在大规模、不间断地收集、使用敏感个人信息,个人隐私泄露风险加大。例如,变脸应用ZAO因用户协议过度攫取用户授权和存在数据泄露问题而被监管机构约谈要求自查整改,杭州一动物园因启用人脸识别技术强制收集游客敏感个人信息而被诉至法院。

③ 滥用智能产品,侵犯人格尊严。利用深度伪造技术能实现将人脸转移到色情明星的身体,伪造逼真的色情场景,使污名化他人及色情报复成为可能。例如,运用DeepNude软件可根据普通人物图片生成对应的不雅照,另外还发生过亚马逊智能音箱劝主人自杀等事件。