盛世娱乐

当前位置: 盛世娱乐 >  盛世娱乐图片 > 全球积极应对智能生成视频所涉法律风险

全球积极应对智能生成视频所涉法律风险
作者:孙祁     时间:2024-09-16

      

全球积极应对智能生成视频所涉法律风险

 孙祁

 

 

2024年初,世界经济论坛发布了《2024年全球风险报告》,其中将人工智能产生的错误信息和虚假信息列为2024年世界面临的最重大风险之一。

 

 

2024216日,OpenAI发布了创新性文生视频模型Sora,画面效果炸裂,就连马斯克也感叹“人类认赌服输”。一方面人工智能科技正快速迭代,另一方面其背后隐藏的法律和社会问题已成为社会关注的焦点。

 

sora-AI智能生成视频:从原理到应用

通过深度学习技术,sora-AI能够从大量视频中学习到各种画面和音效的规律,进而自动生成新的视频。具体来说,sora-AI智能生成视频的原理可分为以下几个步骤:

第一,数据采集与预处理。sora-AI需要大量的视频数据来进行学习,这些数据可以通过公开的数据集或者用户上传的方式获得。在学习之前,需要对这些数据进行预处理,包括剪辑、转码、标注等操作,以便于机器学习算法的使用。

第二,深度学习模型训练。sora-AI的核心是深度学习模型,通过对大量视频的学习,sora-AI能够自动提取出视频中的画面和音效特征,并学习到各种画面和音效之间的关联。这个过程需要消耗大量的计算资源和时间,通常需要高性能的GPU或云计算平台来完成。

第三,视频生成。一旦深度学习模型训练完成,sora-AI就可根据用户提供的信息或者根据模型自带的生成规则来自动生成新的视频。用户可以根据需求选择不同的视频长度、画面风格、音效等参数,sora-AI会自动进行视频的剪辑、拼接、转场等操作,最终生成完整的视频。

在此原理基础上,sora-AI智能生成视频技术的应用场景非常广泛。例如,新闻报道、广告制作、教育培训、电影与游戏制作等与人类生活密切相关的行业。从人工智能技术驱动的自然语言处理工具ChatGPT到如今的Sora;从自动生成文字、图片,再到自动生成视频;人们惊叹于人工智能的突破性进展,同时也关注着伴随其左右的质疑和担忧,尤其是其背后带来的伦理挑战。Sora生成的视频几乎可以以假乱真,这是一把双刃剑:一方面此功能可用于艺术创作;另一方面也可能被不法之徒滥用于造假、欺骗,甚至颠覆人们对现实的认知。

 

智能生成视频引发的各类法律风险和伦理挑战

Sora的出现意味着人工智能技术已经发展到了一个新的高度,这对人工智能技术的监管也提出了新的挑战。不可回避的是,如果不能有效地管控Sora等技术的应用,未来很可能会出现挑战现有规则的风险:

第一,素材侵权风险。作为AIGCAI Generate Content)软件,Sora同样需要数据收集和模型训练,之后才能生成内容。因此在训练阶段,Sora不可避免地会使用大量的视频素材。这些素材往往是他人具有著作权的作品,擅自收集抓取,就有可能侵犯作品的复制权。基于原视频素材进行的加工可能侵犯作品的改编权。此外,Sora生成的视频,将来不可避免会用于商业用途,这就超出了“合理使用”的范畴……

第二,侵犯隐私风险。Sora可以不经过同意就能生成包含真实个人肖像的内容,而抓取这些个人信息并生成内容的过程,就不可避免地会触碰到他人隐私。在Sora正式商用后,会有更多的个人信息被抓取、被模仿,个人隐私如何保护将成为一大难点。

第三,生成内容的真假辨别。Sora商用后,还有一个巨大的风险,便是虚假视频的滥用,这将衍生出一系列AI诈骗之类的法律问题。

笔者注意到,联合国教科文组织此前发布的《人工智能伦理原则》,提出了人工智能发展的11项基本原则,包括尊重人权、促进可持续发展、避免偏见和歧视等。目前,多个国家和地区发布了人工智能伦理规范,微软等大型科技公司也发布了相关规范。人工智能技术日新月异,伦理规范和监管制度难免存在滞后,加之伦理问题的复杂性以及各个国家和地区规范存在差异,还存在一些过于原则性、缺乏可操作性且难以有效落地的规则。

 

各国相继出台人工智能监管政策或法律文件

OpenAISora技术报告的标题中写道,视频生成模型是“世界模拟器”。需要指出的是,尽管Sora在模拟能力方面已取得了显著的进展,但它目前仍然存在诸多局限性——目前的Sora还只是个视频制作工具。要知道,视频生成模型与当下数字孪生、仿真技术是存在区别的。仿真和数字孪生是一种利用数字技术、通过对物理世界建模来改造人类对物理世界认知的技术;而视频动画只能反映世界表象的东西,并非模型的全部,即类似的AI视频工具大多数情况下生成的视频并不是现实中存在的。综上,Sora当前还不能挑战人类社会运行规则。但是,为应对上述情形带来的挑战,目前世界主要大国和国际组织已相继出台人工智能监管的政策或法律文件。对于社会发展来说,如何在政策监管和技术发展之间找到平衡点,将是一大考验——

2024年,欧洲议会、欧盟委员会和27个成员国的谈判代表就欧盟《人工智能法案》达成协议,欧盟内部市场委员蒂埃里·布雷东在社交媒体上发文说,27国一致支持这一法案,说明它们认可“谈判者在创新与安全之间找到了完美平衡”。此后,包括法国、德国在内的一些国家对法案文本表达异议,担忧法案对先进人工智能模型的严格监管将阻碍欧洲人工智能的发展。为了解决这些担忧,欧盟委员会在人工智能领域推出多项支持创新的措施,通过建立新的监管机构“人工智能办公室”来负责该法案的实施。目前,《人工智能法案》还需要提交欧洲议会批准。如果获得批准,相关规则将分阶段实施,其中一些禁止性规则将在该法律通过六个月后生效,其余与通用人工智能模型相关的某些规则将从2025年起适用。该法案实施后将是全球首部人工智能领域的法案,支持对人工智能进行必要监管,但强调相关法规应该只用于规范人工智能的应用而非技术本身。

近些年,新加坡陆续颁布了人工智能的专项法律。新加坡一直致力于有关人工智能伦理和治理的持续探索。为此,新加坡先后发布了《人工智能治理框架》《组织实施和自评估指南》以及《人工智能治理案例汇编》等人工智能治理规范与指南。同时,为了更好地帮助治理框架的落地,新加坡还发布了《组织实施和自我评估指南》,旨在为企业与各类组织提供人工智能治理的统一指导。该指南以《人工智能治理模型框架》中描述的四个关键领域为基础,详细列出了5个维度(部署人工智能的目标、内部治理结构和措施、确定人类参与人工智能增强决策的程度、开发部署运营管理、利益相关者互动和沟通策略)共计60多个问题的评估清单,具有很强的指导性和可操作性。

英国政府于2023年发布了《促进创新的人工智能监管方法》白皮书。据该白皮书内容显示,其提议将在未来几年内塑造英国的人工智能治理框架,以提高该技术的可信度。与其他国家的版本相比,该白皮书采用了更加分散的监管模式,为实现监管目标选择了一条更具挑战性的道路。与此同时,该白皮书承诺此种治理模式,与现实更相称,也将促进企业提高创新能力。此外,英国《数据保护和数字信息法案》已获通过,其旨在减少而不是加强与人工智能相关的保障措施。

综上,完善细化相关人工智能伦理规范,加强审查和监管,加强相关伦理教育和宣传,更显迫切。笔者认为,只有正视人工智能带来的科技高速发展以及所面临的伦理与法律挑战,才能确保人工智能技术造福人类。