关于加强对视频生成模型软件sora监管的建议
发布时间: 2024-02-26
文/张亦琛
2024年2月,OpenAI发布了文生视频编辑工具Sora,成为技术革新的新高地。虽然目前市场上类似技术层出不穷、各具特色,但Sora因其高度逼真的合成效果而受到广泛关注。Sora是OpenAI使用超大规模视频数据,训练出的一个通用视觉模型,可以理解和模拟运动中的物理世界,生成不同时间、纵横比和分辨率的视频,最大版本的Sora能够生成长达一分钟的高保真视频。如何规范利用人工智能合成视频及图片的行为,成为亟待解决的问题。
目前,在规范使用人工智能合成视频及图片方面,存在以下几项具体问题:一是社会影响较为深远。当不法分子利用如Sora之类的高级人工智能工具,制造并散布虚假社会事件或不实政治新闻时,不仅能迅速引起公众恐慌,煽动社会不安,还可能对选举结果、股市波动乃至国际关系造成不可预测的影响。社会信任基础将遭到破坏,信息传播渠道的可靠性将受到质疑,进而影响社会稳定与和谐。二是真伪难辨问题突出。在当前的信息环境中,大众普遍缺乏有效工具和方法来鉴别AI合成内容和真实内容。Sora等工具所制作的视频和图片,其真实性达到了前所未有的高度,以至于即便是专业人士也难以一眼辨识真伪。信息的真实性和可靠性受到严重挑战,增加了受众在获取信息时的困惑和不安,也在无形中给不实信息的制造和传播提供了便利条件。三是法律伦理受到挑战。个人隐私保护、知识产权、反欺诈等方面的法律规定,在应对由AI合成技术所带来的新型挑战时,存在明显的滞后性和不足。例如,利用AI合成技术侵犯个人隐私、制作并传播虚假信息的行为,尚缺乏明确的法律界定和惩处机制。此外,关于AI合成作品的版权归属、使用权限等问题也缺乏足够的法律指引。
为有效解决上述问题,在利用技术的同时,把握好伦理道德法律底线,加强对该软件平台监管,提出如下建议:
一是建立全面的强制性标注制度。为确保公众能够明确区分AI合成内容与真实内容,建议立法要求所有利用AI技术合成的视频和图片,在发布时必须在显著位置加以“AI合成”标注。此举不仅有助于提高公众的辨识能力,还能在一定程度上遏制不法分子利用AI技术制造虚假信息的行为。具体操作上,可通过设立专门监管机构,负责审核和监督AI合成内容的发布。同时,对未按规定进行标注的个人或机构,应施以严格的法律制裁,包括但不限于罚款、暂停业务、公开道歉等措施。此外,政府应鼓励技术开发者和平台运营商共同研发自动识别AI合成内容的技术,以辅助监管工作的有效实施。
二是加强技术监管强化伦理审查。面对AI合成技术带来的挑战,加强技术监管和伦理审查至关重要。政府相关部门应制定严格的技术应用标准和伦理指导原则,对所有AI合成技术的开发和应用进行全面审查。在此基础上,建立起一个涵盖技术评估、伦理审查、后期监督的多环节监管体系,确保AI技术的开发和应用既符合国家法律法规,又不违背社会伦理道德。对于违反规定的实体,应实施包括但不限于技术封禁、行政处罚、刑事追责等一系列严厉措施,以此作为对其他潜在违规行为的有效震慑。同时,政府应倡导国际合作,与其他国家共同探讨和建立跨境AI合成内容的监管机制,以应对全球化背景下的新挑战。
三是着力普及提高公众鉴别能力。鉴于目前大众对AI合成内容的识别能力普遍较弱,政府应采取措施,通过教育和公共宣传等手段,大力普及AI知识,提高公众对AI合成技术的认识和理解。具体而言,可在学校教育体系中加入AI及其伦理问题的相关课程,通过专题讲座、研讨会等形式,增强学生的科技素养和批判性思维能力。同时,利用电视、网络、社交媒体等多种渠道,开展面向全民的AI知识普及活动,教育公众如何辨别AI合成内容。此外,政府应鼓励科研机构和高校开展AI识别技术的研发,提供给公众易于使用的工具,帮助他们在日常生活中有效鉴别AI合成内容,从而构建一个信息更加透明、公众更具鉴别能力的健康信息环境。
本文观点供交流参考