3月31日,欧盟委员会、欧洲议会和欧盟理事会向媒体证实,已出台政策,禁止其新闻团队使用完全由人工智能(AI)生成的视觉素材。这已不是第一次有关国家或组织对AI生成内容发出监管信号。早在3月1日,越南《人工智能法》便正式生效,该法要求企业必须明确标注AI生成的内容,特别是那些真假难辨的深度伪造(Deepfake)内容。
一边是AI高效带来的爽感,一边是造假对人脑的挑战
多国对AI生成内容监管趋严的背后,是AI技术对社会信任带来的真实冲击。以深度学习(Deep Learning)为核心的AI技术在为人类拓展工作空间、提高生产效率的同时,也悄然滋生出一系列棘手的社会治理难题。
从制造虚假新闻到恶意伪造图像、视频和音频,深度伪造内容正成为智能时代传播领域的“隐形毒瘤”,持续侵蚀社会信任,威胁公共秩序与个人权益。
德国民调机构迪麦颇公司于3月30日至31日对1316名德国成年人进行了电话或网络调查,结果显示,53%调查对象认为AI被用于生成深度伪造内容的风险“非常高”,另有38%认为这类风险“高”。调查对象对AI的担忧还包括难以辨别AI生成的假新闻、工作岗位被AI取代等。
更值得警惕的是,即便专业人士,也难以完全甄别深度伪造内容与真实内容。3月24日发表于《放射学》的一项研究表明,大多数放射科医生都无法辨识由人工智能生成的X光扫描图像,只有不到半数的人能发现隐藏在真实医疗数据中的合成图像。平均而言,参与者正确识别AI与真实图像的概率为75%。
论文作者、美国西奈山伊坎医学院的Mickael Tordjman指出,重要的是,“这一结果并未因放射科医生的从业经验不同而产生差异”,他们拥有从0到40年不等的专业经验。
一手用魔法打败魔法,一手用纪律约束乱来
当深度伪造完全能以假乱真时,技术和法律的重要性就更加凸显。用技术对抗技术、用魔法打败魔法,是一场无法避免的持久博弈。
伪造技术与鉴伪技术“竞赛”,两者的发展呈螺旋式上升。“鉴伪没有终点,只要生成式道路还没有走到头,鉴伪就会一直往下走,”中国信也科技副总裁、大数据及AI负责人陈磊表示。
目前,AI模型在甄别真实图像与生成图像方面仍有诸多不足,准确率有待提升。陈磊指出,鉴伪技术开发需要跨学科合作,当前的鉴伪技术以软件算法为主,未来将走向软硬一体,借助硬件溯源声音采集,从硬件层面起到假语音风险防控作用。
产业界与政府也在积极行动。一些科技公司正在陆续推出其AI深度伪造检测工具,通过在内容被篡改时发送警报来帮助人们识别虚假图像和视频,从而守护用户的心智。英国政府也于2月4日宣布,将与微软、科研学者及行业专家携手开发一套在线深度伪造内容检测系统,为各类检测工具和技术的效果评估设立统一标准。
除技术防御,法律监管的完善与强化也成为遏制深度伪造滥用的关键。1月22日,韩国《人工智能基本法》正式生效,其中包含针对深度伪造技术的具体条款,标志着韩国成为全球首个全面监管人工智能的国家。该法引入“高风险AI”概念,要求有关企业或机构使用“高风险AI”须安排真人监督;使用生成式AI模型提供产品或服务须事先告知用户;在难以区分AI生成内容与现实时,应予以明确标注。
今年2月,德国内阁也已正式批准一项法律草案,核心目标是落实欧盟《人工智能法》,其中明确媒体监督独立原则,并强化监管机构对透明度义务的监督职责,包括要求对深度伪造内容、AI生成新闻文本进行强制标识。
同时,欧盟层面也在加速推进针对性立法修正。3月13日,欧盟理事会就简化部分AI监管规则的提案达成一致,在精简监管框架、减轻企业合规负担的同时,明确新增禁令:全面禁止利用人工智能生成未经同意的性内容、私密内容及儿童性虐待内容。欧盟理事会表示,后续将由轮值主席国与欧洲议会启动谈判,推动提案进入正式立法流程。
一念是被放大的偏见、贪婪与冷漠,一念是该守住的人类文明底线
技术与法律的双重防御之外,人文伦理教育的支撑同样不可或缺。有新加坡媒体评论指出,在AI能力迅速增强,而且完全可能被不负责任、无道德底线地滥用的情境下,高等学府比任何时候都更需要加强人文伦理教育,守住人类生存的底线。大学的责任,在于培养“知道AI该用来做什么,不该越过什么边界,愿意为后果承担责任的人”。毕竟,技术越强,放大的不只是能力,也包括偏见、贪婪、冷漠与权力冲动。
技术本无善恶,AI的浪潮从来不是信任崩塌的原罪,唯有以技术筑盾、以法律立界、以伦理铸心,才能让深度学习不沦为“深度欺骗”,让AI真正成为守护信任的力量,而非撕裂它的利刃。(文/刀笔吏)
参考来源:新加坡联合早报网、新华社、中国央视新闻客户端、北京《中国科学报》、中国法治网等
(编辑:杨柳)