新闻两点论 宋凯
最近,一段“外国教授怒斥学生使用AI写作业”的视频在多个平台热传,不少网友拍手叫好,还有老师转发给学生当反面教材。可没想到,事实却是——连这位“教授”本人,都是AI生成的。
类似的“真假难辨”画面,越来越多闯入公众的视线。猫狗互动、奇迹瞬间、温情救助……那些曾经需要“刚好被拍到”的巧合,如今被算法轻松复刻。网友们边看边笑,却不知道,自己的情感正被AI精准拿捏。
AI视频不是洪水猛兽,但“未标识”的AI内容,却模糊了真实与虚构的界线。过去人信奉“眼见为实”,因为视频的制作门槛高、造假成本大、可信任性强,而如今AI已能让不存在的场景轻松“真实发生”。如果辨别的门槛越来越高——靠网友们逐帧分析、放大截图去找“破绽”,久而久之,人们可能陷入三种状态:要么被动相信,要么无力求证,要么干脆放弃。那时,最可贵的“信任”就会成为稀缺资源。
这个现象,已引起国家相关部门的重视。今年9月1日起,国家网信办等四部门联合发布的《人工智能生成合成内容标识办法》正式施行,明确要求——所有由AI生成的文字、图片、音频、视频等内容,都必须“亮明身份”;服务提供者在上线内容前必须核验标识,平台也要在传播端加强审核,对“未标识或疑似AI内容”添加风险提示,从源头阻断虚假信息的扩散。
这意味着,AI创作者不能再模糊身份“假装真人”,平台也不能“睁一只眼闭一只眼”。对创作者而言,无论是使用AI绘画、AI视频还是AI主播,只要规范标识,就能既创新又合法。对平台而言,这是一次提升治理能力、建立用户信任的机会;对公众而言,更是在建立一道防止被误导的安全屏障。
遵纪守法是每个公民的责任和义务。当创作者沉浸使用AI的喜悦时,脑子里千万不要忘记绷紧“标识”这根弦,如果人人不遵循规则,迟早有一天,自己也会信了那只救人的猫、那位怒斥AI的教授。
【未经授权,严禁转载!联系电话028-86968276】