新闻两点论 黄祎鸣
“怎么会有流浪汉进到家里来?”“保安看不到监控吗?”近日,一张AI假图,让广州番禺某小区的业主群瞬间炸锅。图上“流浪汉闯入家门”,把大家吓得不轻。结果呢?是个12岁孩子用AI搞的恶作剧。事儿是假的,但问题是真的。这场闹剧,给我们狠狠提了个醒。
现在造个假,太容易了。找个AI工具,上传照片,输入指令,几秒钟就能生成以假乱真的场景。这种“技术魔法”,孩子觉得好玩。但玩笑一旦进入公共空间,性质就变了。它浪费邻居的感情,消耗保安的精力,还可能让警察白跑一趟。这就像“狼来了”的故事,骗的次数多了,真出事时谁还信?
这样的“AI整蛊”事件近来频发,10月17日晚,安徽一女子用AI工具生成了高度逼真的“流浪汉卧坐餐厅”等图片,发给在外聚餐的丈夫想测试其反应,没想到丈夫信以为真,当即报警求助。
短视频平台上存在大量AI流浪汉整蛊视频,还可一键做同款。图据网络
孩子可能不懂事,但大人不能不懂。滥用AI造假,不是简单的整蛊可以一语带过,可能已经踩到法律红线。我们不能等到出事才重视。我们将强大的AI工具拿到手中时,却常常忘了那份沉甸甸的“使用说明书”——关于责任、边界与敬畏。
怎么办?首先,平台要管起来。那些教人制造恐慌的“教程”,不能想发就发。其次,规矩要立起来。让滥用AI的人知道代价。最重要的是,教育要跟上。必须让所有人都明白,技术不是玩具,用了就要负责。
而“疏”要疏得通。当务之急是将AI素养教育全面融入公众生活,特别是青少年教育体系。这不仅是学习如何使用AI,更是学习何时不能用,为何不能用。我们必须让每一位技术使用者都深刻理解:技术的便利,从来都与责任相伴而生。
2025年9月1日起施行的《人工智能生成合成内容标识办法》第四条也规定,服务提供者提供生成合成内容下载、复制、导出等功能时,应当确保文件中含有满足要求的显式标识。
AI时代来了,我们不能总当“事后诸葛亮”。这次是张假图片,下次呢?管好技术,教会责任,才能不让今天的恶作剧,变成明天的大麻烦。
【未经授权,严禁转载!联系电话028-86968276】