新闻两点论 徐也晴
近日,“ChatGPT被禁止提供医疗和法律建议”一事被部分媒体提及,但实际上,OpenAI官网最新更新的使用政策变更日志中,并未涉及这一内容。即便如此,我们仍要注意,不可轻信AI提供的医疗建议。
为什么在媒体的报道中,特别强调“医疗”?两个词:专业、安全。虽然现在的AI大模型能力与两三年前“不可同日而语”,但它依然不是全能的。试想一下,如果在没有专业人士的指导下使用AI,导致病患小病大治、大病不治,会是什么后果?
11月4日,“科普中国”在其官方微信公众号上发布了一篇名为《危险!别再让AI给你看病了!》的文章,其中就提到了一个案例——有人因为听信AI,把自己吃成了多年未见的溴中毒。
一个敢说,一个敢信。AI“敢说”,是因为它并不能真正“理解”患者的真实情况,且不会判断自己输出内容的专业性。用户“敢信”,则源于对技术光环的盲目崇拜,以及对快速、便捷获取答案的过度依赖。这种危险的信息供需关系,构成了当前AI应用于医疗等专业领域的一大隐患。
但这也不是让政策“一刀切”,合法合规地使用人工智能依然是利大于弊的。11月4日,国家卫生健康委、国家发展改革委等5个部门公布《关于促进和规范“人工智能+医疗卫生”应用发展的实施意见》(以下简称《实施意见》),明确提出以新一代人工智能深度赋能卫生健康行业高质量发展,更好地满足人民群众日益增长的健康服务需求。未来几年,AI将深度融入预防、诊疗、康复、健康管理等全链条健康服务。
值得一提的是,《实施意见》中专门设置了一个章节,明确“规范安全监管”,其中包括优化行业管理和审核体系、创新监管方式和预警机制、强化数据安全和个人隐私保护等三个方面,以此来确保人工智能发展安全、可靠、可控。
说来说去,人工智能始终是一个工具,应当为人所用。在技术快速发展的今天,我们要在善用其能的同时,保持清醒的判断力与批判思维,守住专业与安全的底线。
【未经授权,严禁转载!联系电话028-86968276】