OpenAI于10月29日对ChatGPT的使用政策进行重大调整,明确禁止该人工智能系统在医疗、法律和金融领域提供专业建议。这一政策更新旨在响应欧盟《人工智能法案》及美国食品药品监督管理局(FDA)的监管要求,防止AI输出被误认为具有法律约束力或专业权威性的意见。
根据新规,ChatGPT将彻底退出个体化专业服务场景:在医疗领域,系统不再解读医学影像、参与疾病诊断或推荐治疗方案;法律层面禁止起草或解释具体合同条款,也不就个案提供法律策略;金融方面则停止证券推荐、税务规划等定制化建议。当用户提出相关请求时,系统会主动引导其咨询持证专业人士。不过,模型仍保留对基础法规、经济概念等一般性信息的解释功能。
政策调整直接源于多起AI误判引发的安全事故。典型案例包括摩洛哥患者因误诊实施错误自我治疗导致急诊,以及瑞士心脏术后患者因AI建议延误治疗引发中风。这些事件加速了OpenAI对高风险应用的合规性管控。
此次变更在Reddit等社区引发热议,部分用户表示曾依赖该功能节省医疗法律开支。业内分析指出,此举可能预示着OpenAI将推出垂直领域专用版本,如医疗或法律特化模型,以兼顾合规需求与专业场景应用。当前政策不影响持证专业人士使用AI辅助工作,但平台面临用户资质验证的技术挑战。
欧盟监管框架显示,违反《人工智能法案》的企业可能面临全球营收7%或3500万欧元的高额罚款。OpenAI此次主动调整政策,被视为应对全球AI监管趋严的重要合规举措。
© 版权声明
文章版权归作者所有,未经允许请勿转载。