- 韩国将于2026年1月21日起正式执行《人工智能法》,成为全球首个对高性能AI(即“前沿AI”)提出法律安全要求的国家。
- 据科学技术信息通信部称,该法律既促进了国内AI产业的增长,又为新兴技术风险建立了最低安全屏障。
- 政府强调,这并非为了炫耀成就,而是基于AI安全的“基本全球共识”所采取的行动。
- 该法为国家AI政策奠定了基础,成立了国家AI战略总统委员会,并建设了AI安全研究院以评估可靠性与安全性。
- 广泛的支持方案包括研发(R&D)、数据基础设施、人才培训、创业支持以及国际市场扩张。
- 企业将享有至少一年的宽限期;在此期间不进行调查或处罚,仅通过“AI法案协助台”提供咨询和培训。
- 监管范围仅包括三类:高影响AI、高性能AI的安全义务以及生成式AI的透明度。
- 高影响AI是指在能源、交通、金融等关键领域的全自动化系统;目前尚无国内服务属于此类。
- 与欧盟基于应用的风险管理不同,韩国采用技术门槛(如总训练计算能力)。
- 目前国内外尚无AI模型达到受监管的门槛;执行方式较为温和,不涉及刑事处罚。
- 违规行为若不服从纠正命令,仅面临最高3,000万韩元(约20,300美元)的罚款。
- 对于生成式AI,易引起误解的内容(如深度伪造)必须清晰标注;其他内容可通过元数据使用隐藏水印;个人及非商业用途可豁免。
结论: 韩国于2026年1月21日正式执行《人工智能法》,成为首个对高性能AI(前沿AI)设定法律安全要求的国家,同时优先考虑增长与合规而非惩罚。该法建立了国家AI政策框架,成立了总统委员会及AI安全研究院。不同于欧盟基于风险等级的模式,韩国采用计算量等技术指标。凭借至少一年的宽限期和3000万韩元的罚款上限,该法为在技术爆发期保护社会与培养AI生态系统提供了灵活的基础。
