中央网信办强化AI技术监管,处理3700多个违规账号
近日,中央网信办针对人工智能技术应用开展专项监管行动,已处理3700多个违规账号。此举旨在规范AI技术应用,防范相关风险,促进人工智能健康有序发展。
新闻概述
中央网信办于近期启动人工智能技术专项整治行动,重点监管AI生成内容、深度伪造技术等应用领域。截至目前,已累计处理3700多个违规账号,关停一批违法违规网站和应用程序。此次行动是网信部门加强网络内容生态治理的重要举措,体现了对新技术应用审慎监管的态度。
详细内容
据了解,此次专项整治行动主要针对三类违规行为:一是利用AI技术生成虚假信息、传播谣言;二是使用深度伪造技术进行人脸替换、声音模仿等,侵犯他人肖像权和名誉权;三是违规收集使用个人信息,存在数据安全隐患。
网信办相关负责人表示,监管部门通过技术监测和群众举报相结合的方式,对社交平台、短视频平台、直播平台等进行了全面排查。被处理的违规账号中,包括利用AI技术编造虚假新闻的账号、使用换脸技术制作低俗内容的账号,以及未经授权使用他人肖像进行商业宣传的账号等。
此外,监管部门还对部分未按规定落实内容审核主体责任的平台进行了约谈,要求其完善AI技术应用管理制度,加强技术识别能力,及时发现和处理违规内容。
影响分析
此次监管行动对AI行业产生了深远影响。一方面,规范了市场秩序,遏制了AI技术滥用现象,保护了公民合法权益;另一方面,也为合规企业创造了公平竞争环境,促进行业健康发展。
对于互联网平台而言,此次行动意味着需要投入更多资源用于内容审核和技术防控,短期内可能增加运营成本,但长远看有利于建立良好的行业生态。
对普通用户而言,监管加强有助于减少虚假信息和不良内容的传播,提升网络空间质量,但也可能感受到部分AI应用功能的限制。
未来展望
业内人士预测,未来AI技术监管将呈现以下趋势:监管框架将更加细化,针对不同类型的AI应用制定差异化监管措施;自律机制将逐步完善,行业协会和企业将共同参与制定技术伦理标准;技术手段将不断升级,AI监管技术将与AI应用技术同步发展。
同时,监管部门也强调,将坚持促进发展与防范风险并重的原则,在保障安全的前提下,为AI技术创新留出足够空间。未来可能会出台更多配套政策,明确AI技术应用的底线和红线,引导行业有序发展。