2025上合组织论坛 周鸿祎建言AI安全应对与柔性监管
2025上合组织论坛 周鸿祎建言AI安全应对与柔性监管
2025上合组织论坛 周鸿祎建言AI安全应对与柔性监管5月29日,以“智汇中国 智惠上合”为主题的2025中国—上海合作组织人工智能合作论坛在天津举行。360集团创始人周鸿祎受邀参加“安全风险(fēngxiǎn)与(yǔ)监管治理”议题交流时表示,人类(rénlèi)在享受AI带来的巨大(dà)机遇时,也必须正视与之伴生(bànshēng)的安全风险与监管挑战。他提出,一方面,应“以模制模”,利用安全大模型解决大模型安全问题;另一方面则应以(yīngyǐ)辩证、客观的态度(tàidù)看待监管问题,力求在保障安全的前提下,为创新预留足够空间。
周鸿祎在发言中表示,从现实应用层面来看,大(dà)模型面临着传统安全威胁与(yǔ)AI自身安全隐患的双重挑战,这些(zhèxiē)问题已成为制约AI产业健康发展的关键瓶颈,亟待系统性解决方案。在传统安全风险方面,系统漏洞(xìtǒnglòudòng)与供应链攻击成为AI领域的“心腹大患”。一旦漏洞被(bèi)攻击者利用,企业的核心商业机密、用户敏感数据等将面临被窃取的风险,可能给企业带来难以(nányǐ)估量的损失。
而AI自身的安全问题同样不容忽视。大模型存在(cúnzài)的“幻觉”现象,以及(yǐjí)易遭受提示注入(zhùrù)攻击等特性,可能导致严重后果。特别是众多企业基于大模型构建了能够自主工作的智能体,这些(zhèxiē)“数字员工”具备调用各类工具的能力,一旦大模型被恶意操控或出现(chūxiàn)“幻觉”,智能体可能出现误发重要邮件、错误操作致使生产线停摆等误操作,将风险从(cóng)虚拟世界传导至(zhì)现实生产生活中,传统的安全防护手段在这些新型风险面前显得捉襟见肘。
周鸿祎提出,必须以创新思维重塑安全体系,“以模制模”成为(wèi)破局(pòjú)关键。所谓“以模制模”,即(jí)利用人工智能技术自身的优势,通过(tōngguò)安全大模型赋能数字(shùzì)安全,实现安全防御(fángyù)的智能化升级。据了解,360依托10年300亿元的技术投入成果,结合20年来积累的海量安全大数据(shùjù),以及世界顶级安全专家的丰富经验,训练出专业(zhuānyè)的安全大模型,并形成完整的安全解决方案(jiějuéfāngàn)。目前,该安全大模型已成功应用于政府、能源、金融、教育等关键行业,为其筑牢AI安全防线。同时360牵头成立大模型安全联盟,联合科研机构、高校和行业头部企业,共享技术成果,共同研发安全产品与服务,携手推动AI安全有序地融入各行各业(gèhánggèyè)。
而在(zài)监管治理层面,周鸿祎指出,合理有效的监管是人工智能产业健康发展的重要保障。当前,全球(quánqiú)各国纷纷出台AI监管政策,旨在(zhǐzài)规范技术应用、防范潜在风险。然而,人工智能技术发展日新月异,其(qí)优势与局限并存,这就要求监管部门以辩证、客观的态度看待,在保障安全的前提下(xià),为创新预留足够空间。
以大模型的“幻觉”问题为例,这一特性虽可能导致信息偏差,但同时也赋予大模型创造力和(hé)想象力,在科研领域,如新药分子结构设计(shèjì)、蛋白质结构预测等方面发挥着积极作用。周鸿祎认为,可借鉴互联网早期发展的“避风港(bìfēnggǎng)原则”,在AI监管中采取柔性治理策略具有重要意义。即在坚守(jiānshǒu)安全底线的基础上,对企业因技术(jìshù)特性导致的一般性(yìbānxìng)失误给予一定宽容度,以鼓励(gǔlì)创新(chuàngxīn)。通过制定统一的技术标准和监管框架,明确规则边界,引导企业在规范内积极探索创新,避免因过度监管抑制产业发展活力。

5月29日,以“智汇中国 智惠上合”为主题的2025中国—上海合作组织人工智能合作论坛在天津举行。360集团创始人周鸿祎受邀参加“安全风险(fēngxiǎn)与(yǔ)监管治理”议题交流时表示,人类(rénlèi)在享受AI带来的巨大(dà)机遇时,也必须正视与之伴生(bànshēng)的安全风险与监管挑战。他提出,一方面,应“以模制模”,利用安全大模型解决大模型安全问题;另一方面则应以(yīngyǐ)辩证、客观的态度(tàidù)看待监管问题,力求在保障安全的前提下,为创新预留足够空间。
周鸿祎在发言中表示,从现实应用层面来看,大(dà)模型面临着传统安全威胁与(yǔ)AI自身安全隐患的双重挑战,这些(zhèxiē)问题已成为制约AI产业健康发展的关键瓶颈,亟待系统性解决方案。在传统安全风险方面,系统漏洞(xìtǒnglòudòng)与供应链攻击成为AI领域的“心腹大患”。一旦漏洞被(bèi)攻击者利用,企业的核心商业机密、用户敏感数据等将面临被窃取的风险,可能给企业带来难以(nányǐ)估量的损失。
而AI自身的安全问题同样不容忽视。大模型存在(cúnzài)的“幻觉”现象,以及(yǐjí)易遭受提示注入(zhùrù)攻击等特性,可能导致严重后果。特别是众多企业基于大模型构建了能够自主工作的智能体,这些(zhèxiē)“数字员工”具备调用各类工具的能力,一旦大模型被恶意操控或出现(chūxiàn)“幻觉”,智能体可能出现误发重要邮件、错误操作致使生产线停摆等误操作,将风险从(cóng)虚拟世界传导至(zhì)现实生产生活中,传统的安全防护手段在这些新型风险面前显得捉襟见肘。
周鸿祎提出,必须以创新思维重塑安全体系,“以模制模”成为(wèi)破局(pòjú)关键。所谓“以模制模”,即(jí)利用人工智能技术自身的优势,通过(tōngguò)安全大模型赋能数字(shùzì)安全,实现安全防御(fángyù)的智能化升级。据了解,360依托10年300亿元的技术投入成果,结合20年来积累的海量安全大数据(shùjù),以及世界顶级安全专家的丰富经验,训练出专业(zhuānyè)的安全大模型,并形成完整的安全解决方案(jiějuéfāngàn)。目前,该安全大模型已成功应用于政府、能源、金融、教育等关键行业,为其筑牢AI安全防线。同时360牵头成立大模型安全联盟,联合科研机构、高校和行业头部企业,共享技术成果,共同研发安全产品与服务,携手推动AI安全有序地融入各行各业(gèhánggèyè)。
而在(zài)监管治理层面,周鸿祎指出,合理有效的监管是人工智能产业健康发展的重要保障。当前,全球(quánqiú)各国纷纷出台AI监管政策,旨在(zhǐzài)规范技术应用、防范潜在风险。然而,人工智能技术发展日新月异,其(qí)优势与局限并存,这就要求监管部门以辩证、客观的态度看待,在保障安全的前提下(xià),为创新预留足够空间。
以大模型的“幻觉”问题为例,这一特性虽可能导致信息偏差,但同时也赋予大模型创造力和(hé)想象力,在科研领域,如新药分子结构设计(shèjì)、蛋白质结构预测等方面发挥着积极作用。周鸿祎认为,可借鉴互联网早期发展的“避风港(bìfēnggǎng)原则”,在AI监管中采取柔性治理策略具有重要意义。即在坚守(jiānshǒu)安全底线的基础上,对企业因技术(jìshù)特性导致的一般性(yìbānxìng)失误给予一定宽容度,以鼓励(gǔlì)创新(chuàngxīn)。通过制定统一的技术标准和监管框架,明确规则边界,引导企业在规范内积极探索创新,避免因过度监管抑制产业发展活力。

相关推荐
评论列表
暂无评论,快抢沙发吧~
你 发表评论:
欢迎