全球网络安全领导企业卡巴斯基近日发布2026年网络安全趋势报告,指出人工智能(AI)的迅猛发展正从根本上重塑个人与企业的网络安全格局。大语言模型(LLMs)在强化防御能力的同时,也为威胁行为者创造了更多攻击机会,推动网络攻防博弈进入全新的智能对抗时代。
深度伪造技术主流化,高逼真度音频与低创作门槛成关键变量
报告强调,深度伪造(Deepfake)技术正在成为主流,相关认知将持续提升。企业正日益重视合成内容风险,通过员工培训降低受害概率;普通用户也因频繁接触虚假内容,对这类威胁的认知程度显著提高。卡巴斯基专家指出,深度伪造已成为安全议程中的固定议题,亟需系统化的培训体系与内部政策应对。
技术演进方面,深度伪造的视觉质量已达到较高水平,而逼真音频将成为未来提升的核心领域。更值得警惕的是,内容生成工具的易用性持续提升——非专业人士仅需点击几次即可创建中等质量的深度伪造内容,这使得技术门槛大幅降低,平均质量不断上升,不可避免地被网络犯罪分子利用。尽管实时人脸与语音交换技术仍需高级技术能力支撑,难以广泛普及,但在针对性场景中,其日益增强的真实感与通过虚拟摄像头操控视频的能力,将使攻击更具迷惑性。
AI内容标识与模型治理成全球监管焦点
针对AI生成内容的标识问题,报告指出目前仍缺乏可靠识别合成内容的统一标准,现有标签易被绕过或移除,尤其是在开源模型场景下。这一现状正推动全球范围内新的技术与监管举措涌现。
开源权重模型(Open-weight models)的发展同样引发关注。报告显示,这类模型在诸多网络安全相关任务上正快速接近顶级闭源模型,而其缺乏严格管控的特性带来了更多滥用风险。尽管闭源模型仍具备更严格的控制机制与安全防护,但开源系统在功能上的快速追赶,使得两者在恶意利用方面的界限逐渐模糊。OpenAI近期研究表明,经恶意微调的开源模型虽尚未超越闭源模型的风险水平,但已展现出在网络安全领域的潜在威胁。
AI贯穿攻击链全流程,防御侧迎来SOC范式革新
在攻击应用层面,AI正成为跨攻击链的核心工具,渗透至多数攻击阶段。卡巴斯基专家观察到,威胁行为者已利用LLMs编写代码、构建基础设施并自动化运营任务,未来这一趋势将进一步强化——从攻击准备、通信,到恶意组件组装、漏洞探测与工具部署,AI将全面赋能攻击流程。更严峻的是,攻击者正致力于隐藏AI参与痕迹,增加攻击分析难度。
防御侧同样迎来变革,AI正成为安全分析的常用工具并重塑安全运营中心(SOC)工作模式。基于智能体(Agent)的系统能够持续扫描基础设施、识别漏洞并为调查收集上下文信息,大幅减少人工常规工作。这使得安全专家从手动数据搜索转向基于预置上下文的决策制定,同时安全工具正逐步过渡到自然语言接口,支持通过提示词(Prompts)而非复杂技术查询进行操作。
虚拟与现实边界模糊催生新挑战,弹性防御成企业核心策略

报告特别指出,AI生成内容的合法与欺诈边界正日益模糊。一方面,AI已能生成精心设计的诈骗邮件、具有说服力的视觉身份与高质量钓鱼页面;另一方面,主流品牌在广告中广泛采用合成素材,使AI生成内容变得"眼熟"且视觉上"正常化",这使得用户与自动化检测系统区分真伪的难度剧增。
面对AI驱动的安全新格局,卡巴斯基专家建议个人与企业采取多层防御策略:加强员工AI安全意识培训,建立系统化的深度伪造应对机制;密切关注全球AI内容标识监管动态,提前部署合规解决方案;评估开源模型使用风险,建立严格的模型治理框架;投资AI赋能的SOC工具,提升威胁检测与响应效率。"2026年的网络安全不再是单点的技术对抗,而是智能能力与弹性体系的综合较量,"卡巴斯基全球研究与分析团队(GReAT)的高级安全研究员Jin Ye表示,"只有将AI作为防御体系的核心能力,同时建立完善的业务连续性保障机制,才能在智能化高速发展的时代抢占先机。"
加载中,请稍侯......