网络安全

2025年 8月 7日
黑客如何利用 AI 解决问题的能力
随着多模态 AI 模型从感知发展到推理,甚至开始自主行动,新的攻击面也随之出现。这些威胁不仅针对输入或输出,还利用了 AI 系统如何处理、
2 MIN READ

2025年 7月 31日
保护代理式 AI:语义提示注入如何绕过 AI 护栏
自 LLM 部署之初,攻击者就通过操纵输入来让大语言模型以意想不到的方式运行,从而对 AI 系统造成威胁。
1 MIN READ

2025年 7月 28日
为 AI 模型带来可验证的信任:NGC 中的模型签名
AI 正在进入一个新时代,在这个时代,智能体可以推理、计划和采取行动。这些代理系统与 API、工具乃至物理环境进行动态交互,
2 MIN READ

2025年 7月 17日
使用 NVIDIA 安全配方保护代理式 AI 系统
随着大语言模型 (LLM) 驱动更多能够执行自主操作、工具使用和推理的代理式系统,企业被其灵活性和低推理成本所吸引。
2 MIN READ

2025年 7月 10日
InfiniBand 多层安全保护数据中心和 AI 工作负载
在当今数据驱动的世界中,安全性不仅仅是一项功能,更是基础。随着 AI、HPC 和超大规模云计算的指数级增长,
1 MIN READ

2025年 6月 25日
NVIDIA DOCA 3.0 助力 AI 平台开启网络新纪元
NVIDIA DOCA 框架已发展成为新一代 AI 基础设施的重要组成部分。从初始版本到备受期待的 NVIDIA DOCA 3.0 发布,
3 MIN READ

2025年 6月 11日
使用 NVIDIA NIM 安全部署 AI 模型
想象一下,您正在领导大型企业的安全工作,并且您的团队渴望将 AI 用于越来越多的项目。不过,这是一个问题。与任何项目一样,
2 MIN READ

2025年 6月 5日
分析基板管理控制器以保护数据中心基础设施
现代数据中心依靠 Baseboard Management Controllers (BMCs) 进行远程管理。
2 MIN READ

2025年 5月 23日
更智能、更安全地串流:了解 NVIDIA NeMo Guardrails 如何增强 LLM 输出串流
LLM 流式传输会在生成模型响应时,逐个 token 实时递增发送该响应。
2 MIN READ

2025年 5月 8日
应用基于自动编码器的 GNN 检测 NetFlow 数据中的高吞吐量网络异常
随着现代企业和云环境的扩展,网络流量的复杂性和数量也在急剧增加。NetFlow 用于记录有关通过路由器、交换机或主机等网络设备的流量的元数据。
2 MIN READ

2025年 4月 29日
构建应用程序以安全使用 KV 缓存
在与基于 Transformer 的模型 (如 大语言模型 (LLM) 和 视觉语言模型 (VLM)) 交互时,输入结构会塑造模型的输出。
2 MIN READ

2025年 4月 28日
借助代理式 AI 系统推进网络安全运营
被动式 AI 时代已经过去。一个新时代正在开始,AI 不仅能做出响应,还能思考、计划和行动。 大语言模型 (LLM) 的快速发展释放了…
3 MIN READ

2025年 4月 11日
借助 NVIDIA FLARE 和 Meta ExecuTorch,在移动设备上轻松进行联邦学习
NVIDIA 和 Meta 的 PyTorch 团队宣布开展突破性合作,通过集成 NVIDIA FLARE 和 ExecuTorch ,
3 MIN READ

2025年 2月 25日
定义 LLM 红色团队
在一项活动中,人们为生成式 AI 技术 (例如大语言模型 (LLMs)) 提供输入,以确定输出是否会偏离可接受的标准。
1 MIN READ

2025年 1月 16日
如何使用 NVIDIA NeMo Guardrails 为客户服务保护 AI 智能体
AI 代理为 企业扩展和提升客户服务以及支持交互提供了重要机会。这些客服人员可自动处理日常查询并缩短响应时间,从而提高效率和客户满意度,
5 MIN READ