漏洞描述 vLLM是vLLM开源的一个适用于 LLM 的高吞吐量和内存高效推理和服务引擎。 vLLM 0.6.5至0.8.4版本存在代码问题漏洞,该漏洞源于PyNcclPipe KV缓存传输未正确限制TCPStore接口访问范围。