Логотип exploitDog
Консоль
Логотип exploitDog

exploitDog

fstec логотип

BDU:2026-03423

Опубликовано: 23 апр. 2025
Источник: fstec
CVSS3: 2.6
CVSS2: 2.1
EPSS Низкий

Описание

Уязвимость механизма PageAttention библиотеки для работы с большими языковыми моделями (LLM) vLLM связана с раскрытием информации из-за несоответствия во времени. Эксплуатация уязвимости может позволить нарушителю, действующему удаленно, раскрыть защищаемую информацию

Вендор

vLLM Project

Наименование ПО

vLLM

Версия ПО

до 0.9.0 (vLLM)

Тип ПО

ПО для разработки ИИ

Операционные системы и аппаратные платформы

-

Уровень опасности уязвимости

Низкий уровень опасности (базовая оценка CVSS 2.0 составляет 2,1)
Низкий уровень опасности (базовая оценка CVSS 3.1 составляет 2,6)

Возможные меры по устранению уязвимости

Использование рекомендаций производителя:
https://github.com/vllm-project/vllm/commit/77073c77bc2006eb80ea6d5128f076f5e6c6f54f

Статус уязвимости

Подтверждена производителем

Наличие эксплойта

Данные уточняются

Информация об устранении

Уязвимость устранена

Идентификаторы других систем описаний уязвимостей

EPSS

Процентиль: 19%
0.00062
Низкий

2.6 Low

CVSS3

2.1 Low

CVSS2

Связанные уязвимости

CVSS3: 2.6
redhat
10 месяцев назад

vLLM is an inference and serving engine for large language models (LLMs). Prior to version 0.9.0, when a new prompt is processed, if the PageAttention mechanism finds a matching prefix chunk, the prefill process speeds up, which is reflected in the TTFT (Time to First Token). These timing differences caused by matching chunks are significant enough to be recognized and exploited. This issue has been patched in version 0.9.0.

CVSS3: 2.6
nvd
10 месяцев назад

vLLM is an inference and serving engine for large language models (LLMs). Prior to version 0.9.0, when a new prompt is processed, if the PageAttention mechanism finds a matching prefix chunk, the prefill process speeds up, which is reflected in the TTFT (Time to First Token). These timing differences caused by matching chunks are significant enough to be recognized and exploited. This issue has been patched in version 0.9.0.

CVSS3: 2.6
debian
10 месяцев назад

vLLM is an inference and serving engine for large language models (LLM ...

CVSS3: 2.6
github
10 месяцев назад

Potential Timing Side-Channel Vulnerability in vLLM’s Chunk-Based Prefix Caching

EPSS

Процентиль: 19%
0.00062
Низкий

2.6 Low

CVSS3

2.1 Low

CVSS2