This website requires JavaScript.
Explore
Help
Sign In
xinyun
/
vllm
Watch
1
Star
0
Fork
0
You've already forked vllm
mirror of
https://git.datalinker.icu/vllm-project/vllm.git
synced
2025-12-16 12:15:01 +08:00
Code
Issues
Packages
Projects
Releases
Wiki
Activity
vllm
/
tests
History
Nick Hill
8e7a891602
[BugFix] Fix spec decoding max_tokens scheduling perf issue (
#29542
)
...
Signed-off-by: Nick Hill <nhill@redhat.com>
2025-11-28 20:52:23 +08:00
..
basic_correctness
…
benchmarks
…
compile
…
config
…
cuda
…
detokenizer
…
distributed
…
engine
…
entrypoints
…
evals
…
kernels
…
kv_transfer
…
lora
…
model_executor
…
models
…
multimodal
…
plugins
…
plugins_tests
…
prompts
…
quantization
…
reasoning
…
rocm
/aiter
…
samplers
…
standalone_tests
…
system_messages
…
tokenization
…
tool_use
…
tools
…
tpu
…
transformers_utils
…
utils_
…
v1
[BugFix] Fix spec decoding max_tokens scheduling perf issue (
#29542
)
2025-11-28 20:52:23 +08:00
vllm_test_utils
…
weight_loading
…
__init__.py
…
ci_envs.py
…
conftest.py
…
test_config.py
…
test_embedded_commit.py
…
test_envs.py
…
test_inputs.py
…
test_logger.py
…
test_logprobs.py
…
test_outputs.py
…
test_pooling_params.py
…
test_regression.py
…
test_routing_simulator.py
…
test_scalartype.py
…
test_seed_behavior.py
…
test_sequence.py
…
test_triton_utils.py
…
test_version.py
…
test_vllm_port.py
…
utils.py
…