設定 OpenTelemetry POC¶
來源 https://github.com/vllm-project/vllm/tree/main/examples/online_serving/opentelemetry。
-
安裝 OpenTelemetry 包
-
在 Docker 容器中啟動 Jaeger
# From: https://www.jaegertracing.io/docs/1.57/getting-started/ docker run --rm --name jaeger \ -e COLLECTOR_ZIPKIN_HOST_PORT=:9411 \ -p 6831:6831/udp \ -p 6832:6832/udp \ -p 5778:5778 \ -p 16686:16686 \ -p 4317:4317 \ -p 4318:4318 \ -p 14250:14250 \ -p 14268:14268 \ -p 14269:14269 \ -p 9411:9411 \ jaegertracing/all-in-one:1.57 -
在新終端中,匯出 Jaeger IP
export JAEGER_IP=$(docker inspect --format '{{ .NetworkSettings.IPAddress }}' jaeger) export OTEL_EXPORTER_OTLP_TRACES_ENDPOINT=grpc://$JAEGER_IP:4317然後設定 vLLM 的 OpenTelemetry 服務名稱,啟用與 Jaeger 的不安全連線並執行 vLLM
-
在新終端中,使用模擬客戶端傳送帶有追蹤上下文的請求
-
開啟 Jaeger webui: https://:16686/
在搜尋面板中,選擇
vllm-server服務並點選Find Traces。您應該會得到一個追蹤列表,每個請求一個。
-
點選一個追蹤會顯示其 spans 和它們的 tags。在此演示中,每個追蹤有 2 個 spans。一個來自模擬客戶端,包含提示文字,另一個來自 vLLM,包含有關請求的元資料。

匯出器協議¶
OpenTelemetry 在匯出器中支援 grpc 或 http/protobuf 作為追蹤資料的傳輸協議。預設情況下,使用 grpc。要將 http/protobuf 設定為協議,請按如下方式配置 OTEL_EXPORTER_OTLP_TRACES_PROTOCOL 環境變數
export OTEL_EXPORTER_OTLP_TRACES_PROTOCOL=http/protobuf
export OTEL_EXPORTER_OTLP_TRACES_ENDPOINT=http://$JAEGER_IP:4318/v1/traces
vllm serve facebook/opt-125m --otlp-traces-endpoint="$OTEL_EXPORTER_OTLP_TRACES_ENDPOINT"
FastAPI 的插裝¶
OpenTelemetry 允許自動插裝 FastAPI。
-
安裝插裝庫
-
使用
opentelemetry-instrument執行 vLLM -
向 vLLM 傳送請求並在 Jaeger 中查詢其追蹤。它應該包含來自 FastAPI 的 spans。
示例材料¶
dummy_client.py
# SPDX-License-Identifier: Apache-2.0
# SPDX-FileCopyrightText: Copyright contributors to the vLLM project
import requests
from opentelemetry.exporter.otlp.proto.grpc.trace_exporter import OTLPSpanExporter
from opentelemetry.sdk.trace import TracerProvider
from opentelemetry.sdk.trace.export import BatchSpanProcessor, ConsoleSpanExporter
from opentelemetry.trace import SpanKind, set_tracer_provider
from opentelemetry.trace.propagation.tracecontext import TraceContextTextMapPropagator
trace_provider = TracerProvider()
set_tracer_provider(trace_provider)
trace_provider.add_span_processor(BatchSpanProcessor(OTLPSpanExporter()))
trace_provider.add_span_processor(BatchSpanProcessor(ConsoleSpanExporter()))
tracer = trace_provider.get_tracer("dummy-client")
url = "https://:8000/v1/completions"
with tracer.start_as_current_span("client-span", kind=SpanKind.CLIENT) as span:
prompt = "San Francisco is a"
span.set_attribute("prompt", prompt)
headers = {}
TraceContextTextMapPropagator().inject(headers)
payload = {
"model": "facebook/opt-125m",
"prompt": prompt,
"max_tokens": 10,
"n": 3,
"use_beam_search": "true",
"temperature": 0.0,
# "stream": True,
}
response = requests.post(url, headers=headers, json=payload)
