| category | 📊 Data Features |
|---|---|
| version | v1.3.0 |
| status | ✅ |
| date | 22.12.2025 |
Zeitreihendaten mit Aggregationen, Retention und optionaler Gorilla-Kompression.
- 📋 Übersicht
- ✨ Features
- 🚀 Schnellstart
- 📖 Detaillierte Dokumentation
- 💡 Best Practices
- 🔧 Troubleshooting
- 📚 Siehe auch
- 📝 Changelog
Funktionen:
- Speicherung von Zeitreihenpunkten in RocksDB (Schlüssel-Schema
ts:{metric}:{entity}:{timestamp_ms}) - Abfragen über Zeitbereiche mit Filter (Metric, Entity, Tags) und Limit
- On-the-fly Aggregationen: min, max, avg, sum, count
- Manuelle Retention (global oder pro Metric)
- Kontinuierliche Aggregationen (abgeleitete Metriken) – MVP-Hilfsklasse
- Optionaler Gorilla-Codec (für zukünftige Blockspeicherung)
Hinweis zur Implementierung:
- Canonical ist
TSStore(mit Tags/Metadata).TimeSeriesStoreist eine einfachere Variante und wird serverseitig nur für Übergangstypen verwendet.
- TSStore (
include/timeseries/tsstore.h): Haupt-API (DataPoint, QueryOptions, AggregationResult) - TimeSeriesStore (
include/timeseries/timeseries.h): einfache Struktur (nur Wert/Meta), legacy - RetentionManager (
include/timeseries/retention.h): setzt per-Metrik-Retention um - ContinuousAggregateManager (
include/timeseries/continuous_agg.h): erstellt abgeleitete Metriken in Fenstern - Gorilla-Codec (Tests/Utils): Kompression für (timestamp,double)
Die Speicherung von Zeitreihenelementen (timeline, IOT) erfolgt abhängig von der verwendeten API-Methode:
Einzelpunkt-Einfügung (putDataPoint)
- Speichert Datenpunkte als individuelle RocksDB-Entities
- Key-Format:
ts:{metric}:{entity}:{timestamp_ms} - Value-Format: JSON mit vollständigen DataPoint-Informationen
- Keine Gorilla-Kompression, auch wenn diese konfiguriert ist
- Geeignet für: Einzelne Messwerte, Echtzeit-Streaming, IOT-Sensordaten
- Hinweis: Eine zukünftige Buffering-Strategie ist geplant, um Gorilla-Kompression auch für Einzelpunkt-Einfügungen zu ermöglichen (siehe TODO in
tsstore.cpp:131-132)
Batch-Einfügung (putDataPoints)
- Gruppiert Datenpunkte nach
metric:entityund komprimiert sie als Chunk - Key-Format:
tsc:{metric}:{entity}:{first_ts}:{last_ts}(bei Gorilla-Kompression) - Value-Format: JSON-Metadaten + binärer Gorilla-komprimierter Chunk
- Mit Gorilla-Kompression (wenn
config.compression = CompressionType::Gorilla) - Kompressionsrate: 10-20x bei +15% CPU-Overhead
- Geeignet für: Batch-Import, historische Daten, Bulk-Operationen
Beispiel:
// Einzelpunkt-Einfügung (keine Kompression)
TSStore ts(db, cf);
ts.putDataPoint({.metric="temp", .entity="sensor1", .timestamp_ms=now(), .value=22.5});
// Batch-Einfügung (mit Gorilla-Kompression wenn konfiguriert)
std::vector<DataPoint> points = {...};
ts.putDataPoints(points); // Komprimiert zu Chunks pro metric:entityEmpfehlung:
- Verwenden Sie
putDataPoints()für bessere Speichereffizienz bei größeren Datenmengen - Die HTTP-API
/ts/putverwendet internputDataPoint()(keine Kompression) - Für Batch-Import kann eine eigene Batch-API oder direkter C++-Zugriff verwendet werden
Key (ohne Kompression): ts:{metric}:{entity}:{timestamp_ms}
Key (mit Gorilla-Kompression): tsc:{metric}:{entity}:{first_ts}:{last_ts}
DataPoint:
{
"metric": "cpu",
"entity": "server01",
"timestamp_ms": 1700000000000,
"value": 0.73,
"tags": { "env": "prod" },
"metadata": {}
}QueryOptions:
{
"metric": "cpu",
"entity": "server01", // optional in TSStore, im HTTP-API derzeit erforderlich
"from_ms": 0,
"to_ms": 9223372036854775807,
"limit": 1000,
"tag_filter": { "env": "prod" } // exakter Match
}AggregationResult:
{
"min": 0.1,
"max": 0.9,
"avg": 0.5,
"sum": 5.0,
"count": 10,
"first_timestamp_ms": 1700000000000,
"last_timestamp_ms": 1700000060000
}Wichtige Methoden (TSStore):
putDataPoint(DataPoint)/putDataPoints([...])query(QueryOptions)→(Status, vector<DataPoint>)aggregate(QueryOptions)→(Status, AggregationResult)getStats()→StatsdeleteOldData(cutoff_ms)/deleteOldDataForMetric(metric, cutoff_ms)/deleteMetric(metric)
Zeitreihen sind über folgende Endpunkte nutzbar (Feature-Flag features.timeseries=true):
-
POST
/ts/put- Body:
{ "metric": "cpu", "entity": "srv1", "value": 0.7, "timestamp_ms": 1700000000000, "metadata": { "env": "prod" } } - Antwort:
201 Createdmit{ success, metric, entity, timestamp_ms }
- Body:
-
POST
/ts/query- Body:
{ "metric": "cpu", "entity": "srv1", "from_ms": 1700000000000, "to_ms": 1700003600000, "limit": 1000 } - Antwort:
200 OKmit{ metric, entity, count, data: [ { timestamp_ms, value, tags } ] }
- Body:
-
POST
/ts/aggregate- Body wie bei
/ts/query(entity erforderlich) - Antwort:
200 OKmit{ metric, entity, aggregation: { min,max,avg,sum,count,first_timestamp_ms,last_timestamp_ms } }
- Body wie bei
-
GET
/ts/config- Gibt aktuelle Kompression- und Chunk-Konfiguration zurück
- Antwort:
200 OKmit{ compression: "gorilla"|"none", chunk_size_hours: 24 }
-
PUT
/ts/config- Ändert Konfiguration zur Laufzeit (betrifft nur neue Datenpunkte)
- Body:
{ "compression": "gorilla", "chunk_size_hours": 24 } - Antwort:
200 OKmit{ status: "ok", compression, chunk_size_hours, note } - Kompression-Typen:
"gorilla"(10-20x Ratio, +15% CPU) oder"none" chunk_size_hours: 1-168 (max 1 Woche)
Hinweise:
- Tag-Filter sind in der TSStore-API vorhanden (
tag_filter), in den aktuellen HTTP-Endpunkten aber (noch) nicht explizit verdrahtet. - Die Server-Handler verwenden intern
TSStore(putDataPoint,query,aggregate).
- Global:
deleteOldData(cutoff_ms) - Pro Metric:
deleteOldDataForMetric(metric, cutoff_ms) - Manager:
RetentionManagermitRetentionPolicy.per_metric[metric] = <Duration>
Beispiel:
RetentionPolicy pol;
pol.per_metric["cpu"] = std::chrono::minutes(30);
pol.per_metric["mem"] = std::chrono::hours(2);
RetentionManager rm(&tsstore, pol);
size_t deleted = rm.apply();- Abgeleitete Metrik:
{metric}__agg_{window_ms} - Ein Punkt pro Fensterende;
value = avg, übrige Kennzahlen inmetadata
ContinuousAggregateManager mgr(&tsstore);
AggConfig cfg{ .metric = "temp", .entity = std::string("sensorA"), .window = {std::chrono::minutes(1)} };
mgr.refresh(cfg, from_ms, to_ms);- Timestamps: Delta-of-Delta, ZigZag + Varint
- Werte: XOR der IEEE‑754 Repräsentation mit Leading/Trailing‑Zero‑Packing
GorillaEncoder enc;
enc.add(ts, value);
auto bytes = enc.finish();
GorillaDecoder dec(bytes);
while (auto p = dec.next()) { /* ... */ }tests/test_tsstore.cpp– TSStore: CRUD, Query, Aggregation, Statstests/test_timeseries_retention.cpp– Retention pro Metrictests/test_gorilla.cpp– Codec‑Roundtrip/Kompression
- Kein automatisches Downsampling/TTL – Retention ist manuell bzw. per Job
- HTTP-Endpunkte erfordern
entity; TSStore unterstützt zudem Tag‑Filter (noch nicht im Endpoint) - Gorilla-Kompression nur bei Batch-Einfügung (
putDataPoints), nicht bei Einzelpunkt-Einfügung (putDataPoint) - Einzelpunkt-Einfügungen werden immer als singuläre RocksDB-Entities gespeichert (TODO: Buffering-Strategie implementieren)
- HTTP-API verwendet
putDataPoint()intern, daher keine Kompression über/ts/putEndpoint