CERN ist eines der ehrgeizigsten technischen und wissenschaftlichen Vorhaben der Menschheitsgeschichte. Der Large Hadron Collider (LHC) ist der größte und energiereichste Teilchenbeschleuniger der Welt, und Wissenschaftler nutzen ihn, um Beweise für die Struktur der subatomaren Welt zu analysieren – dabei ist der LHC in der Lage, jedes Jahr Dutzende Petabyte an Daten zu produzieren.
CERN musste kürzlich seine Backend-IT-Systeme in Vorbereitung auf die neue experimentelle Phase des LHC (LHC-Betrieb 3) aktualisieren. Es wird erwartet, dass diese Phase bis Ende 2025 täglich 1 PB Daten generieren wird. Bisherige Datenbanksysteme reichen nicht mehr aus, um die Daten mit „hoher Kardinalität“ zu verarbeiten, die von den großen Experimenten des Colliders, wie etwa CMS, erzeugt werden.
Der Compact Muon Solenoid (CMS) ist ein universeller Detektor am Large Hadron Collider mit einem breiten Physikprogramm. Es umfasst die Untersuchung des Standardmodells, einschließlich des Higgs-Bosons, und die Suche nach zusätzlichen Dimensionen und Teilchen, aus denen die Dunkle Materie bestehen könnte. CERN bezeichnet das Experiment als eine der größten wissenschaftlichen Kooperationen in der Geschichte, an der etwa 5.500 Menschen aus 241 Institutionen in 54 verschiedenen Ländern beteiligt waren.
CMS und andere Large Hadron Collider-Experimente durchliefen von 2018 bis 2022 eine umfassende Modernisierungsphase und sind nun bereit, die kollidierenden subatomaren Teilchen während der dreijährigen Datenerfassungsperiode der Betriebsphase 3 wieder aufzunehmen. Während der Abschaltung führten CERN-Experten auch erhebliche Verbesserungen an den Detektorsystemen und der Computerinfrastruktur durch, die CMS unterstützen.
Brij Kishor Jashal, ein Wissenschaftler, der mit CMS arbeitet, erwähnte, dass sein Team in 30 Tagen 30 TB Daten gesammelt habe, um die Leistung der Infrastruktur zu überwachen. Er erklärte, dass diese Betriebsstufe zu einer höheren Leuchtkraft und damit zu einem deutlichen Anstieg des Datenvolumens führt. Frühere Back-End-Überwachungssysteme stützten sich auf die Open-Source-Zeitreihendatenbank (TSDB) InfluxDB und die Überwachungsdatenbank Prometheus, die Komprimierungsalgorithmen zur effizienten Verarbeitung dieser Daten nutzten.
Bei InfluxDB und Prometheus traten jedoch Leistungs-, Skalierbarkeits- und Zuverlässigkeitsprobleme auf, insbesondere beim Umgang mit Daten mit hoher Kardinalität. Hohe Kardinalität bezieht sich auf die Verbreitung doppelter Werte und die Möglichkeit, die Anwendung mehrmals in neuen Instanzen erneut bereitzustellen. Um diesen Herausforderungen zu begegnen, entschied sich das CMS-Überwachungsteam dafür, InfluxDB und Prometheus durch die VictoriaMetrics TSDB-Datenbank zu ersetzen.
Jetzt ist VictoriaMetrics sowohl das Back-End-Speicher- als auch das Überwachungssystem von CMS und löst das zuvor aufgetretene Kardinalitätsproblem effektiv. Jashal stellte fest, dass das CMS-Team derzeit mit der Leistung des Clusters und der Dienste zufrieden ist. Obwohl noch Spielraum für Skalierbarkeit besteht, werden diese Dienste im „Hochverfügbarkeitsmodus“ innerhalb des dedizierten Kubernetes-Clusters von CMS ausgeführt, um höhere Zuverlässigkeitsgarantien zu bieten. Das Rechenzentrum des CERN ist auf OpenStack-Dienste angewiesen, die auf einem Cluster robuster x86-Maschinen laufen.
Zugang:
Alibaba Cloud – Universelle Gutscheine bis zu 1888 Yuan sofort verfügbar