Cloud-Architekturen, KI-Modelle und Data Center-Technologien entwickeln sich 2025 rasanter als je zuvor. Damit Unternehmen, IT-Verantwortliche und Interessierte den Überblick behalten, bietet dieses Glossar die wichtigsten Begriffe rund um Cloud Computing, künstliche Intelligenz, Rechenzentren, GPU-Technologien, Energieeffizienz und moderne Sicherheitskonzepte – kompakt erklärt und ideal zum Nachschlagen.
Inhaltsübersicht
- Grundbegriffe Cloud & KI
- KI-Modelle & Training
- Data Center & Infrastruktur
- GPU-, NPU- & Beschleuniger-Technologien
- Sicherheit & Datenschutz
- Kosten, Effizienz & Energieverbrauch
1. Grundbegriffe Cloud & KI
Cloud Computing
Die Bereitstellung von IT-Ressourcen wie Rechenleistung, Speicher oder Datenbanken über das Internet. Nutzer zahlen nur für die Ressourcen, die sie verwenden.
Public Cloud
Cloud-Dienste, die von Hyperscalern wie AWS, Google Cloud oder Microsoft Azure öffentlich angeboten werden und sich flexibel skalieren lassen.
Private Cloud
Eine abgeschlossene Cloud-Umgebung, die ausschließlich für ein bestimmtes Unternehmen betrieben wird, häufig aus Sicherheits- oder Compliance-Gründen.
Hybrid Cloud
Eine Kombination aus Public und Private Cloud, bei der Workloads dynamisch zwischen beiden Umgebungen wechseln können.
Multi-Cloud
Die parallele Nutzung mehrerer Cloud-Anbieter – etwa für Redundanz, Kostenvorteile oder spezialisierte Workloads.
Edge Computing
Die Verlagerung von Rechenleistung an den Rand des Netzwerks, z. B. in Fabriken, Retail oder autonome Systeme, um Latenz zu minimieren.
Serverless
Cloud-Anwendungen, bei denen Entwickler sich nicht um Server kümmern müssen. Die Cloud übernimmt Skalierung und Infrastruktur automatisiert.
API Gateway
Eine zentrale Schnittstelle, über die Microservices erreichbar sind – inklusive Load Balancing, Logging und Zugriffskontrolle.
Container
Leichtgewichtige, isolierte Softwareumgebungen, die Anwendungen überall reproduzierbar laufen lassen. Basis für Microservice-Architekturen.
Kubernetes
Das marktführende Orchestrierungssystem zur Verwaltung von Containern, Skalierung und Deployment-Automatisierung.
2. KI-Modelle & Training
LLM (Large Language Model)
Große Sprachmodelle wie GPT, die auf Milliarden Parametern basieren und natürliche Sprache verstehen und erzeugen.
Training
Der Prozess, in dem KI-Modelle Muster aus riesigen Datenmengen lernen. Erfordert extreme GPU-Rechenleistung.
Fine-Tuning
Das Nachtrainieren eines KI-Modells auf spezifische Unternehmens- oder Branchendaten, um höhere Genauigkeit zu erreichen.
Inference
Die Phase, in der ein KI-Modell Ergebnisse liefert – z. B. Texte schreibt, Bilder generiert oder Entscheidungen trifft.
Prompt Engineering
Die Kunst, Eingaben (Prompts) so zu gestalten, dass KI-Systeme präzise und konsistente Ergebnisse liefern.
Embedding
Numerische Repräsentationen, die Inhalte für KI-Modelle vergleichbar machen, etwa zur semantischen Suche.
AI Agenten
Autonom agierende KI-Systeme, die Entscheidungen treffen, Aufgaben planen oder Workflows automatisieren.
Transformer-Architektur
Die aktuell dominierende Modellarchitektur modernster KI-Systeme – optimiert für paralleles Training und Sprachverarbeitung.
3. Data Center & Infrastruktur
Rechenzentrum (Data Center)
Ein Standort, an dem Server, Speicher, Netzwerkkomponenten und Energieversorgung zentral betrieben werden.
Colocation
Unternehmen mieten Stellflächen oder Racks in einem externen Rechenzentrum und bringen ihre eigene Hardware mit.
PUE (Power Usage Effectiveness)
Ein Maß für die Energieeffizienz eines Rechenzentrums. PUE = 1,0 ist perfekt und bedeutet keinen Energieverlust außerhalb der IT.
DCIM (Data Center Infrastructure Management)
Tools zur Überwachung und Optimierung von Energieverbrauch, Kühlung, Rack-Belegung und Kapazitätsplanung.
Liquid Cooling
Moderne Kühltechnologie, bei der Server direkt oder indirekt mit Flüssigkeiten gekühlt werden – essenziell für leistungsstarke GPUs.
AI Data Center
Rechenzentren, die speziell für KI-Workloads ausgelegt sind – mit hoher Dichte an GPUs, NVLink-Anbindungen und Liquid Cooling.
Bare Metal Server
Physische Server ohne Virtualisierungsschicht, die maximale Performance und niedrige Latenzen bieten – bevorzugt für KI-Training.
Latency (Latenz)
Die Zeit, die Daten brauchen, um zwischen Nutzer und Server übertragen zu werden. Kritisch für Echtzeitanwendungen.
Throughput
Die Menge an Daten, die pro Zeiteinheit übertragen werden kann – entscheidend für Training großer KI-Modelle.
4. GPU-, NPU- & Beschleuniger-Technologien
GPU (Graphics Processing Unit)
Hochgradig parallelisierte Prozessoren, die ideal für KI-Training und Inference sind.
Tensor Core
Spezialisierte Recheneinheiten in Nvidia-GPUs, optimiert für Matrixmultiplikationen – das Herzstück von KI-Modellen.
NPU (Neural Processing Unit)
Beschleuniger für KI-Berechnungen, die direkt in CPUs oder mobile Geräte integriert sind.
TPU (Tensor Processing Unit)
Ein TPU ist Googles KI-Chip für extrem hohe Trainingseffizienz. Einsatz v. a. in großen AI-Clouds.
NVLink
Hochgeschwindigkeitsverbindung zwischen GPUs, die für KI-Training große Performance-Vorteile bietet.
HBM (High Bandwidth Memory)
Speichertechnologie mit extrem hoher Bandbreite, essenziell für KI-Beschleuniger.
RISC-V
Offene CPU-Architektur, die 2025 zunehmend für AI-Edge-Systeme und spezialisierte Chips genutzt wird.
5. Sicherheit & Datenschutz
Zero Trust
Ein Sicherheitsmodell, das grundsätzlich keinem Gerät oder Nutzer vertraut. Jeder Zugriff wird geprüft und protokolliert.
MFA (Multi-Faktor-Authentifizierung)
Erhöhte Zugriffssicherheit durch mehrere Identitätsfaktoren wie Passwort, App und biometrische Daten.
Passkeys
Passwortfreie Login-Methode, die auf kryptografischen Schlüsselpaaren basiert und extrem sicher ist.
Data Residency
Regelung, in welchem Land Unternehmens- oder Kundendaten gespeichert und verarbeitet werden dürfen.
SIEM
Tools zur zentralen Analyse und Korrelation von Logdaten, um Angriffe in Echtzeit zu erkennen.
SOC (Security Operations Center)
Ein 24/7-Sicherheitszentrum, das Angriffe überwacht und abwehrt.
IAM (Identity and Access Management)
Systeme zur Verwaltung von Nutzeridentitäten und Zugriffsrechten.
6. Kosten, Effizienz & Energieverbrauch
FinOps
Management-Framework für transparente Cloud-Kosten, Optimierung und Verantwortlichkeiten in Unternehmen.
Autoscaling
Automatische Anpassung der Ressourcen-Aktivität je nach Last – spart Kosten und Energie.
Spot Instances
Günstige Cloud-Rechenleistung, die kurzfristig verfügbar ist – ideal für KI-Training.
Green Compute
Energieeffiziente Cloud-Lösungen, oft mit erneuerbaren Energien oder optimierten Data-Center-Strukturen.
CO₂-Fußabdruck (Cloud)
Die Menge an Emissionen, die ein Cloud-Dienst durch Energieverbrauch verursacht.
Workload Placement
Die Entscheidung, wo ein Workload laufen soll – Public Cloud, Private Cloud, Edge oder On-Premise.
Energy-Aware Scheduling
Die intelligente Steuerung von Workloads nach Energiepreis, Verfügbarkeit und Effizienz.
Fazit: Dieses Glossar bietet eine kompakte Übersicht über die wichtigsten Begriffe der Cloud- und KI-Welt im Jahr 2025. Es dient als Basis, um Trends, Technologien und Herausforderungen moderner IT-Infrastrukturen besser zu verstehen – und als zentrale Wissensquelle im digitoren.de-Cluster rund um Cloud, Security und KI.
Dr. Jens Bölscher ist studierter Betriebswirt mit Schwerpunkt Wirtschaftsinformatik. Er promovierte im Jahr 2000 zum Thema Electronic Commerce in der Versicherungswirtschaft und hat zahlreiche Bücher und Fachbeiträge veröffentlicht. Er war langjährig in verschiedenen Positionen tätig, zuletzt 14 Jahre als Geschäftsführer. Seine besonderen Interessen sind Innovationen im IT Bereich.
Neueste Kommentare