Zum Inhalt springen
FM-Connect Chat

Hallo! Ich bin Ihr FM-Connect Chat-Assistent. Wie kann ich Ihnen helfen?

FM-Solutionmaker: Gemeinsam Facility Management neu denken

GEFMA 430: Datenbasis und Datenmanagement in CAFM-Systemen

Facility Management: Organisationsentwicklung » Normen » GEFMA » GEFMA 430: Datenbasis und Datenmanagement in CAFM-Systemen

GEFMA 430 Datenbasis und Datenmanagement in CAFM-Systemen zur strukturierten Informationsverwaltung

GEFMA 430 Datenmanagement im CAFM strukturieren

GEFMA 430 definiert die Struktur und das Management von Daten in CAFM-Systemen als zentrale Grundlage für ein effizientes Facility Management. Im Fokus stehen Datenqualität, strukturierte Datenmodelle sowie der systematische Aufbau und die kontinuierliche Pflege der Datenbasis. Die Richtlinie unterstützt Organisationen bei der Einführung und Weiterentwicklung digitaler FM-Prozesse und schafft Transparenz für fundierte Entscheidungen im Gebäudebetrieb.

GEFMA 430 Richtlinie für CAFM-Daten

Zielsetzung der Richtlinie

Ziel der GEFMA 430 ist es, einheitliche und nachvollziehbare Regeln für Aufbau, Qualitätssicherung und Pflege der Datenbasis in CAFM‑Systemen zu schaffen. Die Richtlinie will typische Qualitäts‑ und Strukturdefizite von Anfang an vermeiden und beschreibt, wie Projektverantwortliche den Umfang und die Qualität der benötigten Daten richtig abschätzen, damit Investitionen sicher geplant werden können. Sie sensibilisiert zudem für den Datenschutz und zeigt, welche Schnittstellen für den reibungslosen Informationsfluss zu berücksichtigen sind.

Geltungsbereich

Die Richtlinie gilt für CAFM‑ und integrierte Workplace‑Management‑Systeme (IWMS), unabhängig davon, ob diese in Eigen‑ oder Fremdorganisation betrieben werden. Sie umfasst das technische, infrastrukturelle und kaufmännische Facility Management – also von Wartung und Inspektion über Flächen‑ und Mietverwaltung bis hin zu Budget‑ und Vertragsmanagement. Der Anwendungsbereich erstreckt sich sowohl auf einzelne Gebäude und Standorte als auch auf große Immobilienportfolios.

Einordnung in die GEFMA‑Richtlinienlandschaft

GEFMA 430 ist die datenbezogene Grundlagenrichtlinie. Sie ergänzt Richtlinien, die Begriffe und Prozesse definieren (z. B. GEFMA 400/420), die Einführung von CAFM-Systemen behandeln (GEFMA 410) oder Betreiberpflichten regeln (GEFMA 190). Während andere Richtlinien den Funktionsumfang oder die Schnittstellen erläutern, beschreibt GEFMA 430 den Ordnungsrahmen für Datenmodelle und Datenmanagement.

Bedeutung der Datenbasis im Facility Management

Im CAFM repräsentiert jedes Objekt (Gebäude, Raum, Anlage, Möbelstück oder Vertrag) eine digitale Einheit mit spezifischen Attributen wie Raumgröße, Baujahr, Standort, Inventarnummer oder Wartungsstatus. Die objektorientierte Architektur erlaubt es, komplexe Gebäudedaten in handhabbare Einheiten zu zerlegen, miteinander zu verknüpfen und in Echtzeit auszuwerten. Durch eine zentrale Datenbasis werden Prozesse automatisiert, Daten konsistent gehalten und Entscheider können Muster und Trends erkenne. Ohne vollständige und aktuelle Daten lassen sich Wartungsintervalle nicht zuverlässig überwachen und gesetzliche Pflichten nicht nachweisen.

Daten als Lebenszyklusinformation

Daten begleiten den gesamten Lebenszyklus eines Gebäudes: Sie entstehen während Planung und Bau (Bestands‑ und Dokumentdaten) und werden über Betrieb, Umbauten und Rückbau fortgeschrieben. Die GEFMA 430 fordert, Bau‑ und Anlagendaten systematisch aus der Planungsphase zu übernehmen; andernfalls gehen wichtige Informationen beim Übergang in den Betrieb verloren. Im laufenden Betrieb werden Zustands‑ und Verbrauchsdaten aktualisiert und dienen als Grundlage für Instandhaltung, Modernisierung und Nachweisführung.

Datenkategorien

  • Stammdaten (Bestandsdaten): Langfristige, selten veränderliche Daten wie Gebäudename, Adresse, Flächen, Anlagenbezeichnungen; oft in Katalogen organisiert. Sie entstehen in Planung und Bau und bilden den dauerhaften Datenstock.

  • Bewegungs‑/Prozessdaten: Daten, die laufend bei FM‑Prozessen entstehen und häufig ändern (z. B. Auftrags‑, Zustands‑ und Verbrauchsdaten). Sie dokumentieren Zustandsänderungen oder Prozessabläufe.

  • Dokumente: Elektronische Pläne, Prüfberichte, Wartungsverträge etc. Ein Dokumenten‑Management‑System (DMS) archiviert diese Dokumente revisionssicher und stellt Versionierung sowie Recherchefunktionen bereit.

Funktionale Zuordnung der Daten

Datenkategorie

Typische Inhalte

FM‑Funktion

Stammdaten

Gebäude, Flächen, Anlagen, Verträge

Strukturbildung und Inventar

Bewegungsdaten

Aufträge, Meldungen, Wartungs‑ und Zustandsdaten, Kosten

Betrieb, Instandhaltung

Dokumente

Pläne, Prüf‑ und Wartungsberichte, Genehmigungen

Nachweis und Rechtssicherheit

Grundprinzipien der Datenmodellierung

Datenmodelle definieren die Art und Weise, wie Objekte und ihre Beziehungen in der CAFM‑Datenbank strukturiert sind. Ein objektorientiertes Datenmodell beschreibt jedes Datenobjekt mit Attributen und Beziehungen und verknüpft grafische und alphanumerische Informationen. Die objektorientierte Architektur eines CAFM‑Systems ermöglicht es, komplexe Gebäude und Anlagen als vernetzte Objekte abzubilden, wodurch ein transparentes, konsistentes und flexibles Datenmodell entsteht. Dabei gelten die Daten als unternehmerisches Allgemeingut: Sie sind langfristig stabil, können aber durch neue Attribute ergänzt werden, wenn sich Anforderungen ändern. Prozesse verändern sich im Laufe der Zeit, die Datenmodelle bleiben bestehen und stellen die Basis für alle Anwendungen dar.

Strukturierung von Objekten und Anlagen

Die Objektstruktur folgt in der Regel der realen Hierarchie: Portfolio – Standort – Gebäude – Geschoss – Raum – technische Anlage. Ein Objekt in einem CAFM‑System ist eine digitale Repräsentation einer realen Einheit; es besitzt dynamische Attribute, die angepasst oder erweitert werden können. Durch die Zerlegung in verknüpfte Einheiten entsteht Transparenz, und die Verwaltung von Gebäuden und Anlagen wird systematisch. Beziehungen (Relationen) zwischen Objekten – etwa welche Anlagen zu welchem Raum gehören – ermöglichen aussagekräftige Auswertungen, z. B. für Wartung oder Energieverbrauch.

Die GEFMA 430 fordert definierte Qualitätskriterien für alle Daten. Fachliteratur aus dem FM‑Kontext weist auf folgende Merkmale:

  • Vollständigkeit: Alle relevanten Objekte, Anlagen und Komponenten sind erfasst; Pflichtattribute (z. B. Anlagennummer, Leistungsdaten, Wartungsfristen) müssen ausgefüllt sein.

  • Aktualität: Daten werden regelmäßig gepflegt; das Alter seit der letzten Aktualisierung ist ein wichtiger Kennwert.

  • Konsistenz und Plausibilität: Klassifikationen und Kodierungen werden einheitlich verwendet; Layerstrukturen, Objektbenennungen und Symbole folgen Normen (z. B. DIN 276, VDI‑Richtlinien). Plausibilitätsprüfungen erkennen widersprüchliche oder fehlerhafte Angaben.

  • Genauigkeit: Daten und Maße (z. B. Flächen oder Leistungswerte) müssen richtig erfasst werden; definierte QA‑Checks prüfen dies.

  • Normkonformität: Datenformate wie IFC nach DIN EN ISO 16739 und Produktdatennormen wie VDI 3805 sorgen für interoperable Daten.

Auswirkungen mangelhafter Datenqualität

Unvollständige oder inkonsistente Daten führen dazu, dass Wartungszyklen nicht automatisiert überwacht werden können und Fristen oder Prüfungen unerkannt bleiben. Organisationsberichte zeigen, dass fehlende Anlagendaten im CAFM-System rechtliche Risiken verursachen, da Betreiberpflichten nicht belegbar sind. Ein CAFM‑System ist nur so gut wie seine Daten: Ungenaue Daten schwächen die Grundlage für Kennzahlen, verzögern Prozesse und erhöhen den Aufwand für manuelle Nachbearbeitung.

Rollen und Zuständigkeiten

  • Datenverantwortlicher (Data Owner): trägt die Verantwortung für Qualität, Zugriff und Compliance eines Datensatzes; legt fest, wie die Daten verwendet und geschützt werden und verfügt über die nötigen Ressourcen zur Qualitätsverbesserung. In CAFM‑Projekten entspricht dies der organisatorischen Leitung des FM oder des Portfoliomanagements.

  • Datenpfleger (Data Steward): besitzt detaillierte Kenntnisse über das Datenobjekt; sorgt für Klassifikation, Schutz und Qualität; kommt aus Fachbereichen wie Betrieb, IT oder Projektmanagement und arbeitet nach den Vorgaben des Datenverantwortlichen. Mehrere Datenpfleger können gemeinsam an einem Datensatz arbeiten.

  • Systemadministrator (Data Custodian): implementiert technische Kontrollen, betreibt die Speicher‑ und Sicherheitsinfrastruktur und stellt die Verfügbarkeit der Daten sicher; arbeitet eng mit Datenverantwortlichen und ‑pflegern zusammen.

Rolle

Aufgabe

Verantwortung

Datenverantwortlicher

Qualitätsvorgaben, Zugriffskontrolle; Entscheidung über Nutzung

Steuerung und Compliance

Datenpfleger

Laufende Pflege, Klassifikation, Einhaltung von Standards

Aktualität und Konsistenz

Systemadministrator

Technischer Betrieb, Sicherheit, Backup

Stabilität und Verfügbarkeit

Governance‑Strukturen

Das Datenmanagement muss in die Aufbau‑ und Ablauforganisation des Facility Managements eingebunden werden. Das Betriebskonzept für CAFM‑SaaS beschreibt, dass für jeden Mandanten ein Data Owner benannt werden sollte, der die Verantwortung für Stammdaten zu Gebäuden und Verträgen trägt. Datenpflegeprozesse definieren, wer Änderungen an der Datenbank vornimmt und wann – beispielsweise Aktualisierung der Raumdaten nach Umbau oder das Einpflegen von Wartungsarbeiten durch Techniker. Das System unterstützt durch Validierungsregeln und Pflichtfelder, um Fehleingaben zu reduzieren. Schulungen und klare Prozesse stellen sicher, dass alle Beteiligten ihre Rolle kennen. Governance wird durch ein Vier‑Augen‑Prinzip bei sicherheitskritischen Entscheidungen gestärkt.

Initiale Datenübernahme

Beim Start eines neuen CAFM‑Systems oder beim Onboarding eines Gebäudes erfolgt eine umfassende Datensammlung. Bau‑ und Anlagendaten aus Planungsphasen werden möglichst verlustfrei übernommen (z. B. durch BIM‑to‑FM‑Prozesse, IFC‑Modelle, Excel‑Listen). Qualität geht vor Quantität: Es werden nur geprüfte, verlässliche Daten importiert; Datenfelder sind einheitlich nach Standards wie DIN 277 (Raumnummern) oder VDI/ISO‑Kennzeichnung für Anlagen zu füllen. Vordefinierte Objektstrukturen, Typkataloge und Auswahllisten stellen sicher, dass Daten vergleichbar sind. Die CAFM‑Einführung sollte mit Bestandsdaten beginnen (z. B. Excel‑Import) und schrittweise CAD‑, BIM‑ und GIS‑Daten integrieren, während ein Kreislauf für Aktualisierungen etabliert wird.

Laufende Datenpflege im Betrieb

Nach der initialen Befüllung müssen Daten kontinuierlich gepflegt werden. Es werden Prozesse definiert, wer welche Änderungen wann vornimmt (z. B. Raumänderungen durch Administratoren, Wartungsrückmeldungen durch Techniker). Workflows mit Erinnerungen und Genehmigungsschritten (z. B. jährliche Überprüfung aller Prüftermine) unterstützen die Pflege. Datenqualitätsreports zeigen beispielsweise, welche Stammdaten seit über zwölf Monaten nicht aktualisiert wurden oder wo Pflichtangaben fehlen; daraus leitet der Data Owner Pflegeaktionen ab. Best Practices empfehlen das Vier‑Augen‑Prinzip und definierte „QA‑Checks“, die prüfen, ob alle Räume Flächenangaben besitzen oder ob jedem technischen Objekt die erforderlichen Attribute zugeordnet sind.

Bedeutung von Schnittstellen

Ein CAFM‑System steht selten allein; CAD‑/BIM‑Daten, ERP‑Systeme, Energiemanagement, Dokumentenmanagement und Gebäudeleittechnik müssen integriert werden. Die Integration sorgt dafür, dass Informationen aus Planung und Bau nahtlos in den Betrieb übergehen und keine Doppelerfassung erfolgt. Das Facility Management sollte deshalb bereits in der Planungsphase Anforderungen definieren und in die Auftraggeber‑Informationsanforderungen (AIA) nach DIN EN ISO 19650 einbringen, damit die für den Betrieb relevanten Daten im BIM‑Modell enthalten sind. Automatisierte Schnittstellen zu ERP‑, DMS‑ oder Energiemanagementsystemen reduzieren manuellen Aufwand und erhöhen die Aktualität.

Anforderungen an Schnittstellen

Das Betriebskonzept für CAFM‑SaaS betont, dass für jede Schnittstelle festgelegt werden muss, welches System die führende Quelle (Master) für bestimmte Daten ist (z. B. Personaldaten im HR‑System, technische Gerätedaten im CAFM). Änderungen auf einer Seite (z. B. Update des ERP‑Systems) müssen koordiniert mit der anderen Seite umgesetzt werden; Change‑Management‑Prozesse umfassen daher auch Schnittstellenänderungen. Dateninkonsistenzen werden durch Plausibilitätsprüfungen erkannt, und regelmäßige Reports an die Verantwortlichen helfen, Dubletten oder veraltete Datensätze zu bereinigen. Eine standardisierte Dokumentation jeder Schnittstelle (Schnittstellenhandbuch) ist Teil der Betriebsdokumentation.

Typische Schnittstellen und ihre Daten:

Schnittstelle

Typische Daten

Ziel

ERP/Finance

Kostenstellen, Aufträge, Budgets

Kaufmännische Steuerung und Budgetplanung

BMS/GLT (Gebäudeautomation)

Betriebs‑ und Zustandsdaten (z. B. Temperaturen, Laufzeiten)

Technischer Betrieb und prädiktive Instandhaltung

DMS

Dokumente, Metadaten, Prüfnachweise

Rechtssichere Archivierung und Nachweisführung

HR/Identity

Nutzerstammdaten, Organisationseinheiten

Rollenzuordnung, Single Sign‑On

IoT/ Sensorik

Zählerstände, Laufzeiten, Umgebungswerte

Automatische Datenerfassung für Energie‑ und Wartungsmanagement

Daten‑ und Systemdokumentation

Die Dokumentation von Datenstrukturen, Attributen und Pflegeprozessen ist essentiell. GEFMA 430 verweist auf Normen wie VDI 6026 (Dokumentation in der technischen Gebäudeausrüstung) und GEFMA 198 für FM‑Dokumentation. Im Organisationshandbuch eines FM‑Dienstleistungszentrums wird beschrieben, dass alle Aktivitäten – Prüfprotokolle, Schulungsnachweise, Delegationsschreiben – eindeutig dokumentiert werden müssen, um im Haftungsfall eine Beweislastentlastung zu erreichen. Änderungen an technischen Anlagen werden in Dokumenten festgehalten, und ein Prozess „Dokumentenmanagement Technik“ sorgt dafür, dass Revisionsunterlagen nach Umbauten aktualisiert werden. Eine klare Versionierung (Entwurf, geprüft, freigegeben) ist Bestandteil der Dokumentationslogik.

Nachweis‑ und Auditfähigkeit

Lückenlose Dokumentation erleichtert Auditierungen durch Aufsichtsbehörden oder Zertifizierer. Das Organisationshandbuch fordert jährliche interne Audits der Betreiberpflichten: Ein QM‑Verantwortlicher prüft stichprobenartig, ob Prüfintervalle eingehalten und Abweichungen behoben wurden; die Ergebnisse werden dokumentiert und der Geschäftsleitung berichtet. Die strukturierte Nachweisführung schafft Rechtssicherheit, wirkt organisatorischen Fehlern entgegen und erhöht die Anlagensicherheit. CAFM‑Systeme sollten deshalb revisionssichere Archivierung, Versionierung und Audit‑Logs bereitstellen.

Prüf‑ und Kontrollmechanismen

Qualitätssicherung beginnt bei der Datenmodellierung und setzt sich im Betrieb fort. Im CAD‑Datenmanagement wird empfohlen, bei jeder Planerstellung oder ‑änderung standardisierte Prüfroutinen auszuführen – z. B. zu prüfen, ob alle Räume eine Flächenangabe besitzen, ob jedem technischen Objekt die erforderlichen Attribute zugeordnet sind und ob Layer‑ und Farbvorgaben eingehalten wurden. Automatisierte Prüfverfahren (Add‑Ons oder Skripte) können fehlende Beschriftungen oder widersprüchliche Angaben aufdecken. Ein Vier‑Augen‑Prinzip für kritische Datenfreigaben erhöht die Zuverlässigkeit. Regelmäßige interne Audits der Betreiberpflichten und Qualitätsreports identifizieren Schwachstellen.

Kennzahlen zur Datenqualität

Das Rahmenkonzept für CAFM empfiehlt, Kennzahlen (Key Performance Indicators, KPIs) zur Bewertung und Steuerung der Datenbasis einzusetzen.

Beispiele:

  • Datenvollständigkeit [%]: Anteil der Datensätze, bei denen alle Pflichtattribute erfüllt sind.

  • Aktualität [Tage]: Durchschnittliche Zeit seit dem letzten geprüften Update.

  • Prozessdurchlaufzeit [h/Tage]: Zeit vom Eingang einer Meldung bis zum Abschluss – relevant für Tickets oder Aufträge.

  • SLA‑Einhaltung [%]: Anteil der Aufträge, bei denen Service‑Level‑Vereinbarungen eingehalten werden.

  • Planerfüllung Instandhaltung [%]: Erfüllungsgrad der geplanten Wartungs‑ und Prüfaufgaben.

  • Flächeneffizienz (m² pro Arbeitsplatz/Nutzer): Kennzahl für Flächenmanagement.

Diese KPIs können in Dashboards visualisiert und für kontinuierliche Verbesserungsprozesse genutzt werden; das CAFM sollte entsprechende Reporting‑Funktionen anbieten.

Anpassung an veränderte Anforderungen

Datenmodelle sind grundsätzlich stabil, können aber durch neue Datentypen und Attribute erweitert werden, wenn sich Unternehmen oder Nutzungen ändern. Beispiele sind die Integration weiterer Module (z. B. Energiemanagement oder ESG‑Reporting), die Aufnahme neuer Gebäudetypen oder die Abbildung zusätzlicher Services. Laut Rahmenkonzept werden CAFM‑Programme so gestaltet, dass sie nach der initialen Ausbaustufe quick wins liefern, aber modular ausbaubar sind. Neue Module bauen auf den vorhandenen Stamm‑ und Dokumentdaten auf; daher müssen Datenstrukturen und Klassifikationen von Beginn an skalierbar und normkonform sein.

Portfolio‑ und Organisationsskalierung

Für große Immobilienportfolios gilt es, die Datenmodelle und Prozesse auf zahlreiche Gebäude und Standorte zu übertragen. In der ersten Ausbaustufe eines CAFM‑Programms sollen für einen repräsentativen Teil des Portfolios alle Basisdaten zentral bereitgestellt werden (Objekt‑ und Flächenstammdaten, Anlagenregister, Dokumentenzugriff). Die weitere Ausbaustufe digitalisiert operative Prozesse wie Service Desk und Instandhaltung. Eindeutige Identifikatoren und konsistente Zuordnung aller relevanten Datenobjekte sind Pflicht. Eine modulare Einführung ermöglicht es, das CAFM Schritt für Schritt auf zusätzliche Standorte auszurollen, ohne die Datenbasis zu vernachlässigen. Governance‑Strukturen müssen mitwachsen: Für jedes Portfolio werden Data Owner, Steward und Administratoren definiert, und Kennzahlen werden standortübergreifend ausgewertet, um Prioritäten für Investitionen oder Sanierungen abzuleiten.