Zum Inhalt springen
FM-Connect Chat

Hallo! Ich bin Ihr FM-Connect Chat-Assistent. Wie kann ich Ihnen helfen?

FM-Solutionmaker: Gemeinsam Facility Management neu denken

GEFMA 967: White Paper Performance Measurement

Facility Management: Organisationsentwicklung » Normen » GEFMA » GEFMA 967: White Paper Performance Measurement

Strategisches White Paper zur Leistungsmessung (Performance Measurement) im Facility Management nach GEFMA 967

GEFMA 967: Leistungsfähiges Performance Measurement

Die GEFMA‑Richtlinie 967 „Performance Measurement“ adressiert die zentrale Herausforderung international agierender Unternehmen, Facility‑Management‑Leistungen über Länder‑ und Organisationsgrenzen hinweg einheitlich, belastbar und vergleichbar zu messen. Im Gegensatz zu nationalen „Insel‑Lösungen“ plädiert die Richtlinie für ein standardisiertes Performance‑Measurement‑System, das die Steuerung international synchronisierter FM‑Setups ermöglicht und damit globale Dienstleistungsqualität sichert. Das White‑Paper verortet Performance Measurement als integralen Bestandteil der vertraglichen und operativen Qualitätssicherung; definiert Service‑Levels und Key Performance Indicators (KPI) als verbindliche Messgrößen und skizziert Schritte zur Implementierung eines funktionsfähigen Systems. Somit wird ein Rahmen geschaffen, der sowohl Auftraggebern als auch Dienstleistern als „gemeinsame Sprache“ für Leistung, Qualität und Compliance dient.

Performance Measurement im Facility Management

Zweck, Nutzen und Einordnung in internationale FM‑Governance

Internationale FM‑Verantwortliche sehen sich häufig mit heterogenen lokalen Lösungen konfrontiert. Nationale Einzelstandards erschweren die Vergleichbarkeit und verhindern synergetische Optimierungen. GEFMA 967 betont, dass ein standardisiertes Performance‑Measurement‑System benötigt wird, um die globale Dienstleistungsqualität zu steuern und Risiken zu reduzieren. Die Richtlinie ordnet sich in die Governance‑Papers des GEFMA‑Arbeitskreises International ein und ergänzt Dokumente wie das „International Service Agreement“ oder die „Specifications“. Im Zusammenspiel mit diesen Papieren liefert das Performance Measurement die messbare Basis für Verträge, Vergütungsmodelle und Controlling.

Zielgruppen und Rollenmodell (Client/Provider)- Rollen sind klar festzulegen:

  • Internationaler FM‑Lead definiert das KPI‑Set, steuert den globalen Roll‑out und stellt die Vergleichbarkeit sicher.

  • Regional‑/Country‑FM sammelt und validiert Daten, führt Vor‑Analysen durch und berichtet an den internationalen Lead.

  • Dienstleister liefern Daten, erfüllen Service‑Levels, analysieren Ursachen und setzen Maßnahmen um.

  • Contract‑ und Quality‑Management koordinieren Verträge, eskalieren Abweichungen und überwachen KPIs.

  • Zur Visualisierung der Verantwortlichkeiten empfiehlt sich eine RACI‑Matrix, die Aufgaben in Verantwortlich (Responsible), Rechenschaftspflichtig (Accountable), Konsultiert (Consulted) und Informiert (Informed) gliedert, wodurch Kommunikation und Fehlervermeidung verbessert werden.

Geltungsbereich, Systemgrenzen und Vergleichbarkeit

Der Geltungsbereich umfasst internationale FM‑Verbünde mit mehreren Standorten, Dienstleistern und ggf. integrierten FM‑Modellen.

Geltungsbereich, Systemgrenzen und Vergleichbarkeit

Der Geltungsbereich umfasst internationale FM‑Verbünde mit mehreren Standorten, Dienstleistern und ggf. integrierten FM‑Modellen.

  • Leistungen/Service‑Lines: gemessen werden technische Services (Wartung, Betreiberpflichten), infrastrukturelle Services (Reinigung, Sicherheit) und kaufmännische Leistungen (Flächen‑ und Vertragsmanagement).

  • Aggregationsebene: Daten werden auf Site‑Ebene erfasst, in Regions‑Scores konsolidiert und global verglichen.

  • Vergleichbarkeitsprinzipien: Begriffe, Bezugsgrößen, Einheiten, Messintervalle und Datenqualitätsregeln müssen harmonisiert werden. Ein KPI für Energieverbrauch wird beispielsweise auf m² normalisiert, während ein Personalkosten‑KPI pro FTE ausgewiesen wird. Nur so können internationale Vergleiche ohne „Äpfel‑Birnen‑Fehler“ erfolgen.

Die Richtlinie unterscheidet:

  • Critical Performance Indicators (CPI): unverhandelbare Mindestanforderungen, meist rechts‑ oder sicherheitsrelevant. Sie definieren harte Schwellen und lösen bei Unter‑/Überschreitung sofortige Eskalationen aus (z. B. Notstromverfügbarkeit, gesetzliche Prüfpflichten).

  • Key Performance Indicators (KPI): Steuerungskennzahlen zur qualitativen, zeitlichen oder wirtschaftlichen Bewertung von Leistungen. KPIs bilden die Basis für kontinuierliche Verbesserung, Benchmarking und Vertragssteuerung.

  • Service Level: definierte Qualitätsstufen (z. B. Reaktionszeiten, Sauberkeitsgrade), die den Mindeststandard beschreiben und vertraglich fixiert werden.

  • Zielwert/Schwelle: messbarer Grenzwert zur Beurteilung der Zielerreichung. CPIs besitzen meist schmale Toleranzbänder, KPIs können Zielkorridore oder Trendbetrachtungen umfassen.

Der Leitfaden empfiehlt ein strukturiertes Vorgehen:

  • Zielbild definieren: Ableitung der strategischen Anforderungen aus dem Geschäftsmodell und den FM‑Zielen des Auftraggebers.

  • KPI‑Set entwickeln: Auswahl relevanter CPIs und KPIs (vgl. Kapitel 2) gemäß Kritikalität, Geschäftsmodell und Service‑Line; Dokumentation in KPI‑Datenblättern (vgl. 2.2.4).

  • Systeme und Daten: Aufbau oder Anpassung von Ticket‑, CAFM‑ bzw. CMMS‑Systemen; Sicherstellung einheitlicher Stammdaten (Objekte, Flächen, Assets), Servicekataloge und Kostendaten.

  • Roll‑out und Schulung: Einführung in den Regionen/Sites; Training der Datenerfasser und Auditoren; Festlegung von Kommunikations‑ und Reporting‑rhythmen.

  • Governance etablieren: Festlegung von Rollen (RACI), Audit‑Mechanismen, Eskalationswegen und Maßnahmenmanagement.

  • Pilotphase und kontinuierliche Optimierung: In Pilotstandorten Testläufe durchführen, Kennzahlen validieren und bei Bedarf anpassen. Anschließend globaler Roll‑out mit kontinuierlicher Überprüfung.

Die Datenbasis ist elementar:

  • Ticket-/CAFM-/CMMS‑Systeme müssen strukturierte und nachvollziehbare Datenerfassung erlauben. Die Verfügbarkeit und Qualität vorhandener Daten (Gebäude, Flächen, Assets, Verträge) ist zu bewerten; Formate und Schlüssel müssen harmonisiert werden.

  • Reportinganforderungen: Kenngrößen wie Flächennutzung, freie Flächen, Anzahl Störungen, Wartungsstatus, Reinigungsfrequenzen, Energieverbrauch, CO₂‑Emissionen und FM‑Kosten pro m² sind festzulegen; Art der Auswertung (grafische Analysen, Tabellen, Exporte) und Frequenz (monatlich, jährlich, ad hoc) sind zu definieren.

  • Systembetrieb: Verantwortlichkeiten für Betrieb und Support (intern/extern), Sicherheitsanforderungen, Backup und Systemverfügbarkeit sind festzulegen. Da CAFM‑Daten sensible Informationen enthalten können, sind Datenschutzmaßnahmen wie Zugriffskontrollen und Mehrfaktor‑Authentifizierung zu implementieren.

  • Nachweisführung: Eine revisionssichere Dokumentation (Audit‑Trail) muss die Herkunft, Validierung und Verarbeitung der Daten transparent machen. Dies ermöglicht interne Audits, externe Zertifizierungen (z. B. nach ISO 9001, ISO 41001) und rechtliche Nachweise.

Leistungsindikatorkategorien basierend auf dem Kundengeschäftsmodell

Leistungskennzahlen sollten sich am Geschäftsmodell des Auftraggebers orientieren. Ein Produktionswerk hat andere Prioritäten als ein Büro‑Portfolio oder eine Retail‑Kette. Deshalb unterscheidet die Richtlinie zwischen kritischen Indikatoren (CPI) zur Absicherung der Mindestanforderungen und KPIs zur Steuerung und Optimierung.

Definition und Zweck der CPI

CPIs sind „kritische“ Kennzahlen, die die Einhaltung nicht verhandelbarer Mindestanforderungen absichern. Sie betreffen insbesondere Kontinuität, gesetzliche Betreiberpflichten, Sicherheit und Compliance. Beispiele sind die Erfüllung gesetzlicher Prüfungen (BetrSichV, TRBS, VDI 3810), die Verfügbarkeit sicherheitsrelevanter Anlagen (Brandmeldeanlagen, Notstrom) oder die Einhaltung zulässiger Grenzwerte (z. B. Trinkwasser‑Legionellen). CPIs haben harte Schwellen; bei Überschreitung sind sofortige Eskalationsschritte vorgesehen.

Die Auswahl der CPIs erfolgt anhand von Kriterien wie:

  • Standortkritikalität: Produktionsstandorte mit hohem wirtschaftlichem Impact benötigen strengere CPIs (z. B. technische Verfügbarkeit > 98 %).

  • Prozessrelevanz: Anlagen mit direktem Einfluss auf Kernprozesse (Serverräume, Reinräume) werden bevorzugt überwacht.

  • Risikoprofil und Betreiberpflichten: Anzahl überfälliger Prüfpflichten, Dokumentationsgrad und gefundene Mängel bei Pflichtprüfungen sind Indikatoren für Haftungsrisiko. CPIs basieren auf gesetzlichen Vorgaben (BetrSichV, TRBS, VDI 3810) und definieren die Einhaltung als Mindestbedingung.

  • Sicherheits‑ und Notfallanforderungen: Verfügbarkeit von Evakuierungswegen, Brandschutzsystemen oder Notfallversorgung.

CPI‑Operationalisierung- Zur Operationalisierung gehören:

  • Messpunkte und Datenquellen: z. B. Prüfprotokolle, Sensor‑Daten, Störungsmeldungen.

  • Messfrequenzen: je nach Risiko täglich (Temperatur Serverräume), monatlich (UVV‑Prüfung) oder jährlich (HOAI‑Konformität).

  • Toleranzen und Schwellen: definieren genaue Fail‑Kriterien.

  • Nachweispflichten: Belegbarkeit durch Prüfprotokolle und Zertifikate.

  • Eskalationswege: definieren Sofortmaßnahmen bei Unterschreitung (Stop‑the‑Line) und dokumentieren Eskalationsstufen.

Definition und Zweck der KPI

KPIs sind Steuerungskennzahlen, die Leistungen messbar machen und Optimierungspotenziale aufzeigen. Sie spiegeln Dimensionen wie Qualität, Zeit, Kosten, Kundenerlebnis, Nachhaltigkeit und Prozessgüte wider und bilden die Basis für Qualitätssicherung und Verbesserung. Im Gegensatz zu CPIs haben KPIs breitere Toleranzbänder und erlauben differenzierte Zielkorridore.

Das KPI‑Portfolio orientiert sich an den strategischen Zielen und dem Geschäftsmodell:

  • Kosten‑KPIs: Betriebskosten pro m², Energieverbrauch, Instandhaltungskosten, Budgeteinhaltung. Der Auftraggeber muss diese KPIs definieren und dabei Total Cost of Ownership sowie Nachhaltigkeitskennzahlen (ISO 14001, ISO 50001) berücksichtigen.

  • Leistungs‑KPIs: technische Verfügbarkeit, MTTR, MTBF, Wartungsgrad, Anteil beauftragter vs. durchgeführter Maßnahmen.

  • Nachhaltigkeits‑KPIs: Energieverbrauch, CO₂‑Emissionen, Recyclingquote, Lebenszykluskostenanalyse.

  • Qualitäts‑/Nutzer‑KPIs: Kundenzufriedenheit, Reinigungsqualität, Nutzerfeedback, Qualität der Serviceerbringung.

  • Sicherheits‑/Compliance‑KPIs: Anteil überfälliger Prüfpflichten, Dokumentationsgrad, Mängelanzahl; Compliance‑Index zur Überwachung rechtskonformer Zustände.

  • Personaleffizienz‑KPIs: Personalkosten pro FTE, Schulungsstunden, Arbeitssicherheit (Unfallquote).

Je nach Geschäftsmodell werden Gewichtungen angepasst

Produktionsumgebungen gewichten technische Verfügbarkeit und Instandhaltung höher; Büros fokussieren auf Nutzerzufriedenheit und Energieeffizienz; Retail‑Filialen messen Servicequalität und Standardisierung.

KPI‑Designregeln für internationale Vergleichbarkeit

  • Eindeutige Definition: Der KPI muss klar den Messgegenstand, den Scope und In-/Exklusionen benennen (z. B. „Reaktionszeit technische Störungen inkl. externer Dienstleister, ohne projekthafte Arbeiten“).

  • Normalisierung: Kennzahlen werden auf passende Bezugsgrößen skaliert (pro m², pro Nutzer, pro Asset, pro Output).

  • Robustheit gegenüber Länderunterschieden: Währung, Arbeitszeitmodelle, gesetzliche Rahmenbedingungen sind zu berücksichtigen; ggf. sind lokale KPIs zu globalen Kennzahlen konvertiert (z. B. durch PPP‑Faktoren).

  • Vermeidung von Fehlanreizen: Die Messung darf nicht zu unerwünschtem Verhalten führen (z. B. reine Reduktion von Störungen ohne Ursachenanalyse). Deshalb werden Kennzahlen kombiniert (z. B. Reaktionszeit und First‑Time‑Fix‑Rate) und regelmäßig überprüft.

Zur Operationalisierung empfiehlt GEFMA 967 ein einheitliches KPI‑Datenblatt. Es enthält:

Feldgruppe

Inhaltliche Festlegung (Beispiel)

Identität

KPI‑ID, Name, Version/Owner, Geltungsbereich (global/Region/Site)

Zweck & Bezug

Steuerungsziel (z. B. Budgeteinhaltung), Bezug zum Geschäftsmodell, betroffene Service‑Line

Definition

Messgegenstand, In-/Exklusionen, Einheit, Bezugsgröße/Normalisierung

Berechnung

Formel, Datenquellen (Ticket‑System, Energiemonitoring), Erhebungsmethode (automatisiert/manuell), Stichprobe

Zielsystem

Zielwert, Schwellen (Warn/Fail), Toleranzen, Messfrequenz

Governance

Verantwortlichkeiten (RACI), Validierungsregeln, Audit‑Trail/Nachweise

Berichterstattung

Berichtsebene (operativ, taktisch, strategisch), Visualisierung (Dashboards, Heatmaps), Kommentierpflicht, Maßnahmenlink

Abgrenzung CPI vs. KPI im Steuerungsmodell (empfohlene Lesart)

Kriterium

CPI (Kritische Leistungsindikatoren)

KPI (Leistungskennzahlen)

Hauptfunktion

Absicherung kritischer Mindestanforderungen

Steuerung, Vergleich, Optimierung

Toleranz

Gering, harte Schwellen, Eskalationspflicht

Differenziert, Zielkorridore, Trendbetrachtung

Managementfokus

Risiko, Resilienz, Compliance

Leistung, Qualität, Wirtschaftlichkeit

Typische Reaktion

Sofortmaßnahme, Eskalation, Stop‑the‑Line

Ursachenanalyse, Maßnahmenprogramm, kontinuierliche Verbesserung

Für CPIs und KPIs ist eine einheitliche Bewertungslogik zu definieren.

  • Skala: z. B. 0–100 Punkte oder 1–5 Sterne; die Skalen müssen global identisch sein.

  • Score‑Bänder: Messwerte werden Score‑Bändern zugeordnet (grün = Ziel erreicht, gelb = Warnschwelle, rot = Fail).

  • Ausreißer und fehlende Daten: Ausreißer werden bewertet, indem extreme Werte begrenzt oder gesondert analysiert werden. Fehlende Daten führen zu „no score/flagged“ und müssen im Reporting kommentiert werden.

  • Mindestniveaus für CPIs: Bei Unterschreiten des CPI‑Schwellenwerts wird der Gesamtscore auf das Minimalniveau begrenzt („Fail“ überschreibt andere Bewertungen).

Gewichtungssystematik entlang Geschäftsmodell und Kritikalität- Die Gewichtung der KPIs erfolgt nach:

  • Business‑Model: Produktionsstandorte gewichten technische Verfügbarkeit und Reaktionszeiten höher; Bürostandorte gewichten Nutzerzufriedenheit und Energieeffizienz; Retail‑Filialen legen Fokus auf Servicequalität und Standardisierung.

  • Standortkritikalität: „kritische“ Standorte (z. B. Hauptrechenzentrum) erhalten höhere Gewichte.

  • Kategoriegewicht: Jedes KPI‑Segment (Kosten, Leistung, Nachhaltigkeit, Qualität, Compliance) erhält vordefinierte Gewichte, die mit Stakeholdern abgestimmt sind.

Aggregation und Vergleich (Site → Region → Global)

  • Roll‑up‑Logik: Site‑Scores werden mittels gewichteter Durchschnittswerte zu Regions‑Scores aggregiert; Region‑Scores werden zu einem globalen Portfolio‑Score verdichtet.

  • Clusterbildung: Standorte werden in Kategorien (z. B. Produktionswerk, Büro, Retail) gruppiert, um Äpfel‑Birnen‑Vergleiche zu vermeiden.

  • Benchmarking: Zeitreihenanalysen und Vergleich zwischen Standorten/Regionen identifizieren Top‑Performer und Nachzügler.

Verknüpfung zur Vertragssteuerung (SLA, Anreiz-/Maluslogik)

  • Service‑Level‑Agreements (SLA) definieren die zu erreichenden Schwellen; KPIs und CPIs werden als vertragliche Kennzahlen festgelegt.

  • Eskalationsmechanismen sind in Verträgen zu verankern. Beispielsweise nennt die fm‑connect‑Richtlinie eine Eskalationsklausel nach § 4 VOB/B (Ausführung der Leistung), die Verantwortlichkeiten und Sanktionen bei Abweichungen von KPIs definiert.

  • Bonus‑Malus‑Regelungen können Anreize zur Zielerreichung schaffen und werden vertraglich fixiert.

  • Berichtspflichten und Datenbereitstellung sind mit Datenschutzanforderungen gemäß DSGVO verbunden.

Die Richtlinie unterscheidet drei Berichtsebenen:

  • Operatives KPI‑Board (täglich/wöchentlich): verfolgt aktuelle Störungen, Reaktionszeiten und Service‑Backlogs; richtet sich an Site‑FM und Service‑Provider; dient der Stabilisierung des täglichen Betriebs.

  • Monthly Performance Review (monatlich): adressiert Regional‑FM und Contract‑Management; bewertet Zielerreichung, Abweichungen und Maßnahmenstatus.

  • Quarterly Business Review (quartalsweise): richtet sich an den globalen FM‑Lead und Business‑Stakeholder; behandelt Portfolioleistung, Benchmarks, Prioritäten und Investitionsentscheidungen.

Ein einheitliches Reporting schafft Transparenz:

  • KPI‑Cockpit: zeigt Score, Trend, Abweichung, Kommentar, Maßnahme, Owner und Termin.

  • Portfoliovergleich: Rankings und Heatmaps identifizieren Top‑ und Low‑Performer; Ausreißeranalysen und Benchmark‑Cluster verdeutlichen Unterschiede.

  • Nachweisführung: jeder Datensatz muss eine Datenquelle, Zeitstempel und Prüflogik enthalten; Versionierung und Audit‑Trail sind erforderlich, um Revisionssicherheit zu gewährleisten.

  • Visualisierung: Dashboards, Ampelsysteme und Diagramme erleichtern die Interpretation.

Reporting‑Rhythmus und Governance (Beispielmatrix)

Berichtstyp

Tempo

Empfänger

Zweck

Operatives KPI-Board

wöchentlich

Standort-FM, Anbieterbetrieb

Stabilisierung, Steuerung Ticket‑/Service‑Backlog

Monatliche Leistungsbeurteilung

monatlich

Regionales Facility Management, Vertragsmanagement

Bewertung Zielerreichung, Abweichungen, Maßnahmenstatus

Vierteljährlicher Geschäftsbericht

quartalsweise

Globaler FM-Leiter, Business-Stakeholder

Portfolioleistung, Benchmarks, Prioritäten und Investitionen

Die Richtlinie definiert klare Regeln für Abweichungen:

  • Zielübererfüllung: Erreicht ein KPI Werte über dem Ziel, sind Gründe zu analysieren (z. B. Effizienzsteigerungen) und positive Aspekte zu dokumentieren; dennoch wird überprüft, ob Ressourcen überinvestiert wurden.

  • Zielverfehlung: Bei Abweichungen besteht Kommentierpflicht; Ursachen werden klassifiziert (menschlicher Fehler, Systemfehler, unvorhergesehenes Ereignis). Eskalationsstufen werden aktiviert.

  • Dokumentation: Alle Abweichungen und Maßnahmen müssen revisionssicher dokumentiert werden (Audit‑Trail).

Das Maßnahmenmanagement folgt einem geschlossenen Kreislauf:

  • Abweichung erkennen (Monitoring, Report).

  • Root‑Cause‑Analyse: Analyse der Ursachen (FMEA, 5 Why).

  • Maßnahme definieren (Korrektur/Prävention).

  • Wirksamkeitsprüfung: Überwachung, ob die Maßnahme das Problem nachhaltig behebt.

  • Abschluss: Dokumentation und ggf. Anpassung des KPI‑Systems.

Diese Prozesse orientieren sich an Qualitätsmanagement‑Normen wie ISO 9001; interne Audits prüfen die Wirksamkeit.

Lessons Learned und Standardanpassung

KPI‑Definitionen, Zielwerte und Gewichtungen sind nicht statisch. Bei strukturellen Änderungen (z. B. neue gesetzliche Vorgaben, M&A, Standortwechsel) oder nach abgeschlossenen Projekten werden sie überprüft und angepasst. Lessons Learned fließen in das KPI‑System ein, um es weiterzuentwickeln und veränderten Geschäftsmodellen anzupassen.

Kontinuierlicher Verbesserungsprozess als Managementsystem‑Baustein

Ein funktionsfähiges Performance‑Measurement‑System lebt von ständiger Verbesserung. Der kontinuierliche Verbesserungsprozess (KVP) zielt darauf ab, Prozesse regelmäßig zu analysieren, Schwachstellen zu identifizieren und zu beseitigen. Er schafft eine Kultur der ständigen Verbesserung und Innovation; dadurch steigen Produktivität, Qualität und Wettbewerbsfähigkeit. Der KVP sollte in Governance‑Gremien (Steering Committees, Q‑Boards) verankert werden und definiert klare Rollen, Berichtswege und Terminierungen.

KPI-/CPI‑Review und Reifegradentwicklung

Periodische Reviews bewerten die Angemessenheit der KPIs und CPIs. Redundante Kennzahlen werden konsolidiert, fehlende Steuerungsgrößen ergänzt. Ziel ist, den Reifegrad von „Reporting“ über „Steuerung“ bis zu „Optimierung/Benchmarking“ zu erhöhen. Es empfiehlt sich, KPIs mindestens einmal jährlich durch ein cross‑funktionales Gremium mit Vertretern aus FM, Controlling und Business zu überprüfen.

Benchmarking und Best‑Practice‑Transfer im internationalen Portfolio

Benchmarking vergleicht Standorte, Regionen und externe Referenzen. Top‑Performer werden identifiziert; ihre Methoden (Standard Work, Playbooks) werden systematisch transferiert. Benchmarking nutzt standardisierte Kennzahlen, um Best Practices zu erkennen und Portfolio‑Strategien abzuleiten (z. B. Standortkonsolidierung, Investitionsprioritäten). Das FM‑Berichtswesen umfasst externe Benchmarks aus Branchenstudien, Normen (DIN EN 15341) oder Verbandsvergleichen, um eigene Leistungen einzuordnen.

Auditierbarkeit, Datenqualität und Systemhygiene

Die langfristige Vergleichbarkeit hängt von Datenqualität und Auditierbarkeit ab. Betreiber sind verpflichtet, alle relevanten Betriebsdaten zu erfassen und zu dokumentieren, darunter Energieverbrauch, Wartungsintervalle, Betriebskosten und Störungsprotokolle. Wartungspläne, Inspektionsberichte und Sicherheitsnachweise müssen gemäss Betriebssicherheitsverordnung dokumentiert werden. ISO 41001 fordert ein strukturiertes Management von FM‑Prozessen.

Daten müssen für Audits bereitgestellt werden und datenschutzkonform verarbeitet werden (Anonymisierung, pseudonymisierte Daten und technische/organisatorische Maßnahmen). Regelmäßige Datenqualitätsprüfungen und Plausibilitätschecks sichern die Integrität, während Systemhygiene (Updates, Backups, Sicherheit) garantiert, dass die zugrunde liegenden CAFM/CMMS‑Systeme jederzeit funktionsfähig und sicher sind.