Fachlexikon Lichttechnik
Strukturiertes Nachschlagewerk für Elektrofachkräfte. Kapitel und Begriffe sind direkt per Inhaltsübersicht anspringbar. Über den jeweiligen „nach oben“ Button gelangen Sie zurück zur Begriffsübersicht.
Inhaltsübersicht (Kapitel → Begriffe)
- Kapitel 01 – Grundlagen & Photometrie
- Kapitel 02 – Schutzarten & elektrische Sicherheit
- IP-Schutzarten (Ingress Protection)
- IP-Kennziffern – vollständige Übersicht und Interpretation
- IK-Schutzart (Stoßfestigkeit)
- Schutzklassen – welche es gibt und was sie praktisch bedeuten (I, II, III)
- SELV, PELV, FELV – Schutzkleinspannungen korrekt einordnen
- Notbeleuchtung & Sicherheitsbeleuchtung – Einordnung, Systemlogik, Betriebsanforderungen
- Kapitel 03 – LED-Technologie & Betriebsgeräte
- LED (Light Emitting Diode)
- Weiße LEDs
- LED-Binning, Farbortstreuung und MacAdam-Ellipsen
- LED-Module und Leiterplatten (MCPCB, FR4, thermische Pfade)
- LED-Bauformen (SMD, COB, Mid-Power, High-Power)
- LED-Betriebsgeräte (Treiber)
- Netzseitige Kenngrößen des Treibers (PF, THD, Inrush, Wirkungsgrad)
- Überspannungsfestigkeit (Surge) und Schutzkonzepte
- Flicker, Modulation und zeitliches Lichtverhalten
- Lebensdauer, Degradation und Lx/By
- LM-80 und TM-21 (Lebensdauerbewertung von LED-Lichtquellen)
- Kapitel 04 – Blendung, Leuchtdichte & visuelle Wahrnehmung
- Kapitel 05 – Lichtfarbe, Farbwiedergabe & spektrale Qualität
- Lichtfarbe
- Korrelierte Farbtemperatur (CCT)
- Farbort (Chromatizität) & Duv
- Arten von Lichtfarben
- Farbwiedergabe
- CRI / Ra (Color Rendering Index)
- TM‑30 (Rf, Rg und Farbraumdarstellung)
- Spektrum (SPD) als primäre Qualitätsbasis
- Farbortkonsistenz: SDCM / MacAdam-Ellipsen
- Binning
- Farbstabilität (Color Shift) über Lebensdauer
- Kapitel 06 – Steuerung, Dimmung & Vernetzung
- Steuerungsarchitektur (Topologien & Grundprinzip)
- Dimmung (Grundlagen, Dimmkurven & Mindestdimmwert)
- PWM-Dimmung (Pulsweitenmodulation)
- CCR / Amplitudendimmung (Constant Current Reduction)
- Flicker & Stroboskop-Effekt
- Phasenanschnitt / Phasenabschnitt (230V-Dimmung)
- 0–10 V und 1–10 V (Analoge Schnittstellen)
- DALI (Digital Addressable Lighting Interface)
- DALI-2, DT6, DT8 und D4i
- PushDim / Tasterdimmung (lokale Bedienkonzepte)
- Casambi
- Drahtlose Lichtsteuerung allgemein (BLE, Zigbee, Thread & Co.)
- Sensorik (Präsenz, Bewegung, Tageslicht) & Regelung
- Szenen, Zeitprofile & Human-Centric-Lighting-Konzepte
- Kapitel 07 – Installation, Inbetriebnahme und Messpraxis
Kapitel 01 – Grundlagen & Photometrie
Dieses Kapitel vermittelt die grundlegenden lichttechnischen Begriffe, die jeder professionellen
Planung von LED-Gebäudebeleuchtung zugrunde liegen. Ziel ist ein belastbares Verständnis dafür,
wie Licht physikalisch beschrieben wird, welche Kenngrößen in der Praxis tatsächlich relevant sind
und an welchen Stellen erfahrungsgemäß Fehlinterpretationen auftreten.
Abstrahlwinkel
Der Abstrahlwinkel beschreibt, in welchem Winkelbereich eine Leuchte ihr Licht in den Raum abgibt.
In technischen Daten bezieht sich dieser Wert in der Regel auf den sogenannten Halbwertswinkel.
Gemeint ist der Winkel, bei dem die Lichtstärke auf 50 % ihres Maximalwertes abgefallen ist.
Diese Definition ist genormt, bildet jedoch nur einen Teil der realen Lichtverteilung ab.
In der Praxis wird der Abstrahlwinkel häufig überbewertet oder isoliert betrachtet. Entscheidend
ist nicht allein der Winkelwert, sondern die gesamte Lichtverteilung, die sich aus Optik, LED-Anordnung,
Abdeckung und Gehäuse ergibt. Zwei Leuchten mit identischem Abstrahlwinkel können völlig unterschiedliche
Ergebnisse auf der Nutzfläche erzeugen.
Der Abstrahlwinkel beeinflusst unmittelbar, wie viel Licht tatsächlich dort ankommt, wo es benötigt wird.
Bei großen Montagehöhen sind engere Winkel erforderlich, um Lichtverluste zu vermeiden. Bei niedrigen
Decken können sehr enge Winkel hingegen zu ungleichmäßiger Ausleuchtung und störenden Hell-Dunkel-Kontrasten führen.
Besonders relevant ist der Abstrahlwinkel in Verbindung mit der Montagegeometrie:
Leuchtenabstand, Montagehöhe und Ziel-Luxwert müssen gemeinsam betrachtet werden.
Wird der Abstrahlwinkel zu breit gewählt, verteilt sich das Licht über große Flächen, erreicht jedoch
nicht mehr die erforderliche Beleuchtungsstärke auf der Nutzebene. Wird er zu eng gewählt, entstehen
Hotspots, erhöhte Leuchtdichten und potenziell Blendung.
Bei asymmetrischen oder ovalen Optiken werden Abstrahlwinkel häufig als Kombination angegeben
(z. B. 30° × 70°). In diesen Fällen ist die korrekte Ausrichtung der Leuchte entscheidend.
Eine falsche Montage kann dazu führen, dass das Licht am Zielbereich vorbeistrahlt und die
Planung ihre Wirkung vollständig verliert.
Lichtstrom (Lumen, lm)
Der Lichtstrom, angegeben in Lumen, beschreibt die gesamte sichtbare Lichtmenge,
die eine Lichtquelle abstrahlt – unabhängig davon, in welche Richtung dieses Licht verteilt wird.
Er ist damit eine mengenbezogene Kenngröße, die jedoch keine Aussage darüber trifft,
wie effizient oder zielgerichtet das Licht genutzt wird.
In der Praxis ist die Unterscheidung zwischen LED-Chip-Lumen und Leuchten-Lumen von zentraler Bedeutung.
Chip-Lumen beschreiben den theoretischen Lichtstrom der LED ohne optische Verluste.
Leuchten-Lumen berücksichtigen hingegen Verluste durch Optiken, Abdeckungen, Gehäuse und Treiber
und stellen den tatsächlich verfügbaren Lichtstrom dar.
Fehlinterpretationen entstehen häufig, wenn Produkte auf Basis von Chip-Lumen verglichen werden.
In solchen Fällen erscheint eine Leuchte leistungsstärker, als sie in der realen Anwendung tatsächlich ist.
Für Planung, Ausschreibung und Vergleich ist daher ausschließlich der Leuchten-Lichtstrom relevant.
Der Lichtstrom allein ist kein Qualitätsmerkmal. Hohe Lumenwerte können durch schlechte Lichtverteilung,
hohe Blendung oder geringe Lebensdauer relativiert werden. Erst im Zusammenspiel mit Optik,
Montagebedingungen und Beleuchtungsstärke auf der Nutzfläche ergibt sich ein belastbares Bild.
Beleuchtungsstärke (Lux, lx)
Die Beleuchtungsstärke beschreibt, wie viel Lichtstrom auf einer bestimmten Fläche ankommt.
Sie wird in Lux angegeben, wobei 1 Lux einem Lichtstrom von 1 Lumen pro Quadratmeter entspricht.
Lux ist die zentrale Zielgröße in der Lichtplanung, da viele Normen und Richtlinien Mindestwerte
für unterschiedliche Sehaufgaben definieren.
In der Praxis ist Lux stets ortsabhängig. Entscheidend ist daher nicht allein der Mittelwert,
sondern auch der Minimalwert sowie die Gleichmäßigkeit der Verteilung.
Ebenso wichtig ist die Definition der Nutzebene, auf der die Beleuchtungsstärke bewertet wird.
Eine Messung am Boden liefert andere Ergebnisse als eine Messung auf Tisch- oder Arbeitshöhe.
Häufige Planungsfehler entstehen, wenn Luxwerte ohne Kontext betrachtet werden.
Eine hohe durchschnittliche Beleuchtungsstärke kann subjektiv dennoch als unzureichend empfunden werden,
wenn starke Helligkeitsschwankungen oder dunkle Randbereiche vorhanden sind.
Umgekehrt kann eine gut gleichmäßige Beleuchtung mit moderaten Luxwerten als angenehm und ausreichend wahrgenommen werden.
Lichtstärke (Candela, cd)
Die Lichtstärke, angegeben in Candela, beschreibt die Intensität des Lichtes in eine bestimmte Richtung.
Sie ist besonders relevant bei gerichteten Leuchten wie Spots, Strahlern oder Hallenleuchten,
bei denen die Reichweite des Lichtkegels eine entscheidende Rolle spielt.
Bei gleicher Lumenmenge führt eine engere Lichtverteilung zu höheren Candela-Werten.
Dies erhöht die Fernwirkung, kann jedoch gleichzeitig das Blendungsrisiko erhöhen,
wenn hohe Leuchtdichten in Blickrichtung auftreten.
In der Planung ist Candela insbesondere dann aussagekräftig, wenn große Montagehöhen
oder gezielte Akzentuierungen erforderlich sind. Sie sollte jedoch immer im Zusammenhang
mit der gesamten Lichtverteilung betrachtet werden, da Spitzenwerte allein keine Aussage
über die Nutzbarkeit des Lichtes zulassen.
Lichtverteilungskurve (LVK)
Die Lichtverteilungskurve stellt grafisch dar, wie eine Leuchte ihr Licht in verschiedene Richtungen abstrahlt.
Sie bildet die reale Lichtverteilung ab und ist damit deutlich aussagekräftiger als ein einzelner Abstrahlwinkel.
In professionellen Planungen werden Lichtverteilungskurven in Form von Photometrie-Dateien
(z. B. IES oder LDT/Eulumdat) genutzt. Diese Daten ermöglichen realitätsnahe Simulationen
von Beleuchtungsstärke, Gleichmäßigkeit und Blendung.
Eine häufige Fehlerquelle ist die falsche Interpretation oder Ausrichtung asymmetrischer Lichtverteilungen.
Wird die Montageorientierung nicht berücksichtigt, kann die geplante Lichtwirkung vollständig verfehlt werden,
obwohl die Leuchte technisch korrekt ist.
Gleichmäßigkeit (Uniformität)
Die Gleichmäßigkeit beschreibt, wie homogen die Beleuchtungsstärke innerhalb eines Bereiches verteilt ist.
Sie wird häufig als Verhältnis von minimaler zu mittlerer Beleuchtungsstärke angegeben.
Selbst hohe Lux-Mittelwerte verlieren an Wert, wenn gleichzeitig stark unterbeleuchtete Zonen vorhanden sind.
Das menschliche Auge reagiert empfindlich auf solche Kontraste, was zu schneller Ermüdung
und subjektiv schlechter Lichtqualität führen kann.
Eine gute Gleichmäßigkeit wird durch geeignete Leuchtenabstände, passende Optiken
sowie ausreichende Reflexionen von Decken und Wänden erreicht.
Sie ist ein zentrales Qualitätsmerkmal moderner Beleuchtungskonzepte.
Direktes und indirektes Licht
Direktes Licht gelangt ohne Umwege von der Leuchte auf die Nutzfläche.
Es ist energetisch effizient und ermöglicht eine präzise Ausleuchtung,
kann jedoch bei unzureichender Entblendung zu Blendung führen.
Indirektes Licht wird über reflektierende Flächen wie Decken oder Wände in den Raum abgegeben.
Es erzeugt eine sehr gleichmäßige und angenehme Raumhelligkeit, setzt jedoch ausreichend helle
Reflexionsflächen voraus und erfordert häufig einen höheren Lichtstrom.
In vielen Anwendungen hat sich die Kombination aus direktem und indirektem Licht bewährt,
da sie funktionale Beleuchtung und visuelle Behaglichkeit miteinander verbindet.
Entscheidend ist dabei stets die Abstimmung auf Raumgeometrie, Oberflächen und Nutzung.
Kapitel 02 – Schutzarten & elektrische Sicherheit
Dieses Kapitel ordnet die Schutzmechanismen ein, die in der Beleuchtungspraxis über die
Betriebssicherheit, Lebensdauer und Normkonformität entscheiden. Dazu gehören der Schutz gegen
Staub, Wasser und Fremdkörper (IP), der Schutz gegen mechanische Einwirkungen (IK) sowie
elektrische Schutzmaßnahmen (Schutzklassen, Schutzkleinspannung). Der entscheidende Punkt ist,
dass diese Schutzprinzipien unterschiedliche Risiken adressieren und daher nicht „gegenseitig ersetzen“.
Eine Leuchte kann beispielsweise sehr gut gegen Wasser geschützt sein und dennoch elektrisch unsicher
sein, wenn Schutzklasse und Installation nicht zusammenpassen – und umgekehrt.
In der Praxis entstehen die meisten Probleme nicht durch „zu geringe“ Schutzwerte an sich, sondern
durch Fehlannahmen: IP wird als generelles Qualitätsmerkmal interpretiert, Schutzklasse wird mit IP
verwechselt, oder die reale Umgebungsbelastung (Reinigung, Kondensation, Staub, Chemie, mechanische
Beanspruchung) wird unterschätzt. Dieses Kapitel erklärt daher nicht nur Definitionen, sondern die
Zusammenhänge, die eine robuste Auswahl ermöglichen.
IP-Schutzarten (Ingress Protection)
Die IP-Schutzart beschreibt den Schutzgrad eines Gehäuses gegen das Eindringen von festen Fremdkörpern
(inklusive Berührungsschutz) und gegen Wasser. Sie wird durch zwei Kennziffern angegeben, z. B. IP65.
Die erste Kennziffer bewertet den Schutz gegen Staub und Fremdkörper, die zweite Kennziffer
den Schutz gegen Wasser in unterschiedlichen Einwirkungsformen.
Für die Auswahl ist entscheidend, dass IP nicht „innen vs. außen“ bedeutet, sondern konkrete Einwirkungsarten
beschreibt. Außenbereiche können je nach Lage sehr unterschiedlich sein (Wind, Schlagregen, Sprühnebel, Vereisung,
Temperaturwechsel). Ebenso können Innenbereiche extrem anspruchsvoll sein (Staub in Produktion, feuchte Luft in Waschräumen,
Aerosole in Küchen, Reinigungschemie in Lebensmittel- oder Logistikbereichen).
Häufig wird Regen als Hauptkriterium angesehen, während Kondensation unterschätzt wird. Kondensation entsteht
nicht durch „Wasser von außen“, sondern durch Temperatur- und Feuchtewechsel. Sie kann in Gehäusen auftreten,
wenn warme, feuchte Luft eingeschlossen wird und später abkühlt. Das führt zu Feuchtigkeitsfilmen an Elektronik,
Korrosion an Kontakten und langfristig zu Ausfällen – selbst wenn die Leuchte nie direkt beregnet wurde.
IP bewertet zwar das Eindringen von Wasser, aber Kondensation ist ein betriebliches Klima- und Konstruktionsproblem,
das über Materialwahl, Dichtkonzept, Entlüftung/Atmungsbauteile und Montage beeinflusst wird.
Umgekehrt wird eine sehr hohe IP-Schutzart oft als „sicherer“ angesehen, ohne die Nebenwirkungen zu berücksichtigen.
Dichtungen, Verguss und geschlossene Gehäuse verändern die Wärmeabfuhr. Bei LED-Leuchten ist Temperatur ein
zentraler Lebensdauerfaktor; eine konstruktiv ungünstige Wärmeführung kann trotz hoher IP zu höheren Bauteiltemperaturen
führen und damit zu schnellerem Lichtstromrückgang oder Treiberbelastung. Die Schutzart muss daher immer zusammen mit
thermischem Konzept, Montageumgebung und Wartungsstrategie bewertet werden.
Praxisrelevant sind außerdem Kabel- und Steckerstellen. Der IP-Wert einer Leuchte gilt für das geprüfte System.
Wird eine Leitungseinführung anders ausgeführt, werden Dichtungen beschädigt oder wird ein nicht passender Steckverbinder
verwendet, kann der Schutzgrad in der realen Installation deutlich niedriger liegen. Bei Außen- und Feuchtanwendungen ist
die „System-IP“ (Leuchte + Anschluss + Leitungseinführung) entscheidend – nicht nur der Wert im Datenblatt.
IP-Kennziffern – vollständige Übersicht und Interpretation
Die IP-Kennziffern werden als IPXY angegeben. X beschreibt feste Fremdkörper/Berührung,
Y beschreibt Wasser. Ein „X“ (z. B. IPX4) bedeutet: erste Ziffer nicht angegeben.
Das ist in der Praxis wichtig, weil IPX4 zwar Spritzwasser beschreibt, aber keinerlei Aussage zur Staubbelastung trifft.
Erste Kennziffer – Schutz gegen feste Fremdkörper und Berührung:
- 0 – kein Schutz
- 1 – Schutz gegen feste Fremdkörper ≥ 50 mm
- 2 – Schutz gegen feste Fremdkörper ≥ 12,5 mm
- 3 – Schutz gegen feste Fremdkörper ≥ 2,5 mm
- 4 – Schutz gegen feste Fremdkörper ≥ 1 mm
- 5 – staubgeschützt (Staubeintritt nicht vollständig verhindert, aber nicht schädlich)
- 6 – staubdicht (kein Staubeintritt)
Zweite Kennziffer – Schutz gegen Wasser:
- 0 – kein Schutz
- 1 – Tropfwasser senkrecht
- 2 – Tropfwasser bei 15° Neigung
- 3 – Sprühwasser
- 4 – Spritzwasser aus allen Richtungen
- 5 – Strahlwasser (Düse) aus allen Richtungen
- 6 – starkes Strahlwasser
- 7 – zeitweiliges Untertauchen
- 8 – dauerhaftes Untertauchen (nach Herstellerspezifikation, da Bedingungen variieren)
- 9K – Hochdruck- / Dampfstrahlreinigung (z. B. Reinigung mit hohem Druck/Temperatur)
In der Auswahl sind zwei Denkfehler besonders verbreitet: Erstens wird aus „IPX4 ist für außen“ abgeleitet,
dass es überall ausreicht. In exponierten Lagen (Wind, Schlagregen), bei Überdachungen mit Tropfkanten,
in Küstenumgebungen (Salz) oder in Bereichen mit Reinigung kann Spritzwasserschutz zu knapp sein.
Zweitens wird IPX7/IPX8 als „besser als IPX6“ interpretiert. Untertauchen ist ein anderer Prüfmodus als Strahlwasser;
eine Anwendung mit Wasserstrahlbelastung erfordert typischerweise IPX5/IPX6 und nicht automatisch IPX7/8.
Hinweis: Der konkrete Schutz hängt immer von der geprüften Ausführung ab (Dichtungen, Schrauben, Kabeleinführungen,
Dichtflächen). Bei der Montage dürfen Dichtungen nicht gequetscht, verdreht oder beschädigt werden; andernfalls entspricht
die Installation nicht mehr dem geprüften Zustand.
IK-Schutzart (Stoßfestigkeit)
Die IK-Schutzart beschreibt die Widerstandsfähigkeit eines Gehäuses gegen mechanische Einwirkungen durch Stöße.
Sie ergänzt die IP-Schutzart: Während IP das Eindringen von Fremdkörpern und Wasser bewertet, beurteilt IK die
Stoßfestigkeit des Gehäuses. IK ist besonders relevant in öffentlichen Bereichen, Sporthallen, Parkhäusern,
Verkehrsflächen, Industrie- und Logistikbereichen sowie überall dort, wo Vibrationen, Anstoßen, Ballwurf oder Vandalismus
realistisch sind.
IK-Werte entsprechen definierten Stoßenergien (Joule). In der Praxis ist nicht nur der „Maximalstoß“ relevant, sondern auch,
wie die Leuchte mechanisch montiert ist: Eine robuste Leuchte kann bei ungeeigneter Montage (zu geringe Auflageflächen,
falsche Schrauben, mangelnde Unterkonstruktion) dennoch mechanisch geschädigt werden. Ebenso können wiederholte kleinere
Einwirkungen zu Materialermüdung führen. IK ist daher ein Baustein, ersetzt aber keine saubere mechanische Ausführung.
Orientierende Einordnung (vereinfacht nach Praxisrelevanz):
- IK00 – kein Schutz
- IK01–IK05 – geringe Stoßfestigkeit (nur für geschützte Umgebungen)
- IK06–IK08 – mittlere Stoßfestigkeit (typische robuste Innenanwendungen)
- IK09 – hohe Stoßfestigkeit (raue Umgebungen)
- IK10 – sehr hohe Stoßfestigkeit (20 Joule, vandalismusrobuste Anwendungen)
Ein häufiger Irrtum ist, IK ausschließlich mit „Vandalismus“ zu verbinden. In vielen Industrieanwendungen ist IK vor allem
eine Frage der Betriebssicherheit: Ein Gehäuseschaden kann Dichtflächen öffnen, Leitungen beschädigen oder
scharfkantige Brüche erzeugen. Dadurch steigt nicht nur das Ausfallrisiko, sondern im ungünstigen Fall auch das Risiko
für Folgeschäden und Stillstände.
Schutzklassen – welche es gibt und was sie praktisch bedeuten (I, II, III)
Schutzklassen beschreiben, mit welchem Schutzprinzip eine Leuchte gegen gefährliche Berührungsspannungen abgesichert ist.
Sie sind unabhängig von IP und IK. Während IP/IK primär Umgebungs- und Mechanikrisiken abdecken, beziehen sich Schutzklassen
auf das Risiko eines elektrischen Schlags bei Fehlern (z. B. Isolationsfehler, defekter Treiber, beschädigte Leitung).
Die Schutzklassen im Überblick:
- Schutzklasse I – Schutz durch Schutzleiter (PE).
Berührbare leitfähige Teile (z. B. Metallgehäuse) sind mit dem Schutzleiter verbunden. Im Fehlerfall wird ein Fehlerstrom
gegen Erde abgeleitet, wodurch Schutzorgane (z. B. Sicherung, RCD/Fi) auslösen. Schutzklasse I setzt voraus, dass
die Erdung korrekt und dauerhaft wirksam ist. - Schutzklasse II – Schutz durch doppelte bzw. verstärkte Isolation.
Es gibt keinen Schutzleiteranschluss. Die Sicherheit wird über Isolationskonzepte erreicht, sodass selbst bei einem Fehler
keine gefährliche Spannung an berührbaren Teilen anliegt. Diese Schutzklasse ist vorteilhaft, wenn Erdung nicht verfügbar
oder nicht zuverlässig ist, erfordert aber konsequente Einhaltung der vorgesehenen Komponenten und Einbauweise. - Schutzklasse III – Betrieb mit Schutzkleinspannung (SELV).
Die Versorgung erfolgt über eine Sicherheitskleinspannung, sodass auch im Fehlerfall keine gefährliche Spannung auftreten kann.
Typisch ist die Versorgung über ein geeignetes Netzteil/Trafo mit galvanischer Trennung. Schutzklasse III ist besonders
relevant in berührungsnahen Anwendungen oder in Bereichen, in denen zusätzliche Sicherheit erforderlich ist.
In der Praxis entstehen sicherheitsrelevante Fehler häufig an den Systemgrenzen: Schutzklasse I funktioniert nur dann als
Schutzprinzip, wenn der Schutzleiter wirklich angeschlossen, niederohmig und dauerhaft ist. Schutzklasse II ist nur dann
wirksam, wenn keine „nachträglichen“ leitfähigen Verbindungen oder unsachgemäße Modifikationen (z. B. Bohren, falsche
Durchführung, unpassende Klemmen) die Isolation kompromittieren. Schutzklasse III setzt voraus, dass die gesamte Versorgung
tatsächlich als SELV ausgeführt ist und nicht durch Mischinstallationen oder ungeeignete Netzteile verwässert wird.
Wichtig ist außerdem die klare Trennung der Begriffe: Eine Leuchte kann IP65 haben und dennoch Schutzklasse I oder II sein.
IP sagt nichts darüber aus, ob ein Schutzleiter vorhanden ist. Umgekehrt sagt Schutzklasse nichts darüber aus, ob die Leuchte für
Strahlwasser geeignet ist. Erst die Kombination aus Schutzklasse, IP/IK und korrekter Installation ergibt eine robuste Lösung.
SELV, PELV, FELV – Schutzkleinspannungen korrekt einordnen
Die Begriffe SELV, PELV und FELV beschreiben unterschiedliche Ausprägungen von Kleinspannungssystemen und deren Schutzkonzepten.
Sie sind besonders in der LED-Technik relevant, da viele Systeme mit 12 V, 24 V oder ähnlichen Spannungen arbeiten.
Entscheidend ist: Nicht jede „niedrige Spannung“ ist automatisch Schutzkleinspannung im sicherheitstechnischen Sinn.
- SELV (Safety Extra-Low Voltage): Schutzkleinspannung mit sicherer galvanischer Trennung vom Netz und ohne
Erdbezug. Das System ist so ausgelegt, dass unter normalen und fehlerhaften Bedingungen keine gefährlichen Spannungen entstehen. - PELV (Protective Extra-Low Voltage): grundsätzlich vergleichbar mit SELV, jedoch mit zulässigem Erdbezug
bestimmter Teile. PELV wird eingesetzt, wenn ein Erdbezug funktional oder betrieblich erforderlich ist. - FELV (Functional Extra-Low Voltage): Funktionskleinspannung ohne vollständige Schutzmaßnahmen wie bei SELV/PELV.
Hier sind zusätzliche Schutzmaßnahmen erforderlich, da das System nicht die gleichen Sicherheitsanforderungen erfüllt.
In der Praxis ist die Systemkette entscheidend: Netzteil/Driver, Sekundärverkabelung, Steckverbinder, Leuchte und
Einbauumgebung müssen konsistent ausgelegt sein. Ein häufiges Problem entsteht, wenn ein SELV-Netzteil verwendet wird, aber später
Komponenten hinzugefügt werden, die nicht für SELV geeignet sind oder wenn Installationsmethoden (Leitungsführung, Klemmen, Trennung
von Netzspannung) nicht dem Schutzkonzept entsprechen. Bei solchen Mischsituationen entstehen unklare Zustände, die sowohl
normativ als auch sicherheitstechnisch problematisch sind.
Notbeleuchtung & Sicherheitsbeleuchtung – Einordnung, Systemlogik, Betriebsanforderungen
Not- und Sicherheitsbeleuchtung dienen der sicheren Orientierung und Evakuierung im Gefahrenfall und unterliegen besonderen
Anforderungen hinsichtlich Verfügbarkeit, Umschaltzeit, Betriebsdauer, Kennzeichnung und regelmäßiger Prüfung. In der Praxis
ist weniger die „Leuchte an sich“ der kritische Punkt, sondern das Gesamtsystem: Energieversorgung, Umschaltung,
Überwachung, Prüfkonzept und Dokumentation.
Typischerweise wird unterschieden zwischen Sicherheitsbeleuchtung für Rettungswege (gezielte Führung), Antipanikbeleuchtung
(Grundhelligkeit zur Orientierung in offenen Bereichen) und Ersatzbeleuchtung (Fortsetzung normaler Tätigkeiten in reduziertem
Umfang). Diese Kategorien verfolgen unterschiedliche Ziele; daraus ergeben sich unterschiedliche Anforderungen an Lichtverteilung,
Mindestbeleuchtungsstärken, Betriebsdauer und Positionierung.
Ein häufiger Planungsfehler ist die Vermischung von Allgemein- und Sicherheitsbeleuchtung ohne klare Systemtrennung, sodass im
Störfall entweder nicht die richtigen Leuchten versorgt werden oder die Umschaltung nicht zuverlässig erfolgt. Ebenso werden
Wartung und Prüfung oft erst nachträglich bedacht. Da Sicherheitsbeleuchtung regelmäßig geprüft werden muss, sollten Zugänglichkeit,
Austauschbarkeit und Systemdiagnose bereits bei der Planung berücksichtigt werden. Das gilt insbesondere bei dezentralen Batterielösungen,
zentralen Versorgungssystemen oder vernetzten Monitoring-Konzepten.
Kapitel 03 – LED-Technologie & Betriebsgeräte
LED-Beleuchtung ist ein technisch gekoppeltes System aus LED-Halbleiter, Phosphoren und optischen
Materialien, Leiterplatte/Modul, thermischem Aufbau, Betriebsgerät (Treiber) und elektrischer
Versorgungsumgebung. Effizienz, Lichtqualität, Lebensdauer und Betriebssicherheit ergeben sich
erst aus dem Zusammenspiel dieser Komponenten. Eine fachlich belastbare Auswahl betrachtet daher
nicht nur Einzelkennwerte, sondern Betriebsfenster, Randbedingungen und Langzeitstabilität.
LED (Light Emitting Diode)
Eine LED ist ein Halbleiterbauelement, das Licht durch Rekombination von Ladungsträgern in einem pn-Übergang
erzeugt. Unter Vorwärtsspannung werden Elektronen und Löcher in den aktiven Bereich injiziert. Treffen sie
aufeinander, wird Energie frei, die als Photon emittiert werden kann. Die Bandlücke des Halbleitermaterials
bestimmt die Wellenlänge und damit die Grundfarbe der Emission.
Stromgesteuertes Verhalten
LEDs besitzen eine stark nichtlineare Strom-Spannungs-Kennlinie. Kleine Spannungsänderungen bewirken große
Stromänderungen. Da Lichtstrom und Verlustleistung direkt vom Strom abhängen, führt ein ungeregelter Betrieb
schnell zu instabilen Zuständen. Professionelle LED-Systeme werden daher in der Regel mit geregeltem Strom
(Konstantstrom) betrieben – oder bei Konstantspannungs-Systemen mit einer definierten Strombegrenzung im Modul.
Thermik und Sperrschichttemperatur
Ein Teil der elektrischen Energie wird in Wärme umgesetzt. Kritisch ist die Sperrschichttemperatur (Junction)
des LED-Chips. Sie ist nicht identisch mit Gehäuse-, Kühlkörper- oder Umgebungstemperatur und hängt vom gesamten
Wärmeweg ab: LED-Chip → Package → Lötpad/Leiterplatte → Wärmeleitmaterial → Gehäuse/Kühlkörper → Umgebung.
Jeder zusätzliche thermische Widerstand (z. B. Montagefehler, Wärmestau, ungeeignete Wärmeleitpads,
verschmutzte Kühlflächen) erhöht die Junction-Temperatur und beschleunigt Alterungsmechanismen.
Betriebsfenster und Langzeitfolgen
LEDs sind für definierte Bereiche aus Strom, Temperatur und Umgebung spezifiziert. Kurzzeitige Überlasten
oder Temperaturspitzen führen nicht zwingend zu sofortigem Ausfall, können aber irreversible Vorschädigungen
verursachen, die sich später als beschleunigter Lichtstromrückgang, stärkere Farbortdrift oder erhöhte Ausfallrate
zeigen. Entscheidend ist daher nicht nur der Nennbetrieb, sondern auch das Verhalten bei Lastspitzen,
Schaltzyklen, Dimmszenarien und thermischen Transienten.
Elektrische Umgebung, Überspannung und EMV
LEDs werden über Treiber versorgt, dennoch beeinflusst die elektrische Umgebung die Systemzuverlässigkeit:
Schaltspitzen, induzierte Überspannungen (z. B. durch Schalthandlungen oder Blitznähe), Oberschwingungen,
Spannungsabsenkungen, sowie elektromagnetische Störungen wirken auf Treiber, Schutzbeschaltungen und
Steuerungsschnittstellen. Robuste Systeme berücksichtigen deshalb geeignete Schutzkonzepte (Surge-Festigkeit,
Filter, ggf. zusätzliche Überspannungsableiter) und eine fachgerechte Installation (Leitungsführung, Erdung,
Potentialausgleich).
Praxisindikator: Wenn in einem Projekt einzelne Leuchten auffällig früh ausfallen, sind lokale Unterschiede
(Wärmestau, Montage, Netz-/Überspannungspfade, Klemmstellen, Feuchte) häufiger die Ursache als ein generelles
„LED-Problem“.
Weiße LEDs
Weißes LED-Licht entsteht in der Praxis überwiegend durch Phosphorkonversion: Ein blauer LED-Chip emittiert Licht,
das teilweise von einer Phosphorschicht absorbiert und bei längeren Wellenlängen wieder emittiert wird. Das
resultierende Spektrum ist eine Mischung aus direktem Blauanteil und konvertierten Anteilen. „Weiß“ ist damit
immer eine spektrale Überlagerung – und nicht eine einzelne Emissionslinie.
Spektrale Wirkung und Anwendungsrelevanz
Das Spektrum beeinflusst nicht nur den Farbeindruck, sondern auch die Farbwiedergabe von Materialien (Textilien,
Lebensmittel, Lacke), die visuelle Differenzierung in Arbeitsumgebungen sowie die Performance von Kameras und
Sensorik. Zwei Leuchten können die gleiche korrelierte Farbtemperatur (z. B. 3000 K) besitzen, aber
unterschiedlich wirken, wenn ihre Spektren unterschiedlich verteilt sind. Für anspruchsvolle Anwendungen ist
deshalb nicht nur „warm/kalt“, sondern die spektrale Qualität und Stabilität über die Zeit entscheidend.
Alterung von Phosphoren und optischen Materialien
Die Langzeitstabilität weißer LEDs wird nicht nur durch den Halbleiterchip bestimmt. Phosphore und
Einbettungsmaterialien (Silikon, Verguss, Linsen, Diffusoren) altern temperatur- und strahlungsabhängig.
Dadurch kann sich das Verhältnis zwischen Blauanteil und konvertiertem Licht verschieben (Farbortdrift),
und die Lichtausbeute kann sinken. Thermisches Design beeinflusst daher indirekt auch Farbstabilität, weil
höhere Betriebstemperaturen Alterungsprozesse in Phosphoren und Kunststoffen beschleunigen können.
Farbtemperatur, Farbort und Wahrnehmung
Die korrelierte Farbtemperatur (CCT) ist eine vereinfachende Einordnung. Für die Praxis ist zusätzlich
relevant, wie eng die Farborte innerhalb eines Projekts zusammenliegen und wie sie sich über die Zeit entwickeln.
In langen Sichtachsen oder homogenen Lichtflächen können geringe Abweichungen sichtbar werden. Professionelle
Systeme berücksichtigen deshalb sowohl Anfangsstreuung (Binning) als auch Drift über Betriebsdauer.
LED-Binning, Farbortstreuung und MacAdam-Ellipsen
In der Fertigung streuen LED-Chips und Phosphorkonversion geringfügig. Diese Streuung betrifft Lichtstrom,
Vorwärtsspannung sowie insbesondere den Farbort. Hersteller klassifizieren LEDs deshalb in sogenannte
Bins (Sortierklassen). Für Projekte mit vielen Leuchten ist diese Sortierung entscheidend, weil
Menschen Farbunterschiede in direktem Vergleich sehr empfindlich wahrnehmen – besonders in linearen Anwendungen,
Lichtbändern, Lichtdecken oder in Bereichen mit großen weißen Flächen.
SDCM / MacAdam als Praxismaß
Zur Beschreibung von Farbortabweichungen wird häufig SDCM verwendet (Standard Deviation of Color Matching),
oft als „MacAdam-Ellipsen“ bezeichnet. Niedrigere SDCM-Werte bedeuten engere Farbortstreuung und damit
höhere sichtbare Konsistenz. In der Praxis ist die erforderliche Enge vom Anwendungskontext abhängig:
In repräsentativen Innenräumen, Hospitality, Retail oder in sichtbaren Linien ist eine engere Streuung
häufig erforderlich als in technisch dominierten Bereichen.
Anfangsstreuung vs. Drift
Binning beschreibt die Streuung bei Auslieferung. Davon zu unterscheiden ist die Farbortdrift über die Zeit,
die durch Alterung von Phosphoren, optischen Materialien und thermische Belastungen beeinflusst wird.
Eine professionelle Spezifikation berücksichtigt deshalb beide Aspekte: konsistente Anfangsbins sowie
ein stabiles Systemdesign (Thermik, Materialwahl), um Drift zu minimieren.
LED-Module und Leiterplatten (MCPCB, FR4, thermische Pfade)
LED-Module sind die Trägerstruktur der LEDs und bilden die Schnittstelle zwischen LED-Package und Leuchtengehäuse.
Neben der elektrischen Verschaltung ist der thermische Pfad entscheidend. In vielen Anwendungen werden
Metallkernleiterplatten (MCPCB) eingesetzt, weil sie Wärme effizienter abführen als Standard-FR4-Material.
Die reale thermische Performance wird jedoch nicht nur durch das Leiterplattenmaterial bestimmt, sondern durch
die gesamte Kontaktkette zum Gehäuse.
Thermische Schnittstelle (TIM) und Montagequalität
Wärmeleitpads, Pasten oder Folien (TIM – Thermal Interface Materials) sollen mikroskopische Unebenheiten
zwischen Modul und Kühlfläche ausgleichen. In der Praxis sind Dicke, Kompressibilität, Flächenpressung und
Alterungsbeständigkeit relevant. Zu dicke oder ungeeignete Materialien erhöhen den thermischen Widerstand.
Unzureichende Schraubkraft, verzogene Auflageflächen oder ungleichmäßige Pressung führen zu Hotspots.
Elektrische Kontaktierung und Langzeitstabilität
Kontaktstellen (Klemmen, Steckverbinder, Lötstellen) sind in der Praxis häufige Fehlerquellen.
Thermische Zyklen (Aufheizen/Abkühlen) und Vibrationen können Kontaktwiderstände verändern.
Erhöhte Übergangswiderstände führen wiederum zu lokaler Erwärmung, die Alterung beschleunigt und
Ausfälle begünstigt. Professionelle Systeme berücksichtigen daher mechanische Entlastung,
geeignete Zugentlastungen, Materialverträglichkeiten und eine Installation, die Service und Prüfung zulässt.
LED-Bauformen (SMD, COB, Mid-Power, High-Power)
Die Bauform bestimmt, wie viel Licht aus welcher Fläche emittiert wird (Leuchtdichte) und wie sich das Licht
optisch formen lässt. Das ist entscheidend für Reichweite, Lichtverteilung, Entblendung und thermische Belastung.
SMD (Surface Mounted Device)
SMD-LEDs werden als einzelne Packages auf Leiterplatten bestückt. Sie eignen sich besonders für flächige und
lineare Systeme mit homogener Lichtverteilung. Aufgrund der meist geringeren Leuchtdichten sind komfortable
Entblendungskonzepte leichter realisierbar. In Projekten mit hohen Anforderungen an Sehkomfort (z. B. Büros,
Bildungsstätten) werden SMD-basierte Systeme häufig bevorzugt, wenn die Montagehöhen und Aufgaben dies zulassen.
COB (Chip on Board)
COB-Module bündeln viele Chips auf engem Raum. Das ermöglicht kompakte Optiken und präzise Lichtlenkung,
führt aber zu hohen Leuchtdichten. Das kann bei direkter Einsicht zu Blendung führen, weshalb Abschirmung,
Raster, geeignete Abstrahlwinkel und geometrische Einbaulagen besonders wichtig sind. Thermisch sind COB-Systeme
empfindlicher gegenüber Montage- und Kühlabweichungen, da ein größerer Anteil der Gesamtleistung lokal konzentriert ist.
Mid-Power vs. High-Power
Mid-Power-LEDs bieten häufig sehr gute Effizienz bei moderater Leistungsdichte. High-Power-LEDs erlauben höhere
Ströme pro Package und sind in Anwendungen sinnvoll, in denen kompaktere Module oder höhere Punktleistungen
benötigt werden. Mit steigender Leistungsdichte steigen jedoch Anforderungen an Kühlung, Bestromung und
Alterungsrobustheit. In der Praxis ist „mehr Power“ selten die saubere Korrektur für ein Verteilungsproblem;
häufig ist die passende Bauform- und Optikkombination entscheidender.
LED-Betriebsgeräte (Treiber)
Ein LED-Treiber versorgt die LEDs mit definierten elektrischen Größen und stabilisiert den Betrieb gegen
Netz- und Lastschwankungen. Er ist nicht nur „ein Netzteil“, sondern in professionellen Anwendungen ein
regelndes Betriebsgerät mit Schutz- und Diagnosefunktionen. Treiber beeinflussen Effizienz, Flicker,
Dimmbarkeit, EMV-Verhalten und nicht selten die wirtschaftliche Lebensdauer einer Leuchte.
Konstantstrom (CC) vs. Konstantspannung (CV)
Konstantstromtreiber liefern einen definierten Strom innerhalb eines Spannungsfensters. Sie werden eingesetzt,
wenn LED-Module keinen eigenen Stromregler besitzen. Konstantspannungs-Treiber (z. B. 24 V) setzen voraus,
dass die angeschlossenen Module/Strips intern eine Strombegrenzung/Regelung haben. Fehlkombinationen führen in
der Praxis zu Überstrom, Überhitzung, ungleichmäßiger Helligkeit oder instabilem Betrieb – oft ohne sofortigen
Totalausfall, aber mit langfristigen Folgeschäden.
Lastbereich, Reserven und Derating
Treiber besitzen einen spezifizierten Lastbereich und eine zulässige Umgebungstemperatur. Wird ein Treiber dauerhaft
nahe seiner Maximalleistung betrieben, steigen seine Verluste und die Bauteiltemperaturen. Viele Treiber reduzieren
dann die Leistung (Derating) oder schalten bei Übertemperatur ab. Eine professionelle Auslegung berücksichtigt daher
reale Einbaubedingungen (Temperatur am Treiberort, Wärmestau, Gehäuseeinbau, Luftbewegung) und dimensioniert so, dass
Effizienz und Reserven im Dauerbetrieb passen.
Schutzfunktionen
Typische Schutzfunktionen sind Überstromschutz, Kurzschlussschutz, Überspannungsschutz, Übertemperaturschutz,
Schutz bei offener Last sowie teils aktive Begrenzungen bei Lastspitzen. Die Robustheit gegenüber Surge/Transienten
ist in Außen- und Industrieumgebungen besonders relevant. Wichtig ist die Systemperspektive: Treiberschutz ergänzt
anlagenseitigen Schutz, ersetzt ihn aber nicht zwangsläufig, wenn die Installation hohe Einkopplungen zulässt.
Dimmung und Schnittstellen
Dimmbarkeit bedeutet mehr als „geht heller/dunkler“. Relevant sind Dimmverfahren (stromreduziert, PWM oder Mischformen),
Stabilität im unteren Dimmbereich, Minimallast, Verhalten bei mehreren Treibern an einem Bus, sowie die Interaktion mit
Steuerungsschnittstellen (z. B. 1–10 V, DALI). In der Praxis entstehen Probleme häufig durch unpassende Kombinationen
aus Steuergerät, Treiber und Leitungslängen (Signalqualität), oder durch Dimmen außerhalb des optimalen Treiberbereichs.
Treiber als Lebensdauerlimit und Servicefähigkeit
LED-Degradation ist planbar, Treiberausfälle sind oft die erste Wartungsursache. Leistungselektronik altert temperatur-
und lastabhängig. Professionelle Leuchtenkonzepte berücksichtigen deshalb thermische Entkopplung, Bauteilreserven, sowie
Zugänglichkeit und Austauschbarkeit des Treibers. Eine gut geplante Anlage denkt Wartung (Zugang, Austauschzyklen, Diagnostik)
von Beginn an mit.
Netzseitige Kenngrößen des Treibers (PF, THD, Inrush, Wirkungsgrad)
Neben der LED-seitigen Regelung sind netzseitige Kenngrößen wichtig, weil sie beeinflussen, wie sich eine Anlage auf das
Versorgungsnetz verhält und wie Stromkreise dimensioniert werden müssen. Diese Größen sind besonders relevant bei großen
Stückzahlen, langen Leitungen, sensiblen Anlagen oder in Industrieumgebungen.
Power Factor (PF)
Der Leistungsfaktor beschreibt das Verhältnis von Wirkleistung zu Scheinleistung. Ein niedriger PF bedeutet, dass für die
gleiche Wirkleistung höhere Ströme im Netz fließen, was Leitungen und Schutzorgane stärker belastet. In professionellen Anlagen
ist ein guter PF wichtig, um Netzbelastung und Energieverteilung effizient zu gestalten.
Total Harmonic Distortion (THD)
THD beschreibt den Anteil von Oberschwingungen im Strom. Nichtlineare Lasten (wie viele Schaltnetzteile/Treiber) können
Oberschwingungen erzeugen, die Transformatoren, Neutralleiter und andere Verbraucher belasten. In Anlagen mit vielen Treibern
ist die Oberschwingungsbetrachtung relevant, um unerwartete Erwärmung und Störungen zu vermeiden.
Einschaltstrom (Inrush Current)
Beim Einschalten können Treiber kurzzeitig sehr hohe Ströme ziehen (Inrush). Das ist insbesondere bei gleichzeitigem Einschalten
vieler Leuchten relevant, weil Sicherungen auslösen oder Schaltgeräte überlastet werden können. Eine professionelle Planung
berücksichtigt daher Inrush-Werte und die zulässige Anzahl von Treibern pro Sicherungsautomat bzw. Schaltkontakt.
Treiberwirkungsgrad
Der Wirkungsgrad des Treibers beeinflusst die Gesamtenergieeffizienz und die Eigenerwärmung des Betriebsgeräts. Niedrigerer
Wirkungsgrad bedeutet mehr Verlustwärme im Treiber – was wiederum seine Lebensdauer beeinflussen kann. Daher sind Wirkungsgrad,
thermische Einbausituation und Lastpunkt gemeinsam zu bewerten.
Überspannungsfestigkeit (Surge) und Schutzkonzepte
Überspannungen entstehen durch Schalthandlungen im Netz, induzierte Impulse (z. B. Blitznähe) oder durch lange Leitungen,
die wie Antennen einkoppeln. Diese Impulse können Treiber, Steuerungsschnittstellen und LED-Module schädigen. Die im Datenblatt
angegebene Überspannungsfestigkeit (Surge) beschreibt, welchen Impulspegel der Treiber typischerweise übersteht.
Systemschutz statt Einzelbauteil-Fokus
Die Robustheit ergibt sich aus mehreren Ebenen: Treiberinterner Schutz, anlagenseitiger Überspannungsschutz (SPD),
Erdungs- und Potentialausgleichskonzept, sowie Leitungsführung. Gerade in Außenanlagen und Industrieumgebungen kann ein
zusätzliches SPD-Konzept erforderlich sein, weil die reale Einkopplung stark vom Aufbau der Installation abhängt.
Warum „sporadische“ Ausfälle typisch sind
Überspannungsschäden äußern sich oft nicht als sofortige Totalausfälle aller Leuchten, sondern als sporadische Einzelausfälle
über Wochen/Monate. Grund ist die Variabilität der Einkopplungspfade und die statistische Verteilung von Schwachstellen.
Deshalb ist ein sauberes Schutzkonzept besonders wertvoll, wenn eine Anlage hohe Verfügbarkeit benötigt.
Flicker, Modulation und zeitliches Lichtverhalten
Flicker beschreibt zeitliche Schwankungen des Lichtstroms. Diese können sichtbar sein oder unterhalb der bewussten Wahrnehmung
liegen. Auch nicht bewusst wahrnehmbarer Flicker kann Auswirkungen haben: bei sensiblen Personen (Ermüdung, Unbehagen),
in Arbeitsumgebungen mit hoher visueller Belastung, bei rotierenden Maschinen (Stroboskopeffekte) oder bei Kamera-/Sensorik-
Anwendungen (Banding, Flimmern).
Typische Ursachen in LED-Systemen
Ursachen sind u. a. Restwelligkeit im Treiber, unzureichende Glättung, netzabhängige Modulation, sowie Dimmverfahren
(PWM oder Mischformen). Besonders relevant ist das Verhalten im unteren Dimm-Bereich, bei geringer Last oder bei Kombinationen
mehrerer Treiber an einem Steuerbus. Daher ist „flimmerfrei“ eine Systemeigenschaft – nicht nur eine LED-Eigenschaft.
Kamera- und Maschinenvision
Kameras arbeiten mit Belichtungszeiten und häufig mit Rolling-Shutter. Modulationen, die dem Auge kaum auffallen, können in
Videoaufnahmen deutlich sichtbar werden. In Umgebungen mit Video, Streaming, Prüfkameras oder Machine Vision sollten daher
zeitliche Lichtanforderungen explizit spezifiziert und mit geeigneten Treibern und Dimmkonzepten realisiert werden.
Lebensdauer, Degradation und Lx/By
Bei LED-Systemen bedeutet Lebensdauer typischerweise nicht „bis zum Ausfall“, sondern Lichtstromrückgang und
Eigenschaftsänderungen über die Zeit. Angaben wie L80/B10 beschreiben statistisch, welcher Anteil einer Population
nach einer definierten Betriebsdauer noch einen bestimmten Lichtstromanteil erreicht.
Was Lx/By aussagt – und was nicht
Lx/By-Angaben basieren auf definierten Prüf- und Modellbedingungen. In realen Anwendungen wirken zusätzliche Einflüsse:
höhere Umgebungstemperaturen, Wärmestau, häufiges Schalten, abweichende Dimmprofile, Verschmutzung oder chemische Belastungen.
Diese Faktoren können Degradationsraten erhöhen oder die Streuung vergrößern. Daher müssen Lebensdauerangaben immer im Kontext
des realen Betriebsprofils interpretiert werden.
Systemlebensdauer: LED, Treiber, Optik, Dichtungen
Die wirtschaftliche Lebensdauer einer Leuchte wird oft durch den Treiber oder durch optische/materialbedingte Alterung begrenzt,
nicht allein durch LED-Degradation. Optiken können vergilben oder verschmutzen, Dichtungen altern, Kontaktstellen verändern sich
durch thermische Zyklen. Professionelle Lösungen berücksichtigen deshalb Servicekonzepte, Austauschbarkeit und robuste Materialien.
LM-80 und TM-21 (Lebensdauerbewertung von LED-Lichtquellen)
LM-80 ist ein etabliertes Verfahren zur Messung des Lichtstromrückgangs von LED-Lichtquellen unter definierten Bedingungen
(z. B. bei bestimmten Temperaturen und Strömen) über eine Messdauer. TM-21 ist eine Methode zur Extrapolation dieser
Messdaten, um Aussagen über längere Zeiträume abzuleiten.
Warum das wichtig ist
Diese Methoden helfen, Degradation nachvollziehbar zu dokumentieren. Für die Praxis ist entscheidend, dass die Aussagekraft
von der Ähnlichkeit zwischen Prüfbedingungen und realen Betriebsbedingungen abhängt. Wenn reale Temperaturen, Ströme oder
Umgebungsbedingungen deutlich abweichen, kann die Extrapolation die Realität nicht vollständig abbilden. Daher sollte bei
anspruchsvollen Projekten die thermische Auslegung so erfolgen, dass reale Junction-Temperaturen im geplanten Rahmen bleiben.
Systemperspektive bleibt notwendig
LM-80/TM-21 bezieht sich primär auf LED-Lichtquellen/Packages, nicht automatisch auf die vollständige Leuchte inklusive Treiber,
Optik und mechanischer Integration. Eine professionelle Bewertung kombiniert daher LED-Degradation (LM-80/TM-21) mit
Treiberzuverlässigkeit, thermischem Design, Materialauswahl und Wartungsstrategie.
Kapitel 04 – Blendung, Leuchtdichte & visuelle Wahrnehmung
Für die visuelle Beurteilung von Beleuchtung ist die Beleuchtungsstärke (Lux) nur ein Teil der Wahrheit.
Menschen „sehen“ keine Luxwerte, sondern reagieren auf Leuchtdichten im Blickfeld und auf deren
räumliche und zeitliche Verteilung. Eine Beleuchtung kann normkonform hohe Luxwerte liefern und dennoch als
unangenehm, ermüdend oder sogar unsicher empfunden werden – etwa durch zu helle, kleine Leuchtflächen,
starke Spiegelungen oder extreme Helligkeitsunterschiede zwischen Decke, Wänden und Arbeitszone.
Blendung ist deshalb kein Randthema, sondern ein zentrales Qualitätskriterium. Sie beeinflusst Sehkomfort,
Leistungsfähigkeit, Sicherheit und Akzeptanz. Moderne LED-Technologie kann sehr hohe Leuchtdichten erzeugen;
ohne gezielte Entblendung und eine passende Leuchtdichtearchitektur steigt das Blendungspotenzial deutlich.
Leuchtdichte
Die Leuchtdichte (Einheit: cd/m²) beschreibt die Lichtstärke, die von einer Fläche
in eine bestimmte Richtung abgegeben wird, bezogen auf deren projizierte Fläche. Sie ist die photometrische
Größe, die dem Helligkeitseindruck am nächsten kommt: Das Auge bewertet Helligkeit primär über Leuchtdichten
im Blickfeld – nicht über die Beleuchtungsstärke auf einer Ebene.
Leuchtdichte vs. Beleuchtungsstärke
Beleuchtungsstärke (Lux) beschreibt, wie viel Licht auf einer Fläche ankommt. Leuchtdichte beschreibt, wie hell
eine Fläche erscheint. Zwei Räume können die gleiche Beleuchtungsstärke am Arbeitsplatz aufweisen, aber völlig
unterschiedlich wirken, wenn z. B. Wände und Decke dunkel bleiben oder wenn Leuchten sehr kleine,
extrem helle Austrittsflächen besitzen.
Leuchtdichteverteilung und Kontrast
Für Sehkomfort sind nicht nur absolute Leuchtdichten relevant, sondern vor allem deren Verteilung im Gesichtsfeld.
Sehr helle Einzelbereiche (Leuchten, Lichtfenster, Reflexe) neben großen dunklen Flächen erzeugen hohe Kontraste.
Das führt zu häufigen Adaptationswechseln und kann zu Ermüdung, reduzierter Kontrastwahrnehmung und subjektivem
Unbehagen führen – auch bei „ausreichenden Luxwerten“.
Leuchtdichte, LED und Entblendung
LEDs können hohe Leuchtdichten auf kleinen Flächen erzeugen. Das ist für effiziente Lichtlenkung vorteilhaft,
erhöht jedoch das Blendungspotenzial. Entblendung ist deshalb in LED-Systemen nicht optional, sondern
ein Kernbestandteil der optischen Konstruktion (z. B. Raster, Linsen mit Cut-off, tief liegende
Lichtaustritte, Diffusoren mit geeigneter Mikrostruktur).
Praxis: Warum „zu hell“ oft falsch diagnostiziert wird
In der Praxis wird Unbehagen häufig als „zu hell“ beschrieben, obwohl die Ursache oft eine einzelne Quelle
hoher Leuchtdichte, eine Reflexion oder ein unbalanciertes Verhältnis zwischen Arbeitszone und Umgebung ist.
Die technische Lösung ist dann nicht zwingend „weniger Lux“, sondern eine andere Leuchtengeometrie,
eine angepasste Abstrahlung und eine bewusst gestaltete Leuchtdichteverteilung im Raum.
Blendung
Blendung ist eine Beeinträchtigung des Sehens oder des Sehkomforts, ausgelöst durch hohe Leuchtdichten
oder ungünstige Leuchtdichteverteilungen im Gesichtsfeld. Blendung ist nicht nur „unangenehm“: Je nach Art und Stärke
kann sie Kontraste reduzieren, Details verdecken und damit die Sehleistung messbar verschlechtern.
Direktblendung (direkte Blendung)
Direktblendung entsteht, wenn Leuchten oder Leuchtflächen mit hoher Leuchtdichte im Blickfeld liegen – entweder
direkt betrachtet oder im peripheren Sehen. Sie ist stark abhängig von Blickrichtung, Einbauhöhe, Abstrahlwinkel
und Abschirmung. Besonders kritisch sind Sichtlinien entlang von Verkehrswegen, Arbeitsplätzen und Bildschirmpositionen.
Reflexblendung / Schleierreflexe (veiling reflections)
Reflexblendung entsteht durch Spiegelungen auf glänzenden oder halbglänzenden Flächen (Bildschirme, Glas,
polierte Metalle, beschichtete Arbeitsflächen, Maschinenoberflächen). Die Reflexion erzeugt im Blickfeld eine
zusätzliche Leuchtdichte, die Kontraste „überlagert“ (Schleier) und Details schwer erkennbar macht.
Häufig ist Reflexblendung das dominierende Problem an Bildschirmarbeitsplätzen – selbst dann, wenn UGR-Werte
der Raumbeleuchtung formal eingehalten werden.
Unbehaglichkeitsblendung vs. Behinderungsblendung
Unbehaglichkeitsblendung beschreibt subjektives Unbehagen ohne zwingend messbare Sehleistungsreduktion.
Behinderungsblendung (Disability Glare) reduziert die Sehleistung messbar, z. B. durch Streulicht im Auge,
das einen Schleier auf die Netzhaut legt und Kontraste verringert. Beide sind in professionellen Anwendungen relevant:
Unbehaglichkeitsblendung beeinflusst Akzeptanz und Ermüdung, Behinderungsblendung beeinflusst Sicherheit und Fehlerquote.
Blendung ist ein Systemeffekt
Blendung ist keine „Eigenschaft einer Leuchte“, sondern entsteht aus dem Zusammenspiel von Leuchtdichte,
Raumgeometrie, Blickrichtungen, Montagehöhe, Leuchtenanordnung, Oberflächenreflexion und Umgebungsleuchtdichte.
Eine Leuchte kann in einem Raum sehr gut funktionieren und in einem anderen – mit anderen Sichtlinien
oder Oberflächen – problematisch sein.
Typische Ursachen in der Praxis
- Sehr kleine, sehr helle Austrittsflächen (hohe Leuchtdichte), ohne ausreichenden Cut-off.
- Leuchtenpositionen im direkten Blickfeld (z. B. entlang von Gängen oder gegenüber von Arbeitsplätzen).
- Zu geringe Umgebungsleuchtdichte (dunkle Wände/Decke), wodurch Leuchten besonders „hart“ kontrastieren.
- Glänzende Oberflächen/Displays ohne Berücksichtigung der Spiegelgeometrie.
- Nachträgliche Änderungen (Möblierung, Bildschirmposition, Maschinen) ohne Anpassung der Beleuchtung.
UGR (Unified Glare Rating)
UGR ist ein standardisiertes Bewertungsverfahren für Unbehaglichkeits-Direktblendung
durch Leuchten in Innenräumen. Der UGR-Wert ist dimensionslos und basiert auf einem Modell, das Leuchtdichten der Leuchten,
deren scheinbare Größe (vom Beobachter aus), Position im Blickfeld sowie die Umgebungsleuchtdichte berücksichtigt.
Was UGR bewertet – und was nicht
- Bewertet: psychologische Direktblendung durch Leuchten im Blickfeld in standardisierten Situationen.
- Nicht bewertet: Reflexblendung auf Bildschirmen/Flächen, Behinderungsblendung, individuelle Empfindlichkeit,
dynamische Blickrichtungen, stark atypische Raumgeometrien oder Sonderfälle (z. B. sehr hohe Decken mit extremen Sichtlinien).
UGR-Skala (typische Stufen)
In der Praxis wird UGR häufig in Stufen verwendet. Kleine Unterschiede können dennoch sichtbar sein, insbesondere bei
hohen Anforderungen an Sehkomfort.
| UGR-Wert | Typische Einordnung | Praktische Bedeutung |
|---|---|---|
| UGR 10 / 13 | sehr geringe Blendung | geeignet für sehr anspruchsvolle visuelle Aufgaben, hochwertige Räume, sensible Nutzergruppen |
| UGR 16 | niedrige Blendung | häufig für Bereiche mit hoher visueller Anforderung; komfortorientierte Planung |
| UGR 19 | begrenzte Blendung | typischer Richtwert für Büroarbeitsplätze und Bildschirmarbeit (raumbezogene Direktblendung) |
| UGR 22 | moderate Blendung | häufig für allgemeine industrielle Tätigkeiten und Nebenbereiche |
| UGR 25 | erhöhte Blendung | für grobe Tätigkeiten oder Bereiche mit geringer visueller Anforderung; Komfort sinkt deutlich |
| UGR 28 | hohe Blendung | nur dort akzeptabel, wo Sehkomfort nachrangig ist; erhöhtes Risiko für Unbehagen/Ermüdung |
Typische UGR-Anforderungen nach Nutzung
Die folgenden Werte sind verbreitete Planungsrichtwerte in der Innenraumbeleuchtung. Sie ersetzen keine projektspezifische
Betrachtung von Sichtlinien, Oberflächen und Sehaufgaben.
| Anwendungsbereich (Beispiele) | Typischer UGR-Grenzwert | Hinweise zur Praxis |
|---|---|---|
| Büroarbeitsplätze, Bildschirmarbeit | UGR ≤ 19 | Zusätzlich Reflexblendung auf Monitoren berücksichtigen; Leuchtenpositionierung und Abstrahlung entscheidend. |
| Besprechung, Schulung, Klassenräume | UGR ≤ 19 | Wechselnde Blickrichtungen (Tafel/Screen) erhöhen die Relevanz von Sichtlinien und vertikaler Beleuchtung. |
| Allgemeine Industriearbeit, Montage | UGR ≤ 22 | Bei Präzisionsmontage oder visueller Prüfung sind strengere Werte sinnvoll; Maschinenoberflächen können Reflexblendung erzeugen. |
| Verkehrsflächen, Flure, Nebenräume | UGR ≤ 25 | Wichtig sind Sichtkomfort und Orientierung; zu harte Kontraste vermeiden, um Adaptation zu stabilisieren. |
| Lagerbereiche mit geringerer visueller Anforderung | UGR ≤ 25 / 28 | Bei Staplerverkehr und Blickrichtungen in die Höhe kann Direktblendung sicherheitsrelevant werden. |
Wie UGR rechnerisch entsteht (Prinzip)
UGR basiert auf einer Summation der Beiträge einzelner Leuchten im Blickfeld, gewichtet nach deren Leuchtdichte,
ihrer scheinbaren Größe und ihrer Position relativ zur Blickrichtung, und normiert auf die Umgebungsleuchtdichte.
Entscheidend ist: UGR reagiert stark auf hohe Leuchtdichten kleiner Flächen und auf ungünstige
Positionen in Blicknähe.
Hinweis zur Interpretation: Die Formel zeigt, warum kleine, sehr helle Flächen (hohe Leuchtdichte L) besonders kritisch sind
und warum eine höhere Umgebungsleuchtdichte (Lb) Blendung subjektiv oft reduziert.
Typische Fallstricke bei UGR-Angaben
- UGR-Werte sind meist für standardisierte Räume/Betrachtungen berechnet; reale Geometrie und Blickrichtungen können abweichen.
- UGR bezieht sich auf Direktblendung – Reflexe auf Monitoren/Glasflächen sind ein eigenes Thema.
- Ein „UGR 19“-Label kann je nach Linsen-/Rasterkombination und Einbaulage im Projekt unterschiedlich empfunden werden.
- Sehr hohe Decken oder ungewöhnliche Anordnungen können dazu führen, dass die reale Blendungssituation nicht gut abgebildet wird.
Praktische Konsequenz
UGR ist ein wichtiges Werkzeug, aber kein alleiniger Qualitätsnachweis. Für professionelle Ergebnisse werden UGR,
Leuchtdichtearchitektur (Wände/Decke), Reflexgeometrien und die tatsächlichen Sichtlinien im Raum gemeinsam betrachtet.
Adaptation des Auges
Adaptation ist die Fähigkeit des visuellen Systems, sich an unterschiedliche Helligkeitsniveaus anzupassen.
Sie umfasst photochemische Prozesse in den Rezeptoren sowie neuronale Anpassungen. Adaptation bestimmt, wie gut Kontraste,
Details und Bewegungen wahrgenommen werden – und wie schnell Ermüdung eintritt.
Warum Adaptation in Innenräumen oft unterschätzt wird
In vielen Innenräumen ist die Arbeitszone (Tisch/Arbeitsfläche) relativ gut beleuchtet, während Wände und Decke vergleichsweise
dunkel bleiben. Gleichzeitig sind Leuchten sehr hell sichtbar. Das Auge springt dann ständig zwischen Bereichen sehr unterschiedlicher
Leuchtdichte. Diese Adaptationswechsel kosten „visuelle Ressourcen“ und können dazu führen, dass Nutzer die Beleuchtung als
anstrengend empfinden – selbst bei perfekten Luxwerten.
Adaptation, Alter und Sehaufgabe
Mit zunehmendem Alter sinkt die Fähigkeit, hohe Kontraste schnell zu verarbeiten, und Blendempfindlichkeit nimmt typischerweise zu.
In Arbeitsbereichen mit hoher visueller Anforderung (Feinmontage, Prüfung, Lesen, Bildschirmarbeit) ist eine stabile Adaptation
besonders wichtig. Das spricht häufig für ausgewogene Leuchtdichten im Raum und gegen punktuelle „Hotspots“.
Planungsrelevanz
- Umgebungshelligkeit (Wände/Decke) so gestalten, dass Leuchten nicht „isoliert“ als extrem helle Elemente wirken.
- Harte Kontraste vermeiden, die den Blick ständig in und aus sehr hellen Bereichen zwingen.
- Vertikale Beleuchtung als Werkzeug nutzen, um Adaptation zu stabilisieren und Raumhelligkeit zu erhöhen.
Vertikale Beleuchtung
Vertikale Beleuchtung beschreibt die Beleuchtung von Wänden, Regalen, Trennwänden und anderen vertikalen Flächen.
Sie beeinflusst unmittelbar die wahrgenommene Raumhelligkeit und die visuelle Orientierung. Menschen nehmen Innenräume stark über
vertikale Flächen wahr; sind diese dunkel, wirkt der Raum trotz hoher Arbeitsbeleuchtung oft „höhlenartig“.
Warum vertikale Beleuchtung Blendung reduzieren kann
Blendung ist häufig ein Kontrastproblem: Sehr helle Leuchten treffen auf eine dunkle Umgebung. Wird die Umgebung (Wände/Decke)
heller, sinkt der Leuchtdichtekontrast im Gesichtsfeld. Das kann Direktblendung subjektiv reduzieren und den Raum „ruhiger“ wirken lassen.
Vertikale Beleuchtung ist damit ein strategisches Mittel, um Sehkomfort zu erhöhen, ohne zwangsläufig die Arbeitsbeleuchtungsstärke zu erhöhen.
Typische Fehlplanung
Häufig wird ausschließlich horizontale Beleuchtungsstärke optimiert. Das kann zu hohen Luxwerten am Tisch führen, während Wände dunkel bleiben.
Die Folge sind starke Kontraste und eine Beleuchtung, die zwar „stark“ ist, aber nicht als angenehm empfunden wird. In professioneller Planung
werden daher horizontale und vertikale Komponenten gemeinsam betrachtet.
Praxis in Arbeits- und Industrieumgebungen
In Industrieumgebungen unterstützt vertikale Beleuchtung die Orientierung (Regalbeschriftungen, Wegführung, Sicherheitskennzeichnungen)
und kann die visuelle Erkennbarkeit von Hindernissen verbessern. Gleichzeitig muss darauf geachtet werden, dass vertikale Beleuchtung
nicht neue Reflexblendungsprobleme auf glänzenden Oberflächen erzeugt.
Reflexionen, Oberflächen und Spiegelgeometrie
Oberflächen bestimmen, wie Licht im Raum weiterverteilt wird. Matte, helle Oberflächen reflektieren Licht überwiegend diffus und
unterstützen eine gleichmäßige Leuchtdichteverteilung. Dunkle Oberflächen absorbieren Licht und erhöhen Kontraste. Glänzende oder
strukturierte Oberflächen können gerichtete Reflexe erzeugen, die als Spiegelungen störend werden.
Reflexionsgrade als Planungsgröße
Reflektierende Eigenschaften von Decke, Wand und Boden beeinflussen die notwendige Leuchtenleistung und den Sehkomfort. Ein Raum mit
dunklen Wänden benötigt nicht nur mehr Licht, sondern wird bei gleicher Leuchtenausführung meist blendkritischer, weil die Umgebung
dunkel bleibt und die Leuchten stärker kontrastieren.
Bildschirmarbeit und Schleierreflexe
Displays sind selten perfekte Diffusoren. Je nach Oberflächenfinish (glänzend, semi-matt) entstehen Spiegelbilder oder Schleierreflexe.
Entscheidend ist die Spiegelgeometrie: Leuchte → reflektierende Fläche → Auge. Leuchtenpositionen, Abstrahlcharakteristik
und Arbeitsplatzorientierung müssen so gewählt werden, dass kritische Reflexwege vermieden werden. Das ist ein häufiger Grund, warum eine
Beleuchtung trotz „UGR 19“ als problematisch empfunden werden kann: UGR bewertet Direktblendung, nicht Reflexblendung.
Praxisfolgen bei industriellen Oberflächen
In Industrie- und Produktionsbereichen sind glänzende Maschinen, Edelstahl, Folienverpackungen oder lackierte Bauteile häufig.
Spiegelungen können nicht nur stören, sondern Details und Fehlererkennung erschweren. Die Lösung liegt oft in einer gezielten
Anordnung der Leuchten, geeigneten Abstrahlwinkeln und einer Leuchtdichteverteilung, die Reflexe minimiert, ohne Schattenbildung zu verstärken.
Leuchtdichteverhältnisse (Kontrastverhältnisse) im Gesichtsfeld
Neben UGR sind Leuchtdichteverhältnisse ein zentrales Qualitätskriterium. Sehr hohe Kontraste zwischen Sehaufgabe
(z. B. Bildschirm/Arbeitsfläche) und Umgebung erschweren stabile Adaptation und können Ermüdung fördern. Gute Beleuchtung strebt
daher nicht nur ausreichende Werte auf der Sehaufgabe an, sondern eine „stimmige“ Helligkeitsarchitektur im Raum.
Warum hohe Luxwerte Kontrastprobleme verschärfen können
Wird die Beleuchtungsstärke auf der Arbeitsfläche stark erhöht, ohne die Umgebungshelligkeit mit anzuheben (Wände/Decke), wächst der
Leuchtdichteunterschied zwischen Arbeitszone und Umgebung. Nutzer empfinden das häufig als „hartes Licht“. Professionelle Planung erhöht
daher häufig die Umgebungsleuchtdichte (vertikale/indirekte Anteile) statt ausschließlich die Arbeitsflächen zu überbeleuchten.
Praktischer Umgang in Projekten
- Sehaufgabe, unmittelbare Umgebung und Hintergrund als zusammenhängendes visuelles System betrachten.
- Leuchten so wählen, dass Leuchtflächen nicht als „helle Punkte“ dominieren, sondern in die Raumhelligkeit integriert sind.
- Bei LED-Systemen auf Abschirmwinkel, Raster-/Linsenkonzepte und Einbaulagen achten, um hohe Leuchtdichten zu kontrollieren.
Kapitel 05 – Lichtfarbe, Farbwiedergabe & spektrale Qualität
In der Lichttechnik werden Lichtqualität und „angenehmes Licht“ häufig zu stark vereinfacht.
Für professionelle Gebäude- und LED-Beleuchtung ist entscheidend zu verstehen, dass der visuelle Eindruck nicht
aus einer einzigen Zahl (z. B. Kelvin oder Ra) folgt, sondern aus dem Zusammenspiel von Spektrum,
Farbort, Farbwiedergabe, Leuchtdichteverteilung, Umgebungsmaterialien,
Adaption des Auges sowie der konkreten Sehaufgabe. Moderne LED-Systeme bieten große Freiheitsgrade – und genau deshalb
müssen Begriffe wie CCT, CRI, TM‑30, Binning und Farbstabilität präzise eingeordnet werden, um Fehlentscheidungen
und spätere Reklamationen zu vermeiden.
Dieses Kapitel ist so geschrieben, dass ein Leser nach dem jeweiligen Begriff nicht nur „ungefähr weiß, was gemeint ist“,
sondern die technische Bedeutung, die Grenzen der Kennzahlen, typische Fehlerbilder und die planerischen Konsequenzen
sicher beherrscht.
Lichtfarbe
Die Lichtfarbe beschreibt den Farbeindruck des von einer Lichtquelle ausgesendeten Lichts.
Sie ist ein Wahrnehmungsphänomen, das aus der spektralen Zusammensetzung des Lichts und der Verarbeitung durch
das menschliche Sehsystem entsteht. In der Praxis wird Lichtfarbe häufig über die korrelierte Farbtemperatur (CCT)
kommuniziert – fachlich korrekt ist jedoch: Lichtfarbe ist immer eine Systemeigenschaft aus Spektrum,
Farbort, Farbwiedergabe, Umfeld und Betrachtungssituation.
Physikalische Grundlage: Spektrale Leistungsverteilung
Jede Lichtquelle besitzt eine spektrale Leistungsverteilung (SPD). Sie beschreibt, wie viel Strahlungsleistung die Lichtquelle
über die sichtbaren Wellenlängen verteilt. Thermische Strahler (Glüh-/Halogenlampen) besitzen ein kontinuierliches Spektrum,
das mit steigender Temperatur „blauer“ wird. Weiße LEDs basieren meist auf einem blauen Primärchip mit Phosphorkonversion,
wodurch ein ausgeprägter Blaupeak und breitbandige Phosphoranteile entstehen. Diese Struktur ist die Hauptursache dafür,
dass zwei Leuchten mit gleichem Kelvinwert im Raum sehr unterschiedlich wirken können.
Wahrnehmungsphysiologie: Warum Menschen Lichtfarbe „relativ“ sehen
Das visuelle System passt sich an das dominierende Lichtniveau und den dominierenden Farbeindruck an (chromatische Adaption).
Dadurch wirkt dieselbe Lichtquelle in unterschiedlichen Kontexten anders: In einem Raum mit warmen Holzoberflächen und
warmen Wandfarben erscheint neutralweißes Licht häufig „kühler“ als in einem Raum mit grauen oder bläulichen Flächen.
Ebenso verändert Mischlicht (z. B. Tageslicht + LED) den Farbeindruck – häufig unbemerkt, aber mit deutlichen Folgen
für Materialbeurteilung, Hauttöne und Markenwahrnehmung.
Lichtfarbe im Raum: Interaktion mit Oberflächen, CRI/TM‑30 und Leuchtdichte
Lichtfarbe wird selten direkt am Leuchtmittel „gesehen“, sondern über reflektiertes Licht von Flächen. Deshalb beeinflussen
Reflexionsgrade, Oberflächenfarben und -glanz sowohl den Farbeindruck als auch die Farbwiedergabe. Hochglänzende Flächen können
zudem spektrale „Hotspots“ als Spiegelbilder erzeugen. Außerdem ist die Lichtfarbe nicht von der Leuchtdichte zu trennen:
Sehr helle, kleine Lichtaustrittsflächen können trotz „passender“ Lichtfarbe als unangenehm empfunden werden, weil Blendung
und Kontrastdominanz den Gesamteindruck überlagern.
Typische Fehlinterpretationen (und wie man sie fachlich vermeidet)
- „3000 K ist immer gleich“: Falsch. Kelvin beschreibt nur eine grobe Farbeinordnung; Spektrum und Farbortlage (Duv) können stark variieren.
- „Warmweiß bedeutet gute Farbwiedergabe“: Falsch. Warmweiß kann CRI 70 oder CRI 97 haben – mit sehr unterschiedlichen Materialwirkungen.
- „Lichtfarbe entscheidet allein über Atmosphäre“: Unvollständig. Raumhelligkeit (vertikale Beleuchtung), Leuchtdichteverteilung und Kontraste sind ebenso prägend.
Planungs- und Produktauswahl: Was in der Praxis wirklich festgelegt werden muss
Professionell festgelegt werden sollten mindestens: Ziel-CCT (mit Toleranz), gewünschte Farbwiedergabegüte (CRI/TM‑30),
Farborttoleranz (SDCM), Farbortlage (Duv/„rosig“ vs. „grünlich“), Konsistenz über Chargen sowie die erwartete Farbstabilität
über Lebensdauer und Temperatur. Insbesondere in linearen Lichtsystemen und in repräsentativen Bereichen ist Konsistenz
oft wichtiger als „ein bisschen mehr Lumen“.
Korrelierte Farbtemperatur (CCT)
Die korrelierte Farbtemperatur (CCT) ordnet den Farbeindruck einer Lichtquelle einer idealen Temperaturstrahlung
(Schwarzer Strahler) zu, deren Farbe dem Licht am nächsten kommt. Sie wird in Kelvin (K) angegeben und dient als
Standardklassifikation für Weißlicht (warmweiß, neutralweiß, kaltweiß).
Übliche CCT-Bereiche (Praxis-Klassifikation)
| CCT | Bezeichnung | Typische Wirkung & Einsatz |
|---|---|---|
| < 2700 K | sehr warmweiß | Atmosphäre, Hospitality, Wohnumfelder; reduziert „technische“ Anmutung, kann aber visuelle Präzision mindern. |
| 2700–3000 K | warmweiß | Wohnen, Empfang, Retail (Lifestyle/Mode), Gastronomie; häufig guter Kompromiss aus Behaglichkeit und Erkennbarkeit. |
| 3300–4000 K | neutralweiß | Büro, Bildung, Industrie, Allgemeinbeleuchtung; sachlich, leistungsorientiert, oft normtypischer Bereich. |
| 4000–5300 K | kaltweiß | Technische Bereiche, Logistik, Produktion; wirkt „klar“ und kontrastreich, erhöht aber Blend- und Härteempfinden bei falscher Lichtführung. |
| > 5300 K | tageslichtweiß | Prüf- und Sonderanwendungen, Außenbereiche; starke Aktivierung möglich, aber nicht automatisch bessere Farbwiedergabe. |
Was CCT zuverlässig aussagt
- Grobe Einordnung des Weißtons (rötlicher vs. bläulicher Farbeindruck).
- Orientierung für Nutzererwartung und gestalterische Einbindung.
- Vergleichbarkeit innerhalb ähnlicher Spektralfamilien – aber nur eingeschränkt.
Was CCT nicht aussagt (kritische Grenzen)
- Nicht die Farbwiedergabegüte (CRI/TM‑30 können bei gleicher CCT stark variieren).
- Nicht die Farbortlage ober- oder unterhalb der Planck-Kurve (Duv → rosig vs. grünlich).
- Nicht die spektrale Kontinuität (Lücken/Peaks) – entscheidend für Material- und Hauttöne.
- Nicht Blendung, Sehkomfort oder Raumhelligkeitswahrnehmung.
Typische Fehlannahmen und deren Folgen
Ein häufiger Fehler ist die Annahme, dass „höhere Kelvin = besseres Sehen“ bedeute. In Wahrheit kann kaltweißes Licht bei hoher
Leuchtdichte und schlechten Kontrasten zu stärkerer Blendempfindung führen. Ein anderer häufiger Fehler ist, CCT als
Qualitätsmerkmal zu verwenden („4000 K ist professioneller“). Professionalität ergibt sich jedoch aus Homogenität, Farbstabilität,
Entblendung, Farbwiedergabe und der passenden Lichtführung – nicht aus einer Kelvinzahl.
Planungssicherheit: Toleranzen, Mischung und Nachbeschaffung
In Projekten ist nicht nur die Ziel-CCT relevant, sondern auch die zulässige Abweichung (z. B. über SDCM und Duv).
Mischinstallationen (Leuchten unterschiedlicher Serien oder Hersteller) mit nominal gleicher CCT führen häufig zu sichtbar
unterschiedlichen Weißtönen. In linearen Lichtbändern oder in Reiheninstallationen wird dies besonders schnell wahrgenommen.
Deshalb müssen Nachbeschaffung, Chargenkonsistenz und Binning-Strategie bereits vorab bedacht werden.
Farbort (Chromatizität) & Duv
Der Farbort beschreibt die exakte Position einer Lichtfarbe in einem Farbraum (z. B. CIE 1931 xy oder CIE u′v′).
Während CCT eine Einordnung entlang der Planck-Kurve liefert, beschreibt der Farbort die tatsächliche Lage – und damit auch Abweichungen
oberhalb oder unterhalb dieser Kurve. Diese Abweichung wird häufig als Duv angegeben.
Warum Duv in der Praxis extrem wichtig ist
Zwei Leuchten können beide „3000 K“ haben, aber unterschiedlich wirken, wenn eine leicht oberhalb der Planck-Kurve liegt
(häufig als „grünlich“ empfunden) und die andere darunter (häufig als „rosig“/„magenta“ empfunden).
Gerade bei hohen Anforderungen an Anmutung (Retail, Office, repräsentative Bereiche) oder in linearen Anwendungen
ist Duv ein entscheidender Qualitäts- und Konsistenzfaktor.
Typische Wahrnehmungsfolgen
- Grünstich wird oft als „billig“, „kränklich“ oder „unruhig“ wahrgenommen, besonders auf hellen, neutralen Flächen.
- Rosiger Weißton kann als „wärmer“ und angenehmer empfunden werden, kann aber Materialien ebenfalls beeinflussen.
- In Mischinstallationen werden Duv-Unterschiede oft stärker wahrgenommen als kleine CCT-Unterschiede.
Praxis: Spezifikation und Vergleich
Für hochwertige Projekte sollte neben CCT und CRI/TM‑30 auch eine Zielvorgabe bzw. ein Grenzbereich für Duv/Chromatizität definiert werden.
Entscheidend ist die Konsistenz: Ein „sehr guter“ Duv-Wert nützt wenig, wenn Nachlieferungen später außerhalb des Bereichs liegen.
In solchen Fällen entstehen sichtbare Streifen- oder Fleckenbilder, obwohl alle Leuchten „nominell“ korrekt spezifiziert sind.
Arten von Lichtfarben
„Welche Lichtfarben gibt es?“ ist fachlich nur dann korrekt beantwortet, wenn nicht nur Kelvin-Bereiche genannt werden, sondern auch die
technischen Systeme, mit denen Lichtfarben erzeugt und verändert werden. In der Praxis entscheidet das Konzept (statisch, tunable, multikanal),
wie stabil, konsistent und farbtreu ein Beleuchtungssystem ist.
Statische Weißlichtfarben (fixe CCT)
Statische Weißlichtfarben besitzen eine feste spektrale Zusammensetzung und einen festen Farbort. Sie sind in vielen Anwendungen sinnvoll,
weil sie konsistent, einfach zu planen und robust sind. Entscheidend ist jedoch die Qualität innerhalb der Fix-CCT:
Zwei „4000 K“-Leuchten können hinsichtlich Duv, CRI/TM‑30, Binning und Farbstabilität stark differieren.
Tunable White (variierbare CCT)
Tunable-White-Systeme verändern die Lichtfarbe über zwei oder mehr LED-Kanäle (typisch warmweiß + kaltweiß).
Dadurch verschiebt sich CCT – gleichzeitig ändert sich häufig das Spektrum (u. a. Blauanteil, Rotanteil), wodurch
Farbwiedergabe und Materialwirkung über den Regelbereich variieren können. Professionell bewertet wird daher nicht nur
„CCT 2700–6500 K“, sondern zusätzlich:
- Farbwiedergabe (CRI/TM‑30) an mehreren Stützstellen über den gesamten Bereich.
- Duv-Verlauf (bleibt der Weißton im gesamten Bereich „sauber“?).
- Konsistenz bei Gruppendimmung und in Netzwerken (sehen alle Leuchten bei gleicher Ansteuerung wirklich gleich aus?).
- Thermische Stabilität (verändert sich der Farbort bei hoher Leistung/Temperatur?).
RGB, RGBW, RGBA und Multikanal-Systeme
RGB-Licht entsteht aus additiver Mischung von Rot, Grün und Blau. Damit können kräftige Farben erzeugt werden; reines Weiß aus RGB ist
jedoch meist spektral lückenhaft und farbwiedergabeschwach. RGBW ergänzt einen Weißkanal, RGBA ergänzt Amber, Multikanal-Konzepte
(z. B. RGBCW, RGBACL) verbessern Farbraum und Weißqualität, erhöhen aber Systemkomplexität (Regelung, Kalibrierung, Alterungskompensation).
Entscheidend ist: In Anwendungen mit Farbbeurteilung (Retail, Medizin, Qualitätsprüfung) ist „bunt kann sie“ kein Qualitätsmerkmal.
Bewertet werden müssen Weißqualität, Farbkonsistenz, Dimmverhalten, Farbstabilität und Regelstrategie.
Spektral optimierte Lichtfarben
In spezialisierten Anwendungen werden Spektren gezielt gestaltet, z. B. zur Hervorhebung von Frischeeindrücken bei Lebensmitteln,
zur Betonung bestimmter Textilien oder zur Unterstützung biologischer Effekte. Spektrale Optimierung kann die gewünschte Wirkung erzielen,
muss aber offen kommuniziert werden: Ein Spektrum, das „Fleisch besonders frisch“ erscheinen lässt, ist nicht zwingend ideal für neutrale
Farbbeurteilung. Professionell wird daher zwischen neutraler Farbwiedergabe und gezielter Präsentationswirkung unterschieden.
Farbwiedergabe
Farbwiedergabe beschreibt, wie natürlich und differenziert Farben unter einer Lichtquelle erscheinen, verglichen
mit einer Referenzlichtquelle. Sie ist für nahezu alle Anwendungen relevant, in denen Menschen Materialien beurteilen,
Produkte auswählen, Fehler erkennen oder Hauttöne sehen. Farbwiedergabe ist nicht nur „schön“ – sie ist oft
qualitäts- und sicherheitsrelevant.
Warum Farbwiedergabe bei LEDs besondere Aufmerksamkeit erfordert
LED-Spektren können ausgeprägte Peaks und Lücken besitzen. Lücken in bestimmten Wellenlängenbereichen führen dazu,
dass einzelne Farben unterrepräsentiert sind – Materialien wirken dann „flach“, „grau“ oder „falsch“. Besonders kritisch
sind häufig Rot-/Tiefrotanteile (Hauttöne, Holz, Lebensmittel), aber auch differenzierte Grüntöne (Pflanzen, Textilien) oder
Zyanbereiche (bestimmte Lacke, Kunststoffe).
Farbwiedergabe als Systemeigenschaft
Farbwiedergabe hängt nicht nur von der Lichtquelle ab, sondern vom gesamten System:
Optiken und Abdeckungen können spektral selektiv wirken, Oberflächen im Raum verändern das reflektierte Spektrum,
und der Adaptationszustand des Betrachters beeinflusst die Farbwahrnehmung. Deshalb kann eine Lichtquelle
im Labor gute Kennzahlen zeigen, im realen Raum aber dennoch zu unbefriedigender Farbwahrnehmung führen,
wenn Kontraste, Mischlicht oder Oberflächen nicht passen.
Praxisfolgen schlechter Farbwiedergabe
- Qualitätsprüfung: Fehlstellen, Farbabweichungen, Oberflächenfehler werden übersehen oder falsch beurteilt.
- Retail: Produkte wirken unattraktiver oder anders als zu Hause; Rückgaben und Unzufriedenheit steigen.
- Hospitality: Hauttöne wirken fahl; Räume wirken „kalt“ oder „kränklich“ trotz warmer Lichtfarbe.
- Industrie: Sicherheitsfarben und Kennzeichnungen können schlechter differenziert werden.
Was professionell spezifiziert wird
Üblich ist eine Kombination aus: Ziel-CCT + Toleranz, Mindest-CRI (oder besser TM‑30‑Zielbereiche),
Anforderung an R9 (Tiefrot), Farbortkonsistenz (SDCM), Duv-Grenzen und – bei kritischen Anwendungen – eine Bemusterung
am realen Objekt/Material. Datenblattwerte ersetzen keine projektbezogene Betrachtung, wenn Farbwirkung entscheidend ist.
CRI / Ra (Color Rendering Index)
Der Color Rendering Index (CRI), oft als Ra angegeben, ist ein etabliertes Bewertungsverfahren,
das die Farbwiedergabe einer Lichtquelle im Vergleich zu einer Referenz gleicher CCT beschreibt. CRI ist historisch sehr wichtig und
weiterhin verbreitet, weil er einfach zu kommunizieren ist. Für moderne LED-Spektren ist CRI jedoch nur dann sinnvoll, wenn
seine Grenzen verstanden und ergänzt werden.
Einordnung typischer Ra-Werte
| Ra | Einordnung | Typische Konsequenz |
|---|---|---|
| < 80 | eingeschränkt | Farben wirken weniger differenziert; für rein technische Bereiche möglich, aber oft nicht empfehlenswert in Aufenthaltsbereichen. |
| ≥ 80 | gut | Standardniveau für viele Innen- und Industrieanwendungen, sofern keine kritische Farbbeurteilung nötig ist. |
| ≥ 90 | sehr gut | Hochwertige Innenräume, Retail, Gesundheit, Präsentation; deutlich bessere Material- und Hauttöne – aber nicht automatisch „perfekt“. |
Warum CRI in der Praxis oft „zu optimistisch“ wirkt
CRI basiert auf einer begrenzten Auswahl von Testfarben (historisch entwickelt für Spektren klassischer Lichtquellen).
LEDs können Spektren erzeugen, die einzelne Farben sehr gut und andere weniger gut wiedergeben, ohne dass Ra dies ausreichend abbildet.
Zudem ist Ra ein Durchschnittswert: Einzelne kritische Teilwerte können schlecht sein, während der Mittelwert noch gut aussieht.
R9, gesättigte Farben und der typische Planungsfehler
Ein zentraler Praxisfall ist Tiefrot (häufig als R9-Wert betrachtet). Hauttöne, Holz, Fleisch, Backwaren und viele
warme Materialien benötigen ausreichende spektrale Energie im tiefroten Bereich. Eine Lichtquelle kann Ra ≥ 80 erreichen und dennoch
schwaches R9 besitzen – die Folge sind „fahle“ Hauttöne und unattraktive warme Materialien. Professionell wird daher bei relevanten
Anwendungen nicht nur Ra, sondern auch R9 (und ggf. weitere Indizes) betrachtet oder direkt TM‑30 verwendet.
Was CRI nicht leistet
- Kein verlässlicher Vergleich zwischen stark unterschiedlichen LED-Spektren.
- Keine Aussage über „Farbaufwertung“ (Sättigung) vs. „Farbtreue“.
- Keine Aussage über Duv/Farbortlage oder Konsistenz zwischen Leuchten.
Professioneller Umgang mit CRI
CRI ist als Mindestkriterium nutzbar, sollte aber nicht als alleinige Qualitätsmetrik dienen. In professionellen Spezifikationen
wird CRI meist mit weiteren Anforderungen kombiniert (z. B. R9, SDCM, Duv und – wenn möglich – TM‑30‑Zielbereiche) und durch
Bemusterung am realen Material ergänzt.
TM‑30 (Rf, Rg und Farbraumdarstellung)
TM‑30 ist ein modernes Verfahren zur Beschreibung der Farbwiedergabe, das gegenüber CRI deutlich mehr
Information liefert. Es nutzt eine größere Anzahl von Testfarben und trennt die Bewertung in Farbtreue
(Fidelity) und Farbraum/Sättigung (Gamut).
Rf (Fidelity) – Farbtreue
Rf beschreibt, wie naturgetreu Farben im Vergleich zur Referenz wiedergegeben werden. Er ist konzeptionell
näher an „Farbtreue“ als der Ra-Mittelwert und robuster gegenüber spektralen Besonderheiten. Ein hoher Rf ist besonders wichtig,
wenn neutrale Farbbeurteilung oder Qualitätsprüfung im Vordergrund steht.
Rg (Gamut) – Farbsättigung / Farbraum
Rg beschreibt, ob Farben im Mittel eher gesättigter oder entsättigter erscheinen. Werte um 100 stehen für
annähernd neutral. Werte darüber bedeuten tendenziell „kräftigere“ Farben, darunter tendenziell „gedämpftere“ Farben.
Das ist nicht per se gut oder schlecht – es muss zur Anwendung passen.
Warum TM‑30 für Praxisentscheidungen überlegen ist
Viele reale Beleuchtungsprobleme lassen sich als Mischung aus „zu wenig Treue“ und „falscher Sättigung“ beschreiben.
CRI kann diese Dimensionen nicht trennen, TM‑30 schon. Damit wird es möglich, bewusste Entscheidungen zu treffen:
In Retail kann eine leichte Farbsättigungsanhebung gewünscht sein, in der Qualitätsprüfung ist sie oft unerwünscht.
Typische Zielbilder (praxisnah, ohne Scheinsicherheit)
- Neutrale Farbbeurteilung: hoher Rf, Rg nahe 100, stabile Duv/Farbortlage.
- Präsentation/Retail: je nach Produktgruppe kontrollierte Sättigungsanhebung möglich, ohne Hauttöne zu verfälschen.
- Allgemeinbeleuchtung: ausgewogenes Verhältnis; extreme Abweichungen sind meist nicht zielführend.
Grenzen und professionelle Einordnung
Auch TM‑30 ersetzt nicht den Realraumtest, wenn Materialien kritisch sind. Spektrale Besonderheiten können je nach Oberflächen
und Sehaufgabe unterschiedlich wirken. TM‑30 liefert jedoch deutlich bessere Diagnosefähigkeit als CRI und sollte bei
anspruchsvollen Projekten bevorzugt betrachtet werden.
Spektrum (SPD) als primäre Qualitätsbasis
Das Spektrum (spektrale Leistungsverteilung, SPD) ist die physikalische Grundlage aller farbbezogenen
Lichtwirkungen. Kennzahlen wie CCT, CRI oder TM‑30 sind Zusammenfassungen bzw. Ableitungen. Ob Licht im Raum als angenehm,
„sauber“, farbtreu oder ermüdend wahrgenommen wird, hängt letztlich vom Spektrum ab.
Wie LED-Spektren typischerweise aufgebaut sind
Weiße LEDs entstehen meist aus einem blauen Primärchip und einer Phosphorkonversion. Dadurch ergibt sich ein schmaler Blaupeak
und ein breites Phosphorband. Je nach Phosphorchemie können Lücken entstehen (z. B. im Zyanbereich) oder einzelne Bereiche
(z. B. Grün) überbetont sein. Diese spektralen Formen erklären viele Praxisphänomene: grünliche Weißtöne, flache Rottöne,
unnatürliche Haut oder Unterschiede zwischen nominal gleichen Kelvinwerten.
Spektrum und Farbwiedergabe: Warum „Lücken“ problematisch sind
Farben entstehen durch Reflexionsspektren von Materialien. Fehlt im Beleuchtungsspektrum Energie in bestimmten Wellenlängen,
können Materialien diese Anteile nicht reflektieren – Farben wirken dann weniger differenziert. Das erklärt, warum zwei Leuchten
mit gleicher CCT, aber unterschiedlichem Spektrum, bei Holz, Textilien oder Haut völlig verschieden wirken können.
Spektrum und biologische Wirkung (ohne Übertreibung)
Kurzwellige Anteile (blau-cyan) beeinflussen die melanopische Stimulation und können Aktivierung/Schläfrigkeit beeinflussen.
Für professionelle Anwendungen ist wichtig: Biologische Wirksamkeit und visuelle Qualität sind nicht identisch.
Ein „aktivierendes“ Spektrum ist nicht automatisch farbtreu oder angenehm. Umgekehrt kann ein sehr angenehmes warmes Licht
biologisch weniger aktivierend wirken. Daher ist eine klare Zieldefinition erforderlich (Arbeitsleistung, Aufenthaltsqualität,
Tageslichtintegration, Schichtarbeit etc.).
Praxis: Wann Spektren bewertet werden sollten
- Bei farbkritischen Aufgaben (Qualitätsprüfung, Medizin, Druck, Retail, Präsentation).
- Bei stark materialprägenden Innenräumen (Holz, Textilien, Naturstein, farbige Wände).
- Bei Tunable‑White‑Konzepten (Qualität über den gesamten Regelbereich).
- Bei Mischlicht mit Tageslicht oder anderen Leuchtentypen.
Professionelle Schlussfolgerung
Spektrum ist die „Wahrheitsebene“ hinter allen Kennzahlen. Wo Lichtqualität kritisch ist, genügt kein
Datenblattwert allein. Spektrum, Farbwiedergabemetri ken (idealerweise TM‑30) und Bemusterung am Material
bilden gemeinsam die belastbare Entscheidungsgrundlage.
Farbortkonsistenz: SDCM / MacAdam-Ellipsen
SDCM (Standard Deviation of Color Matching), oft im Zusammenhang mit MacAdam‑Ellipsen genannt,
ist eine Kenngröße für die Farborttoleranz und damit für die sichtbare Konsistenz von Weißtönen.
Praktisch bedeutet ein kleinerer SDCM-Wert: geringere Farbortstreuung – Leuchten sehen in einer Installation
„gleichfarbiger“ aus.
Warum SDCM in Projekten so häufig unterschätzt wird
Menschen nehmen Weißtonabweichungen erstaunlich schnell wahr, insbesondere in Reiheninstallationen,
Lichtlinien, großflächigen Deckenfeldern oder bei indirekter Reflexion auf weißen Flächen.
Häufig entstehen Reklamationen nicht wegen zu wenig Lichtstrom, sondern wegen sichtbarer Farbunruhe.
Deshalb ist SDCM eine zentrale Qualitätsanforderung, insbesondere bei hochwertigen Anwendungen.
Typische Orientierung (kontextabhängig)
- Sehr hohe Konsistenz: enge Farborttoleranz für repräsentative Bereiche und lineare Systeme.
- Gute Konsistenz: für viele professionelle Innenräume geeignet, sofern Mischinstallationen vermieden werden.
- Große Toleranzen: können in technischen Bereichen tolerierbar sein, führen aber in Sichtbereichen schnell zu Unruhe.
Wichtig: SDCM ist nicht alles
SDCM beschreibt die Streuung, nicht die Lage (Duv) und nicht die Farbwiedergabe. Eine Installation kann sehr konsistent sein
(niedriger SDCM), aber dennoch einen ungewollten Grünstich haben (Duv) oder eine unzureichende Farbwiedergabe.
Professionell wird deshalb SDCM immer zusammen mit CCT, Duv und Farbwiedergabekriterien betrachtet.
Binning
Binning bezeichnet die Sortierung von LEDs (und teils auch LED‑Modulen) in Klassen („Bins“) nach
messbaren Parametern, typischerweise Lichtstrom (Flux), Farbort (Chromatizität/CCT/Duv)
und oft auch Vorwärtsspannung (Vf). Binning existiert, weil LED‑Fertigung naturgemäß Streuungen erzeugt:
Selbst bei identischem Design sind mikroskopische Unterschiede in Halbleiterschicht, Phosphorauftrag, Gehäuseoptik und
Bonding ausreichend, um sichtbare Unterschiede zu verursachen.
Was wird typischerweise gebinnt?
- Flux-Binning: Sortierung nach Lichtstrom – relevant für Effizienz, Helligkeitshomogenität und Leistungsplanung.
- Color-Binning: Sortierung nach Farbort/CCT/Duv – entscheidend für visuelle Konsistenz (Weißtonhomogenität).
- Vf-Binning: Sortierung nach Vorwärtsspannung – relevant für Treiberauslegung, Serienstreuung, Wärmeentwicklung und Effizienz.
- Optional: Sortierung nach Wellenlänge (bei monochrom) oder nach spektralen Zielparametern (Spezialspektren).
Warum Binning für lineare und modulare Systeme besonders kritisch ist
In Lichtlinien, Lichtbändern und modularen Systemen werden viele LED‑Einheiten nebeneinander betrieben.
Schon geringe Farbortabweichungen führen zu sichtbaren Streifen („Color Striping“), insbesondere auf
hellen Flächen und bei indirekter Abstrahlung. Auch Flux‑Streuung fällt in Reihen stärker auf als bei Einzelpunkten.
Bei professionellen Systemen werden daher enge Color‑Bins und konsistente Flux‑Bins eingesetzt – und es wird
verhindert, dass Mischchargen ohne Abgleich verbaut werden.
Binning vs. SDCM: Zusammenhang und typische Missverständnisse
SDCM beschreibt die wahrnehmungsbezogene Toleranz im Farbraum, während Binning die praktische Sortierung in Klassen beschreibt.
Ein „enger Bin“ kann als SDCM‑Ziel formuliert sein – muss es aber nicht: Hersteller können Bins unterschiedlich definieren.
Deshalb sind Angaben wie „tight binning“ ohne konkrete SDCM-/Farbraumangabe fachlich nicht belastbar.
Professionell wird Binning über nachvollziehbare Kriterien spezifiziert (z. B. SDCM‑Grenzen, Duv‑Fenster,
definierte Nachlieferstrategie).
Projektpraxis: Nachbeschaffung und Reklamationsrisiko
Ein häufiger, teurer Praxisfehler ist die Annahme, dass „gleiche Artikelnummer“ automatisch „gleiche Lichtfarbe“ bedeutet.
Ohne definierte Nachliefer- und Binningstrategie können spätere Lieferungen trotz gleicher CCT sichtbar abweichen.
Das Risiko steigt bei langen Projektlaufzeiten, bei Austausch/Servicefällen und wenn mehrere Produktionslose gemischt werden.
Professionelle Lösungen definieren deshalb:
- zulässige Farbort- und Flux-Abweichungen für Nachlieferungen,
- Dokumentation/Traceability (Charge/Batch),
- Kompatibilitätsregeln (nicht mischen ohne Abgleich),
- gegebenenfalls Vorab-Bemusterung und Freigabeprozess.
Thermik, Alterung und warum Initial-Binning nicht genügt
Binning beschreibt Zustände zum Zeitpunkt der Messung (typischerweise im Neuzustand). In der Praxis verändern sich Farbort und Flux
über Temperatur und Lebensdauer. Wenn thermische Auslegung oder Materialalterung unterschiedlich ist (z. B. in verschiedenen
Leuchtenvarianten), kann die Drift auseinanderlaufen. Für hochwertige Systeme ist daher nicht nur Initial-Binning relevant,
sondern auch die erwartete Farbstabilität und die Gleichlauf-Drift im System.
Farbstabilität (Color Shift) über Lebensdauer
Farbstabilität beschreibt, wie konstant der Farbort einer Leuchte über Zeit, Temperatur und Betriebsbedingungen bleibt.
Bei LEDs ist Farbstabilität ein zentrales Qualitätskriterium, weil der Weißton durch Halbleiteremission, Phosphorkonversion und
optische Materialien bestimmt wird – alle drei können sich über Zeit verändern.
Hauptursachen von Farbortdrift
- Phosphoralterung: Veränderungen der Konversionsmaterialien können das Verhältnis von Blaupeak zu Phosphorband verschieben.
- Thermische Belastung: Höhere Junction-Temperaturen beeinflussen Emission und Konversion und können Alterungsprozesse beschleunigen.
- Materialalterung in Optiken/Abdeckungen: Vergilbung oder Trübung verändert spektrale Durchlässigkeit und damit den Farbort.
- Elektrische Auslegung: Stromdichte, Dimmstrategie und Ripple können das thermische und spektrale Verhalten beeinflussen.
Warum Farbstabilität in linearen Installationen besonders sichtbar wird
Farbortdrift ist in Einzelinstallationen häufig tolerierbar, in Reihen- und Flächeninstallationen jedoch schnell sichtbar,
insbesondere wenn einzelne Module/Leuchten ausgetauscht werden. Der neue/alte Weißtonunterschied wird auf hellen Flächen
und bei indirekter Beleuchtung deutlich wahrgenommen. Deshalb ist Farbstabilität ein Schlüsselelement für Wartungs- und
Servicefreundlichkeit.
Praxis: Was seriös spezifiziert wird
Seriosität bedeutet: nicht nur Anfangswerte, sondern eine Erwartung an Drift. In Projekten werden daher neben CCT/CRI/TM‑30/SDCM
auch Anforderungen an Farbortdrift über Lebensdauer und Temperatur gestellt – und realistisch über Produktqualität, Thermik,
Materialkonzept und Qualitätssicherung abgesichert.
Typische Fehlerbilder
- Nach einigen Monaten/Jahren wirken Bereiche „grünlicher“ oder „gelblicher“.
- Austauschleuchten passen nominell (Kelvin), wirken aber sichtbar anders (Duv/SDCM/Drift).
- Unterschiedliche Betriebstemperaturen in einem Raum (z. B. Deckenrand vs. Mitte) erzeugen sichtbare Weißtonunruhe.
Kapitel 06 – Steuerung, Dimmung & Vernetzung
Steuerung und Dimmung sind in LED-Anlagen keine „Zusatzfeatures“, sondern beeinflussen
Lichtqualität, Sehkomfort, Farbstabilität, Effizienz,
Lebensdauer, Wartungsaufwand und Integrationsfähigkeit.
Viele Praxisprobleme (Flackern, unruhige Dimmkurven, Farbverschiebungen, Ausfälle, Reklamationen bei Nachrüstung)
entstehen nicht durch „schlechte LEDs“, sondern durch unpassende Steuerungs- und Treiberkonzepte oder durch
Fehlannahmen bei Planung und Inbetriebnahme.
Dieses Kapitel erklärt die wichtigsten Steuerungs- und Dimmtechniken in der Tiefe, die in der
Gebäude- und Industriebeleuchtung tatsächlich relevant sind – inklusive typischer Fallstricke,
wie man sie erkennt und wie man sie fachlich sauber vermeidet.
Steuerungsarchitektur (Topologien & Grundprinzip)
Unter Steuerungsarchitektur versteht man die grundlegende Systemstruktur, mit der Leuchten, Treiber,
Sensoren und Bedienelemente zusammenarbeiten. Diese Architektur entscheidet über Skalierbarkeit, Diagnosefähigkeit,
Änderbarkeit (Umprogrammieren statt Umverdrahten), IT-/Netzwerk-Anforderungen und darüber, wie gut sich Lichtqualität
unter allen Betriebszuständen tatsächlich beherrschen lässt.
Zentrale Steuerung
Bei zentralen Systemen liegt die Logik in einem zentralen Controller (z. B. Lichtsteuerzentrale, Automationsserver,
GLT/KNX-Controller). Vorteile sind klare Zuständigkeiten, zentrale Szenenverwaltung, Protokollierung und oft gute Integration
in die Gebäudeautomation. Kritisch wird es, wenn zentrale Komponenten ausfallen oder wenn Netzwerkinfrastruktur/IT-Policies
die Inbetriebnahme und den Betrieb erschweren.
Dezentrale/Edge-Steuerung
Dezentrale Systeme verlagern Intelligenz in Leuchten, Treiber oder Raumcontroller. Das erhöht Robustheit gegen Single-Point-of-Failure
und erleichtert zonierte Konzepte. Gleichzeitig steigt die Bedeutung sauberer Parametrierung und Versions-/Konfigurationsmanagement:
„Die Anlage dimmt komisch“ ist oft ein Konfigurationsdrift zwischen Geräten.
Bus vs. Punkt-zu-Punkt
Bus-Systeme (z. B. DALI) erlauben Adressierung, Gruppierung und Diagnose über zwei Leitungen. Punkt-zu-Punkt (z. B. 1–10 V)
ist elektrisch simpel, skaliert aber schlecht und bietet kaum Diagnose. In der Praxis wird häufig hybrid gearbeitet:
Bus für Beleuchtung, separate 230V-Schaltkreise für Versorgung, plus Gateway zur GLT.
Praxis-Fallstricke
- Fehlende Verantwortungsdefinition: Wer ist verantwortlich für Dimmkurve, Flicker, Mindestdimmwert, Sensorlogik, Nachlieferfähigkeit?
- Übersehen von Lastzuständen: Verhalten bei 1 %, 5 %, 30 %, 100 % unterscheidet sich massiv – Tests nur bei 100 % sind wertlos.
- Änderungen im Betrieb: Austausch von Treibern/Leuchten ohne Parametrier- und Binning-Konzept erzeugt sichtbare Unterschiede und „Fehlersuchen ohne Ende“.
Dimmung (Grundlagen, Dimmkurven & Mindestdimmwert)
Dimmung ist die gezielte Veränderung der Lichtabgabe. Technisch wird die LED-Ansteuerung verändert, nicht „das Licht“.
Entscheidend ist, dass Dimmung wahrnehmungslinear wirken soll und gleichzeitig stabil und flackerarm bleibt.
Wahrnehmung: Warum lineare Technik nicht linear wirkt
Das Auge reagiert näherungsweise logarithmisch auf Helligkeit. Eine technisch lineare Reduktion des Lichtstroms wirkt subjektiv oft so,
als würde „oben kaum etwas passieren“ und „unten fällt plötzlich alles ab“. Professionelle Systeme nutzen daher Dimmkurven, die den
subjektiven Eindruck glätten (oft als logarithmisch/„perceptual“ bezeichnet).
Mindestdimmwert (Minimum Dim Level) – der häufigste Praxisbruch
Viele Anlagen scheitern daran, dass eine Leuchte zwar „dimmbar“ ist, aber nicht stabil bis in sehr niedrige Bereiche.
Unterhalb eines systemabhängigen Minimums können auftreten:
- Flicker (sichtbar oder als Stroboskop-Effekt),
- Instabilität (Pumpen, Nachregeln, Sprünge),
- Farbortverschiebung (Weißton driftet),
- Abschalten/Neuinitialisierung einzelner Treiber.
Mindestdimmwerte sind daher zu spezifizieren und im Projekt zu verifizieren (inkl. Temperaturzustand, Netzqualität,
Leitungslängen, Gruppenkonstellation und Dimmsignalquelle).
Konstantlichtregelung (Daylight Harvesting) und Dimmkurven
Bei tageslichtabhängiger Regelung muss die Dimmkurve nicht nur „schön“, sondern regelungstechnisch stabil sein.
Schlecht abgestimmte Regelparameter führen zu „Atmen“ (Oszillation), was Nutzer als störend empfinden. Professionell bedeutet:
Hysterese, Verzögerungen, geeignete Sensorpositionen und Begrenzungen der Regelgeschwindigkeit.
PWM-Dimmung (Pulsweitenmodulation)
Bei PWM wird die LED mit (nahezu) konstantem Strom betrieben, aber sehr schnell ein- und ausgeschaltet.
Die Helligkeit ergibt sich aus dem Verhältnis von Ein- zu Aus-Zeit (Duty Cycle).
Warum PWM in LED-Systemen so verbreitet ist
- Der LED-Arbeitspunkt bleibt konstant → Farbort und Effizienz können stabiler bleiben (als bei stark reduzierten Strömen).
- Sehr geringe Dimmwerte sind technisch erreichbar, ohne dass die LED in ungünstige Strombereiche gerät.
- Multikanal- und Tunable-White-Systeme lassen sich präzise mischen (Kanalweise Duty Cycle).
Frequenz ist nicht „nice to have“, sondern Qualitätskriterium
PWM ist nur dann unkritisch, wenn Frequenz und Modulationsform so gewählt sind, dass weder sichtbarer Flicker noch stroboskopische Effekte
im relevanten Bewegungs- und Blickverhalten auftreten. Besonders kritisch: rotierende Maschinen, Handbewegungen, Prüfaufgaben, Kameras.
„PWM-dimmbar“ ohne konkrete Parameter ist fachlich keine belastbare Aussage.
Praxis-Fallstricke
- Kamera-Flicker: Für Video/Foto kann PWM problematisch sein, obwohl Menschen „nichts sehen“ (Rolling Shutter, Framerate, Belichtungszeit).
- Interferenzen: Mehrere PWM-Quellen mit unterschiedlichen Frequenzen können sichtbare Schwebungen erzeugen.
- Sehr niedrige Duty Cycles: Unterhalb bestimmter Werte reagieren Treiber/LEDs/Optiken anders → Unstetigkeiten.
CCR / Amplitudendimmung (Constant Current Reduction)
Bei CCR (Amplitudendimmung) wird der LED-Strom kontinuierlich reduziert. Das Licht wird dunkler, weil weniger Ladungsträger
durch den Halbleiter fließen.
Vorteile
- Kein zeitliches Ein-/Ausschalten → kein PWM-bedingter Flicker.
- Einfaches Konzept, oft robust in kleinen Systemen.
Warum CCR bei weißen LEDs farbkritisch sein kann
Weiße LEDs (Blauchip + Phosphor) können bei Stromänderungen spektral reagieren: Verhältnis Blaupeak/Phosphorband verschiebt sich,
Farbort und CCT können wandern. Je nach LED-Generation, Treiberdesign und Temperaturmanagement kann das stärker oder schwächer ausfallen.
In hochwertigen Anwendungen muss geprüft werden, ob Farbortstabilität über den Dimmweg gewährleistet ist.
Hybride Strategien
Viele professionelle Treiber kombinieren CCR und PWM (z. B. CCR im oberen Bereich für maximale Flickerfreiheit, PWM im unteren Bereich
für stabile Minimumwerte). Entscheidend ist, dass Übergänge ohne Sprünge in Helligkeit und Farbe erfolgen.
Flicker & Stroboskop-Effekt
Flicker beschreibt zeitliche Helligkeitsschwankungen des Lichtes. Der Stroboskop-Effekt
ist ein verwandtes Phänomen, bei dem Bewegungen unter moduliertem Licht „abgehackt“ erscheinen oder scheinbar langsamer/anders laufen.
Beides hängt nicht nur vom Leuchtmittel ab, sondern stark von Treiber, Dimmverfahren, Netzripple, Regelung und Lastzuständen.
Warum Flicker oft erst im Feld auffällt
- Testbedingungen im Labor unterscheiden sich von realen Netzbedingungen und Leitungslängen.
- Flicker ist abhängig vom Dimmlevel: bei 100 % unkritisch, bei 10 % problematisch.
- Gruppen/Topologie ändern die elektrische Belastung des Treibers.
- Kameras „sehen“ Flicker oft anders und sensitiver als Menschen.
Praxis: Wo es kritisch wird
- Industrie/Logistik: rotierende Maschinen, Prüfplätze, Sicherheitsrisiken durch Stroboskop.
- Büro/Bildung: Komfort, Ermüdung, Kopfschmerzempfinden bei sensiblen Personen.
- Medizin/Präzision: visuelle Aufgaben mit hoher Anforderung an Stabilität.
- Video/Foto: Rollingshutter-Artefakte, Banding, Flimmern.
Technische Ursachen (typisch)
- Netzripple/gleichrichterbedingte Modulation (100/120 Hz).
- PWM-Frequenz zu niedrig oder ungünstig zum Bewegungsspektrum.
- Schlecht geglättete Treiber, falsche Kombination aus Dimmer und Treiber (Phasenanschnitt/abschnitt).
- Regelungsoszillationen (z. B. bei Konstantlichtregelung).
Planerische Konsequenz
Flickerfreiheit ist keine Eigenschaft „LED ja/nein“, sondern ein Systemkriterium. Daher müssen Dimmtechnik,
Treiber, Leuchte, Lastzustände, Verkabelung und – wenn relevant – Kameraanforderungen gemeinsam bewertet werden.
Phasenanschnitt / Phasenabschnitt (230V-Dimmung)
Bei der Phasenanschnitt– (Leading Edge) und Phasenabschnitt-Dimmung (Trailing Edge) wird die
230V-Netzspannung innerhalb jeder Halbwelle „angeschnitten“, sodass der effektive Energieeintrag sinkt. Diese Technik stammt aus
der Halogen-/Glühlampenwelt, wird aber bei Nachrüstungen häufig auch für LED genutzt – mit hohen Risiken für Flicker,
Geräusche, geringe Mindestlast und unvorhersehbares Verhalten.
Warum das bei LEDs schwierig ist
LED-Leuchten benötigen einen Treiber. Dieser muss mit der „zerhackten“ Spannung umgehen können. Viele Probleme entstehen, wenn
Dimmer und Treiber nicht kompatibel sind: der Treiber versucht zu regeln, während der Dimmer die Versorgung stückelt – das Ergebnis
sind Instabilität, Flackern, Summen und begrenzte Dimmwege.
Typische Fehlerbilder
- Flackern bei niedrigen Dimmwerten oder beim Einschalten.
- „Totzone“: erst ab einem bestimmten Dimmerweg reagiert die Leuchte.
- Summen/Brummen (Dimmer, Treiber, Leuchte).
- Unterschiede zwischen identischen Leuchten (Serienstreuung, Mindestlast).
Fachliche Empfehlung
Phasenanschnitt/-abschnitt ist für professionelle Neubauanlagen selten erste Wahl. Wenn Nachrüstung erforderlich ist,
müssen kompatible Dimmer/Treiber-Kombinationen getestet werden und Mindestlast, Leitungslängen, Gruppenkonstellationen
sowie EMV-Verhalten berücksichtigt werden.
0–10 V und 1–10 V (Analoge Schnittstellen)
Analoge Steuerschnittstellen wie 1–10 V (und in manchen Systemen 0–10 V) setzen einen
Sollwert als Spannung um. 1–10 V ist in der Gebäudetechnik verbreitet; 0–10 V wird teils in anderen Märkten/Interfaces verwendet.
In beiden Fällen gilt: Die Schnittstelle ist einfach, aber funktional begrenzt.
Stärken
- Robuste, einfache Technik mit geringer Einstiegshürde.
- Gute Eignung für einfache Zonen- oder Gruppen-Dimmung.
- Herstellerübergreifend verfügbar.
Systemische Grenzen
- Keine echte Adressierung einzelner Leuchten (nur Gruppen).
- Keine Rückmeldungen/Diagnose (Fehler, Laufzeiten, Energie).
- Störanfälligkeit bei langen Leitungen, falscher Erdung oder EMV-Umgebung.
- Unterschiedliche Dimmkennlinien je Treiber → Gruppendimmung wirkt uneinheitlich.
Planerische Konsequenz
Für einfache Anwendungen kann 1–10 V sinnvoll sein. Sobald Szenen, Diagnose, flexible Umgruppierung,
datenbasierte Wartung oder hochwertige dynamische Lichtkonzepte gefordert sind, ist ein digitales Bussystem
(z. B. DALI) meist die belastbarere Wahl.
DALI (Digital Addressable Lighting Interface)
DALI ist ein digitales Bussystem, mit dem Betriebsgeräte (LED-Treiber, EVGs), Leuchten, Sensoren und Eingabegeräte
adressiert, gruppiert und in Szenen eingebunden werden können. Der wesentliche Unterschied zu analogen Systemen ist die
digitale, adressierbare Kommunikation mit definierter Protokollstruktur.
Wie DALI technisch funktioniert (prinzipiell)
DALI nutzt einen zweidrahtigen Bus, der in der Regel polaritätsunabhängig ist. Auf dem Bus werden digitale Telegramme übertragen.
Geräte besitzen Adressen, können Gruppen zugeordnet werden und Szenenwerte speichern. Viele Systeme erlauben Rückmeldungen (z. B.
Lampenfehler, Betriebszustand, ggf. Messwerte – abhängig von Gerätetyp und Standardversion).
Adressierung, Gruppen, Szenen – die drei Praxishebel
- Adressierung: eindeutige Zuordnung eines Betriebsgeräts → gezielte Steuerung, Diagnose, Austauschprozesse.
- Gruppen: logische Zusammenfassung ohne Umverdrahtung → Zonen können nachträglich geändert werden.
- Szenen: definierte Zustände (Dimmwerte) → reproduzierbare Lichtstimmungen, Betriebsprofile, Standardisierungen.
Verdrahtung/Topologie und typische Feldfehler
DALI ist flexibel, aber nicht „unfehlbar“. Typische Probleme sind fehlerhafte Busverdrahtung, fehlende Busversorgung,
Verwechslung mit 230V-Leitungen, unklare Segmentierung oder mangelhaft dokumentierte Adressierung.
In Projekten entstehen die meisten Ausfälle nicht durch DALI als Standard, sondern durch unzureichende Inbetriebnahme
und Dokumentation.
Integration in Gebäudeautomation
DALI wird häufig über Gateways in Systeme wie KNX, BACnet oder proprietäre GLT eingebunden. Entscheidend ist,
dass Verantwortlichkeiten klar sind: Wer verwaltet Szenen, Zeitprogramme und Sensorlogik – DALI-Ebene oder GLT-Ebene?
Doppel-Logik erzeugt schwer reproduzierbare Fehlerbilder.
DALI-2, DT6, DT8 und D4i
DALI-2 präzisiert und erweitert DALI hinsichtlich Interoperabilität, insbesondere bei Eingabegeräten (Taster, Sensoren)
und Controllerprofilen. In der Praxis relevant sind außerdem die Gerätetypen (Device Types) für LED-Ansteuerung:
DT6 (Dimmer)
DT6 steht typischerweise für „ein Kanal dimmen“ (Lichtstromregelung). Das ist der klassische Fall für viele LED-Treiber.
DT8 (Farbe / Tunable White / RGBW)
DT8 beschreibt Mehrkanal-/Farbsteuerung, u. a. Tunable White. Das ist entscheidend, um dynamische Lichtfarbe
konsistent zu steuern: Ohne saubere Mehrkanaldefinitionen entstehen in der Praxis Weißtondrifts, ungleiches Dimmen zwischen Leuchten
und unklare Zustände bei Szenen.
D4i (DALI for intra-luminaire)
D4i erweitert DALI-2 um standardisierte Daten (u. a. Energie-/Leistungsdaten, Diagnosen) direkt auf Leuchtenebene.
Damit werden datenbasierte Wartung, Asset-Management und Smart-Building-Use-Cases deutlich einfacher, weil Messwerte nicht mehr als
proprietäre „Insellösung“ vorliegen müssen.
Praxis-Fallstricke
- DT8-Funktionalität ist nicht automatisch „besseres Licht“ – sie ist ein Werkzeug und erfordert saubere Parametrierung.
- Bei Tunable White muss die Regelstrategie farbstabil sein (CCT+Duv-Verlauf), sonst wirkt das Licht trotz „Normwerten“ unruhig.
- Datenfähigkeit ersetzt keine Dokumentation: Ohne Mapping/Adressplan sind Diagnosedaten im Servicefall wenig wert.
PushDim / Tasterdimmung (lokale Bedienkonzepte)
Unter PushDim (und ähnlichen Konzepten) versteht man die Steuerung über einen einfachen Taster:
kurzes Drücken schaltet, langes Drücken dimmt, ggf. Doppelklick ruft Szenen ab. Technisch liegt die Logik oft im Treiber oder in
einem lokalen Controller.
Wann das sinnvoll ist
- Kleine, klar abgegrenzte Bereiche ohne komplexe Automationsanforderung.
- Nachrüstungen, in denen Businfrastruktur nicht möglich ist.
- Räume, in denen bewusst eine einfache, intuitive Bedienung priorisiert wird.
Wo PushDim typischerweise scheitert
- Skalierung auf viele Zonen (unübersichtlich, schwer wartbar).
- Fehlende Rückmeldung/Diagnose (Fehleranalyse wird „trial and error“).
- Uneinheitliches Nutzererlebnis, wenn unterschiedliche Treiber/Logiken gemischt werden.
Casambi
Casambi ist ein drahtloses Beleuchtungssteuerungssystem, das auf Bluetooth Low Energy (BLE) basiert und typischerweise
als Mesh-Netzwerk arbeitet. Es wird in der Praxis häufig eingesetzt, wenn flexible Zonierung, Szenen und Sensorik gewünscht sind,
aber eine klassische Busverdrahtung (z. B. DALI) nicht möglich oder wirtschaftlich ist – besonders bei Sanierung, Retrofit
oder in Bereichen mit hoher Änderungsdynamik.
Prinzip: Intelligenz im Netzwerk statt in der Leitung
Bei Casambi wird die Logik in der Kombination aus Leuchten-/Treiber-Komponenten und der Konfiguration (z. B. App/Backend) abgebildet.
Leuchten können Gruppen, Szenen und Zeitprofile erhalten, Sensoren werden logisch zugeordnet, und Änderungen können ohne Umverdrahtung erfolgen.
Wichtig ist: Die Funkarchitektur wird damit zu einem Teil der lichttechnischen Qualität – Reichweiten, Topologie und Störumgebung beeinflussen,
ob Bedienung und Regelung zuverlässig sind.
Stärken in der Praxis
- Nachrüstung: Szenen/Zonen ohne zusätzliche Steuerleitungen.
- Flexibilität: Umgruppieren und Anpassungen per Konfiguration statt Eingriff in die Elektroinstallation.
- Schnelle Inbetriebnahme: häufig zügig in funktionierenden Zustand zu bringen – sofern Funkumfeld passt.
- Sensorintegration: praxistauglich für Präsenz-, Tageslicht- und Tasterkonzepte.
Technische Realitäten und Risiken
Drahtlose Systeme sind nicht „problematisch“, aber sie haben andere Fehlerbilder als drahtgebundene Systeme:
- Funkumfeld: Metall, Stahlbeton, Abschirmungen, große Distanzen, komplexe Gebäudestrukturen beeinflussen Mesh-Qualität.
- Planung der Knoten: Ein Mesh braucht ausreichend „gute“ Knotenpositionen; einzelne Ausfälle können Zonen beeinflussen.
- IT/Betreiberanforderungen: Update- und Zugriffskonzepte, Übergabe an Betreiber, Berechtigungen und Dokumentation sind entscheidend.
- Langzeitbetrieb: Betriebs- und Serviceprozesse müssen klären, wie bei Austausch einzelner Komponenten konsistente Lichtwirkung erhalten bleibt.
Planungshinweise für professionelle Ergebnisse
- Funk- und Reichweitentests im realen Gebäude (nicht nur „auf dem Papier“).
- Dokumentierte Szenen-/Zonenlogik, damit Servicefälle nicht zu Konfigurations-Chaos führen.
- Gleiche Qualitätsanforderungen wie bei Bus-Systemen: Mindestdimmwert, Flicker, Farbkonstanz, Sensorreglerparameter.
Drahtlose Lichtsteuerung allgemein (BLE, Zigbee, Thread & Co.)
Drahtlose Steuerungen können in der Gebäudebeleuchtung sinnvoll sein, müssen aber anders bewertet werden als drahtgebundene Systeme.
Wesentliche Kriterien sind: Funkabdeckung, Latenz, Robustheit gegen Störungen, Updatefähigkeit, Langzeitverfügbarkeit des Ökosystems,
und vor allem der definierte Serviceprozess (Wer kann was ändern? Wie wird dokumentiert?).
Typische Vorteile
- Reduzierter Installationsaufwand (keine Busleitungen).
- Flexible Umgruppierung, schnelle Anpassungen.
- Gute Eignung für temporäre Umnutzungen und Sanierungsprojekte.
Typische Risiken
- Störanfälligkeit: Funkspektrum ist nicht exklusiv; andere Systeme können Einfluss haben.
- Komplexität verlagert sich: weniger Kabel, mehr Konfiguration, Updates, Berechtigungen.
- Betreiberabhängigkeit: Ohne klaren Übergabeprozess ist später oft niemand mehr „zuständig“.
Sensorik (Präsenz, Bewegung, Tageslicht) & Regelung
Sensoren liefern die Eingangsgrößen für Automationsfunktionen: Anwesenheit, Bewegung, Helligkeit/Tageslicht, teilweise auch Luftqualität oder
Nutzungsmuster. Der Nutzen ist groß, aber nur, wenn Sensorik fachlich sauber ausgelegt ist: Falsch platzierte Sensoren oder unpassende
Regelparameter erzeugen mehr Unzufriedenheit als Nutzen.
Präsenz vs. Bewegung – häufige Verwechslung
Bewegungssensoren reagieren auf Bewegung; Präsenzsensoren sind für feinere Detektion ausgelegt. In Büros, Besprechungsräumen oder
Lernumgebungen sind Präsenzanforderungen typischerweise höher. Falsche Sensorwahl führt zu ungewolltem Ausschalten oder zu „Licht geht nie aus“.
Tageslichtregelung (Konstantlicht)
Tageslichtregelung misst das vorhandene Licht und dimmt Kunstlicht so nach, dass ein Zielniveau gehalten wird. Kritisch sind:
Sensorposition (sieht er Tageslicht oder reflektiertes Kunstlicht?), Kalibrierung, Regelgeschwindigkeit, Hysterese und die Frage,
ob Nutzer das Verhalten als „natürlich“ oder als „ständig am Regeln“ wahrnehmen.
Planungsfehler, die in der Praxis teuer werden
- Sensor sieht direkt die Leuchte → Regelkreis schaukelt sich auf (Oszillation).
- Keine Verzögerungs-/Nachlaufzeiten → ständiges Ein-/Ausschalten, Stressfaktor.
- Unklare Prioritäten: Manuelle Bedienung vs. Automatik (wer „gewinnt“?).
- Zu aggressive Regelgeschwindigkeit → sichtbares „Atmen“.
Szenen, Zeitprofile & Human-Centric-Lighting-Konzepte
Szenen sind definierte Zustände (Helligkeiten, ggf. Lichtfarben). Zeitprofile legen fest,
wann welche Szenen aktiv sind. In dynamischen Konzepten (z. B. Tunable White/HCL) ist entscheidend, dass Lichtfarbe und Helligkeit
konsistent und nachvollziehbar geregelt werden – sonst wird „HCL“ schnell zu unruhigem Licht, das Nutzer ablehnen.
Technische Kernpunkte für HCL/Tunable White im Betrieb
- Saubere Mehrkanalregelung (z. B. DT8 oder äquivalente Multikanal-Logik).
- Vermeidung von Farbortdrift über Dimmweg und Temperatur.
- Definition von zulässigem Duv-Verlauf (kein Grünstich-Drift).
- Begrenzung von Änderungsraten (Transitions), damit Lichtwechsel nicht „auffallen“.
Typische Fehlannahmen
- „Tunable White“ = automatisch gute Wirkung. (In Wahrheit entscheidet Regel- und Spektrumqualität.)
- „Szenen“ = nur Design. (In Wahrheit sind Szenen Betriebssicherheit: definierte Zustände statt Zufallszustände.)
Kapitel 07 – Installation, Inbetriebnahme und Messpraxis
Praxisbegriffe aus Installation, Prüfung und Fehlersuche, die im Alltag auf Baustelle und bei Serviceeinsätzen regelmäßig auftreten.
Einschaltstrom (Inrush Current) und Absicherung
Definition. Der Einschaltstrom ist ein kurzzeitiger Stromimpuls beim Einschalten elektronischer Betriebsmittel (z. B. LED-Treiber, elektronische Vorschaltgeräte, Netzteile). Er entsteht insbesondere durch das Laden von Eingangskondensatoren und kann um Größenordnungen über dem Nennstrom liegen, jedoch nur für Millisekunden.
Warum das wichtig ist. Hohe Einschaltstromspitzen können Leitungsschutzschalter (LS) unerwünscht auslösen, Relaiskontakte belasten und Selektivität beeinträchtigen. In LED-Anlagen ist das ein häufiger Grund für „sporadisches Auslösen“ bei gleichzeitiger Inbetriebnahme mehrerer Leuchten.
Kenngrößen in Datenblättern. Häufig angegeben als Ipeak (Spitzenwert) und t (Dauer, z. B. 200 µs/1 ms) oder als Iinrush bei definierter Netzimpedanz. Manche Hersteller nennen zusätzlich eine maximal zulässige Anzahl Geräte pro LS-Typ (B/C/D) bei gleichzeitiger Einschaltung.
Praxismaßnahmen. Einschaltstrom begrenzen (NTC/Softstart/Vorladewiderstand), Leuchten in Gruppen einschalten (Sequenzierung), geeignete LS-Charakteristik wählen, Schaltgeräte/Relais nach Einschaltstrom spezifizieren, Netzimpedanz/Leitungslänge berücksichtigen und bei DALI/KNX-Casambi-Gateways die Einschaltsequenzen beachten.
RCD/FI-Typen und Ableitströme bei LED
Grundprinzip. RCDs überwachen den Differenzstrom zwischen Hin- und Rückleiter. Tritt ein Fehlerstrom gegen Erde auf, löst der RCD aus, sobald der Bemessungsdifferenzstrom überschritten wird.
LED-spezifische Problematik. Viele LED-Treiber besitzen EMV-Filter (Y-Kondensatoren), die betriebsbedingte Ableitströme verursachen. Bei vielen parallel betriebenen Treibern können sich diese summieren und RCD-Auslösungen verursachen – auch ohne klassischen Isolationsfehler.
Typwahl. Je nach Art möglicher Fehlerströme (AC, pulsierende DC, glatte DC-Anteile) sind passende RCD-Typen erforderlich. Bei Anlagen mit Frequenzumrichtern/EV-Ladepunkten/Photovoltaik gelten zusätzlich spezifische Anforderungen. Bei LED-Anlagen ist die RCD-Auswahl immer zusammen mit Treiber-Topologie und EMV-Filtern zu betrachten.
Praxis. Ableitströme aus Datenblättern bewerten, Stromkreise sinnvoll aufteilen, ggf. selektive/zeitverzögerte RCDs einsetzen (wo normativ zulässig), Isolationsmessung fachgerecht durchführen (Treiber-Spezifika beachten) und Fehlerbilder systematisch eingrenzen (z. B. Abklemmen von Gruppen).
Schutzleiterführung, Potentialausgleich und EMV-Praxis
Ziel. Sichere Abschaltung im Fehlerfall, Berührungsschutz und gleichzeitig störungsarme Funktion elektronischer Komponenten (Treiber, DALI, Sensorik, Funk-Gateways).
Schutzleiter (PE). Durchgängige, niederohmige PE-Verbindung ist sicherheitsrelevant. Bei Leuchtengehäusen aus Metall ist die korrekte PE-Anbindung essenziell; fehlender oder hochohmiger PE kann sowohl gefährlich sein als auch EMV-Probleme verstärken.
Potentialausgleich. In größeren Anlagen oder bei langen metallischen Trassen reduziert ein sauberer Potentialausgleich Potentialdifferenzen und verbessert EMV. Bei gemischten Systemen (DALI/0–10 V/Funk) sind Bezugspotentiale und Schirmkonzepte früh festzulegen.
EMV-Praxis. Leitungstrennung (Leistung vs. Signal), Schirmung nur nach Konzept (einseitig/ beidseitig), Vermeidung großer Schleifenflächen, sternförmige Bezugspunkte und saubere Erdung verringern Störungen. Typische Symptome sind Flackern, Kommunikationsausfälle, sporadische Resets von Treibern/Gateways.
Messpraxis: Beleuchtungsstärke vs. Leuchtdichte (wann was?)
Beleuchtungsstärke (Lux). Relevante Größe für die Bewertung der Lichtmenge auf einer Fläche (Arbeitsfläche, Boden). Gemessen mit Luxmeter, idealerweise nach normgerechten Messrastern und mit dokumentierten Randbedingungen (Abstand, Ausrichtung, Umgebungslicht).
Leuchtdichte (cd/m²). Relevante Größe für Blendungs- und Wahrnehmungsbewertungen (z. B. UGR-Zusammenhänge, Bildschirmarbeitsplätze). Messung erfordert Leuchtdichtemessgerät/Kamera-Setup; stark abhängig von Blickrichtung und Umgebung.
Praxis. Luxmessungen sind in der Inbetriebnahme üblich; Leuchtdichte wird wichtig bei Reklamationen („blendet“), bei Entblendungskonzepten und bei anspruchsvollen Arbeitsplatznormen. Beide Größen dürfen nicht verwechselt werden: hohe Luxwerte bedeuten nicht automatisch hohe Blendung – und umgekehrt.
DALI-Verdrahtung (Topologie, Länge, Fehlerbilder)
Grundidee. DALI ist ein digitaler, bidirektionaler Steuerbus für Beleuchtung. Die Busleitung ist grundsätzlich polaritätsunabhängig; die Topologie ist flexibel (Linie, Stern, Baum, Mischung) – jedoch nur innerhalb der normativen/gerätespezifischen Grenzwerte.
Grenzwerte. Maximal zulässige Leitungslängen, Spannungsabfall, Teilnehmerzahl und Busversorgung sind projektspezifisch zu prüfen. Leitungstyp, Querschnitt und Verlegeart beeinflussen den Spannungsabfall und die Störfestigkeit.
Typische Fehlerbilder. Sporadische Ausfälle, „Geräte verschwinden“, Flackern bei Befehlen, keine Inbetriebnahme: häufig verursacht durch falsche Busversorgung, Kurzschluss, schlechte Klemmen, EMV-Einkopplung, zu lange Leitungen oder falsche Trennung von Netz- und Busleitungen.
Praxis. Saubere Dokumentation, systematisches Segmentieren (Bus in Abschnitte trennen), Messen der Busspannung unter Last, Prüfen der Busversorgung, Leitungstrennung und korrekte Adressierung/Inbetriebnahme sind entscheidend.