Fachlexikon Lichttechnik

Strukturiertes Nachschlagewerk für Elektrofachkräfte. Kapitel und Begriffe sind direkt per Inhaltsübersicht anspringbar. Über den jeweiligen „nach oben“ Button gelangen Sie zurück zur Begriffsübersicht.

 

Inhaltsübersicht (Kapitel → Begriffe)

Kapitel 01 – Grundlagen & Photometrie

Dieses Kapitel vermittelt die grundlegenden lichttechnischen Begriffe, die jeder professionellen
Planung von LED-Gebäudebeleuchtung zugrunde liegen. Ziel ist ein belastbares Verständnis dafür,
wie Licht physikalisch beschrieben wird, welche Kenngrößen in der Praxis tatsächlich relevant sind
und an welchen Stellen erfahrungsgemäß Fehlinterpretationen auftreten.

Abstrahlwinkel

Optik · Lichtlenkung · Lichtverteilung

Der Abstrahlwinkel beschreibt, in welchem Winkelbereich eine Leuchte ihr Licht in den Raum abgibt.
In technischen Daten bezieht sich dieser Wert in der Regel auf den sogenannten Halbwertswinkel.
Gemeint ist der Winkel, bei dem die Lichtstärke auf 50 % ihres Maximalwertes abgefallen ist.
Diese Definition ist genormt, bildet jedoch nur einen Teil der realen Lichtverteilung ab.

In der Praxis wird der Abstrahlwinkel häufig überbewertet oder isoliert betrachtet. Entscheidend
ist nicht allein der Winkelwert, sondern die gesamte Lichtverteilung, die sich aus Optik, LED-Anordnung,
Abdeckung und Gehäuse ergibt. Zwei Leuchten mit identischem Abstrahlwinkel können völlig unterschiedliche
Ergebnisse auf der Nutzfläche erzeugen.

Der Abstrahlwinkel beeinflusst unmittelbar, wie viel Licht tatsächlich dort ankommt, wo es benötigt wird.
Bei großen Montagehöhen sind engere Winkel erforderlich, um Lichtverluste zu vermeiden. Bei niedrigen
Decken können sehr enge Winkel hingegen zu ungleichmäßiger Ausleuchtung und störenden Hell-Dunkel-Kontrasten führen.

Besonders relevant ist der Abstrahlwinkel in Verbindung mit der Montagegeometrie:
Leuchtenabstand, Montagehöhe und Ziel-Luxwert müssen gemeinsam betrachtet werden.
Wird der Abstrahlwinkel zu breit gewählt, verteilt sich das Licht über große Flächen, erreicht jedoch
nicht mehr die erforderliche Beleuchtungsstärke auf der Nutzebene. Wird er zu eng gewählt, entstehen
Hotspots, erhöhte Leuchtdichten und potenziell Blendung.

Bei asymmetrischen oder ovalen Optiken werden Abstrahlwinkel häufig als Kombination angegeben
(z. B. 30° × 70°). In diesen Fällen ist die korrekte Ausrichtung der Leuchte entscheidend.
Eine falsche Montage kann dazu führen, dass das Licht am Zielbereich vorbeistrahlt und die
Planung ihre Wirkung vollständig verliert.

↑ Zurück nach oben

Lichtstrom (Lumen, lm)

Photometrie · Lichtmenge · Leistungsbewertung

Der Lichtstrom, angegeben in Lumen, beschreibt die gesamte sichtbare Lichtmenge,
die eine Lichtquelle abstrahlt – unabhängig davon, in welche Richtung dieses Licht verteilt wird.
Er ist damit eine mengenbezogene Kenngröße, die jedoch keine Aussage darüber trifft,
wie effizient oder zielgerichtet das Licht genutzt wird.

In der Praxis ist die Unterscheidung zwischen LED-Chip-Lumen und Leuchten-Lumen von zentraler Bedeutung.
Chip-Lumen beschreiben den theoretischen Lichtstrom der LED ohne optische Verluste.
Leuchten-Lumen berücksichtigen hingegen Verluste durch Optiken, Abdeckungen, Gehäuse und Treiber
und stellen den tatsächlich verfügbaren Lichtstrom dar.

Fehlinterpretationen entstehen häufig, wenn Produkte auf Basis von Chip-Lumen verglichen werden.
In solchen Fällen erscheint eine Leuchte leistungsstärker, als sie in der realen Anwendung tatsächlich ist.
Für Planung, Ausschreibung und Vergleich ist daher ausschließlich der Leuchten-Lichtstrom relevant.

Der Lichtstrom allein ist kein Qualitätsmerkmal. Hohe Lumenwerte können durch schlechte Lichtverteilung,
hohe Blendung oder geringe Lebensdauer relativiert werden. Erst im Zusammenspiel mit Optik,
Montagebedingungen und Beleuchtungsstärke auf der Nutzfläche ergibt sich ein belastbares Bild.

↑ Zurück nach oben

Beleuchtungsstärke (Lux, lx)

Planung · Normen · Nutzebene

Die Beleuchtungsstärke beschreibt, wie viel Lichtstrom auf einer bestimmten Fläche ankommt.
Sie wird in Lux angegeben, wobei 1 Lux einem Lichtstrom von 1 Lumen pro Quadratmeter entspricht.
Lux ist die zentrale Zielgröße in der Lichtplanung, da viele Normen und Richtlinien Mindestwerte
für unterschiedliche Sehaufgaben definieren.

In der Praxis ist Lux stets ortsabhängig. Entscheidend ist daher nicht allein der Mittelwert,
sondern auch der Minimalwert sowie die Gleichmäßigkeit der Verteilung.
Ebenso wichtig ist die Definition der Nutzebene, auf der die Beleuchtungsstärke bewertet wird.
Eine Messung am Boden liefert andere Ergebnisse als eine Messung auf Tisch- oder Arbeitshöhe.

Häufige Planungsfehler entstehen, wenn Luxwerte ohne Kontext betrachtet werden.
Eine hohe durchschnittliche Beleuchtungsstärke kann subjektiv dennoch als unzureichend empfunden werden,
wenn starke Helligkeitsschwankungen oder dunkle Randbereiche vorhanden sind.
Umgekehrt kann eine gut gleichmäßige Beleuchtung mit moderaten Luxwerten als angenehm und ausreichend wahrgenommen werden.

↑ Zurück nach oben

Lichtstärke (Candela, cd)

Richtungswirkung · Fernwirkung · Blendungsbewertung

Die Lichtstärke, angegeben in Candela, beschreibt die Intensität des Lichtes in eine bestimmte Richtung.
Sie ist besonders relevant bei gerichteten Leuchten wie Spots, Strahlern oder Hallenleuchten,
bei denen die Reichweite des Lichtkegels eine entscheidende Rolle spielt.

Bei gleicher Lumenmenge führt eine engere Lichtverteilung zu höheren Candela-Werten.
Dies erhöht die Fernwirkung, kann jedoch gleichzeitig das Blendungsrisiko erhöhen,
wenn hohe Leuchtdichten in Blickrichtung auftreten.

In der Planung ist Candela insbesondere dann aussagekräftig, wenn große Montagehöhen
oder gezielte Akzentuierungen erforderlich sind. Sie sollte jedoch immer im Zusammenhang
mit der gesamten Lichtverteilung betrachtet werden, da Spitzenwerte allein keine Aussage
über die Nutzbarkeit des Lichtes zulassen.

↑ Zurück nach oben

Lichtverteilungskurve (LVK)

Photometrische Daten · Lichtplanung · Simulation

Die Lichtverteilungskurve stellt grafisch dar, wie eine Leuchte ihr Licht in verschiedene Richtungen abstrahlt.
Sie bildet die reale Lichtverteilung ab und ist damit deutlich aussagekräftiger als ein einzelner Abstrahlwinkel.

In professionellen Planungen werden Lichtverteilungskurven in Form von Photometrie-Dateien
(z. B. IES oder LDT/Eulumdat) genutzt. Diese Daten ermöglichen realitätsnahe Simulationen
von Beleuchtungsstärke, Gleichmäßigkeit und Blendung.

Eine häufige Fehlerquelle ist die falsche Interpretation oder Ausrichtung asymmetrischer Lichtverteilungen.
Wird die Montageorientierung nicht berücksichtigt, kann die geplante Lichtwirkung vollständig verfehlt werden,
obwohl die Leuchte technisch korrekt ist.

↑ Zurück nach oben

Gleichmäßigkeit (Uniformität)

Beleuchtungsqualität · Sehkomfort · Normkriterien

Die Gleichmäßigkeit beschreibt, wie homogen die Beleuchtungsstärke innerhalb eines Bereiches verteilt ist.
Sie wird häufig als Verhältnis von minimaler zu mittlerer Beleuchtungsstärke angegeben.

Selbst hohe Lux-Mittelwerte verlieren an Wert, wenn gleichzeitig stark unterbeleuchtete Zonen vorhanden sind.
Das menschliche Auge reagiert empfindlich auf solche Kontraste, was zu schneller Ermüdung
und subjektiv schlechter Lichtqualität führen kann.

Eine gute Gleichmäßigkeit wird durch geeignete Leuchtenabstände, passende Optiken
sowie ausreichende Reflexionen von Decken und Wänden erreicht.
Sie ist ein zentrales Qualitätsmerkmal moderner Beleuchtungskonzepte.

↑ Zurück nach oben

Direktes und indirektes Licht

Raumwirkung · Effizienz · Wahrnehmung

Direktes Licht gelangt ohne Umwege von der Leuchte auf die Nutzfläche.
Es ist energetisch effizient und ermöglicht eine präzise Ausleuchtung,
kann jedoch bei unzureichender Entblendung zu Blendung führen.

Indirektes Licht wird über reflektierende Flächen wie Decken oder Wände in den Raum abgegeben.
Es erzeugt eine sehr gleichmäßige und angenehme Raumhelligkeit, setzt jedoch ausreichend helle
Reflexionsflächen voraus und erfordert häufig einen höheren Lichtstrom.

In vielen Anwendungen hat sich die Kombination aus direktem und indirektem Licht bewährt,
da sie funktionale Beleuchtung und visuelle Behaglichkeit miteinander verbindet.
Entscheidend ist dabei stets die Abstimmung auf Raumgeometrie, Oberflächen und Nutzung.

↑ Zurück nach oben

Kapitel 02 – Schutzarten & elektrische Sicherheit

Dieses Kapitel ordnet die Schutzmechanismen ein, die in der Beleuchtungspraxis über die
Betriebssicherheit, Lebensdauer und Normkonformität entscheiden. Dazu gehören der Schutz gegen
Staub, Wasser und Fremdkörper (IP), der Schutz gegen mechanische Einwirkungen (IK) sowie
elektrische Schutzmaßnahmen (Schutzklassen, Schutzkleinspannung). Der entscheidende Punkt ist,
dass diese Schutzprinzipien unterschiedliche Risiken adressieren und daher nicht „gegenseitig ersetzen“.
Eine Leuchte kann beispielsweise sehr gut gegen Wasser geschützt sein und dennoch elektrisch unsicher
sein, wenn Schutzklasse und Installation nicht zusammenpassen – und umgekehrt.

In der Praxis entstehen die meisten Probleme nicht durch „zu geringe“ Schutzwerte an sich, sondern
durch Fehlannahmen: IP wird als generelles Qualitätsmerkmal interpretiert, Schutzklasse wird mit IP
verwechselt, oder die reale Umgebungsbelastung (Reinigung, Kondensation, Staub, Chemie, mechanische
Beanspruchung) wird unterschätzt. Dieses Kapitel erklärt daher nicht nur Definitionen, sondern die
Zusammenhänge, die eine robuste Auswahl ermöglichen.

IP-Schutzarten (Ingress Protection)

Umgebungsschutz · Dichtigkeit · Einsatzbedingungen

Die IP-Schutzart beschreibt den Schutzgrad eines Gehäuses gegen das Eindringen von festen Fremdkörpern
(inklusive Berührungsschutz) und gegen Wasser. Sie wird durch zwei Kennziffern angegeben, z. B. IP65.
Die erste Kennziffer bewertet den Schutz gegen Staub und Fremdkörper, die zweite Kennziffer
den Schutz gegen Wasser in unterschiedlichen Einwirkungsformen.

Für die Auswahl ist entscheidend, dass IP nicht „innen vs. außen“ bedeutet, sondern konkrete Einwirkungsarten
beschreibt. Außenbereiche können je nach Lage sehr unterschiedlich sein (Wind, Schlagregen, Sprühnebel, Vereisung,
Temperaturwechsel). Ebenso können Innenbereiche extrem anspruchsvoll sein (Staub in Produktion, feuchte Luft in Waschräumen,
Aerosole in Küchen, Reinigungschemie in Lebensmittel- oder Logistikbereichen).

Häufig wird Regen als Hauptkriterium angesehen, während Kondensation unterschätzt wird. Kondensation entsteht
nicht durch „Wasser von außen“, sondern durch Temperatur- und Feuchtewechsel. Sie kann in Gehäusen auftreten,
wenn warme, feuchte Luft eingeschlossen wird und später abkühlt. Das führt zu Feuchtigkeitsfilmen an Elektronik,
Korrosion an Kontakten und langfristig zu Ausfällen – selbst wenn die Leuchte nie direkt beregnet wurde.
IP bewertet zwar das Eindringen von Wasser, aber Kondensation ist ein betriebliches Klima- und Konstruktionsproblem,
das über Materialwahl, Dichtkonzept, Entlüftung/Atmungsbauteile und Montage beeinflusst wird.

Umgekehrt wird eine sehr hohe IP-Schutzart oft als „sicherer“ angesehen, ohne die Nebenwirkungen zu berücksichtigen.
Dichtungen, Verguss und geschlossene Gehäuse verändern die Wärmeabfuhr. Bei LED-Leuchten ist Temperatur ein
zentraler Lebensdauerfaktor; eine konstruktiv ungünstige Wärmeführung kann trotz hoher IP zu höheren Bauteiltemperaturen
führen und damit zu schnellerem Lichtstromrückgang oder Treiberbelastung. Die Schutzart muss daher immer zusammen mit
thermischem Konzept, Montageumgebung und Wartungsstrategie bewertet werden.

Praxisrelevant sind außerdem Kabel- und Steckerstellen. Der IP-Wert einer Leuchte gilt für das geprüfte System.
Wird eine Leitungseinführung anders ausgeführt, werden Dichtungen beschädigt oder wird ein nicht passender Steckverbinder
verwendet, kann der Schutzgrad in der realen Installation deutlich niedriger liegen. Bei Außen- und Feuchtanwendungen ist
die „System-IP“ (Leuchte + Anschluss + Leitungseinführung) entscheidend – nicht nur der Wert im Datenblatt.

↑ Zurück nach oben

IP-Kennziffern – vollständige Übersicht und Interpretation

Systematik · Kennziffernlogik · typische Fehlinterpretationen

Die IP-Kennziffern werden als IPXY angegeben. X beschreibt feste Fremdkörper/Berührung,
Y beschreibt Wasser. Ein „X“ (z. B. IPX4) bedeutet: erste Ziffer nicht angegeben.
Das ist in der Praxis wichtig, weil IPX4 zwar Spritzwasser beschreibt, aber keinerlei Aussage zur Staubbelastung trifft.

Erste Kennziffer – Schutz gegen feste Fremdkörper und Berührung:

  • 0 – kein Schutz
  • 1 – Schutz gegen feste Fremdkörper ≥ 50 mm
  • 2 – Schutz gegen feste Fremdkörper ≥ 12,5 mm
  • 3 – Schutz gegen feste Fremdkörper ≥ 2,5 mm
  • 4 – Schutz gegen feste Fremdkörper ≥ 1 mm
  • 5 – staubgeschützt (Staubeintritt nicht vollständig verhindert, aber nicht schädlich)
  • 6 – staubdicht (kein Staubeintritt)

Zweite Kennziffer – Schutz gegen Wasser:

  • 0 – kein Schutz
  • 1 – Tropfwasser senkrecht
  • 2 – Tropfwasser bei 15° Neigung
  • 3 – Sprühwasser
  • 4 – Spritzwasser aus allen Richtungen
  • 5 – Strahlwasser (Düse) aus allen Richtungen
  • 6 – starkes Strahlwasser
  • 7 – zeitweiliges Untertauchen
  • 8 – dauerhaftes Untertauchen (nach Herstellerspezifikation, da Bedingungen variieren)
  • 9K – Hochdruck- / Dampfstrahlreinigung (z. B. Reinigung mit hohem Druck/Temperatur)

In der Auswahl sind zwei Denkfehler besonders verbreitet: Erstens wird aus „IPX4 ist für außen“ abgeleitet,
dass es überall ausreicht. In exponierten Lagen (Wind, Schlagregen), bei Überdachungen mit Tropfkanten,
in Küstenumgebungen (Salz) oder in Bereichen mit Reinigung kann Spritzwasserschutz zu knapp sein.
Zweitens wird IPX7/IPX8 als „besser als IPX6“ interpretiert. Untertauchen ist ein anderer Prüfmodus als Strahlwasser;
eine Anwendung mit Wasserstrahlbelastung erfordert typischerweise IPX5/IPX6 und nicht automatisch IPX7/8.

Hinweis: Der konkrete Schutz hängt immer von der geprüften Ausführung ab (Dichtungen, Schrauben, Kabeleinführungen,
Dichtflächen). Bei der Montage dürfen Dichtungen nicht gequetscht, verdreht oder beschädigt werden; andernfalls entspricht
die Installation nicht mehr dem geprüften Zustand.

↑ Zurück nach oben

IK-Schutzart (Stoßfestigkeit)

Mechanische Robustheit · Stoßenergie · Einsatzumgebungen

Die IK-Schutzart beschreibt die Widerstandsfähigkeit eines Gehäuses gegen mechanische Einwirkungen durch Stöße.
Sie ergänzt die IP-Schutzart: Während IP das Eindringen von Fremdkörpern und Wasser bewertet, beurteilt IK die
Stoßfestigkeit des Gehäuses. IK ist besonders relevant in öffentlichen Bereichen, Sporthallen, Parkhäusern,
Verkehrsflächen, Industrie- und Logistikbereichen sowie überall dort, wo Vibrationen, Anstoßen, Ballwurf oder Vandalismus
realistisch sind.

IK-Werte entsprechen definierten Stoßenergien (Joule). In der Praxis ist nicht nur der „Maximalstoß“ relevant, sondern auch,
wie die Leuchte mechanisch montiert ist: Eine robuste Leuchte kann bei ungeeigneter Montage (zu geringe Auflageflächen,
falsche Schrauben, mangelnde Unterkonstruktion) dennoch mechanisch geschädigt werden. Ebenso können wiederholte kleinere
Einwirkungen zu Materialermüdung führen. IK ist daher ein Baustein, ersetzt aber keine saubere mechanische Ausführung.

Orientierende Einordnung (vereinfacht nach Praxisrelevanz):

  • IK00 – kein Schutz
  • IK01–IK05 – geringe Stoßfestigkeit (nur für geschützte Umgebungen)
  • IK06–IK08 – mittlere Stoßfestigkeit (typische robuste Innenanwendungen)
  • IK09 – hohe Stoßfestigkeit (raue Umgebungen)
  • IK10 – sehr hohe Stoßfestigkeit (20 Joule, vandalismusrobuste Anwendungen)

Ein häufiger Irrtum ist, IK ausschließlich mit „Vandalismus“ zu verbinden. In vielen Industrieanwendungen ist IK vor allem
eine Frage der Betriebssicherheit: Ein Gehäuseschaden kann Dichtflächen öffnen, Leitungen beschädigen oder
scharfkantige Brüche erzeugen. Dadurch steigt nicht nur das Ausfallrisiko, sondern im ungünstigen Fall auch das Risiko
für Folgeschäden und Stillstände.

↑ Zurück nach oben

Schutzklassen – welche es gibt und was sie praktisch bedeuten (I, II, III)

Elektrische Sicherheit · Schutz gegen elektrischen Schlag · Systembetrachtung

Schutzklassen beschreiben, mit welchem Schutzprinzip eine Leuchte gegen gefährliche Berührungsspannungen abgesichert ist.
Sie sind unabhängig von IP und IK. Während IP/IK primär Umgebungs- und Mechanikrisiken abdecken, beziehen sich Schutzklassen
auf das Risiko eines elektrischen Schlags bei Fehlern (z. B. Isolationsfehler, defekter Treiber, beschädigte Leitung).

Die Schutzklassen im Überblick:

  • Schutzklasse I – Schutz durch Schutzleiter (PE).
    Berührbare leitfähige Teile (z. B. Metallgehäuse) sind mit dem Schutzleiter verbunden. Im Fehlerfall wird ein Fehlerstrom
    gegen Erde abgeleitet, wodurch Schutzorgane (z. B. Sicherung, RCD/Fi) auslösen. Schutzklasse I setzt voraus, dass
    die Erdung korrekt und dauerhaft wirksam ist.
  • Schutzklasse II – Schutz durch doppelte bzw. verstärkte Isolation.
    Es gibt keinen Schutzleiteranschluss. Die Sicherheit wird über Isolationskonzepte erreicht, sodass selbst bei einem Fehler
    keine gefährliche Spannung an berührbaren Teilen anliegt. Diese Schutzklasse ist vorteilhaft, wenn Erdung nicht verfügbar
    oder nicht zuverlässig ist, erfordert aber konsequente Einhaltung der vorgesehenen Komponenten und Einbauweise.
  • Schutzklasse III – Betrieb mit Schutzkleinspannung (SELV).
    Die Versorgung erfolgt über eine Sicherheitskleinspannung, sodass auch im Fehlerfall keine gefährliche Spannung auftreten kann.
    Typisch ist die Versorgung über ein geeignetes Netzteil/Trafo mit galvanischer Trennung. Schutzklasse III ist besonders
    relevant in berührungsnahen Anwendungen oder in Bereichen, in denen zusätzliche Sicherheit erforderlich ist.

In der Praxis entstehen sicherheitsrelevante Fehler häufig an den Systemgrenzen: Schutzklasse I funktioniert nur dann als
Schutzprinzip, wenn der Schutzleiter wirklich angeschlossen, niederohmig und dauerhaft ist. Schutzklasse II ist nur dann
wirksam, wenn keine „nachträglichen“ leitfähigen Verbindungen oder unsachgemäße Modifikationen (z. B. Bohren, falsche
Durchführung, unpassende Klemmen) die Isolation kompromittieren. Schutzklasse III setzt voraus, dass die gesamte Versorgung
tatsächlich als SELV ausgeführt ist und nicht durch Mischinstallationen oder ungeeignete Netzteile verwässert wird.

Wichtig ist außerdem die klare Trennung der Begriffe: Eine Leuchte kann IP65 haben und dennoch Schutzklasse I oder II sein.
IP sagt nichts darüber aus, ob ein Schutzleiter vorhanden ist. Umgekehrt sagt Schutzklasse nichts darüber aus, ob die Leuchte für
Strahlwasser geeignet ist. Erst die Kombination aus Schutzklasse, IP/IK und korrekter Installation ergibt eine robuste Lösung.

↑ Zurück nach oben

SELV, PELV, FELV – Schutzkleinspannungen korrekt einordnen

Kleinspannung · galvanische Trennung · Systemkette

Die Begriffe SELV, PELV und FELV beschreiben unterschiedliche Ausprägungen von Kleinspannungssystemen und deren Schutzkonzepten.
Sie sind besonders in der LED-Technik relevant, da viele Systeme mit 12 V, 24 V oder ähnlichen Spannungen arbeiten.
Entscheidend ist: Nicht jede „niedrige Spannung“ ist automatisch Schutzkleinspannung im sicherheitstechnischen Sinn.

  • SELV (Safety Extra-Low Voltage): Schutzkleinspannung mit sicherer galvanischer Trennung vom Netz und ohne
    Erdbezug. Das System ist so ausgelegt, dass unter normalen und fehlerhaften Bedingungen keine gefährlichen Spannungen entstehen.
  • PELV (Protective Extra-Low Voltage): grundsätzlich vergleichbar mit SELV, jedoch mit zulässigem Erdbezug
    bestimmter Teile. PELV wird eingesetzt, wenn ein Erdbezug funktional oder betrieblich erforderlich ist.
  • FELV (Functional Extra-Low Voltage): Funktionskleinspannung ohne vollständige Schutzmaßnahmen wie bei SELV/PELV.
    Hier sind zusätzliche Schutzmaßnahmen erforderlich, da das System nicht die gleichen Sicherheitsanforderungen erfüllt.

In der Praxis ist die Systemkette entscheidend: Netzteil/Driver, Sekundärverkabelung, Steckverbinder, Leuchte und
Einbauumgebung müssen konsistent ausgelegt sein. Ein häufiges Problem entsteht, wenn ein SELV-Netzteil verwendet wird, aber später
Komponenten hinzugefügt werden, die nicht für SELV geeignet sind oder wenn Installationsmethoden (Leitungsführung, Klemmen, Trennung
von Netzspannung) nicht dem Schutzkonzept entsprechen. Bei solchen Mischsituationen entstehen unklare Zustände, die sowohl
normativ als auch sicherheitstechnisch problematisch sind.

↑ Zurück nach oben

Notbeleuchtung & Sicherheitsbeleuchtung – Einordnung, Systemlogik, Betriebsanforderungen

Betriebssicherheit · Evakuierung · Wartung/Prüfung

Not- und Sicherheitsbeleuchtung dienen der sicheren Orientierung und Evakuierung im Gefahrenfall und unterliegen besonderen
Anforderungen hinsichtlich Verfügbarkeit, Umschaltzeit, Betriebsdauer, Kennzeichnung und regelmäßiger Prüfung. In der Praxis
ist weniger die „Leuchte an sich“ der kritische Punkt, sondern das Gesamtsystem: Energieversorgung, Umschaltung,
Überwachung, Prüfkonzept und Dokumentation.

Typischerweise wird unterschieden zwischen Sicherheitsbeleuchtung für Rettungswege (gezielte Führung), Antipanikbeleuchtung
(Grundhelligkeit zur Orientierung in offenen Bereichen) und Ersatzbeleuchtung (Fortsetzung normaler Tätigkeiten in reduziertem
Umfang). Diese Kategorien verfolgen unterschiedliche Ziele; daraus ergeben sich unterschiedliche Anforderungen an Lichtverteilung,
Mindestbeleuchtungsstärken, Betriebsdauer und Positionierung.

Ein häufiger Planungsfehler ist die Vermischung von Allgemein- und Sicherheitsbeleuchtung ohne klare Systemtrennung, sodass im
Störfall entweder nicht die richtigen Leuchten versorgt werden oder die Umschaltung nicht zuverlässig erfolgt. Ebenso werden
Wartung und Prüfung oft erst nachträglich bedacht. Da Sicherheitsbeleuchtung regelmäßig geprüft werden muss, sollten Zugänglichkeit,
Austauschbarkeit und Systemdiagnose bereits bei der Planung berücksichtigt werden. Das gilt insbesondere bei dezentralen Batterielösungen,
zentralen Versorgungssystemen oder vernetzten Monitoring-Konzepten.

↑ Zurück nach oben

Kapitel 03 – LED-Technologie & Betriebsgeräte

LED-Beleuchtung ist ein technisch gekoppeltes System aus LED-Halbleiter, Phosphoren und optischen
Materialien, Leiterplatte/Modul, thermischem Aufbau, Betriebsgerät (Treiber) und elektrischer
Versorgungsumgebung. Effizienz, Lichtqualität, Lebensdauer und Betriebssicherheit ergeben sich
erst aus dem Zusammenspiel dieser Komponenten. Eine fachlich belastbare Auswahl betrachtet daher
nicht nur Einzelkennwerte, sondern Betriebsfenster, Randbedingungen und Langzeitstabilität.

LED (Light Emitting Diode)

Halbleiterphysik · Betriebsfenster · Strom- und Temperaturabhängigkeit

Eine LED ist ein Halbleiterbauelement, das Licht durch Rekombination von Ladungsträgern in einem pn-Übergang
erzeugt. Unter Vorwärtsspannung werden Elektronen und Löcher in den aktiven Bereich injiziert. Treffen sie
aufeinander, wird Energie frei, die als Photon emittiert werden kann. Die Bandlücke des Halbleitermaterials
bestimmt die Wellenlänge und damit die Grundfarbe der Emission.

Stromgesteuertes Verhalten

LEDs besitzen eine stark nichtlineare Strom-Spannungs-Kennlinie. Kleine Spannungsänderungen bewirken große
Stromänderungen. Da Lichtstrom und Verlustleistung direkt vom Strom abhängen, führt ein ungeregelter Betrieb
schnell zu instabilen Zuständen. Professionelle LED-Systeme werden daher in der Regel mit geregeltem Strom
(Konstantstrom) betrieben – oder bei Konstantspannungs-Systemen mit einer definierten Strombegrenzung im Modul.

Thermik und Sperrschichttemperatur

Ein Teil der elektrischen Energie wird in Wärme umgesetzt. Kritisch ist die Sperrschichttemperatur (Junction)
des LED-Chips. Sie ist nicht identisch mit Gehäuse-, Kühlkörper- oder Umgebungstemperatur und hängt vom gesamten
Wärmeweg ab: LED-Chip → Package → Lötpad/Leiterplatte → Wärmeleitmaterial → Gehäuse/Kühlkörper → Umgebung.
Jeder zusätzliche thermische Widerstand (z. B. Montagefehler, Wärmestau, ungeeignete Wärmeleitpads,
verschmutzte Kühlflächen) erhöht die Junction-Temperatur und beschleunigt Alterungsmechanismen.

Betriebsfenster und Langzeitfolgen

LEDs sind für definierte Bereiche aus Strom, Temperatur und Umgebung spezifiziert. Kurzzeitige Überlasten
oder Temperaturspitzen führen nicht zwingend zu sofortigem Ausfall, können aber irreversible Vorschädigungen
verursachen, die sich später als beschleunigter Lichtstromrückgang, stärkere Farbortdrift oder erhöhte Ausfallrate
zeigen. Entscheidend ist daher nicht nur der Nennbetrieb, sondern auch das Verhalten bei Lastspitzen,
Schaltzyklen, Dimmszenarien und thermischen Transienten.

Elektrische Umgebung, Überspannung und EMV

LEDs werden über Treiber versorgt, dennoch beeinflusst die elektrische Umgebung die Systemzuverlässigkeit:
Schaltspitzen, induzierte Überspannungen (z. B. durch Schalthandlungen oder Blitznähe), Oberschwingungen,
Spannungsabsenkungen, sowie elektromagnetische Störungen wirken auf Treiber, Schutzbeschaltungen und
Steuerungsschnittstellen. Robuste Systeme berücksichtigen deshalb geeignete Schutzkonzepte (Surge-Festigkeit,
Filter, ggf. zusätzliche Überspannungsableiter) und eine fachgerechte Installation (Leitungsführung, Erdung,
Potentialausgleich).

Praxisindikator: Wenn in einem Projekt einzelne Leuchten auffällig früh ausfallen, sind lokale Unterschiede
(Wärmestau, Montage, Netz-/Überspannungspfade, Klemmstellen, Feuchte) häufiger die Ursache als ein generelles
„LED-Problem“.

↑ Zurück nach oben

Weiße LEDs

Phosphorkonversion · Spektrum · Farbtemperatur · Farbstabilität

Weißes LED-Licht entsteht in der Praxis überwiegend durch Phosphorkonversion: Ein blauer LED-Chip emittiert Licht,
das teilweise von einer Phosphorschicht absorbiert und bei längeren Wellenlängen wieder emittiert wird. Das
resultierende Spektrum ist eine Mischung aus direktem Blauanteil und konvertierten Anteilen. „Weiß“ ist damit
immer eine spektrale Überlagerung – und nicht eine einzelne Emissionslinie.

Spektrale Wirkung und Anwendungsrelevanz

Das Spektrum beeinflusst nicht nur den Farbeindruck, sondern auch die Farbwiedergabe von Materialien (Textilien,
Lebensmittel, Lacke), die visuelle Differenzierung in Arbeitsumgebungen sowie die Performance von Kameras und
Sensorik. Zwei Leuchten können die gleiche korrelierte Farbtemperatur (z. B. 3000 K) besitzen, aber
unterschiedlich wirken, wenn ihre Spektren unterschiedlich verteilt sind. Für anspruchsvolle Anwendungen ist
deshalb nicht nur „warm/kalt“, sondern die spektrale Qualität und Stabilität über die Zeit entscheidend.

Alterung von Phosphoren und optischen Materialien

Die Langzeitstabilität weißer LEDs wird nicht nur durch den Halbleiterchip bestimmt. Phosphore und
Einbettungsmaterialien (Silikon, Verguss, Linsen, Diffusoren) altern temperatur- und strahlungsabhängig.
Dadurch kann sich das Verhältnis zwischen Blauanteil und konvertiertem Licht verschieben (Farbortdrift),
und die Lichtausbeute kann sinken. Thermisches Design beeinflusst daher indirekt auch Farbstabilität, weil
höhere Betriebstemperaturen Alterungsprozesse in Phosphoren und Kunststoffen beschleunigen können.

Farbtemperatur, Farbort und Wahrnehmung

Die korrelierte Farbtemperatur (CCT) ist eine vereinfachende Einordnung. Für die Praxis ist zusätzlich
relevant, wie eng die Farborte innerhalb eines Projekts zusammenliegen und wie sie sich über die Zeit entwickeln.
In langen Sichtachsen oder homogenen Lichtflächen können geringe Abweichungen sichtbar werden. Professionelle
Systeme berücksichtigen deshalb sowohl Anfangsstreuung (Binning) als auch Drift über Betriebsdauer.

↑ Zurück nach oben

LED-Binning, Farbortstreuung und MacAdam-Ellipsen

Konsistenz in Projekten · Bins · SDCM

In der Fertigung streuen LED-Chips und Phosphorkonversion geringfügig. Diese Streuung betrifft Lichtstrom,
Vorwärtsspannung sowie insbesondere den Farbort. Hersteller klassifizieren LEDs deshalb in sogenannte
Bins (Sortierklassen). Für Projekte mit vielen Leuchten ist diese Sortierung entscheidend, weil
Menschen Farbunterschiede in direktem Vergleich sehr empfindlich wahrnehmen – besonders in linearen Anwendungen,
Lichtbändern, Lichtdecken oder in Bereichen mit großen weißen Flächen.

SDCM / MacAdam als Praxismaß

Zur Beschreibung von Farbortabweichungen wird häufig SDCM verwendet (Standard Deviation of Color Matching),
oft als „MacAdam-Ellipsen“ bezeichnet. Niedrigere SDCM-Werte bedeuten engere Farbortstreuung und damit
höhere sichtbare Konsistenz. In der Praxis ist die erforderliche Enge vom Anwendungskontext abhängig:
In repräsentativen Innenräumen, Hospitality, Retail oder in sichtbaren Linien ist eine engere Streuung
häufig erforderlich als in technisch dominierten Bereichen.

Anfangsstreuung vs. Drift

Binning beschreibt die Streuung bei Auslieferung. Davon zu unterscheiden ist die Farbortdrift über die Zeit,
die durch Alterung von Phosphoren, optischen Materialien und thermische Belastungen beeinflusst wird.
Eine professionelle Spezifikation berücksichtigt deshalb beide Aspekte: konsistente Anfangsbins sowie
ein stabiles Systemdesign (Thermik, Materialwahl), um Drift zu minimieren.

↑ Zurück nach oben

LED-Module und Leiterplatten (MCPCB, FR4, thermische Pfade)

Wärmeübergang · Zuverlässigkeit · Kontaktierung

LED-Module sind die Trägerstruktur der LEDs und bilden die Schnittstelle zwischen LED-Package und Leuchtengehäuse.
Neben der elektrischen Verschaltung ist der thermische Pfad entscheidend. In vielen Anwendungen werden
Metallkernleiterplatten (MCPCB) eingesetzt, weil sie Wärme effizienter abführen als Standard-FR4-Material.
Die reale thermische Performance wird jedoch nicht nur durch das Leiterplattenmaterial bestimmt, sondern durch
die gesamte Kontaktkette zum Gehäuse.

Thermische Schnittstelle (TIM) und Montagequalität

Wärmeleitpads, Pasten oder Folien (TIM – Thermal Interface Materials) sollen mikroskopische Unebenheiten
zwischen Modul und Kühlfläche ausgleichen. In der Praxis sind Dicke, Kompressibilität, Flächenpressung und
Alterungsbeständigkeit relevant. Zu dicke oder ungeeignete Materialien erhöhen den thermischen Widerstand.
Unzureichende Schraubkraft, verzogene Auflageflächen oder ungleichmäßige Pressung führen zu Hotspots.

Elektrische Kontaktierung und Langzeitstabilität

Kontaktstellen (Klemmen, Steckverbinder, Lötstellen) sind in der Praxis häufige Fehlerquellen.
Thermische Zyklen (Aufheizen/Abkühlen) und Vibrationen können Kontaktwiderstände verändern.
Erhöhte Übergangswiderstände führen wiederum zu lokaler Erwärmung, die Alterung beschleunigt und
Ausfälle begünstigt. Professionelle Systeme berücksichtigen daher mechanische Entlastung,
geeignete Zugentlastungen, Materialverträglichkeiten und eine Installation, die Service und Prüfung zulässt.

↑ Zurück nach oben

LED-Bauformen (SMD, COB, Mid-Power, High-Power)

Leuchtdichte · Optik · Blendung · Kühlung

Die Bauform bestimmt, wie viel Licht aus welcher Fläche emittiert wird (Leuchtdichte) und wie sich das Licht
optisch formen lässt. Das ist entscheidend für Reichweite, Lichtverteilung, Entblendung und thermische Belastung.

SMD (Surface Mounted Device)

SMD-LEDs werden als einzelne Packages auf Leiterplatten bestückt. Sie eignen sich besonders für flächige und
lineare Systeme mit homogener Lichtverteilung. Aufgrund der meist geringeren Leuchtdichten sind komfortable
Entblendungskonzepte leichter realisierbar. In Projekten mit hohen Anforderungen an Sehkomfort (z. B. Büros,
Bildungsstätten) werden SMD-basierte Systeme häufig bevorzugt, wenn die Montagehöhen und Aufgaben dies zulassen.

COB (Chip on Board)

COB-Module bündeln viele Chips auf engem Raum. Das ermöglicht kompakte Optiken und präzise Lichtlenkung,
führt aber zu hohen Leuchtdichten. Das kann bei direkter Einsicht zu Blendung führen, weshalb Abschirmung,
Raster, geeignete Abstrahlwinkel und geometrische Einbaulagen besonders wichtig sind. Thermisch sind COB-Systeme
empfindlicher gegenüber Montage- und Kühlabweichungen, da ein größerer Anteil der Gesamtleistung lokal konzentriert ist.

Mid-Power vs. High-Power

Mid-Power-LEDs bieten häufig sehr gute Effizienz bei moderater Leistungsdichte. High-Power-LEDs erlauben höhere
Ströme pro Package und sind in Anwendungen sinnvoll, in denen kompaktere Module oder höhere Punktleistungen
benötigt werden. Mit steigender Leistungsdichte steigen jedoch Anforderungen an Kühlung, Bestromung und
Alterungsrobustheit. In der Praxis ist „mehr Power“ selten die saubere Korrektur für ein Verteilungsproblem;
häufig ist die passende Bauform- und Optikkombination entscheidender.

↑ Zurück nach oben

LED-Betriebsgeräte (Treiber)

Regelung · Schutz · Dimmung · EMV · Zuverlässigkeit

Ein LED-Treiber versorgt die LEDs mit definierten elektrischen Größen und stabilisiert den Betrieb gegen
Netz- und Lastschwankungen. Er ist nicht nur „ein Netzteil“, sondern in professionellen Anwendungen ein
regelndes Betriebsgerät mit Schutz- und Diagnosefunktionen. Treiber beeinflussen Effizienz, Flicker,
Dimmbarkeit, EMV-Verhalten und nicht selten die wirtschaftliche Lebensdauer einer Leuchte.

Konstantstrom (CC) vs. Konstantspannung (CV)

Konstantstromtreiber liefern einen definierten Strom innerhalb eines Spannungsfensters. Sie werden eingesetzt,
wenn LED-Module keinen eigenen Stromregler besitzen. Konstantspannungs-Treiber (z. B. 24 V) setzen voraus,
dass die angeschlossenen Module/Strips intern eine Strombegrenzung/Regelung haben. Fehlkombinationen führen in
der Praxis zu Überstrom, Überhitzung, ungleichmäßiger Helligkeit oder instabilem Betrieb – oft ohne sofortigen
Totalausfall, aber mit langfristigen Folgeschäden.

Lastbereich, Reserven und Derating

Treiber besitzen einen spezifizierten Lastbereich und eine zulässige Umgebungstemperatur. Wird ein Treiber dauerhaft
nahe seiner Maximalleistung betrieben, steigen seine Verluste und die Bauteiltemperaturen. Viele Treiber reduzieren
dann die Leistung (Derating) oder schalten bei Übertemperatur ab. Eine professionelle Auslegung berücksichtigt daher
reale Einbaubedingungen (Temperatur am Treiberort, Wärmestau, Gehäuseeinbau, Luftbewegung) und dimensioniert so, dass
Effizienz und Reserven im Dauerbetrieb passen.

Schutzfunktionen

Typische Schutzfunktionen sind Überstromschutz, Kurzschlussschutz, Überspannungsschutz, Übertemperaturschutz,
Schutz bei offener Last sowie teils aktive Begrenzungen bei Lastspitzen. Die Robustheit gegenüber Surge/Transienten
ist in Außen- und Industrieumgebungen besonders relevant. Wichtig ist die Systemperspektive: Treiberschutz ergänzt
anlagenseitigen Schutz, ersetzt ihn aber nicht zwangsläufig, wenn die Installation hohe Einkopplungen zulässt.

Dimmung und Schnittstellen

Dimmbarkeit bedeutet mehr als „geht heller/dunkler“. Relevant sind Dimmverfahren (stromreduziert, PWM oder Mischformen),
Stabilität im unteren Dimmbereich, Minimallast, Verhalten bei mehreren Treibern an einem Bus, sowie die Interaktion mit
Steuerungsschnittstellen (z. B. 1–10 V, DALI). In der Praxis entstehen Probleme häufig durch unpassende Kombinationen
aus Steuergerät, Treiber und Leitungslängen (Signalqualität), oder durch Dimmen außerhalb des optimalen Treiberbereichs.

Treiber als Lebensdauerlimit und Servicefähigkeit

LED-Degradation ist planbar, Treiberausfälle sind oft die erste Wartungsursache. Leistungselektronik altert temperatur-
und lastabhängig. Professionelle Leuchtenkonzepte berücksichtigen deshalb thermische Entkopplung, Bauteilreserven, sowie
Zugänglichkeit und Austauschbarkeit des Treibers. Eine gut geplante Anlage denkt Wartung (Zugang, Austauschzyklen, Diagnostik)
von Beginn an mit.

↑ Zurück nach oben

Netzseitige Kenngrößen des Treibers (PF, THD, Inrush, Wirkungsgrad)

Netzrückwirkungen · Auslegung von Stromkreisen · Anlagenqualität

Neben der LED-seitigen Regelung sind netzseitige Kenngrößen wichtig, weil sie beeinflussen, wie sich eine Anlage auf das
Versorgungsnetz verhält und wie Stromkreise dimensioniert werden müssen. Diese Größen sind besonders relevant bei großen
Stückzahlen, langen Leitungen, sensiblen Anlagen oder in Industrieumgebungen.

Power Factor (PF)

Der Leistungsfaktor beschreibt das Verhältnis von Wirkleistung zu Scheinleistung. Ein niedriger PF bedeutet, dass für die
gleiche Wirkleistung höhere Ströme im Netz fließen, was Leitungen und Schutzorgane stärker belastet. In professionellen Anlagen
ist ein guter PF wichtig, um Netzbelastung und Energieverteilung effizient zu gestalten.

Total Harmonic Distortion (THD)

THD beschreibt den Anteil von Oberschwingungen im Strom. Nichtlineare Lasten (wie viele Schaltnetzteile/Treiber) können
Oberschwingungen erzeugen, die Transformatoren, Neutralleiter und andere Verbraucher belasten. In Anlagen mit vielen Treibern
ist die Oberschwingungsbetrachtung relevant, um unerwartete Erwärmung und Störungen zu vermeiden.

Einschaltstrom (Inrush Current)

Beim Einschalten können Treiber kurzzeitig sehr hohe Ströme ziehen (Inrush). Das ist insbesondere bei gleichzeitigem Einschalten
vieler Leuchten relevant, weil Sicherungen auslösen oder Schaltgeräte überlastet werden können. Eine professionelle Planung
berücksichtigt daher Inrush-Werte und die zulässige Anzahl von Treibern pro Sicherungsautomat bzw. Schaltkontakt.

Treiberwirkungsgrad

Der Wirkungsgrad des Treibers beeinflusst die Gesamtenergieeffizienz und die Eigenerwärmung des Betriebsgeräts. Niedrigerer
Wirkungsgrad bedeutet mehr Verlustwärme im Treiber – was wiederum seine Lebensdauer beeinflussen kann. Daher sind Wirkungsgrad,
thermische Einbausituation und Lastpunkt gemeinsam zu bewerten.

↑ Zurück nach oben

Überspannungsfestigkeit (Surge) und Schutzkonzepte

Transienten · Blitzinduktion · Schalthandlungen · Schutzebenen

Überspannungen entstehen durch Schalthandlungen im Netz, induzierte Impulse (z. B. Blitznähe) oder durch lange Leitungen,
die wie Antennen einkoppeln. Diese Impulse können Treiber, Steuerungsschnittstellen und LED-Module schädigen. Die im Datenblatt
angegebene Überspannungsfestigkeit (Surge) beschreibt, welchen Impulspegel der Treiber typischerweise übersteht.

Systemschutz statt Einzelbauteil-Fokus

Die Robustheit ergibt sich aus mehreren Ebenen: Treiberinterner Schutz, anlagenseitiger Überspannungsschutz (SPD),
Erdungs- und Potentialausgleichskonzept, sowie Leitungsführung. Gerade in Außenanlagen und Industrieumgebungen kann ein
zusätzliches SPD-Konzept erforderlich sein, weil die reale Einkopplung stark vom Aufbau der Installation abhängt.

Warum „sporadische“ Ausfälle typisch sind

Überspannungsschäden äußern sich oft nicht als sofortige Totalausfälle aller Leuchten, sondern als sporadische Einzelausfälle
über Wochen/Monate. Grund ist die Variabilität der Einkopplungspfade und die statistische Verteilung von Schwachstellen.
Deshalb ist ein sauberes Schutzkonzept besonders wertvoll, wenn eine Anlage hohe Verfügbarkeit benötigt.

↑ Zurück nach oben

Flicker, Modulation und zeitliches Lichtverhalten

Wahrnehmung · Kameraeffekte · Dimmung · Treiberarchitektur

Flicker beschreibt zeitliche Schwankungen des Lichtstroms. Diese können sichtbar sein oder unterhalb der bewussten Wahrnehmung
liegen. Auch nicht bewusst wahrnehmbarer Flicker kann Auswirkungen haben: bei sensiblen Personen (Ermüdung, Unbehagen),
in Arbeitsumgebungen mit hoher visueller Belastung, bei rotierenden Maschinen (Stroboskopeffekte) oder bei Kamera-/Sensorik-
Anwendungen (Banding, Flimmern).

Typische Ursachen in LED-Systemen

Ursachen sind u. a. Restwelligkeit im Treiber, unzureichende Glättung, netzabhängige Modulation, sowie Dimmverfahren
(PWM oder Mischformen). Besonders relevant ist das Verhalten im unteren Dimm-Bereich, bei geringer Last oder bei Kombinationen
mehrerer Treiber an einem Steuerbus. Daher ist „flimmerfrei“ eine Systemeigenschaft – nicht nur eine LED-Eigenschaft.

Kamera- und Maschinenvision

Kameras arbeiten mit Belichtungszeiten und häufig mit Rolling-Shutter. Modulationen, die dem Auge kaum auffallen, können in
Videoaufnahmen deutlich sichtbar werden. In Umgebungen mit Video, Streaming, Prüfkameras oder Machine Vision sollten daher
zeitliche Lichtanforderungen explizit spezifiziert und mit geeigneten Treibern und Dimmkonzepten realisiert werden.

↑ Zurück nach oben

Lebensdauer, Degradation und Lx/By

Lichtstromrückgang · Statistik · Systemlebensdauer

Bei LED-Systemen bedeutet Lebensdauer typischerweise nicht „bis zum Ausfall“, sondern Lichtstromrückgang und
Eigenschaftsänderungen über die Zeit. Angaben wie L80/B10 beschreiben statistisch, welcher Anteil einer Population
nach einer definierten Betriebsdauer noch einen bestimmten Lichtstromanteil erreicht.

Was Lx/By aussagt – und was nicht

Lx/By-Angaben basieren auf definierten Prüf- und Modellbedingungen. In realen Anwendungen wirken zusätzliche Einflüsse:
höhere Umgebungstemperaturen, Wärmestau, häufiges Schalten, abweichende Dimmprofile, Verschmutzung oder chemische Belastungen.
Diese Faktoren können Degradationsraten erhöhen oder die Streuung vergrößern. Daher müssen Lebensdauerangaben immer im Kontext
des realen Betriebsprofils interpretiert werden.

Systemlebensdauer: LED, Treiber, Optik, Dichtungen

Die wirtschaftliche Lebensdauer einer Leuchte wird oft durch den Treiber oder durch optische/materialbedingte Alterung begrenzt,
nicht allein durch LED-Degradation. Optiken können vergilben oder verschmutzen, Dichtungen altern, Kontaktstellen verändern sich
durch thermische Zyklen. Professionelle Lösungen berücksichtigen deshalb Servicekonzepte, Austauschbarkeit und robuste Materialien.

↑ Zurück nach oben

LM-80 und TM-21 (Lebensdauerbewertung von LED-Lichtquellen)

Messmethoden · Extrapolation · Interpretationsgrenzen

LM-80 ist ein etabliertes Verfahren zur Messung des Lichtstromrückgangs von LED-Lichtquellen unter definierten Bedingungen
(z. B. bei bestimmten Temperaturen und Strömen) über eine Messdauer. TM-21 ist eine Methode zur Extrapolation dieser
Messdaten, um Aussagen über längere Zeiträume abzuleiten.

Warum das wichtig ist

Diese Methoden helfen, Degradation nachvollziehbar zu dokumentieren. Für die Praxis ist entscheidend, dass die Aussagekraft
von der Ähnlichkeit zwischen Prüfbedingungen und realen Betriebsbedingungen abhängt. Wenn reale Temperaturen, Ströme oder
Umgebungsbedingungen deutlich abweichen, kann die Extrapolation die Realität nicht vollständig abbilden. Daher sollte bei
anspruchsvollen Projekten die thermische Auslegung so erfolgen, dass reale Junction-Temperaturen im geplanten Rahmen bleiben.

Systemperspektive bleibt notwendig

LM-80/TM-21 bezieht sich primär auf LED-Lichtquellen/Packages, nicht automatisch auf die vollständige Leuchte inklusive Treiber,
Optik und mechanischer Integration. Eine professionelle Bewertung kombiniert daher LED-Degradation (LM-80/TM-21) mit
Treiberzuverlässigkeit, thermischem Design, Materialauswahl und Wartungsstrategie.

↑ Zurück nach oben

Kapitel 04 – Blendung, Leuchtdichte & visuelle Wahrnehmung

Für die visuelle Beurteilung von Beleuchtung ist die Beleuchtungsstärke (Lux) nur ein Teil der Wahrheit.
Menschen „sehen“ keine Luxwerte, sondern reagieren auf Leuchtdichten im Blickfeld und auf deren
räumliche und zeitliche Verteilung. Eine Beleuchtung kann normkonform hohe Luxwerte liefern und dennoch als
unangenehm, ermüdend oder sogar unsicher empfunden werden – etwa durch zu helle, kleine Leuchtflächen,
starke Spiegelungen oder extreme Helligkeitsunterschiede zwischen Decke, Wänden und Arbeitszone.

Blendung ist deshalb kein Randthema, sondern ein zentrales Qualitätskriterium. Sie beeinflusst Sehkomfort,
Leistungsfähigkeit, Sicherheit und Akzeptanz. Moderne LED-Technologie kann sehr hohe Leuchtdichten erzeugen;
ohne gezielte Entblendung und eine passende Leuchtdichtearchitektur steigt das Blendungspotenzial deutlich.

Leuchtdichte

cd/m² · Helligkeitseindruck · zentrale Wahrnehmungsgröße

Die Leuchtdichte (Einheit: cd/m²) beschreibt die Lichtstärke, die von einer Fläche
in eine bestimmte Richtung abgegeben wird, bezogen auf deren projizierte Fläche. Sie ist die photometrische
Größe, die dem Helligkeitseindruck am nächsten kommt: Das Auge bewertet Helligkeit primär über Leuchtdichten
im Blickfeld – nicht über die Beleuchtungsstärke auf einer Ebene.

Leuchtdichte vs. Beleuchtungsstärke

Beleuchtungsstärke (Lux) beschreibt, wie viel Licht auf einer Fläche ankommt. Leuchtdichte beschreibt, wie hell
eine Fläche erscheint. Zwei Räume können die gleiche Beleuchtungsstärke am Arbeitsplatz aufweisen, aber völlig
unterschiedlich wirken, wenn z. B. Wände und Decke dunkel bleiben oder wenn Leuchten sehr kleine,
extrem helle Austrittsflächen besitzen.

Leuchtdichteverteilung und Kontrast

Für Sehkomfort sind nicht nur absolute Leuchtdichten relevant, sondern vor allem deren Verteilung im Gesichtsfeld.
Sehr helle Einzelbereiche (Leuchten, Lichtfenster, Reflexe) neben großen dunklen Flächen erzeugen hohe Kontraste.
Das führt zu häufigen Adaptationswechseln und kann zu Ermüdung, reduzierter Kontrastwahrnehmung und subjektivem
Unbehagen führen – auch bei „ausreichenden Luxwerten“.

Leuchtdichte, LED und Entblendung

LEDs können hohe Leuchtdichten auf kleinen Flächen erzeugen. Das ist für effiziente Lichtlenkung vorteilhaft,
erhöht jedoch das Blendungspotenzial. Entblendung ist deshalb in LED-Systemen nicht optional, sondern
ein Kernbestandteil der optischen Konstruktion (z. B. Raster, Linsen mit Cut-off, tief liegende
Lichtaustritte, Diffusoren mit geeigneter Mikrostruktur).

Praxis: Warum „zu hell“ oft falsch diagnostiziert wird

In der Praxis wird Unbehagen häufig als „zu hell“ beschrieben, obwohl die Ursache oft eine einzelne Quelle
hoher Leuchtdichte, eine Reflexion oder ein unbalanciertes Verhältnis zwischen Arbeitszone und Umgebung ist.
Die technische Lösung ist dann nicht zwingend „weniger Lux“, sondern eine andere Leuchtengeometrie,
eine angepasste Abstrahlung und eine bewusst gestaltete Leuchtdichteverteilung im Raum.

↑ Zurück nach oben

Blendung

Direktblendung · Reflexblendung · Unbehagen vs. Sehleistungsreduktion

Blendung ist eine Beeinträchtigung des Sehens oder des Sehkomforts, ausgelöst durch hohe Leuchtdichten
oder ungünstige Leuchtdichteverteilungen im Gesichtsfeld. Blendung ist nicht nur „unangenehm“: Je nach Art und Stärke
kann sie Kontraste reduzieren, Details verdecken und damit die Sehleistung messbar verschlechtern.

Direktblendung (direkte Blendung)

Direktblendung entsteht, wenn Leuchten oder Leuchtflächen mit hoher Leuchtdichte im Blickfeld liegen – entweder
direkt betrachtet oder im peripheren Sehen. Sie ist stark abhängig von Blickrichtung, Einbauhöhe, Abstrahlwinkel
und Abschirmung. Besonders kritisch sind Sichtlinien entlang von Verkehrswegen, Arbeitsplätzen und Bildschirmpositionen.

Reflexblendung / Schleierreflexe (veiling reflections)

Reflexblendung entsteht durch Spiegelungen auf glänzenden oder halbglänzenden Flächen (Bildschirme, Glas,
polierte Metalle, beschichtete Arbeitsflächen, Maschinenoberflächen). Die Reflexion erzeugt im Blickfeld eine
zusätzliche Leuchtdichte, die Kontraste „überlagert“ (Schleier) und Details schwer erkennbar macht.
Häufig ist Reflexblendung das dominierende Problem an Bildschirmarbeitsplätzen – selbst dann, wenn UGR-Werte
der Raumbeleuchtung formal eingehalten werden.

Unbehaglichkeitsblendung vs. Behinderungsblendung

Unbehaglichkeitsblendung beschreibt subjektives Unbehagen ohne zwingend messbare Sehleistungsreduktion.
Behinderungsblendung (Disability Glare) reduziert die Sehleistung messbar, z. B. durch Streulicht im Auge,
das einen Schleier auf die Netzhaut legt und Kontraste verringert. Beide sind in professionellen Anwendungen relevant:
Unbehaglichkeitsblendung beeinflusst Akzeptanz und Ermüdung, Behinderungsblendung beeinflusst Sicherheit und Fehlerquote.

Blendung ist ein Systemeffekt

Blendung ist keine „Eigenschaft einer Leuchte“, sondern entsteht aus dem Zusammenspiel von Leuchtdichte,
Raumgeometrie, Blickrichtungen, Montagehöhe, Leuchtenanordnung, Oberflächenreflexion und Umgebungsleuchtdichte.
Eine Leuchte kann in einem Raum sehr gut funktionieren und in einem anderen – mit anderen Sichtlinien
oder Oberflächen – problematisch sein.

Typische Ursachen in der Praxis

  • Sehr kleine, sehr helle Austrittsflächen (hohe Leuchtdichte), ohne ausreichenden Cut-off.
  • Leuchtenpositionen im direkten Blickfeld (z. B. entlang von Gängen oder gegenüber von Arbeitsplätzen).
  • Zu geringe Umgebungsleuchtdichte (dunkle Wände/Decke), wodurch Leuchten besonders „hart“ kontrastieren.
  • Glänzende Oberflächen/Displays ohne Berücksichtigung der Spiegelgeometrie.
  • Nachträgliche Änderungen (Möblierung, Bildschirmposition, Maschinen) ohne Anpassung der Beleuchtung.

↑ Zurück nach oben

UGR (Unified Glare Rating)

Bewertungsverfahren für Direktblendung · Planungswert · Grenzen

UGR ist ein standardisiertes Bewertungsverfahren für Unbehaglichkeits-Direktblendung
durch Leuchten in Innenräumen. Der UGR-Wert ist dimensionslos und basiert auf einem Modell, das Leuchtdichten der Leuchten,
deren scheinbare Größe (vom Beobachter aus), Position im Blickfeld sowie die Umgebungsleuchtdichte berücksichtigt.

Was UGR bewertet – und was nicht

  • Bewertet: psychologische Direktblendung durch Leuchten im Blickfeld in standardisierten Situationen.
  • Nicht bewertet: Reflexblendung auf Bildschirmen/Flächen, Behinderungsblendung, individuelle Empfindlichkeit,
    dynamische Blickrichtungen, stark atypische Raumgeometrien oder Sonderfälle (z. B. sehr hohe Decken mit extremen Sichtlinien).

UGR-Skala (typische Stufen)

In der Praxis wird UGR häufig in Stufen verwendet. Kleine Unterschiede können dennoch sichtbar sein, insbesondere bei
hohen Anforderungen an Sehkomfort.

UGR-WertTypische EinordnungPraktische Bedeutung
UGR 10 / 13sehr geringe Blendunggeeignet für sehr anspruchsvolle visuelle Aufgaben, hochwertige Räume, sensible Nutzergruppen
UGR 16niedrige Blendunghäufig für Bereiche mit hoher visueller Anforderung; komfortorientierte Planung
UGR 19begrenzte Blendungtypischer Richtwert für Büroarbeitsplätze und Bildschirmarbeit (raumbezogene Direktblendung)
UGR 22moderate Blendunghäufig für allgemeine industrielle Tätigkeiten und Nebenbereiche
UGR 25erhöhte Blendungfür grobe Tätigkeiten oder Bereiche mit geringer visueller Anforderung; Komfort sinkt deutlich
UGR 28hohe Blendungnur dort akzeptabel, wo Sehkomfort nachrangig ist; erhöhtes Risiko für Unbehagen/Ermüdung

Typische UGR-Anforderungen nach Nutzung

Die folgenden Werte sind verbreitete Planungsrichtwerte in der Innenraumbeleuchtung. Sie ersetzen keine projektspezifische
Betrachtung von Sichtlinien, Oberflächen und Sehaufgaben.

Anwendungsbereich (Beispiele)Typischer UGR-GrenzwertHinweise zur Praxis
Büroarbeitsplätze, BildschirmarbeitUGR ≤ 19Zusätzlich Reflexblendung auf Monitoren berücksichtigen; Leuchtenpositionierung und Abstrahlung entscheidend.
Besprechung, Schulung, KlassenräumeUGR ≤ 19Wechselnde Blickrichtungen (Tafel/Screen) erhöhen die Relevanz von Sichtlinien und vertikaler Beleuchtung.
Allgemeine Industriearbeit, MontageUGR ≤ 22Bei Präzisionsmontage oder visueller Prüfung sind strengere Werte sinnvoll; Maschinenoberflächen können Reflexblendung erzeugen.
Verkehrsflächen, Flure, NebenräumeUGR ≤ 25Wichtig sind Sichtkomfort und Orientierung; zu harte Kontraste vermeiden, um Adaptation zu stabilisieren.
Lagerbereiche mit geringerer visueller AnforderungUGR ≤ 25 / 28Bei Staplerverkehr und Blickrichtungen in die Höhe kann Direktblendung sicherheitsrelevant werden.

Wie UGR rechnerisch entsteht (Prinzip)

UGR basiert auf einer Summation der Beiträge einzelner Leuchten im Blickfeld, gewichtet nach deren Leuchtdichte,
ihrer scheinbaren Größe und ihrer Position relativ zur Blickrichtung, und normiert auf die Umgebungsleuchtdichte.
Entscheidend ist: UGR reagiert stark auf hohe Leuchtdichten kleiner Flächen und auf ungünstige
Positionen in Blicknähe.

UGR ~ 8 * log10( ( Σ ( L² * ω / p² ) ) / Lb )

Hinweis zur Interpretation: Die Formel zeigt, warum kleine, sehr helle Flächen (hohe Leuchtdichte L) besonders kritisch sind
und warum eine höhere Umgebungsleuchtdichte (Lb) Blendung subjektiv oft reduziert.

Typische Fallstricke bei UGR-Angaben

  • UGR-Werte sind meist für standardisierte Räume/Betrachtungen berechnet; reale Geometrie und Blickrichtungen können abweichen.
  • UGR bezieht sich auf Direktblendung – Reflexe auf Monitoren/Glasflächen sind ein eigenes Thema.
  • Ein „UGR 19“-Label kann je nach Linsen-/Rasterkombination und Einbaulage im Projekt unterschiedlich empfunden werden.
  • Sehr hohe Decken oder ungewöhnliche Anordnungen können dazu führen, dass die reale Blendungssituation nicht gut abgebildet wird.

Praktische Konsequenz

UGR ist ein wichtiges Werkzeug, aber kein alleiniger Qualitätsnachweis. Für professionelle Ergebnisse werden UGR,
Leuchtdichtearchitektur (Wände/Decke), Reflexgeometrien und die tatsächlichen Sichtlinien im Raum gemeinsam betrachtet.

↑ Zurück nach oben

Adaptation des Auges

Hell-/Dunkeladaptation · Kontrast · Ermüdung · Leistungsfähigkeit

Adaptation ist die Fähigkeit des visuellen Systems, sich an unterschiedliche Helligkeitsniveaus anzupassen.
Sie umfasst photochemische Prozesse in den Rezeptoren sowie neuronale Anpassungen. Adaptation bestimmt, wie gut Kontraste,
Details und Bewegungen wahrgenommen werden – und wie schnell Ermüdung eintritt.

Warum Adaptation in Innenräumen oft unterschätzt wird

In vielen Innenräumen ist die Arbeitszone (Tisch/Arbeitsfläche) relativ gut beleuchtet, während Wände und Decke vergleichsweise
dunkel bleiben. Gleichzeitig sind Leuchten sehr hell sichtbar. Das Auge springt dann ständig zwischen Bereichen sehr unterschiedlicher
Leuchtdichte. Diese Adaptationswechsel kosten „visuelle Ressourcen“ und können dazu führen, dass Nutzer die Beleuchtung als
anstrengend empfinden – selbst bei perfekten Luxwerten.

Adaptation, Alter und Sehaufgabe

Mit zunehmendem Alter sinkt die Fähigkeit, hohe Kontraste schnell zu verarbeiten, und Blendempfindlichkeit nimmt typischerweise zu.
In Arbeitsbereichen mit hoher visueller Anforderung (Feinmontage, Prüfung, Lesen, Bildschirmarbeit) ist eine stabile Adaptation
besonders wichtig. Das spricht häufig für ausgewogene Leuchtdichten im Raum und gegen punktuelle „Hotspots“.

Planungsrelevanz

  • Umgebungshelligkeit (Wände/Decke) so gestalten, dass Leuchten nicht „isoliert“ als extrem helle Elemente wirken.
  • Harte Kontraste vermeiden, die den Blick ständig in und aus sehr hellen Bereichen zwingen.
  • Vertikale Beleuchtung als Werkzeug nutzen, um Adaptation zu stabilisieren und Raumhelligkeit zu erhöhen.

↑ Zurück nach oben

Vertikale Beleuchtung

Wandhelligkeit · Raumwahrnehmung · Orientierung · Blendungsreduktion

Vertikale Beleuchtung beschreibt die Beleuchtung von Wänden, Regalen, Trennwänden und anderen vertikalen Flächen.
Sie beeinflusst unmittelbar die wahrgenommene Raumhelligkeit und die visuelle Orientierung. Menschen nehmen Innenräume stark über
vertikale Flächen wahr; sind diese dunkel, wirkt der Raum trotz hoher Arbeitsbeleuchtung oft „höhlenartig“.

Warum vertikale Beleuchtung Blendung reduzieren kann

Blendung ist häufig ein Kontrastproblem: Sehr helle Leuchten treffen auf eine dunkle Umgebung. Wird die Umgebung (Wände/Decke)
heller, sinkt der Leuchtdichtekontrast im Gesichtsfeld. Das kann Direktblendung subjektiv reduzieren und den Raum „ruhiger“ wirken lassen.
Vertikale Beleuchtung ist damit ein strategisches Mittel, um Sehkomfort zu erhöhen, ohne zwangsläufig die Arbeitsbeleuchtungsstärke zu erhöhen.

Typische Fehlplanung

Häufig wird ausschließlich horizontale Beleuchtungsstärke optimiert. Das kann zu hohen Luxwerten am Tisch führen, während Wände dunkel bleiben.
Die Folge sind starke Kontraste und eine Beleuchtung, die zwar „stark“ ist, aber nicht als angenehm empfunden wird. In professioneller Planung
werden daher horizontale und vertikale Komponenten gemeinsam betrachtet.

Praxis in Arbeits- und Industrieumgebungen

In Industrieumgebungen unterstützt vertikale Beleuchtung die Orientierung (Regalbeschriftungen, Wegführung, Sicherheitskennzeichnungen)
und kann die visuelle Erkennbarkeit von Hindernissen verbessern. Gleichzeitig muss darauf geachtet werden, dass vertikale Beleuchtung
nicht neue Reflexblendungsprobleme auf glänzenden Oberflächen erzeugt.

↑ Zurück nach oben

Reflexionen, Oberflächen und Spiegelgeometrie

Reflexionsgrad · diffuse/gerichtete Reflexion · Bildschirmarbeit

Oberflächen bestimmen, wie Licht im Raum weiterverteilt wird. Matte, helle Oberflächen reflektieren Licht überwiegend diffus und
unterstützen eine gleichmäßige Leuchtdichteverteilung. Dunkle Oberflächen absorbieren Licht und erhöhen Kontraste. Glänzende oder
strukturierte Oberflächen können gerichtete Reflexe erzeugen, die als Spiegelungen störend werden.

Reflexionsgrade als Planungsgröße

Reflektierende Eigenschaften von Decke, Wand und Boden beeinflussen die notwendige Leuchtenleistung und den Sehkomfort. Ein Raum mit
dunklen Wänden benötigt nicht nur mehr Licht, sondern wird bei gleicher Leuchtenausführung meist blendkritischer, weil die Umgebung
dunkel bleibt und die Leuchten stärker kontrastieren.

Bildschirmarbeit und Schleierreflexe

Displays sind selten perfekte Diffusoren. Je nach Oberflächenfinish (glänzend, semi-matt) entstehen Spiegelbilder oder Schleierreflexe.
Entscheidend ist die Spiegelgeometrie: Leuchte → reflektierende Fläche → Auge. Leuchtenpositionen, Abstrahlcharakteristik
und Arbeitsplatzorientierung müssen so gewählt werden, dass kritische Reflexwege vermieden werden. Das ist ein häufiger Grund, warum eine
Beleuchtung trotz „UGR 19“ als problematisch empfunden werden kann: UGR bewertet Direktblendung, nicht Reflexblendung.

Praxisfolgen bei industriellen Oberflächen

In Industrie- und Produktionsbereichen sind glänzende Maschinen, Edelstahl, Folienverpackungen oder lackierte Bauteile häufig.
Spiegelungen können nicht nur stören, sondern Details und Fehlererkennung erschweren. Die Lösung liegt oft in einer gezielten
Anordnung der Leuchten, geeigneten Abstrahlwinkeln und einer Leuchtdichteverteilung, die Reflexe minimiert, ohne Schattenbildung zu verstärken.

↑ Zurück nach oben

Leuchtdichteverhältnisse (Kontrastverhältnisse) im Gesichtsfeld

Kontrast · Ermüdung · visuelle Leistung · typische Planungslogik

Neben UGR sind Leuchtdichteverhältnisse ein zentrales Qualitätskriterium. Sehr hohe Kontraste zwischen Sehaufgabe
(z. B. Bildschirm/Arbeitsfläche) und Umgebung erschweren stabile Adaptation und können Ermüdung fördern. Gute Beleuchtung strebt
daher nicht nur ausreichende Werte auf der Sehaufgabe an, sondern eine „stimmige“ Helligkeitsarchitektur im Raum.

Warum hohe Luxwerte Kontrastprobleme verschärfen können

Wird die Beleuchtungsstärke auf der Arbeitsfläche stark erhöht, ohne die Umgebungshelligkeit mit anzuheben (Wände/Decke), wächst der
Leuchtdichteunterschied zwischen Arbeitszone und Umgebung. Nutzer empfinden das häufig als „hartes Licht“. Professionelle Planung erhöht
daher häufig die Umgebungsleuchtdichte (vertikale/indirekte Anteile) statt ausschließlich die Arbeitsflächen zu überbeleuchten.

Praktischer Umgang in Projekten

  • Sehaufgabe, unmittelbare Umgebung und Hintergrund als zusammenhängendes visuelles System betrachten.
  • Leuchten so wählen, dass Leuchtflächen nicht als „helle Punkte“ dominieren, sondern in die Raumhelligkeit integriert sind.
  • Bei LED-Systemen auf Abschirmwinkel, Raster-/Linsenkonzepte und Einbaulagen achten, um hohe Leuchtdichten zu kontrollieren.

↑ Zurück nach oben

Kapitel 05 – Lichtfarbe, Farbwiedergabe & spektrale Qualität

In der Lichttechnik werden Lichtqualität und „angenehmes Licht“ häufig zu stark vereinfacht.
Für professionelle Gebäude- und LED-Beleuchtung ist entscheidend zu verstehen, dass der visuelle Eindruck nicht
aus einer einzigen Zahl (z. B. Kelvin oder Ra) folgt, sondern aus dem Zusammenspiel von Spektrum,
Farbort, Farbwiedergabe, Leuchtdichteverteilung, Umgebungsmaterialien,
Adaption des Auges sowie der konkreten Sehaufgabe. Moderne LED-Systeme bieten große Freiheitsgrade – und genau deshalb
müssen Begriffe wie CCT, CRI, TM‑30, Binning und Farbstabilität präzise eingeordnet werden, um Fehlentscheidungen
und spätere Reklamationen zu vermeiden.

Dieses Kapitel ist so geschrieben, dass ein Leser nach dem jeweiligen Begriff nicht nur „ungefähr weiß, was gemeint ist“,
sondern die technische Bedeutung, die Grenzen der Kennzahlen, typische Fehlerbilder und die planerischen Konsequenzen
sicher beherrscht.

Lichtfarbe

Farbeindruck des Lichts · Ergebnis aus Spektrum und Wahrnehmung · nicht gleich „Kelvin“

Die Lichtfarbe beschreibt den Farbeindruck des von einer Lichtquelle ausgesendeten Lichts.
Sie ist ein Wahrnehmungsphänomen, das aus der spektralen Zusammensetzung des Lichts und der Verarbeitung durch
das menschliche Sehsystem entsteht. In der Praxis wird Lichtfarbe häufig über die korrelierte Farbtemperatur (CCT)
kommuniziert – fachlich korrekt ist jedoch: Lichtfarbe ist immer eine Systemeigenschaft aus Spektrum,
Farbort, Farbwiedergabe, Umfeld und Betrachtungssituation.

Physikalische Grundlage: Spektrale Leistungsverteilung

Jede Lichtquelle besitzt eine spektrale Leistungsverteilung (SPD). Sie beschreibt, wie viel Strahlungsleistung die Lichtquelle
über die sichtbaren Wellenlängen verteilt. Thermische Strahler (Glüh-/Halogenlampen) besitzen ein kontinuierliches Spektrum,
das mit steigender Temperatur „blauer“ wird. Weiße LEDs basieren meist auf einem blauen Primärchip mit Phosphorkonversion,
wodurch ein ausgeprägter Blaupeak und breitbandige Phosphoranteile entstehen. Diese Struktur ist die Hauptursache dafür,
dass zwei Leuchten mit gleichem Kelvinwert im Raum sehr unterschiedlich wirken können.

Wahrnehmungsphysiologie: Warum Menschen Lichtfarbe „relativ“ sehen

Das visuelle System passt sich an das dominierende Lichtniveau und den dominierenden Farbeindruck an (chromatische Adaption).
Dadurch wirkt dieselbe Lichtquelle in unterschiedlichen Kontexten anders: In einem Raum mit warmen Holzoberflächen und
warmen Wandfarben erscheint neutralweißes Licht häufig „kühler“ als in einem Raum mit grauen oder bläulichen Flächen.
Ebenso verändert Mischlicht (z. B. Tageslicht + LED) den Farbeindruck – häufig unbemerkt, aber mit deutlichen Folgen
für Materialbeurteilung, Hauttöne und Markenwahrnehmung.

Lichtfarbe im Raum: Interaktion mit Oberflächen, CRI/TM‑30 und Leuchtdichte

Lichtfarbe wird selten direkt am Leuchtmittel „gesehen“, sondern über reflektiertes Licht von Flächen. Deshalb beeinflussen
Reflexionsgrade, Oberflächenfarben und -glanz sowohl den Farbeindruck als auch die Farbwiedergabe. Hochglänzende Flächen können
zudem spektrale „Hotspots“ als Spiegelbilder erzeugen. Außerdem ist die Lichtfarbe nicht von der Leuchtdichte zu trennen:
Sehr helle, kleine Lichtaustrittsflächen können trotz „passender“ Lichtfarbe als unangenehm empfunden werden, weil Blendung
und Kontrastdominanz den Gesamteindruck überlagern.

Typische Fehlinterpretationen (und wie man sie fachlich vermeidet)

  • „3000 K ist immer gleich“: Falsch. Kelvin beschreibt nur eine grobe Farbeinordnung; Spektrum und Farbortlage (Duv) können stark variieren.
  • „Warmweiß bedeutet gute Farbwiedergabe“: Falsch. Warmweiß kann CRI 70 oder CRI 97 haben – mit sehr unterschiedlichen Materialwirkungen.
  • „Lichtfarbe entscheidet allein über Atmosphäre“: Unvollständig. Raumhelligkeit (vertikale Beleuchtung), Leuchtdichteverteilung und Kontraste sind ebenso prägend.

Planungs- und Produktauswahl: Was in der Praxis wirklich festgelegt werden muss

Professionell festgelegt werden sollten mindestens: Ziel-CCT (mit Toleranz), gewünschte Farbwiedergabegüte (CRI/TM‑30),
Farborttoleranz (SDCM), Farbortlage (Duv/„rosig“ vs. „grünlich“), Konsistenz über Chargen sowie die erwartete Farbstabilität
über Lebensdauer und Temperatur. Insbesondere in linearen Lichtsystemen und in repräsentativen Bereichen ist Konsistenz
oft wichtiger als „ein bisschen mehr Lumen“.

↑ Zurück nach oben

Korrelierte Farbtemperatur (CCT)

Kelvin · Einordnung von Weißtönen · notwendige, aber nicht hinreichende Kennzahl

Die korrelierte Farbtemperatur (CCT) ordnet den Farbeindruck einer Lichtquelle einer idealen Temperaturstrahlung
(Schwarzer Strahler) zu, deren Farbe dem Licht am nächsten kommt. Sie wird in Kelvin (K) angegeben und dient als
Standardklassifikation für Weißlicht (warmweiß, neutralweiß, kaltweiß).

Übliche CCT-Bereiche (Praxis-Klassifikation)

CCTBezeichnungTypische Wirkung & Einsatz
< 2700 Ksehr warmweißAtmosphäre, Hospitality, Wohnumfelder; reduziert „technische“ Anmutung, kann aber visuelle Präzision mindern.
2700–3000 KwarmweißWohnen, Empfang, Retail (Lifestyle/Mode), Gastronomie; häufig guter Kompromiss aus Behaglichkeit und Erkennbarkeit.
3300–4000 KneutralweißBüro, Bildung, Industrie, Allgemeinbeleuchtung; sachlich, leistungsorientiert, oft normtypischer Bereich.
4000–5300 KkaltweißTechnische Bereiche, Logistik, Produktion; wirkt „klar“ und kontrastreich, erhöht aber Blend- und Härteempfinden bei falscher Lichtführung.
> 5300 KtageslichtweißPrüf- und Sonderanwendungen, Außenbereiche; starke Aktivierung möglich, aber nicht automatisch bessere Farbwiedergabe.

Was CCT zuverlässig aussagt

  • Grobe Einordnung des Weißtons (rötlicher vs. bläulicher Farbeindruck).
  • Orientierung für Nutzererwartung und gestalterische Einbindung.
  • Vergleichbarkeit innerhalb ähnlicher Spektralfamilien – aber nur eingeschränkt.

Was CCT nicht aussagt (kritische Grenzen)

  • Nicht die Farbwiedergabegüte (CRI/TM‑30 können bei gleicher CCT stark variieren).
  • Nicht die Farbortlage ober- oder unterhalb der Planck-Kurve (Duv → rosig vs. grünlich).
  • Nicht die spektrale Kontinuität (Lücken/Peaks) – entscheidend für Material- und Hauttöne.
  • Nicht Blendung, Sehkomfort oder Raumhelligkeitswahrnehmung.

Typische Fehlannahmen und deren Folgen

Ein häufiger Fehler ist die Annahme, dass „höhere Kelvin = besseres Sehen“ bedeute. In Wahrheit kann kaltweißes Licht bei hoher
Leuchtdichte und schlechten Kontrasten zu stärkerer Blendempfindung führen. Ein anderer häufiger Fehler ist, CCT als
Qualitätsmerkmal zu verwenden („4000 K ist professioneller“). Professionalität ergibt sich jedoch aus Homogenität, Farbstabilität,
Entblendung, Farbwiedergabe und der passenden Lichtführung – nicht aus einer Kelvinzahl.

Planungssicherheit: Toleranzen, Mischung und Nachbeschaffung

In Projekten ist nicht nur die Ziel-CCT relevant, sondern auch die zulässige Abweichung (z. B. über SDCM und Duv).
Mischinstallationen (Leuchten unterschiedlicher Serien oder Hersteller) mit nominal gleicher CCT führen häufig zu sichtbar
unterschiedlichen Weißtönen. In linearen Lichtbändern oder in Reiheninstallationen wird dies besonders schnell wahrgenommen.
Deshalb müssen Nachbeschaffung, Chargenkonsistenz und Binning-Strategie bereits vorab bedacht werden.

↑ Zurück nach oben

Farbort (Chromatizität) & Duv

Exakte Lage der Lichtfarbe im Farbraum · „rosig“ vs. „grünlich“ · entscheidend für Wahrnehmung

Der Farbort beschreibt die exakte Position einer Lichtfarbe in einem Farbraum (z. B. CIE 1931 xy oder CIE u′v′).
Während CCT eine Einordnung entlang der Planck-Kurve liefert, beschreibt der Farbort die tatsächliche Lage – und damit auch Abweichungen
oberhalb oder unterhalb dieser Kurve. Diese Abweichung wird häufig als Duv angegeben.

Warum Duv in der Praxis extrem wichtig ist

Zwei Leuchten können beide „3000 K“ haben, aber unterschiedlich wirken, wenn eine leicht oberhalb der Planck-Kurve liegt
(häufig als „grünlich“ empfunden) und die andere darunter (häufig als „rosig“/„magenta“ empfunden).
Gerade bei hohen Anforderungen an Anmutung (Retail, Office, repräsentative Bereiche) oder in linearen Anwendungen
ist Duv ein entscheidender Qualitäts- und Konsistenzfaktor.

Typische Wahrnehmungsfolgen

  • Grünstich wird oft als „billig“, „kränklich“ oder „unruhig“ wahrgenommen, besonders auf hellen, neutralen Flächen.
  • Rosiger Weißton kann als „wärmer“ und angenehmer empfunden werden, kann aber Materialien ebenfalls beeinflussen.
  • In Mischinstallationen werden Duv-Unterschiede oft stärker wahrgenommen als kleine CCT-Unterschiede.

Praxis: Spezifikation und Vergleich

Für hochwertige Projekte sollte neben CCT und CRI/TM‑30 auch eine Zielvorgabe bzw. ein Grenzbereich für Duv/Chromatizität definiert werden.
Entscheidend ist die Konsistenz: Ein „sehr guter“ Duv-Wert nützt wenig, wenn Nachlieferungen später außerhalb des Bereichs liegen.
In solchen Fällen entstehen sichtbare Streifen- oder Fleckenbilder, obwohl alle Leuchten „nominell“ korrekt spezifiziert sind.

↑ Zurück nach oben

Arten von Lichtfarben

Statische Weißlichtfarben · Tunable White · RGB/RGBW · spektral optimierte Lichtfarben

„Welche Lichtfarben gibt es?“ ist fachlich nur dann korrekt beantwortet, wenn nicht nur Kelvin-Bereiche genannt werden, sondern auch die
technischen Systeme, mit denen Lichtfarben erzeugt und verändert werden. In der Praxis entscheidet das Konzept (statisch, tunable, multikanal),
wie stabil, konsistent und farbtreu ein Beleuchtungssystem ist.

Statische Weißlichtfarben (fixe CCT)

Statische Weißlichtfarben besitzen eine feste spektrale Zusammensetzung und einen festen Farbort. Sie sind in vielen Anwendungen sinnvoll,
weil sie konsistent, einfach zu planen und robust sind. Entscheidend ist jedoch die Qualität innerhalb der Fix-CCT:
Zwei „4000 K“-Leuchten können hinsichtlich Duv, CRI/TM‑30, Binning und Farbstabilität stark differieren.

Tunable White (variierbare CCT)

Tunable-White-Systeme verändern die Lichtfarbe über zwei oder mehr LED-Kanäle (typisch warmweiß + kaltweiß).
Dadurch verschiebt sich CCT – gleichzeitig ändert sich häufig das Spektrum (u. a. Blauanteil, Rotanteil), wodurch
Farbwiedergabe und Materialwirkung über den Regelbereich variieren können. Professionell bewertet wird daher nicht nur
„CCT 2700–6500 K“, sondern zusätzlich:

  • Farbwiedergabe (CRI/TM‑30) an mehreren Stützstellen über den gesamten Bereich.
  • Duv-Verlauf (bleibt der Weißton im gesamten Bereich „sauber“?).
  • Konsistenz bei Gruppendimmung und in Netzwerken (sehen alle Leuchten bei gleicher Ansteuerung wirklich gleich aus?).
  • Thermische Stabilität (verändert sich der Farbort bei hoher Leistung/Temperatur?).

RGB, RGBW, RGBA und Multikanal-Systeme

RGB-Licht entsteht aus additiver Mischung von Rot, Grün und Blau. Damit können kräftige Farben erzeugt werden; reines Weiß aus RGB ist
jedoch meist spektral lückenhaft und farbwiedergabeschwach. RGBW ergänzt einen Weißkanal, RGBA ergänzt Amber, Multikanal-Konzepte
(z. B. RGBCW, RGBACL) verbessern Farbraum und Weißqualität, erhöhen aber Systemkomplexität (Regelung, Kalibrierung, Alterungskompensation).

Entscheidend ist: In Anwendungen mit Farbbeurteilung (Retail, Medizin, Qualitätsprüfung) ist „bunt kann sie“ kein Qualitätsmerkmal.
Bewertet werden müssen Weißqualität, Farbkonsistenz, Dimmverhalten, Farbstabilität und Regelstrategie.

Spektral optimierte Lichtfarben

In spezialisierten Anwendungen werden Spektren gezielt gestaltet, z. B. zur Hervorhebung von Frischeeindrücken bei Lebensmitteln,
zur Betonung bestimmter Textilien oder zur Unterstützung biologischer Effekte. Spektrale Optimierung kann die gewünschte Wirkung erzielen,
muss aber offen kommuniziert werden: Ein Spektrum, das „Fleisch besonders frisch“ erscheinen lässt, ist nicht zwingend ideal für neutrale
Farbbeurteilung. Professionell wird daher zwischen neutraler Farbwiedergabe und gezielter Präsentationswirkung unterschieden.

↑ Zurück nach oben

Farbwiedergabe

Natürlichkeit & Differenzierung von Farben · entscheidend für Material-, Produkt- und Hauttöne

Farbwiedergabe beschreibt, wie natürlich und differenziert Farben unter einer Lichtquelle erscheinen, verglichen
mit einer Referenzlichtquelle. Sie ist für nahezu alle Anwendungen relevant, in denen Menschen Materialien beurteilen,
Produkte auswählen, Fehler erkennen oder Hauttöne sehen. Farbwiedergabe ist nicht nur „schön“ – sie ist oft
qualitäts- und sicherheitsrelevant.

Warum Farbwiedergabe bei LEDs besondere Aufmerksamkeit erfordert

LED-Spektren können ausgeprägte Peaks und Lücken besitzen. Lücken in bestimmten Wellenlängenbereichen führen dazu,
dass einzelne Farben unterrepräsentiert sind – Materialien wirken dann „flach“, „grau“ oder „falsch“. Besonders kritisch
sind häufig Rot-/Tiefrotanteile (Hauttöne, Holz, Lebensmittel), aber auch differenzierte Grüntöne (Pflanzen, Textilien) oder
Zyanbereiche (bestimmte Lacke, Kunststoffe).

Farbwiedergabe als Systemeigenschaft

Farbwiedergabe hängt nicht nur von der Lichtquelle ab, sondern vom gesamten System:
Optiken und Abdeckungen können spektral selektiv wirken, Oberflächen im Raum verändern das reflektierte Spektrum,
und der Adaptationszustand des Betrachters beeinflusst die Farbwahrnehmung. Deshalb kann eine Lichtquelle
im Labor gute Kennzahlen zeigen, im realen Raum aber dennoch zu unbefriedigender Farbwahrnehmung führen,
wenn Kontraste, Mischlicht oder Oberflächen nicht passen.

Praxisfolgen schlechter Farbwiedergabe

  • Qualitätsprüfung: Fehlstellen, Farbabweichungen, Oberflächenfehler werden übersehen oder falsch beurteilt.
  • Retail: Produkte wirken unattraktiver oder anders als zu Hause; Rückgaben und Unzufriedenheit steigen.
  • Hospitality: Hauttöne wirken fahl; Räume wirken „kalt“ oder „kränklich“ trotz warmer Lichtfarbe.
  • Industrie: Sicherheitsfarben und Kennzeichnungen können schlechter differenziert werden.

Was professionell spezifiziert wird

Üblich ist eine Kombination aus: Ziel-CCT + Toleranz, Mindest-CRI (oder besser TM‑30‑Zielbereiche),
Anforderung an R9 (Tiefrot), Farbortkonsistenz (SDCM), Duv-Grenzen und – bei kritischen Anwendungen – eine Bemusterung
am realen Objekt/Material. Datenblattwerte ersetzen keine projektbezogene Betrachtung, wenn Farbwirkung entscheidend ist.

↑ Zurück nach oben

CRI / Ra (Color Rendering Index)

Klassischer Farbwiedergabeindex · verbreitet, aber mit klaren Grenzen

Der Color Rendering Index (CRI), oft als Ra angegeben, ist ein etabliertes Bewertungsverfahren,
das die Farbwiedergabe einer Lichtquelle im Vergleich zu einer Referenz gleicher CCT beschreibt. CRI ist historisch sehr wichtig und
weiterhin verbreitet, weil er einfach zu kommunizieren ist. Für moderne LED-Spektren ist CRI jedoch nur dann sinnvoll, wenn
seine Grenzen verstanden und ergänzt werden.

Einordnung typischer Ra-Werte

RaEinordnungTypische Konsequenz
< 80eingeschränktFarben wirken weniger differenziert; für rein technische Bereiche möglich, aber oft nicht empfehlenswert in Aufenthaltsbereichen.
≥ 80gutStandardniveau für viele Innen- und Industrieanwendungen, sofern keine kritische Farbbeurteilung nötig ist.
≥ 90sehr gutHochwertige Innenräume, Retail, Gesundheit, Präsentation; deutlich bessere Material- und Hauttöne – aber nicht automatisch „perfekt“.

Warum CRI in der Praxis oft „zu optimistisch“ wirkt

CRI basiert auf einer begrenzten Auswahl von Testfarben (historisch entwickelt für Spektren klassischer Lichtquellen).
LEDs können Spektren erzeugen, die einzelne Farben sehr gut und andere weniger gut wiedergeben, ohne dass Ra dies ausreichend abbildet.
Zudem ist Ra ein Durchschnittswert: Einzelne kritische Teilwerte können schlecht sein, während der Mittelwert noch gut aussieht.

R9, gesättigte Farben und der typische Planungsfehler

Ein zentraler Praxisfall ist Tiefrot (häufig als R9-Wert betrachtet). Hauttöne, Holz, Fleisch, Backwaren und viele
warme Materialien benötigen ausreichende spektrale Energie im tiefroten Bereich. Eine Lichtquelle kann Ra ≥ 80 erreichen und dennoch
schwaches R9 besitzen – die Folge sind „fahle“ Hauttöne und unattraktive warme Materialien. Professionell wird daher bei relevanten
Anwendungen nicht nur Ra, sondern auch R9 (und ggf. weitere Indizes) betrachtet oder direkt TM‑30 verwendet.

Was CRI nicht leistet

  • Kein verlässlicher Vergleich zwischen stark unterschiedlichen LED-Spektren.
  • Keine Aussage über „Farbaufwertung“ (Sättigung) vs. „Farbtreue“.
  • Keine Aussage über Duv/Farbortlage oder Konsistenz zwischen Leuchten.

Professioneller Umgang mit CRI

CRI ist als Mindestkriterium nutzbar, sollte aber nicht als alleinige Qualitätsmetrik dienen. In professionellen Spezifikationen
wird CRI meist mit weiteren Anforderungen kombiniert (z. B. R9, SDCM, Duv und – wenn möglich – TM‑30‑Zielbereiche) und durch
Bemusterung am realen Material ergänzt.

↑ Zurück nach oben

TM‑30 (Rf, Rg und Farbraumdarstellung)

Moderne Farbbewertung · getrennte Betrachtung von Farbtreue und Sättigung

TM‑30 ist ein modernes Verfahren zur Beschreibung der Farbwiedergabe, das gegenüber CRI deutlich mehr
Information liefert. Es nutzt eine größere Anzahl von Testfarben und trennt die Bewertung in Farbtreue
(Fidelity) und Farbraum/Sättigung (Gamut).

Rf (Fidelity) – Farbtreue

Rf beschreibt, wie naturgetreu Farben im Vergleich zur Referenz wiedergegeben werden. Er ist konzeptionell
näher an „Farbtreue“ als der Ra-Mittelwert und robuster gegenüber spektralen Besonderheiten. Ein hoher Rf ist besonders wichtig,
wenn neutrale Farbbeurteilung oder Qualitätsprüfung im Vordergrund steht.

Rg (Gamut) – Farbsättigung / Farbraum

Rg beschreibt, ob Farben im Mittel eher gesättigter oder entsättigter erscheinen. Werte um 100 stehen für
annähernd neutral. Werte darüber bedeuten tendenziell „kräftigere“ Farben, darunter tendenziell „gedämpftere“ Farben.
Das ist nicht per se gut oder schlecht – es muss zur Anwendung passen.

Warum TM‑30 für Praxisentscheidungen überlegen ist

Viele reale Beleuchtungsprobleme lassen sich als Mischung aus „zu wenig Treue“ und „falscher Sättigung“ beschreiben.
CRI kann diese Dimensionen nicht trennen, TM‑30 schon. Damit wird es möglich, bewusste Entscheidungen zu treffen:
In Retail kann eine leichte Farbsättigungsanhebung gewünscht sein, in der Qualitätsprüfung ist sie oft unerwünscht.

Typische Zielbilder (praxisnah, ohne Scheinsicherheit)

  • Neutrale Farbbeurteilung: hoher Rf, Rg nahe 100, stabile Duv/Farbortlage.
  • Präsentation/Retail: je nach Produktgruppe kontrollierte Sättigungsanhebung möglich, ohne Hauttöne zu verfälschen.
  • Allgemeinbeleuchtung: ausgewogenes Verhältnis; extreme Abweichungen sind meist nicht zielführend.

Grenzen und professionelle Einordnung

Auch TM‑30 ersetzt nicht den Realraumtest, wenn Materialien kritisch sind. Spektrale Besonderheiten können je nach Oberflächen
und Sehaufgabe unterschiedlich wirken. TM‑30 liefert jedoch deutlich bessere Diagnosefähigkeit als CRI und sollte bei
anspruchsvollen Projekten bevorzugt betrachtet werden.

↑ Zurück nach oben

Spektrum (SPD) als primäre Qualitätsbasis

Wellenlängenverteilung · Ursache für Lichtfarbe, Farbwiedergabe und biologische Wirkung

Das Spektrum (spektrale Leistungsverteilung, SPD) ist die physikalische Grundlage aller farbbezogenen
Lichtwirkungen. Kennzahlen wie CCT, CRI oder TM‑30 sind Zusammenfassungen bzw. Ableitungen. Ob Licht im Raum als angenehm,
„sauber“, farbtreu oder ermüdend wahrgenommen wird, hängt letztlich vom Spektrum ab.

Wie LED-Spektren typischerweise aufgebaut sind

Weiße LEDs entstehen meist aus einem blauen Primärchip und einer Phosphorkonversion. Dadurch ergibt sich ein schmaler Blaupeak
und ein breites Phosphorband. Je nach Phosphorchemie können Lücken entstehen (z. B. im Zyanbereich) oder einzelne Bereiche
(z. B. Grün) überbetont sein. Diese spektralen Formen erklären viele Praxisphänomene: grünliche Weißtöne, flache Rottöne,
unnatürliche Haut oder Unterschiede zwischen nominal gleichen Kelvinwerten.

Spektrum und Farbwiedergabe: Warum „Lücken“ problematisch sind

Farben entstehen durch Reflexionsspektren von Materialien. Fehlt im Beleuchtungsspektrum Energie in bestimmten Wellenlängen,
können Materialien diese Anteile nicht reflektieren – Farben wirken dann weniger differenziert. Das erklärt, warum zwei Leuchten
mit gleicher CCT, aber unterschiedlichem Spektrum, bei Holz, Textilien oder Haut völlig verschieden wirken können.

Spektrum und biologische Wirkung (ohne Übertreibung)

Kurzwellige Anteile (blau-cyan) beeinflussen die melanopische Stimulation und können Aktivierung/Schläfrigkeit beeinflussen.
Für professionelle Anwendungen ist wichtig: Biologische Wirksamkeit und visuelle Qualität sind nicht identisch.
Ein „aktivierendes“ Spektrum ist nicht automatisch farbtreu oder angenehm. Umgekehrt kann ein sehr angenehmes warmes Licht
biologisch weniger aktivierend wirken. Daher ist eine klare Zieldefinition erforderlich (Arbeitsleistung, Aufenthaltsqualität,
Tageslichtintegration, Schichtarbeit etc.).

Praxis: Wann Spektren bewertet werden sollten

  • Bei farbkritischen Aufgaben (Qualitätsprüfung, Medizin, Druck, Retail, Präsentation).
  • Bei stark materialprägenden Innenräumen (Holz, Textilien, Naturstein, farbige Wände).
  • Bei Tunable‑White‑Konzepten (Qualität über den gesamten Regelbereich).
  • Bei Mischlicht mit Tageslicht oder anderen Leuchtentypen.

Professionelle Schlussfolgerung

Spektrum ist die „Wahrheitsebene“ hinter allen Kennzahlen. Wo Lichtqualität kritisch ist, genügt kein
Datenblattwert allein. Spektrum, Farbwiedergabemetri ken (idealerweise TM‑30) und Bemusterung am Material
bilden gemeinsam die belastbare Entscheidungsgrundlage.

↑ Zurück nach oben

Farbortkonsistenz: SDCM / MacAdam-Ellipsen

Messgröße für sichtbare Farbortunterschiede · Konsistenz in Installationen

SDCM (Standard Deviation of Color Matching), oft im Zusammenhang mit MacAdam‑Ellipsen genannt,
ist eine Kenngröße für die Farborttoleranz und damit für die sichtbare Konsistenz von Weißtönen.
Praktisch bedeutet ein kleinerer SDCM-Wert: geringere Farbortstreuung – Leuchten sehen in einer Installation
„gleichfarbiger“ aus.

Warum SDCM in Projekten so häufig unterschätzt wird

Menschen nehmen Weißtonabweichungen erstaunlich schnell wahr, insbesondere in Reiheninstallationen,
Lichtlinien, großflächigen Deckenfeldern oder bei indirekter Reflexion auf weißen Flächen.
Häufig entstehen Reklamationen nicht wegen zu wenig Lichtstrom, sondern wegen sichtbarer Farbunruhe.
Deshalb ist SDCM eine zentrale Qualitätsanforderung, insbesondere bei hochwertigen Anwendungen.

Typische Orientierung (kontextabhängig)

  • Sehr hohe Konsistenz: enge Farborttoleranz für repräsentative Bereiche und lineare Systeme.
  • Gute Konsistenz: für viele professionelle Innenräume geeignet, sofern Mischinstallationen vermieden werden.
  • Große Toleranzen: können in technischen Bereichen tolerierbar sein, führen aber in Sichtbereichen schnell zu Unruhe.

Wichtig: SDCM ist nicht alles

SDCM beschreibt die Streuung, nicht die Lage (Duv) und nicht die Farbwiedergabe. Eine Installation kann sehr konsistent sein
(niedriger SDCM), aber dennoch einen ungewollten Grünstich haben (Duv) oder eine unzureichende Farbwiedergabe.
Professionell wird deshalb SDCM immer zusammen mit CCT, Duv und Farbwiedergabekriterien betrachtet.

↑ Zurück nach oben

Binning

Sortierung von LEDs nach Parametern · Grundlage für Konsistenz, Effizienz und Reklamationssicherheit

Binning bezeichnet die Sortierung von LEDs (und teils auch LED‑Modulen) in Klassen („Bins“) nach
messbaren Parametern, typischerweise Lichtstrom (Flux), Farbort (Chromatizität/CCT/Duv)
und oft auch Vorwärtsspannung (Vf). Binning existiert, weil LED‑Fertigung naturgemäß Streuungen erzeugt:
Selbst bei identischem Design sind mikroskopische Unterschiede in Halbleiterschicht, Phosphorauftrag, Gehäuseoptik und
Bonding ausreichend, um sichtbare Unterschiede zu verursachen.

Was wird typischerweise gebinnt?

  • Flux-Binning: Sortierung nach Lichtstrom – relevant für Effizienz, Helligkeitshomogenität und Leistungsplanung.
  • Color-Binning: Sortierung nach Farbort/CCT/Duv – entscheidend für visuelle Konsistenz (Weißtonhomogenität).
  • Vf-Binning: Sortierung nach Vorwärtsspannung – relevant für Treiberauslegung, Serienstreuung, Wärmeentwicklung und Effizienz.
  • Optional: Sortierung nach Wellenlänge (bei monochrom) oder nach spektralen Zielparametern (Spezialspektren).

Warum Binning für lineare und modulare Systeme besonders kritisch ist

In Lichtlinien, Lichtbändern und modularen Systemen werden viele LED‑Einheiten nebeneinander betrieben.
Schon geringe Farbortabweichungen führen zu sichtbaren Streifen („Color Striping“), insbesondere auf
hellen Flächen und bei indirekter Abstrahlung. Auch Flux‑Streuung fällt in Reihen stärker auf als bei Einzelpunkten.
Bei professionellen Systemen werden daher enge Color‑Bins und konsistente Flux‑Bins eingesetzt – und es wird
verhindert, dass Mischchargen ohne Abgleich verbaut werden.

Binning vs. SDCM: Zusammenhang und typische Missverständnisse

SDCM beschreibt die wahrnehmungsbezogene Toleranz im Farbraum, während Binning die praktische Sortierung in Klassen beschreibt.
Ein „enger Bin“ kann als SDCM‑Ziel formuliert sein – muss es aber nicht: Hersteller können Bins unterschiedlich definieren.
Deshalb sind Angaben wie „tight binning“ ohne konkrete SDCM-/Farbraumangabe fachlich nicht belastbar.
Professionell wird Binning über nachvollziehbare Kriterien spezifiziert (z. B. SDCM‑Grenzen, Duv‑Fenster,
definierte Nachlieferstrategie).

Projektpraxis: Nachbeschaffung und Reklamationsrisiko

Ein häufiger, teurer Praxisfehler ist die Annahme, dass „gleiche Artikelnummer“ automatisch „gleiche Lichtfarbe“ bedeutet.
Ohne definierte Nachliefer- und Binningstrategie können spätere Lieferungen trotz gleicher CCT sichtbar abweichen.
Das Risiko steigt bei langen Projektlaufzeiten, bei Austausch/Servicefällen und wenn mehrere Produktionslose gemischt werden.
Professionelle Lösungen definieren deshalb:

  • zulässige Farbort- und Flux-Abweichungen für Nachlieferungen,
  • Dokumentation/Traceability (Charge/Batch),
  • Kompatibilitätsregeln (nicht mischen ohne Abgleich),
  • gegebenenfalls Vorab-Bemusterung und Freigabeprozess.

Thermik, Alterung und warum Initial-Binning nicht genügt

Binning beschreibt Zustände zum Zeitpunkt der Messung (typischerweise im Neuzustand). In der Praxis verändern sich Farbort und Flux
über Temperatur und Lebensdauer. Wenn thermische Auslegung oder Materialalterung unterschiedlich ist (z. B. in verschiedenen
Leuchtenvarianten), kann die Drift auseinanderlaufen. Für hochwertige Systeme ist daher nicht nur Initial-Binning relevant,
sondern auch die erwartete Farbstabilität und die Gleichlauf-Drift im System.

↑ Zurück nach oben

Farbstabilität (Color Shift) über Lebensdauer

Farbortdrift · Ursachen: Phosphor, Vergilbung, Thermik · entscheidend für Langzeitqualität

Farbstabilität beschreibt, wie konstant der Farbort einer Leuchte über Zeit, Temperatur und Betriebsbedingungen bleibt.
Bei LEDs ist Farbstabilität ein zentrales Qualitätskriterium, weil der Weißton durch Halbleiteremission, Phosphorkonversion und
optische Materialien bestimmt wird – alle drei können sich über Zeit verändern.

Hauptursachen von Farbortdrift

  • Phosphoralterung: Veränderungen der Konversionsmaterialien können das Verhältnis von Blaupeak zu Phosphorband verschieben.
  • Thermische Belastung: Höhere Junction-Temperaturen beeinflussen Emission und Konversion und können Alterungsprozesse beschleunigen.
  • Materialalterung in Optiken/Abdeckungen: Vergilbung oder Trübung verändert spektrale Durchlässigkeit und damit den Farbort.
  • Elektrische Auslegung: Stromdichte, Dimmstrategie und Ripple können das thermische und spektrale Verhalten beeinflussen.

Warum Farbstabilität in linearen Installationen besonders sichtbar wird

Farbortdrift ist in Einzelinstallationen häufig tolerierbar, in Reihen- und Flächeninstallationen jedoch schnell sichtbar,
insbesondere wenn einzelne Module/Leuchten ausgetauscht werden. Der neue/alte Weißtonunterschied wird auf hellen Flächen
und bei indirekter Beleuchtung deutlich wahrgenommen. Deshalb ist Farbstabilität ein Schlüsselelement für Wartungs- und
Servicefreundlichkeit.

Praxis: Was seriös spezifiziert wird

Seriosität bedeutet: nicht nur Anfangswerte, sondern eine Erwartung an Drift. In Projekten werden daher neben CCT/CRI/TM‑30/SDCM
auch Anforderungen an Farbortdrift über Lebensdauer und Temperatur gestellt – und realistisch über Produktqualität, Thermik,
Materialkonzept und Qualitätssicherung abgesichert.

Typische Fehlerbilder

  • Nach einigen Monaten/Jahren wirken Bereiche „grünlicher“ oder „gelblicher“.
  • Austauschleuchten passen nominell (Kelvin), wirken aber sichtbar anders (Duv/SDCM/Drift).
  • Unterschiedliche Betriebstemperaturen in einem Raum (z. B. Deckenrand vs. Mitte) erzeugen sichtbare Weißtonunruhe.

↑ Zurück nach oben

Kapitel 06 – Steuerung, Dimmung & Vernetzung

Steuerung und Dimmung sind in LED-Anlagen keine „Zusatzfeatures“, sondern beeinflussen
Lichtqualität, Sehkomfort, Farbstabilität, Effizienz,
Lebensdauer, Wartungsaufwand und Integrationsfähigkeit.
Viele Praxisprobleme (Flackern, unruhige Dimmkurven, Farbverschiebungen, Ausfälle, Reklamationen bei Nachrüstung)
entstehen nicht durch „schlechte LEDs“, sondern durch unpassende Steuerungs- und Treiberkonzepte oder durch
Fehlannahmen bei Planung und Inbetriebnahme.

Dieses Kapitel erklärt die wichtigsten Steuerungs- und Dimmtechniken in der Tiefe, die in der
Gebäude- und Industriebeleuchtung tatsächlich relevant sind – inklusive typischer Fallstricke,
wie man sie erkennt und wie man sie fachlich sauber vermeidet.

Steuerungsarchitektur (Topologien & Grundprinzip)

Zentral vs. dezentral · Bus vs. Punkt-zu-Punkt · Verdrahtung und Verantwortungsketten

Unter Steuerungsarchitektur versteht man die grundlegende Systemstruktur, mit der Leuchten, Treiber,
Sensoren und Bedienelemente zusammenarbeiten. Diese Architektur entscheidet über Skalierbarkeit, Diagnosefähigkeit,
Änderbarkeit (Umprogrammieren statt Umverdrahten), IT-/Netzwerk-Anforderungen und darüber, wie gut sich Lichtqualität
unter allen Betriebszuständen tatsächlich beherrschen lässt.

Zentrale Steuerung

Bei zentralen Systemen liegt die Logik in einem zentralen Controller (z. B. Lichtsteuerzentrale, Automationsserver,
GLT/KNX-Controller). Vorteile sind klare Zuständigkeiten, zentrale Szenenverwaltung, Protokollierung und oft gute Integration
in die Gebäudeautomation. Kritisch wird es, wenn zentrale Komponenten ausfallen oder wenn Netzwerkinfrastruktur/IT-Policies
die Inbetriebnahme und den Betrieb erschweren.

Dezentrale/Edge-Steuerung

Dezentrale Systeme verlagern Intelligenz in Leuchten, Treiber oder Raumcontroller. Das erhöht Robustheit gegen Single-Point-of-Failure
und erleichtert zonierte Konzepte. Gleichzeitig steigt die Bedeutung sauberer Parametrierung und Versions-/Konfigurationsmanagement:
„Die Anlage dimmt komisch“ ist oft ein Konfigurationsdrift zwischen Geräten.

Bus vs. Punkt-zu-Punkt

Bus-Systeme (z. B. DALI) erlauben Adressierung, Gruppierung und Diagnose über zwei Leitungen. Punkt-zu-Punkt (z. B. 1–10 V)
ist elektrisch simpel, skaliert aber schlecht und bietet kaum Diagnose. In der Praxis wird häufig hybrid gearbeitet:
Bus für Beleuchtung, separate 230V-Schaltkreise für Versorgung, plus Gateway zur GLT.

Praxis-Fallstricke

  • Fehlende Verantwortungsdefinition: Wer ist verantwortlich für Dimmkurve, Flicker, Mindestdimmwert, Sensorlogik, Nachlieferfähigkeit?
  • Übersehen von Lastzuständen: Verhalten bei 1 %, 5 %, 30 %, 100 % unterscheidet sich massiv – Tests nur bei 100 % sind wertlos.
  • Änderungen im Betrieb: Austausch von Treibern/Leuchten ohne Parametrier- und Binning-Konzept erzeugt sichtbare Unterschiede und „Fehlersuchen ohne Ende“.

↑ Zurück nach oben

Dimmung (Grundlagen, Dimmkurven & Mindestdimmwert)

Wahrnehmung · technische Regelung · stabile Minimumwerte

Dimmung ist die gezielte Veränderung der Lichtabgabe. Technisch wird die LED-Ansteuerung verändert, nicht „das Licht“.
Entscheidend ist, dass Dimmung wahrnehmungslinear wirken soll und gleichzeitig stabil und flackerarm bleibt.

Wahrnehmung: Warum lineare Technik nicht linear wirkt

Das Auge reagiert näherungsweise logarithmisch auf Helligkeit. Eine technisch lineare Reduktion des Lichtstroms wirkt subjektiv oft so,
als würde „oben kaum etwas passieren“ und „unten fällt plötzlich alles ab“. Professionelle Systeme nutzen daher Dimmkurven, die den
subjektiven Eindruck glätten (oft als logarithmisch/„perceptual“ bezeichnet).

Mindestdimmwert (Minimum Dim Level) – der häufigste Praxisbruch

Viele Anlagen scheitern daran, dass eine Leuchte zwar „dimmbar“ ist, aber nicht stabil bis in sehr niedrige Bereiche.
Unterhalb eines systemabhängigen Minimums können auftreten:

  • Flicker (sichtbar oder als Stroboskop-Effekt),
  • Instabilität (Pumpen, Nachregeln, Sprünge),
  • Farbortverschiebung (Weißton driftet),
  • Abschalten/Neuinitialisierung einzelner Treiber.

Mindestdimmwerte sind daher zu spezifizieren und im Projekt zu verifizieren (inkl. Temperaturzustand, Netzqualität,
Leitungslängen, Gruppenkonstellation und Dimmsignalquelle).

Konstantlichtregelung (Daylight Harvesting) und Dimmkurven

Bei tageslichtabhängiger Regelung muss die Dimmkurve nicht nur „schön“, sondern regelungstechnisch stabil sein.
Schlecht abgestimmte Regelparameter führen zu „Atmen“ (Oszillation), was Nutzer als störend empfinden. Professionell bedeutet:
Hysterese, Verzögerungen, geeignete Sensorpositionen und Begrenzungen der Regelgeschwindigkeit.

↑ Zurück nach oben

PWM-Dimmung (Pulsweitenmodulation)

Duty Cycle · Frequenz · Flicker und Stroboskop-Risiken

Bei PWM wird die LED mit (nahezu) konstantem Strom betrieben, aber sehr schnell ein- und ausgeschaltet.
Die Helligkeit ergibt sich aus dem Verhältnis von Ein- zu Aus-Zeit (Duty Cycle).

Warum PWM in LED-Systemen so verbreitet ist

  • Der LED-Arbeitspunkt bleibt konstant → Farbort und Effizienz können stabiler bleiben (als bei stark reduzierten Strömen).
  • Sehr geringe Dimmwerte sind technisch erreichbar, ohne dass die LED in ungünstige Strombereiche gerät.
  • Multikanal- und Tunable-White-Systeme lassen sich präzise mischen (Kanalweise Duty Cycle).

Frequenz ist nicht „nice to have“, sondern Qualitätskriterium

PWM ist nur dann unkritisch, wenn Frequenz und Modulationsform so gewählt sind, dass weder sichtbarer Flicker noch stroboskopische Effekte
im relevanten Bewegungs- und Blickverhalten auftreten. Besonders kritisch: rotierende Maschinen, Handbewegungen, Prüfaufgaben, Kameras.
„PWM-dimmbar“ ohne konkrete Parameter ist fachlich keine belastbare Aussage.

Praxis-Fallstricke

  • Kamera-Flicker: Für Video/Foto kann PWM problematisch sein, obwohl Menschen „nichts sehen“ (Rolling Shutter, Framerate, Belichtungszeit).
  • Interferenzen: Mehrere PWM-Quellen mit unterschiedlichen Frequenzen können sichtbare Schwebungen erzeugen.
  • Sehr niedrige Duty Cycles: Unterhalb bestimmter Werte reagieren Treiber/LEDs/Optiken anders → Unstetigkeiten.

↑ Zurück nach oben

CCR / Amplitudendimmung (Constant Current Reduction)

Stromreduktion · Farbortverschiebung · Stabilität

Bei CCR (Amplitudendimmung) wird der LED-Strom kontinuierlich reduziert. Das Licht wird dunkler, weil weniger Ladungsträger
durch den Halbleiter fließen.

Vorteile

  • Kein zeitliches Ein-/Ausschalten → kein PWM-bedingter Flicker.
  • Einfaches Konzept, oft robust in kleinen Systemen.

Warum CCR bei weißen LEDs farbkritisch sein kann

Weiße LEDs (Blauchip + Phosphor) können bei Stromänderungen spektral reagieren: Verhältnis Blaupeak/Phosphorband verschiebt sich,
Farbort und CCT können wandern. Je nach LED-Generation, Treiberdesign und Temperaturmanagement kann das stärker oder schwächer ausfallen.
In hochwertigen Anwendungen muss geprüft werden, ob Farbortstabilität über den Dimmweg gewährleistet ist.

Hybride Strategien

Viele professionelle Treiber kombinieren CCR und PWM (z. B. CCR im oberen Bereich für maximale Flickerfreiheit, PWM im unteren Bereich
für stabile Minimumwerte). Entscheidend ist, dass Übergänge ohne Sprünge in Helligkeit und Farbe erfolgen.

↑ Zurück nach oben

Flicker & Stroboskop-Effekt

Sichtbarkeit · Gesundheit/Komfort · Sicherheitsaspekte in Industrie

Flicker beschreibt zeitliche Helligkeitsschwankungen des Lichtes. Der Stroboskop-Effekt
ist ein verwandtes Phänomen, bei dem Bewegungen unter moduliertem Licht „abgehackt“ erscheinen oder scheinbar langsamer/anders laufen.
Beides hängt nicht nur vom Leuchtmittel ab, sondern stark von Treiber, Dimmverfahren, Netzripple, Regelung und Lastzuständen.

Warum Flicker oft erst im Feld auffällt

  • Testbedingungen im Labor unterscheiden sich von realen Netzbedingungen und Leitungslängen.
  • Flicker ist abhängig vom Dimmlevel: bei 100 % unkritisch, bei 10 % problematisch.
  • Gruppen/Topologie ändern die elektrische Belastung des Treibers.
  • Kameras „sehen“ Flicker oft anders und sensitiver als Menschen.

Praxis: Wo es kritisch wird

  • Industrie/Logistik: rotierende Maschinen, Prüfplätze, Sicherheitsrisiken durch Stroboskop.
  • Büro/Bildung: Komfort, Ermüdung, Kopfschmerzempfinden bei sensiblen Personen.
  • Medizin/Präzision: visuelle Aufgaben mit hoher Anforderung an Stabilität.
  • Video/Foto: Rollingshutter-Artefakte, Banding, Flimmern.

Technische Ursachen (typisch)

  • Netzripple/gleichrichterbedingte Modulation (100/120 Hz).
  • PWM-Frequenz zu niedrig oder ungünstig zum Bewegungsspektrum.
  • Schlecht geglättete Treiber, falsche Kombination aus Dimmer und Treiber (Phasenanschnitt/abschnitt).
  • Regelungsoszillationen (z. B. bei Konstantlichtregelung).

Planerische Konsequenz

Flickerfreiheit ist keine Eigenschaft „LED ja/nein“, sondern ein Systemkriterium. Daher müssen Dimmtechnik,
Treiber, Leuchte, Lastzustände, Verkabelung und – wenn relevant – Kameraanforderungen gemeinsam bewertet werden.

↑ Zurück nach oben

Phasenanschnitt / Phasenabschnitt (230V-Dimmung)

TRIAC/ELV-Dimmer · Nachrüstung · häufige Inkompatibilitäten

Bei der Phasenanschnitt– (Leading Edge) und Phasenabschnitt-Dimmung (Trailing Edge) wird die
230V-Netzspannung innerhalb jeder Halbwelle „angeschnitten“, sodass der effektive Energieeintrag sinkt. Diese Technik stammt aus
der Halogen-/Glühlampenwelt, wird aber bei Nachrüstungen häufig auch für LED genutzt – mit hohen Risiken für Flicker,
Geräusche, geringe Mindestlast und unvorhersehbares Verhalten.

Warum das bei LEDs schwierig ist

LED-Leuchten benötigen einen Treiber. Dieser muss mit der „zerhackten“ Spannung umgehen können. Viele Probleme entstehen, wenn
Dimmer und Treiber nicht kompatibel sind: der Treiber versucht zu regeln, während der Dimmer die Versorgung stückelt – das Ergebnis
sind Instabilität, Flackern, Summen und begrenzte Dimmwege.

Typische Fehlerbilder

  • Flackern bei niedrigen Dimmwerten oder beim Einschalten.
  • „Totzone“: erst ab einem bestimmten Dimmerweg reagiert die Leuchte.
  • Summen/Brummen (Dimmer, Treiber, Leuchte).
  • Unterschiede zwischen identischen Leuchten (Serienstreuung, Mindestlast).

Fachliche Empfehlung

Phasenanschnitt/-abschnitt ist für professionelle Neubauanlagen selten erste Wahl. Wenn Nachrüstung erforderlich ist,
müssen kompatible Dimmer/Treiber-Kombinationen getestet werden und Mindestlast, Leitungslängen, Gruppenkonstellationen
sowie EMV-Verhalten berücksichtigt werden.

↑ Zurück nach oben

0–10 V und 1–10 V (Analoge Schnittstellen)

Simple Regelung · Störanfälligkeit · fehlende Diagnose

Analoge Steuerschnittstellen wie 1–10 V (und in manchen Systemen 0–10 V) setzen einen
Sollwert als Spannung um. 1–10 V ist in der Gebäudetechnik verbreitet; 0–10 V wird teils in anderen Märkten/Interfaces verwendet.
In beiden Fällen gilt: Die Schnittstelle ist einfach, aber funktional begrenzt.

Stärken

  • Robuste, einfache Technik mit geringer Einstiegshürde.
  • Gute Eignung für einfache Zonen- oder Gruppen-Dimmung.
  • Herstellerübergreifend verfügbar.

Systemische Grenzen

  • Keine echte Adressierung einzelner Leuchten (nur Gruppen).
  • Keine Rückmeldungen/Diagnose (Fehler, Laufzeiten, Energie).
  • Störanfälligkeit bei langen Leitungen, falscher Erdung oder EMV-Umgebung.
  • Unterschiedliche Dimmkennlinien je Treiber → Gruppendimmung wirkt uneinheitlich.

Planerische Konsequenz

Für einfache Anwendungen kann 1–10 V sinnvoll sein. Sobald Szenen, Diagnose, flexible Umgruppierung,
datenbasierte Wartung oder hochwertige dynamische Lichtkonzepte gefordert sind, ist ein digitales Bussystem
(z. B. DALI) meist die belastbarere Wahl.

↑ Zurück nach oben

DALI (Digital Addressable Lighting Interface)

Adressierbarer Lichtbus · Szenen · Diagnose · Standard in der Gebäudebeleuchtung

DALI ist ein digitales Bussystem, mit dem Betriebsgeräte (LED-Treiber, EVGs), Leuchten, Sensoren und Eingabegeräte
adressiert, gruppiert und in Szenen eingebunden werden können. Der wesentliche Unterschied zu analogen Systemen ist die
digitale, adressierbare Kommunikation mit definierter Protokollstruktur.

Wie DALI technisch funktioniert (prinzipiell)

DALI nutzt einen zweidrahtigen Bus, der in der Regel polaritätsunabhängig ist. Auf dem Bus werden digitale Telegramme übertragen.
Geräte besitzen Adressen, können Gruppen zugeordnet werden und Szenenwerte speichern. Viele Systeme erlauben Rückmeldungen (z. B.
Lampenfehler, Betriebszustand, ggf. Messwerte – abhängig von Gerätetyp und Standardversion).

Adressierung, Gruppen, Szenen – die drei Praxishebel

  • Adressierung: eindeutige Zuordnung eines Betriebsgeräts → gezielte Steuerung, Diagnose, Austauschprozesse.
  • Gruppen: logische Zusammenfassung ohne Umverdrahtung → Zonen können nachträglich geändert werden.
  • Szenen: definierte Zustände (Dimmwerte) → reproduzierbare Lichtstimmungen, Betriebsprofile, Standardisierungen.

Verdrahtung/Topologie und typische Feldfehler

DALI ist flexibel, aber nicht „unfehlbar“. Typische Probleme sind fehlerhafte Busverdrahtung, fehlende Busversorgung,
Verwechslung mit 230V-Leitungen, unklare Segmentierung oder mangelhaft dokumentierte Adressierung.
In Projekten entstehen die meisten Ausfälle nicht durch DALI als Standard, sondern durch unzureichende Inbetriebnahme
und Dokumentation.

Integration in Gebäudeautomation

DALI wird häufig über Gateways in Systeme wie KNX, BACnet oder proprietäre GLT eingebunden. Entscheidend ist,
dass Verantwortlichkeiten klar sind: Wer verwaltet Szenen, Zeitprogramme und Sensorlogik – DALI-Ebene oder GLT-Ebene?
Doppel-Logik erzeugt schwer reproduzierbare Fehlerbilder.

↑ Zurück nach oben

DALI-2, DT6, DT8 und D4i

Interoperabilität · Tunable White · Datenfähigkeit

DALI-2 präzisiert und erweitert DALI hinsichtlich Interoperabilität, insbesondere bei Eingabegeräten (Taster, Sensoren)
und Controllerprofilen. In der Praxis relevant sind außerdem die Gerätetypen (Device Types) für LED-Ansteuerung:

DT6 (Dimmer)

DT6 steht typischerweise für „ein Kanal dimmen“ (Lichtstromregelung). Das ist der klassische Fall für viele LED-Treiber.

DT8 (Farbe / Tunable White / RGBW)

DT8 beschreibt Mehrkanal-/Farbsteuerung, u. a. Tunable White. Das ist entscheidend, um dynamische Lichtfarbe
konsistent zu steuern: Ohne saubere Mehrkanaldefinitionen entstehen in der Praxis Weißtondrifts, ungleiches Dimmen zwischen Leuchten
und unklare Zustände bei Szenen.

D4i (DALI for intra-luminaire)

D4i erweitert DALI-2 um standardisierte Daten (u. a. Energie-/Leistungsdaten, Diagnosen) direkt auf Leuchtenebene.
Damit werden datenbasierte Wartung, Asset-Management und Smart-Building-Use-Cases deutlich einfacher, weil Messwerte nicht mehr als
proprietäre „Insellösung“ vorliegen müssen.

Praxis-Fallstricke

  • DT8-Funktionalität ist nicht automatisch „besseres Licht“ – sie ist ein Werkzeug und erfordert saubere Parametrierung.
  • Bei Tunable White muss die Regelstrategie farbstabil sein (CCT+Duv-Verlauf), sonst wirkt das Licht trotz „Normwerten“ unruhig.
  • Datenfähigkeit ersetzt keine Dokumentation: Ohne Mapping/Adressplan sind Diagnosedaten im Servicefall wenig wert.

↑ Zurück nach oben

PushDim / Tasterdimmung (lokale Bedienkonzepte)

Minimalinfrastruktur · Nutzerlogik · Grenzen bei Skalierung

Unter PushDim (und ähnlichen Konzepten) versteht man die Steuerung über einen einfachen Taster:
kurzes Drücken schaltet, langes Drücken dimmt, ggf. Doppelklick ruft Szenen ab. Technisch liegt die Logik oft im Treiber oder in
einem lokalen Controller.

Wann das sinnvoll ist

  • Kleine, klar abgegrenzte Bereiche ohne komplexe Automationsanforderung.
  • Nachrüstungen, in denen Businfrastruktur nicht möglich ist.
  • Räume, in denen bewusst eine einfache, intuitive Bedienung priorisiert wird.

Wo PushDim typischerweise scheitert

  • Skalierung auf viele Zonen (unübersichtlich, schwer wartbar).
  • Fehlende Rückmeldung/Diagnose (Fehleranalyse wird „trial and error“).
  • Uneinheitliches Nutzererlebnis, wenn unterschiedliche Treiber/Logiken gemischt werden.

↑ Zurück nach oben

Casambi

Bluetooth-Mesh · drahtlose Beleuchtungssteuerung · Nachrüstung und Flexibilität

Casambi ist ein drahtloses Beleuchtungssteuerungssystem, das auf Bluetooth Low Energy (BLE) basiert und typischerweise
als Mesh-Netzwerk arbeitet. Es wird in der Praxis häufig eingesetzt, wenn flexible Zonierung, Szenen und Sensorik gewünscht sind,
aber eine klassische Busverdrahtung (z. B. DALI) nicht möglich oder wirtschaftlich ist – besonders bei Sanierung, Retrofit
oder in Bereichen mit hoher Änderungsdynamik.

Prinzip: Intelligenz im Netzwerk statt in der Leitung

Bei Casambi wird die Logik in der Kombination aus Leuchten-/Treiber-Komponenten und der Konfiguration (z. B. App/Backend) abgebildet.
Leuchten können Gruppen, Szenen und Zeitprofile erhalten, Sensoren werden logisch zugeordnet, und Änderungen können ohne Umverdrahtung erfolgen.
Wichtig ist: Die Funkarchitektur wird damit zu einem Teil der lichttechnischen Qualität – Reichweiten, Topologie und Störumgebung beeinflussen,
ob Bedienung und Regelung zuverlässig sind.

Stärken in der Praxis

  • Nachrüstung: Szenen/Zonen ohne zusätzliche Steuerleitungen.
  • Flexibilität: Umgruppieren und Anpassungen per Konfiguration statt Eingriff in die Elektroinstallation.
  • Schnelle Inbetriebnahme: häufig zügig in funktionierenden Zustand zu bringen – sofern Funkumfeld passt.
  • Sensorintegration: praxistauglich für Präsenz-, Tageslicht- und Tasterkonzepte.

Technische Realitäten und Risiken

Drahtlose Systeme sind nicht „problematisch“, aber sie haben andere Fehlerbilder als drahtgebundene Systeme:

  • Funkumfeld: Metall, Stahlbeton, Abschirmungen, große Distanzen, komplexe Gebäudestrukturen beeinflussen Mesh-Qualität.
  • Planung der Knoten: Ein Mesh braucht ausreichend „gute“ Knotenpositionen; einzelne Ausfälle können Zonen beeinflussen.
  • IT/Betreiberanforderungen: Update- und Zugriffskonzepte, Übergabe an Betreiber, Berechtigungen und Dokumentation sind entscheidend.
  • Langzeitbetrieb: Betriebs- und Serviceprozesse müssen klären, wie bei Austausch einzelner Komponenten konsistente Lichtwirkung erhalten bleibt.

Planungshinweise für professionelle Ergebnisse

  • Funk- und Reichweitentests im realen Gebäude (nicht nur „auf dem Papier“).
  • Dokumentierte Szenen-/Zonenlogik, damit Servicefälle nicht zu Konfigurations-Chaos führen.
  • Gleiche Qualitätsanforderungen wie bei Bus-Systemen: Mindestdimmwert, Flicker, Farbkonstanz, Sensorreglerparameter.

↑ Zurück nach oben

Drahtlose Lichtsteuerung allgemein (BLE, Zigbee, Thread & Co.)

Nachrüstung · Skalierung · IT-Sicherheit & Verfügbarkeit

Drahtlose Steuerungen können in der Gebäudebeleuchtung sinnvoll sein, müssen aber anders bewertet werden als drahtgebundene Systeme.
Wesentliche Kriterien sind: Funkabdeckung, Latenz, Robustheit gegen Störungen, Updatefähigkeit, Langzeitverfügbarkeit des Ökosystems,
und vor allem der definierte Serviceprozess (Wer kann was ändern? Wie wird dokumentiert?).

Typische Vorteile

  • Reduzierter Installationsaufwand (keine Busleitungen).
  • Flexible Umgruppierung, schnelle Anpassungen.
  • Gute Eignung für temporäre Umnutzungen und Sanierungsprojekte.

Typische Risiken

  • Störanfälligkeit: Funkspektrum ist nicht exklusiv; andere Systeme können Einfluss haben.
  • Komplexität verlagert sich: weniger Kabel, mehr Konfiguration, Updates, Berechtigungen.
  • Betreiberabhängigkeit: Ohne klaren Übergabeprozess ist später oft niemand mehr „zuständig“.

↑ Zurück nach oben

Sensorik (Präsenz, Bewegung, Tageslicht) & Regelung

Messprinzipien · Positionierung · Regelparameter & Akzeptanz

Sensoren liefern die Eingangsgrößen für Automationsfunktionen: Anwesenheit, Bewegung, Helligkeit/Tageslicht, teilweise auch Luftqualität oder
Nutzungsmuster. Der Nutzen ist groß, aber nur, wenn Sensorik fachlich sauber ausgelegt ist: Falsch platzierte Sensoren oder unpassende
Regelparameter erzeugen mehr Unzufriedenheit als Nutzen.

Präsenz vs. Bewegung – häufige Verwechslung

Bewegungssensoren reagieren auf Bewegung; Präsenzsensoren sind für feinere Detektion ausgelegt. In Büros, Besprechungsräumen oder
Lernumgebungen sind Präsenzanforderungen typischerweise höher. Falsche Sensorwahl führt zu ungewolltem Ausschalten oder zu „Licht geht nie aus“.

Tageslichtregelung (Konstantlicht)

Tageslichtregelung misst das vorhandene Licht und dimmt Kunstlicht so nach, dass ein Zielniveau gehalten wird. Kritisch sind:
Sensorposition (sieht er Tageslicht oder reflektiertes Kunstlicht?), Kalibrierung, Regelgeschwindigkeit, Hysterese und die Frage,
ob Nutzer das Verhalten als „natürlich“ oder als „ständig am Regeln“ wahrnehmen.

Planungsfehler, die in der Praxis teuer werden

  • Sensor sieht direkt die Leuchte → Regelkreis schaukelt sich auf (Oszillation).
  • Keine Verzögerungs-/Nachlaufzeiten → ständiges Ein-/Ausschalten, Stressfaktor.
  • Unklare Prioritäten: Manuelle Bedienung vs. Automatik (wer „gewinnt“?).
  • Zu aggressive Regelgeschwindigkeit → sichtbares „Atmen“.

↑ Zurück nach oben

Szenen, Zeitprofile & Human-Centric-Lighting-Konzepte

Reproduzierbarkeit · Betriebskonzepte · dynamische Anforderungen

Szenen sind definierte Zustände (Helligkeiten, ggf. Lichtfarben). Zeitprofile legen fest,
wann welche Szenen aktiv sind. In dynamischen Konzepten (z. B. Tunable White/HCL) ist entscheidend, dass Lichtfarbe und Helligkeit
konsistent und nachvollziehbar geregelt werden – sonst wird „HCL“ schnell zu unruhigem Licht, das Nutzer ablehnen.

Technische Kernpunkte für HCL/Tunable White im Betrieb

  • Saubere Mehrkanalregelung (z. B. DT8 oder äquivalente Multikanal-Logik).
  • Vermeidung von Farbortdrift über Dimmweg und Temperatur.
  • Definition von zulässigem Duv-Verlauf (kein Grünstich-Drift).
  • Begrenzung von Änderungsraten (Transitions), damit Lichtwechsel nicht „auffallen“.

Typische Fehlannahmen

  • „Tunable White“ = automatisch gute Wirkung. (In Wahrheit entscheidet Regel- und Spektrumqualität.)
  • „Szenen“ = nur Design. (In Wahrheit sind Szenen Betriebssicherheit: definierte Zustände statt Zufallszustände.)

↑ Zurück nach oben

Kapitel 07 – Installation, Inbetriebnahme und Messpraxis

Praxisbegriffe aus Installation, Prüfung und Fehlersuche, die im Alltag auf Baustelle und bei Serviceeinsätzen regelmäßig auftreten.

Einschaltstrom (Inrush Current) und Absicherung

Definition. Der Einschaltstrom ist ein kurzzeitiger Stromimpuls beim Einschalten elektronischer Betriebsmittel (z. B. LED-Treiber, elektronische Vorschaltgeräte, Netzteile). Er entsteht insbesondere durch das Laden von Eingangskondensatoren und kann um Größenordnungen über dem Nennstrom liegen, jedoch nur für Millisekunden.

Warum das wichtig ist. Hohe Einschaltstromspitzen können Leitungsschutzschalter (LS) unerwünscht auslösen, Relaiskontakte belasten und Selektivität beeinträchtigen. In LED-Anlagen ist das ein häufiger Grund für „sporadisches Auslösen“ bei gleichzeitiger Inbetriebnahme mehrerer Leuchten.

Kenngrößen in Datenblättern. Häufig angegeben als Ipeak (Spitzenwert) und t (Dauer, z. B. 200 µs/1 ms) oder als Iinrush bei definierter Netzimpedanz. Manche Hersteller nennen zusätzlich eine maximal zulässige Anzahl Geräte pro LS-Typ (B/C/D) bei gleichzeitiger Einschaltung.

Praxismaßnahmen. Einschaltstrom begrenzen (NTC/Softstart/Vorladewiderstand), Leuchten in Gruppen einschalten (Sequenzierung), geeignete LS-Charakteristik wählen, Schaltgeräte/Relais nach Einschaltstrom spezifizieren, Netzimpedanz/Leitungslänge berücksichtigen und bei DALI/KNX-Casambi-Gateways die Einschaltsequenzen beachten.

↑ Zurück nach oben

RCD/FI-Typen und Ableitströme bei LED

Grundprinzip. RCDs überwachen den Differenzstrom zwischen Hin- und Rückleiter. Tritt ein Fehlerstrom gegen Erde auf, löst der RCD aus, sobald der Bemessungsdifferenzstrom überschritten wird.

LED-spezifische Problematik. Viele LED-Treiber besitzen EMV-Filter (Y-Kondensatoren), die betriebsbedingte Ableitströme verursachen. Bei vielen parallel betriebenen Treibern können sich diese summieren und RCD-Auslösungen verursachen – auch ohne klassischen Isolationsfehler.

Typwahl. Je nach Art möglicher Fehlerströme (AC, pulsierende DC, glatte DC-Anteile) sind passende RCD-Typen erforderlich. Bei Anlagen mit Frequenzumrichtern/EV-Ladepunkten/Photovoltaik gelten zusätzlich spezifische Anforderungen. Bei LED-Anlagen ist die RCD-Auswahl immer zusammen mit Treiber-Topologie und EMV-Filtern zu betrachten.

Praxis. Ableitströme aus Datenblättern bewerten, Stromkreise sinnvoll aufteilen, ggf. selektive/zeitverzögerte RCDs einsetzen (wo normativ zulässig), Isolationsmessung fachgerecht durchführen (Treiber-Spezifika beachten) und Fehlerbilder systematisch eingrenzen (z. B. Abklemmen von Gruppen).

↑ Zurück nach oben

Schutzleiterführung, Potentialausgleich und EMV-Praxis

Ziel. Sichere Abschaltung im Fehlerfall, Berührungsschutz und gleichzeitig störungsarme Funktion elektronischer Komponenten (Treiber, DALI, Sensorik, Funk-Gateways).

Schutzleiter (PE). Durchgängige, niederohmige PE-Verbindung ist sicherheitsrelevant. Bei Leuchtengehäusen aus Metall ist die korrekte PE-Anbindung essenziell; fehlender oder hochohmiger PE kann sowohl gefährlich sein als auch EMV-Probleme verstärken.

Potentialausgleich. In größeren Anlagen oder bei langen metallischen Trassen reduziert ein sauberer Potentialausgleich Potentialdifferenzen und verbessert EMV. Bei gemischten Systemen (DALI/0–10 V/Funk) sind Bezugspotentiale und Schirmkonzepte früh festzulegen.

EMV-Praxis. Leitungstrennung (Leistung vs. Signal), Schirmung nur nach Konzept (einseitig/ beidseitig), Vermeidung großer Schleifenflächen, sternförmige Bezugspunkte und saubere Erdung verringern Störungen. Typische Symptome sind Flackern, Kommunikationsausfälle, sporadische Resets von Treibern/Gateways.

↑ Zurück nach oben

Messpraxis: Beleuchtungsstärke vs. Leuchtdichte (wann was?)

Beleuchtungsstärke (Lux). Relevante Größe für die Bewertung der Lichtmenge auf einer Fläche (Arbeitsfläche, Boden). Gemessen mit Luxmeter, idealerweise nach normgerechten Messrastern und mit dokumentierten Randbedingungen (Abstand, Ausrichtung, Umgebungslicht).

Leuchtdichte (cd/m²). Relevante Größe für Blendungs- und Wahrnehmungsbewertungen (z. B. UGR-Zusammenhänge, Bildschirmarbeitsplätze). Messung erfordert Leuchtdichtemessgerät/Kamera-Setup; stark abhängig von Blickrichtung und Umgebung.

Praxis. Luxmessungen sind in der Inbetriebnahme üblich; Leuchtdichte wird wichtig bei Reklamationen („blendet“), bei Entblendungskonzepten und bei anspruchsvollen Arbeitsplatznormen. Beide Größen dürfen nicht verwechselt werden: hohe Luxwerte bedeuten nicht automatisch hohe Blendung – und umgekehrt.

↑ Zurück nach oben

DALI-Verdrahtung (Topologie, Länge, Fehlerbilder)

Grundidee. DALI ist ein digitaler, bidirektionaler Steuerbus für Beleuchtung. Die Busleitung ist grundsätzlich polaritätsunabhängig; die Topologie ist flexibel (Linie, Stern, Baum, Mischung) – jedoch nur innerhalb der normativen/gerätespezifischen Grenzwerte.

Grenzwerte. Maximal zulässige Leitungslängen, Spannungsabfall, Teilnehmerzahl und Busversorgung sind projektspezifisch zu prüfen. Leitungstyp, Querschnitt und Verlegeart beeinflussen den Spannungsabfall und die Störfestigkeit.

Typische Fehlerbilder. Sporadische Ausfälle, „Geräte verschwinden“, Flackern bei Befehlen, keine Inbetriebnahme: häufig verursacht durch falsche Busversorgung, Kurzschluss, schlechte Klemmen, EMV-Einkopplung, zu lange Leitungen oder falsche Trennung von Netz- und Busleitungen.

Praxis. Saubere Dokumentation, systematisches Segmentieren (Bus in Abschnitte trennen), Messen der Busspannung unter Last, Prüfen der Busversorgung, Leitungstrennung und korrekte Adressierung/Inbetriebnahme sind entscheidend.

↑ Zurück nach oben