Definition und Zweck:
Die Latenz (Latency, Verzögerungszeit) ist ein Maß für die Zeitverzögerung, die ein Signal, eine Information oder eine Aktion benötigt, um von der Quelle zum Ziel zu gelangen. Sie wird typischerweise in Millisekunden (ms) oder Mikrosekunden (µs) gemessen.
In der Automatisierungstechnik ist eine minimale Latenz ein entscheidendes Kriterium für die Performance und Determinismus eines Systems. Eine hohe Latenz kann zu einer verzögerten Reaktion der Steuerung führen, was die Regelgüte verschlechtert und in kritischen Prozessen zu Instabilität führen kann.
Faktoren und Optimierung:
- Kommunikation: Die Datenübertragung über große Netzwerke (Cloud-Computing) oder Funk (5G) führt zu höherer Latenz als direkte Feldbus-Kommunikation (EtherCAT, PROFINET). Systeme wie 5G (uRLLC) sind auf extrem niedrige Latenz optimiert.
- Echtzeitfähigkeit:DeterministischeBetriebssysteme und schnelle Hardware (Multi-Core-Architektur) reduzieren die interne Verarbeitungs-Latenz der SPS.
- Messwert-Erfassung: Die Abtastzeit des Eingangsmoduls trägt zur Gesamt-Latenz bei.
- Edge Computing: Verlagerung der Daten Analytics- und Verarbeitungslogik (Steuerung) näher an den Prozess (IoT Gateway), um die Latenz der Cloud zu umgehen.
Anwendungen:
Minimale Latenz ist entscheidend für Motion Control (ACOPOS, Lexium Servosysteme), Prozessregelung und Kollisionsvermeidung.
→ Siehe auch: Determinismus, 5G (5. Generation Mobilfunk), Datenübertragung, EtherCAT-Klemmen, Edge Computing, Performance

