Der Begriff „KI – Künstliche Intelligenz“ ist in aller Munde.
Aber was ist das und ab wann kann man ein System oder einen Prozess als „intelligent“ bezeichnen? Welche Konsequenzen ergeben sich für moderne Gebäude?
Bereits 1950 wurde durch Alan Turing der sogenannte Turing-Test entwickelt. Turing befasste sich zunächst mit der Definition des Denkens und ersetzt diese Frage durch eine Aufgabe, in der eine Maschine das Verhalten eines Menschen nachahmen muss, ohne als Maschine erkannt zu werden. Im Detail befragt ein Fragesteller über einen Fernschreiber eine Maschine oder eine Frau. Beide geben sich als Frau aus. Der Fragesteller hat die Aufgabe herauszufinden, ob der jeweilige Dialogpartner die Frau oder die Maschine ist. Um den Test möglichst gut zu bestehen, muss die Maschine in der Lage sein, das menschliche Denken zu imitieren. Turing war zuversichtlich, dass die Konstruktion einer solchen Maschine machbar ist – im Detail schätzte er, dass im Jahre 2000 eine Maschine in mindestens 30% der Dialoge den Fragesteller täuschen könne, wobei in solch einem Fall die Maschine jeweils als denkend anzusehen ist.
Dabei diskutierte Turing die Notwendigkeit einer Maschine, menschliche Fehler vorzutäuschen – im Gegenzug dazu kann ein Mensch sehr leicht durch Fehler bei z.B. komplizierten arithmetischen Fragen identifiziert werden. Interessanterweise ging Turing bereits auf den Programmieraufwand einer solchen Maschine und eine erforderliche Rechenleistung ein. Er erkannte den sehr hohen Aufwand und schlug vor, zunächst eine Maschine mit der Intelligenz eines Kindes zu programmieren. Dann wird diese Maschine einer autonomen Lernphase ausgesetzt, die über Belohnung und Bestrafung einen weiteren Lernprozess durchläuft und in Konsequenz die Gesamtfähigkeit des Systems deutlich erhöht.
Der heutige Anspruch an „intelligente Systeme“ geht über den von Alan Turing hinaus – schließlich sollen computerbasierte Prozesse möglichst optimal arbeiten und nicht menschliche Fehler nachahmen. Trotzdem hat bereits Turing zwei wesentliche Kriterien für „künstliche Intelligenz“ herausgearbeitet. Die erforderliche Rechenleistung und das eigentliche Lernverfahren.
Künstliche Intelligenz erfordert eine hohe Rechenleistung. 1991 hat Ray Kurzweil in seinem Buch „The age of spiritual machines“ die Rechenleistung des menschlichen Gehirns mit der stets wachsenden Rechenleistung von Computern verglichen. Dabei wird gezeigt, dass sich die Rechenleistung von Maschinen bereits seit 1900 beginnend mit mechanischen Rechen-Maschinen über Röhren-Computer bis hin zu heutigen IC-basierten Computern jedes Jahr zunächst alle 3 Jahre, inzwischen jedes Jahr, verdoppelt. Diese exponentiell-ähnliche Leistungssteigerung wird laut Kurzweil, hochgerechnet auf die nächsten Jahre, dazu führen, dass die Rechenleistung eines gewöhnlichen Standardcomputers im Jahre 2020 mit der Rechenleistung des menschlichen Gehirns vergleichbar ist.
Die heutige immense Rechenleistung von Computern nutzt nichts, wenn diese falsch eingesetzt wird. In Bezug auf sinnvolle Verfahren für Künstliche Intelligenz unterscheidet man wie folgt:
Das erste Verfahren wird genutzt, um größere Datenmengen auszuwerten und zu gruppieren – z.B. um Abhängigkeiten aufzudecken (z.B. Gemeinsamkeiten von Kunden eines bestimmten Produktes).
Beim „Supervised Learning“ kommt meist ein neuronales Netzwerk zum Einsatz. Durch den Programmierer wird lediglich die Struktur des neuronalen Netzes vorgegeben; der eigentliche Lernvorgang wird über Trainingsphasen ausgeführt. Hauptmanko neuronaler Netze ist, dass diese nur für ähnliche Aufgabestellungen wie die der Trainingsphase geeignet sind. Und sollten in den Trainingsphasen fehlerbehaftete Muster eingelernt werden, behalten neuronale Netze diese bei und verbessern diese nicht autonom.
Die höchste Form der künstlichen Intelligenz sind Verfahren, die eigenständig (d.h. ohne Trainingsphase) ermitteln, welche Aktionen in einer Situation angemessen sind. Solche Verfahren ähneln dem Verhalten vom Menschen, der in unbekannten Situationen notfalls auch unterschiedliche Aktionen ausprobiert (sei es vorsichtig oder mutig) und aufgrund eines Ergebnisses rückwirkend lernt, welches Verhalten am sinnvollsten war. Anspruchsvoll ist die Lernaufgabe dann, wenn Feedback sehr spät erfolgt und von weit zurückliegenden Aktionen abhängt. Aber das funktioniert bei dem Menschen und inzwischen auch bei Computern. Das bekannteste Verfahren dieser Kategorie ist das Verstärkungslernen (Reinforcement Learning). Dies ist ein Lernsystem, welches rein auf Basis von Belohnungen aus der Umwelt lernt und diese zum Optimieren des Verhaltens nutzt. Durch Verstärkungslernen wird die Menge der möglichen Aktionen in einer Situation autonom erforscht, d.h. es wird eigenständig ermittelt, welche Aktionen in einer Situation angemessen sind.
Welches Verfahren für eine Aufgabe am sinnvollsten ist, hängt dabei vom Anspruch und der Komplexität der konkreten Aufgabe ab – d.h. jedes Verfahren hat seine Existenzberechtigung.
Der Betrieb von Gebäuden bzw. ganzen Liegenschaften wird zunehmend komplexer und somit ist dies ein ausgezeichnetes Anwendungsgebiet für computergestützte Auswertungen bzw. Optimierungen von Betriebsabläufen.
Wichtig ist es dabei, den zu erwartenden Mehrwert festzulegen – d.h. die sogenannten „Use cases“ genau zu beschreiben. Das kann die Auswertung von Flächennutzung sein, die in heutigen Zeiten von Wechselarbeitsplätzen zunehmend an Bedeutung gewinnt. Das kann auch die Optimierung von Wartungsintervallen für Toiletten, Aufzüge und Infrastruktur für das Gebäude sein. Das können auch sogenannte „location based services“ sein, wie z.B. „Find my workspace“ oder „Find my colleague“.
Aufgrund der erforderlichen Anforderungen an Rechenkapazitäten sind entsprechende Algorithmen als BMS (Building Management System) in der sogenannten Management-Ebene zu finden – sei es als ausführbare Programme im eigenen Rechenzentrum (z.B. mit Produkten wie Niagara von TRIDUM, Genesis von ICONICS oder B-Con von ICONAG) oder als Service in der Cloud (z.B. Microsoft Azure, Amazon Web Services oder AppAgile der Deutschen Telekom). Dabei bieten einige dieser Plattformen bereits vorgefertigte KI-Module – d.h. diese müssen „nur noch“ eingesetzt werden. Hauptaspekte zur Umsetzung von KI ist somit nicht ein individueller Programmieraufwand, sondern das Festlegen der Use-Cases, die sinnvolle Auswahl/Aufbereitung von Daten (u.a. „Labeln“) und dann die Auswahl vorhandener Softwareprodukte bzw. –Module.
Der grundlegende Gebäudebetrieb bleibt dabei im Verantwortungsbereich der Controller (DDC-Systeme) der Automations-Ebene. Aber es ist unabdingbar, dass diese harmonisch mit dem BMS-System zusammenarbeiten (wer ist übergeordnet und wer ist unterstützend verantwortlich?). Auch sollte ein modernes Protokoll (wie z.B. BACnet IP, OPC UA, MQTT etc.) zur Kommunikation zwischen Automations-Ebene und Management-Ebene genutzt werden.
In Bezug auf die Feld-Ebene ist eine gute Integrationsfähigkeit der Komponenten wie Sensoren und Aktoren wichtig. Diese sollten möglichst kommunikativ ausgestattet sein – d.h. standardisierte Protokolle wie DALI, M-Bus, RS485, KNX bzw. im Falle von größeren TGA-Anlagen die zuvor aufgeführten Ethernet-basierten Protokolle unterstützen.
Funkbasierten Sensoren kommt eine besondere Rolle zu. Um die Anzahl der erforderlichen Sensoren in Gebäuden einbinden und diese auch in z.B. Möbel bzw. ortsveränderlich auszuführen zu können, ist eine entsprechende Infrastruktur für ein leistungsfähiges funkbasiertes System unabdingbar. EnOcean ist hier die erste Wahl – aufgrund der Unterstützung durch viele Controller-Hersteller sowie der konsequenten Nutzung von „Energy Harvesting“ und damit dem wartungsfreien Betrieb.
Die Anforderungen an den „intelligenten“ Betrieb von Gebäuden sowie die Auswertung von Daten steigt. Die eigentliche „Intelligenz“ wandert zunehmend in die Management-Ebene und erfordert eine harmonische Arbeitsteilung sowie moderne Protokolle zwischen Controllern und BMS (Building Management System). Aber auch die Feldebene ist verschärften Anforderungen ausgesetzt und muss zunehmend kommunikativ eingebunden werden – inklusive Infrastruktur für ortsveränderliche und wartungsfreie Sensoren.
Tipp des Monats als PDFDie Trends im Umfeld von „Smart Buildings“ sowie konkrete „Use Cases“ für den Einsatz von KI vertiefen wir in unserem Lehrgang „Planer und Berater für Smart Building“ an 2 x 2 Tagen.
Nutzen Sie den Frühbucherrabatt für den kommenden Lehrgang im März bei Anmeldung bis zum 28.02.20! Es gibt noch Restplätze!
Alternativ unterstützen wir Sie gerne als Berater bei der individuellen Umsetzung Ihres Projektes! Sei es die konkrete Festlegung der Use-Cases, der prototypische Aufbau einer Pilotfläche oder wie zuvor geschildert die strukturierte Anbindung von existenten Sensordaten an eine verfügbare Plattform inkl. Anpassung von KI-Modulen. Bitte sprechen Sie uns bei Interesse an!