Daten als Basis für Künstliche Intelligenz

Unter dem Begriff der Künstlichen Intelligenz (KI) werden all die Technologien zusammengefasst, die ein „Verhalten“ zeigen, das von einem Menschen Intelligenz erfordern würde – es sind also Technologien, die technischen Vorrichtungen ein Erkennen der Umwelt, ein selbstständiges Lernen, Schlussfolgern und Entscheiden ermöglichen.

Seit fast 70 Jahren wird an den verschiedensten Technologien zur Bilderkennung, zum Sprachverstehen, zur Robotik, zum autonomen Fahren, zum automatischen Schlussfolgern, Mustererkennen und maschinellen Lernen geforscht und entwickelt. Erst in jüngster Zeit finden die Forschungsergebnisse aus diesen Technologiebereichen eine breitere Anwendung. Ihre Leistungsfähigkeit ist in den letzten Jahren massiv gesteigert worden, so dass gegenwärtig deren Einführung in viele Anwendungsfelder stattfindet, wie im Maschinenbau, in der Pharmaindustrie, im verarbeitenden Gewerbe, in der Mobilitätswirtschaft und Logistik oder dem Handel.

Daten als Trainingsbasis für die Maschine

Wesentlich bei der Anwendung von Technologien der Künstlichen Intelligenz ist die Ausführung von Lernprozessen – der Maschine, dem Computer muss also nicht in starren Regeln vorgeschrieben werden, welche Verarbeitungsschritte in welcher Reihenfolge anzuwenden sind, sondern das technische System wird in einer Anlernphase mittels großer gesammelter Datenmengen trainiert und kann dann in der Anwendungsphase neue Daten klassifizieren, Schlussfolgerungen ziehen und Entscheidungen mit einer bestimmten Wahrscheinlichkeit treffen. Dieses lernende System ist in der Regel so aufgebaut, dass es sich während dessen Nutzung auf neue Umgebungsbedingen, auf eine neue Eingangsdatenlage adaptieren kann und sich so fortwährend weiterentwickelt.

Das automatisierte Lernen anhand von Daten ist somit eine Schlüsselfunktion eines mit „künstlicher Intelligenz“ ausgestatteten Systems. Und der Lernerfolg dieser Systeme wird immer besser, je mehr Daten zum Training zur Verfügung stehen, je korrekter diese Daten sind und je besser die Trainingsdaten die spätere Anwendungsdomäne abdecken. Aber auch die Lernverfahren und die Struktur der daraus resultierenden Modellierungen selber haben einen großen Einfluss auf die spätere Performanz eines KI-Systems. In den letzten Jahrzehnten wurden die statistischen Lernverfahren wesentlich weiterentwickelt.

Entwicklung der Lernmethoden

Seit den 1980er Jahren sind die Verfahren des Maschinellen Lernens entwickelt und eingesetzt worden. Diese Verfahren beruhen auf mathematischen, speziell statistischen Modellierungen wie Entscheidungsbäume, Hidden-Markov-Modellen, Nächster-Nachbar-Klassifikatoren und es kommen statistische Verfahren wie die verschiedenen Ausprägungen der Regressionsanalyse oder das aus der Optimierungs­theorie bekannte Gradientenabstiegs­verfahren zum Einsatz.

Seit einem Jahrzehnt werden nun Lernverfahren entwickelt und eingesetzt, die auf Modellierungen mittels künstlicher neuronaler Netze beruhen. Hierbei werden Netzarchitekturen aufgebaut, die aus sehr vielen verschiedenen, verborgenen Schichten mit hochkomplexen Vernetzungen bestehen, die jeweils in vielen Iterationsschritten trainiert und optimiert werden müssen. Man spricht deshalb auch von tiefem Lernen bzw. Deep Learning. Eine explizite Merkmalsextraktion und Klassifikation finden nicht mehr statt, sondern sind in das komplexe Training eines Neuronalen Netzes verlagert. Als eine weitere Ausprägung des maschinellen Lernens hat sich das Reinforcement Learning (dt. Bestärkendes Lernen) etabliert, insbesondere aus der Computer-Spiele-Domäne oder der Bewegungssteuerung humanoider Roboter kommend. Das lernende System, oft Agent genannt, beobachtet seine Umgebung, trifft einer Strategie (engl. policy) folgend eine Entscheidung für eine Aktion und führt diese dann aus. Dafür erhält der Agent dann entweder eine Belohnung (engl. reward) oder eine Bestrafung (eng. penalty) und er muss sich selber eine Strategie antrainieren, um im Laufe der Zeit die meisten Belohnungen einzusammeln – Gewinnmaximierungsstrategie. In der späteren Anwendung eines solchen Modells wird der Agent der antrainierten Strategie befolgend situationsbedingt die beste Aktion auswählen.

Die Verfahren des Maschinellen Lernens können außerdem noch darin unterschieden werden, ob ein überwachtes (engl. supervised) oder ein unüberwachtes (engl. unsupervised) Lernen zum Einsatz kommt. Beim überwachten Lernen werden neben die Ausgangsdaten auch die Ergebnisdaten zum Training der Modelle verwendet. Damit müssen alle Daten vor deren Verwendung korrekt annotiert (engl. labeled data) werden, was einen hohen Aufwand für die Entwicklung von KI-Systemen bedeutet. Beim unüberwachten Lernen lernt das System selbständig, Daten zu ordnen, Muster zu erkennen. Dieses Verfahren wird insbesondere zum Clustern von Eingabedaten verwendet.

Gründe für mehr Leistung und breitere Anwendbarkeit

In den letzten Jahren sind die KI-Systeme in ihrer Leistungsfähigkeit und der Korrektheit der ausgeführten Aktionen bzw. Entscheidungen immer besser geworden. Doch worin liegen die entscheidenden Gründe für die Leistungssteigerung der KI-basierten Technologien und deren breitere Anwendbarkeit? Zum einen sind entscheidende Fortschritte bei der Hardware- und Softwaretechnologie und den grundsätzlichen KI-Algorithmen erzielt worden. So steht jetzt eine enorm gesteigerte Rechenleistung, einhergehend mit einer stetigen Miniaturisierung und Leistungsaufnahmeoptimierung, sowohl im Server- als auch im Client-Bereich zur Verfügung. Zu den Anfängen der KI-Forschung konnten die Berechnungen nur auf Großrechnern (Mainframes) ausgeführt werden. Doch mit Mehrkern- bzw. Vielkern-Prozessoren und mit gerade für Deep-Learning-Aufgaben geeigneten GPUs (Grafikprozessoren) lassen sich heutzutage hochkomplexe, tiefe Neuronale Netze auf der Basis der erforderlichen großen Datenmengen modellieren und in überschaubaren Zeiten trainieren.

Zum anderen ist es nun möglich, die zum Training und Testen von lernenden Systemen erforderlichen umfangreichen Datenmengen zu sammeln und bereitzuhalten. Die alle Arbeitsbereiche durchdringende Digitalisierung ermöglicht es, zu allen Prozessschritten im Lebenszyklus eines Produktes oder bei der Erbringung einer Dienstleistung umfangreich Daten zu erheben. Verschiedenste Technologien zur drahtlosen und drahtgebundenen Datenkommunikation erlauben beinahe zu jeder Zeit und von jedem Ort den Transport der Daten von den IoT-Sensoren und Endgeräten hin zu Cloud-Rechenzentren. Dort stehen dann z.B. über TPUs (Tensor Processing Units – spezielle Chips zur Verarbeitung von Daten in Neuronalen Netzen, indem gerade die nötigen Matrizen-Operationen hardwareseitig unterstützt werden) die Rechenleistung und die Speicherkapazität zur Verfügung, um mit den gesammelten und aufbereiteten Daten tiefe Neuronale Netze in vielen Recheniterationen zu trainieren und zu tunen.

Aber auch auf der Client-Seite sind wesentliche KI-förderliche Innovationen eingeführt worden wie z.B. die in Smartphones verbauten NPUs (neuromorphe neurale Prozessoren, die als im Hauptprozessor integrierte Rechenwerke speziell zur Mustererkennung und -analyse zur Anwendung kommen). Diese Steigerung von Rechenleistung und von Trainings-Datenmengen sind die wesentlichen Auslöser für die rasante Nutzbarkeit von KI-basierten Lösungen und Produkten.


Zur Person

Dr. Carsten Günther – Co-Founder Codefy GmbH, freier KI-Berater und Vorstandsmitglied der bwcon – ist seit drei Jahrzehnten auf dem Gebiet der Künstlichen Intelligenz und angrenzenden IT-Feldern forschend, entwickelnd und leitend aktiv. Er verfügt über langjährige Führungserfahrung und berät junge Unternehmen beim Aufbau innovativer datengetriebener Geschäftsmodelle.


Lesen Sie hierzu unsere Experten-Meinungen

Bild von Gerd Altmann auf Pixabay