Unweit des Union Square in San Francisco findet alljährlich die IEDM statt.
Heutige Systeme setzen bei der Verarbeitung von Algorithmen in KI-Anwendungen typischerweise auf Heterogenes Computing. Für die Zukunft sieht Jeff Welser von IBM allerdings neue Ansätze, wie vom Gehirn-inspiriertes Approximate Computing, analoge KI-Cores und schließlich Quanten-Computing.
Den amerikanischen Part der IEDM-Keynotes übernahm Jeff Welser von IBM Research in Almaden und er gab einen Ausblick, wie zukünftige Rechner-Architekturen für Künstliche Intelligenz aussehen könnten. Hardware hat seiner Ansicht nach bisher eine unterstützende Rolle im Reifeprozess und bei der Verbreitung von »Narrow AI« (Single-Task, Single-Domain) eingenommen, wird aber künftig eine Schlüsselrolle bei der Innovation und Einführung von »Broad AI« (Multi-Task, Multi-Domain) spielen. Die gleichzeitige Evolution von Broad AI mit speziell entwickelter Hardware wird die traditionelle Balance zwischen Cloud und Edge verschieben, zwischen strukturierten und unstrukturierten Daten sowie Training und Inferenz (Schlussfolgerungen). Heterogene Systemarchitekturen werden bereits ausgerollt, wo unterschiedliche Rechenressourcen, einschließlich CPUs mit hoher Bandbreite, spezialisierte KI-Beschleuniger und Hochleistungsnetzwerke in jedem Knoten eingesetzt werden, um signifikante Verbesserungen bei der Rechenleistung zu erzielen. Mit Blick auf die Zukunft stellt Welser eine Roadmap von spezialisierten Technologien zur Beschleunigung von KI vor: Angefangen bei heterogenen digitalen Von-Neumann-Maschinen über Beschleunigerarchitekturen mit reduzierter Genauigkeit (Approximate Computing), analoge KI-Cores bis hin zu Quanten-Computing für KI.
Jeff Welser von IBM Research in Almaden gab einen Ausblick, wie zukünftige Rechner-Architekturen für Künstliche Intelligenz aussehen könnten.
Was ist Narrow AI, Broad AI und General AI?
Matrix-Multiplikationen spielen bei KI-Anwendungen häufig eine wichtige Rolle.
Narrow AI, gekennzeichnet durch ihre Leistung in einer einzigen Domäne mit menschlicher oder supramenschlicher Genauigkeit und einer hohen Geschwindigkeit bei bestimmten Tasks, findet weitgehend Verbreitung in Anwendungen von der Gesichtserkennung bis zur natürlichen Sprachübersetzung. Wir befinden uns erst am Anfang der Broad AI, die Multitasking, Multi-Domain, Multi-Modell sowie verteilte und erklärbare KI umfasst. Transferlernen und Schlussfolgerungen sind von zentraler Bedeutung für die Erweiterung der KI auf kleine Datensätze. Die Reduzierung des Zeitbedarfs und der Leistungsaufnahme von KI-Computing ist von grundlegender Bedeutung für die Entwicklung und Einführung von Broad-AI-Systemen und wird ihre Entwicklung in Richtung von »General AI« (Cross-Domain Learning and Reasoning) ermöglichen. Ganz allgemein lassen sich die Methoden Maschinelles Lernen und Tiefgehendes Lernen (Machine / Deep Learning — ML / DL) in zwei Betriebszustände aufteilen: Training und Inferenz. Die Trainingsphase ist zunächst ein Optimierungsproblem in einem multi-dimensionalen Parameter-Raum, bei dem ein Modell gebaut wird, das eine weitere Verallgemeinerung im Inferenz-Prozess zulässt. Beim Tiefgehenden Lernen besteht ein Modell typischerweise aus einem Multilayer-Netzwerk mit vielen freien Parametern (Gewichten), dessen Werte während des Trainingsprozesses gesetzt werden. Anschließend muss das trainierte Modell im Inferenz-Modus mit Daten aus der Realwelt zurechtkommen. In vielen Anwendungen erfordert der Inferenz-Schritt ein festes trainiertes Modell aus Gründen der Konsistenz, Reproduzierbarkeit, Zuverlässigkeit, Leistungsfähigkeit oder Gesetzeskonformität.
Um über zukünftige KI-Hardware zu sprechen, lohnt es sich, KI-Algorithmen zu analysieren. In tiefen neuronalen Netzen sind Matrix-Multiplikationen der Kern von Deep-Learning-Netzen. In vollständig verdrahteten Netzen reisen die Daten durch das Netzwerk in Form von Vektor-Matrix-Multiplikationen. Um die Computer-Ressourcen dabei besser auszulasten, werden mehrere Datenpunkte zu Stapeln (mini-batch) zusammengefasst. In neuronalen Faltungs-Netzen (Convolutional Neural Networks — CNN) lässt sich die Eingangs-Faltungs-Operation als Matrix beschreiben und der erste Schritt ist dann eine Matrix-Matrix-Multiplikation. Für diese Aufgabe optimierte Systeme zu entwickeln erfordert eine Betrachtung des Ende-zu-Ende-Systems, einschließlich der Transistorstrukturen, Hardware, Software und der Programmierung.
Zukünftige Rechner-Architekturen für Künstliche Intelligenz
Alle Bilder anzeigen (6)
Studierende haben eine künstliche Intelligenz programmiert, die Fotos in Kunstwerke verwandeln kann.
Um ein Gemälde im Picasso-Stil zu besitzen, hätten Ina-Christin Nicolai, Matthias Wagner und Tobias Linn, Studierende im Master-Studiengang „Elektro- und Informationstechnik“ an der Hochschule für Technik und Wirtschaft des Saarlandes (htw saar), eine Zeitmaschine bauen müssen. Da jedoch weder die Auswirkungen auf Raum und Zeit wirklich bekannt sind und noch keine Technik für das Reisen in die Vergangenheit existiert, blieb ihnen nichts anderes übrig, als eine künstliche Intelligenz so zu programmieren, dass diese in der Lage ist, den Stil eines bekannten Gemäldes auf ein beliebiges Foto zu übertragen.
Die Projektarbeit aus der Vorlesung „Musteranalyse und Maschinenintelligenz“ von Prof. Dr. Ahmad Osman kam da wie gerufen. In dieser Vorlesung bietet Professor Osman seinen Studierenden u.a. eine fundierte Einführung in moderne Techniken des Maschinellen Lernens an, wodurch Computertechnologie gezielt so programmiert wird, die kognitiven Fähigkeiten des Menschen nachbilden zu können.
Der Prozess des Maschinellen Lernens und die Anwendung von neuronalen Netzen sowie der Datenanalyse ist ein spannendes und zukunftsorientiertes Wissens- und Forschungsgebiet. Neben der Klärung von industriellen Fragestellungen zur Einsatzmöglichkeit von Algorithmen zur Datenanalyse, deren Bewertung und die Fähigkeit geeignete Analysemethoden auszuwählen, stehen ebenso die praxisorientierte Einführung in die Thematik sowie die programmiertechnische Umsetzung im Fokus der Vorlesung. „Maschinelles Lernen ist das Zukunftsfeld. Künstliche Intelligenz wird unseren Alltag durchdringen, so dass immer mehr Fachkräfte zur Entwicklung in diesem Bereich benötigt werden,“ erklärt Prof. Osman.
In einer Projektarbeit mit frei wählbarem Thema, wurde das neu gelernte Knowhow von den Studierenden direkt in der praktischen Anwendung umgesetzt. Gemeinsam stellten sich Nicolai, Wagner und Linn die Aufgabe, ein neuronales Netz aufzubauen, das in der Lage sein sollte, ein Bild im Stil eines Gemäldes aufzubereiten. Sie nutzen dazu das sogenannte Deep Learning, eine Teilmenge des Maschinellen Lernens, das hierarchische Schichten nutzt, um den Prozess des Maschinellen Lernens durchzuführen. Die Studierenden verschafften sich in einem ersten Schritt einen Überblick über die relevanten wissenschaftlichen Publikationen.
Innerhalb einer Publikation fanden sie schließlich einen detailliert beschriebenen Programmablaufplan für die “Image Style Transfer”-Technik, den es nun in Computersprache umzusetzen galt. Grundlage der Implementierung stellte ein neuronales Netz dar, welches für die „Objekterkennung“ bereits vortrainiert war. Durch gezielte Ansteuerung bestimmter Schichten des Netzes und der Berechnung einiger mathematischer Funktionen auf diesen sogenannten Layer, war das neuronale Netz schließlich in der Lage, den Bildinhalt eines beliebigen Fotos im Stil eines beliebigen Gemäldes in bemerkenswerter Qualität neu zu zeichnen.
Die Ergebnisse der Projektarbeit lassen die Kraft und Tiefe von neuronalen Netzen und ihr Potenzial erkennen. Alle drei Studierenden sind von den Möglichkeiten begeistert: „Die mathematischen Hürden erscheinen zunächst hoch, können mit Geduld und Engagement aber bewältigt werden. Die Ergebnisse sind am Ende aller Mühe wert“.
Die Geschichte der künstlichen Intelligenz
Der Begriff „künstliche Intelligenz“, auch "Artifical Intelligence" genannt, wurde bereits 1956 geprägt, doch erst heute gewinnt die KI dank größerer Datenmengen, hoch entwickelter Algorithmen und Verbesserungen bei Rechenleistung und Datenspeicherung an Bedeutung. Im deutschsprachigen Raum sind beide Begriffe AI und KI geläufig.
In den 1950er Jahren beschäftigte sich die frühe Forschung zur KI mit Themen wie Problemlösung und symbolischen Methoden. In den 1960er Jahren begann das US-Verteidigungsministerium, sich für diese Arbeiten zu interessieren und Computer darauf zu trainieren, grundlegende menschliche Denkleistungen nachzuahmen. Die Defense Advanced Research Projects Agency (DARPA) führte in den 1970er Jahren beispielsweise Straßenkartierungsprojekte durch und schuf 2003 intelligente persönliche Assistenten, lange bevor Siri, Alexa oder Cortana in aller Munde waren.
Diese frühen Arbeiten ebneten den Weg für die Automatisierungs- und formalen Denkleistungen der Computer von heute, wie beispielsweise in Form entscheidungsunterstützender Systeme und intelligenter Suchsysteme, mit denen sich menschliche Fähigkeiten ergänzen und erweitern lassen.
Hollywood-Filme und Science-Fiction-Romane mögen beschreiben, wie künstliche Intelligenz in Form menschenähnlicher Roboter die Weltherrschaft übernimmt. Tatsächlich sind aktuelle KI-Technologien aber weder so furchteinflößend – noch so intelligent. Stattdessen zeichnet sich die KI durch viele spezifische Vorteile in allen Branchen aus. Lesen Sie weiter und informieren Sie sich über richtungsweisende Beispiele für künstliche Intelligenz in Gesundheitswesen, Einzelhandel und weiteren Branchen.