Was ist Künstliche Intelligenz?
Künstliche Intelligenz ist allgegenwärtig. Ob in Sprachassistenten, Chatbots, semantischen Textanalysen, Streamingdiensten, smarten Fabriken oder autonomen Fahrzeugen – KI wird die Art und Weise, wie wir unseren beruflichen und privaten Alltag gestalten ebenso verändern, wie wir wirtschaften und als Gesellschaft zusammenleben. Auch die Politik erklärt KI zur grundlegenden Bedingung unseres zukünftigen Wohlstands.
Und obwohl immer mehr Menschen Künstliche Intelligenz nutzen, wissen nur wenige, was genau sie eigentlich ist. Das ist wenig verwunderlich: Künstliche Intelligenz trennscharf zu definieren, ist ein schwieriges Unterfangen. Ebenso wenig wie die Intelligenz des Menschen eindeutig beschrieben werden kann – beispielsweise wird zwischen kognitiver, emotionaler und sozialer Intelligenz differenziert –, gibt es für Künstliche Intelligenz keine allgemeingültige und von allen Akteuren konsistent genutzte Definition. Vielmehr handelt es sich um einen Oberbegriff für alle Forschungsbereiche, die sich damit beschäftigen, wie Maschinen eine Leistung menschlicher Intelligenz erbringen können. Die folgende Eingrenzung soll daher versuchen, etwas Klarheit und Transparenz schaffen.
KI: Definition und Geschichte
Historisch betrachtet geht der Begriff auf den US-amerikanischen Informatiker John McCarthy zurück, der 1956 Forscherinnen und Forscher aus verschiedensten Disziplinen zu einem Workshop mit dem Titel „Dartmouth Summer Research Project on Artificial Intelligence“ einlud. Das Leitthema des Zusammentreffens lautete: „The study is to proceed on the basis of the conjecture that every aspect of learning or any other feature of intelligence can in principle be so precisely described that a machine can be made to simulate it.“ Unter diesem Leitthema wurde bereits 1956 der Grundstein dafür gelegt, was später zum Fachgebiet der Künstlichen Intelligenz avancierte.
KI: Simulation und Automatisierung kognitiver Fähigkeiten
Heute definieren zahlreiche Lexikoneinträge Künstliche Intelligenz als ein Teilgebiet der Informatik, das sich mit der maschinellen Nachahmung menschlicher Intelligenz beschäftigt. The English Oxford Living Dictionary beschreibt KI beispielsweise wie folgt: „The theory and development of computer systems able to perform tasks normally requiring human intelligence, such as visual perception, speech recognition, decision-making, and translation between languages.“
Auf eine ähnlich abstrakte Arbeitsdefinition verständigen sich derweil auch KI-Experten in Forschung und Praxis: Künstliche Intelligenz sei die Automatisierung und/oder die Simulation kognitiver Fähigkeiten, worunter u.a. die visuelle Wahrnehmung, Spracherkennung und -generierung, Schlussfolgern, Entscheidungsfindung und Handeln, sowie im Allgemeinen auch die Anpassungsfähigkeit an wechselnde Umgebungen gehören.
Die Leistungsfähigkeit dieser simulierten und/oder automatisierten kognitiven Fähigkeiten kann unterschiedlich stark ausgeprägt sein. Während sie etwa bei Sprachassistenten wie Alexa und Siri noch recht rudimentär vorhanden sind, übersteigen sie in manchen Bereichen die menschlichen Fähigkeiten schon heute bei weitem – so zum Beispiel in der Medizin bei der millionenfachen Auswertung von MRT-Scans.
Strong AI vs. Weak AI
Sehr abstrakt lassen sich die Entwicklungsrichtungen von Künstlicher Intelligenz in zwei Kategorien zuordnen: die schwache und die starke KI. Die schwache KI (auch: weak oder narrow AI) umfasst den Großteil aller Entwicklungstätigkeiten und ermöglicht eine effiziente Simulation spezifischer menschlicher Einzelfähigkeiten. Derzeit noch sehr realitätsfern ist die starke KI, welche die gleichen oder sogar noch höhere intellektuelle Fähigkeiten als der Mensch aufweist.
Starke KI
Die starke KI ist nicht nur dazu in der Lage, rein reaktiv zu handeln, sondern ist kreativ, flexibel, auch bei Unsicherheit entscheidungsfähig sowie aus eigenem Antrieb heraus motiviert – und daher dazu in der Lage, proaktiv und geplant zu handeln. Eine solche KI ist derzeit laut Expertenmeinung jedoch weder existent noch ist deren Existenz absehbar.
In Wissenschaft und Philosophie ist es heftigst umstritten, ob und wann eine starke KI überhaupt entwickelt werden kann. Zu dem größten Streitpunkt gehört dabei die Frage, ob eine KI jemals über Empathie, Selbstreflexion und Bewusstsein – Eigenschaften, die (bis dato) zum Kern des Menschseins schlechthin gehören – verfügen wird. Daher sollten Äußerungen, welche die Existenz einer solchen starken bzw. allgemeinen KI (auch: AGI oder Artificial General Intelligence) verlautbaren oder in Aussicht stellen, mit Skepsis begegnet werden. Überzogene Erwartungen an KI, die häufig mit dem Begriffen Superintelligenz oder Singularität verschlagwortet werden und übertriebene Ängste einer Roboterherrschaft schüren, führen lediglich zu einer populistisch aufgeladenen Debatte. Einem transparenten Diskurs sind sie alles andere als förderlich.
Schwache KI
Die schwache KI fokussiert sich hingegen auf die Lösungen einzelner Anwendungsprobleme, wobei die entwickelten Systeme zur Selbstoptimierung bzw. zum Lernen fähig sind. Dazu wird versucht, spezifische Aspekte menschlicher Intelligenz zu simulieren und zu automatisieren. Bei den meisten derzeit existierenden kommerziellen KI-Anwendungen handelt es sich um Systeme der schwachen KI. Aktuell werden schwache KI-Systeme u.a. in den folgenden konkreten Anwendungsfeldern eingesetzt:
Digitale Sprach- und Textverarbeitung (Natural Language Processing): KI-Systeme, die Inhalt und Kontext von Texten und Sprache voll- oder teilautomatisiert verstehen oder generieren können. Auf diese Weise können beispielsweise Fussball- oder Wahlberichte maschinell geschrieben, Texte übersetzt und Chatbots oder Sprachassistenten kommunizieren.
Robotik & autonome Maschinen: Smarte und autonom navigierende (Transport-)maschinen wie Drohnen, Autos und Schienenverkehrsfahrzeuge, die sich selbstständig an neue Umgebungssituationen anpassen können und in Echtzeit lernen.
Mustererkennung in großen Datensätzen: Steuerung und Optimierung von Infrastrukturen (u.a. im Straßenverkehrsfluss oder im Stromnetz); Identifikation von Betrugsfällen, Geldwäsche oder Terrorismusfinanzierung in der Finanzindustrie; Predictive Policing in der Kriminalitätsbekämpfung; KI-basierte Diagnosesysteme im Gesundheitsbereich (z.B. Auswertung von radiologischen Bilddaten) etc.
Künstliche Intelligenz und Mustererkennung
Im weiten Anwendungsfeld der Künstlichen Intelligenz spielt die Mustererkennung (auch: Pattern Recognition) eine besondere Rolle. Einerseits, weil zahlreiche aktuelle Fortschritte im KI-Bereich auf Fortschritte im Bereich der Mustererkennung zurückzuführen sind, andererseits, weil unterschiedliche Anwendungsfelder (z.B. Bild-, Text- und Spracherkennung etc.) zumindest in Teilen auch auf Mustererkennung zurückgreifen.
Bei ihr geht es darum, aus großen, unstrukturierten Datenmengen sinnvolle und relevante Informationen zu extrahieren, indem Regelmäßigkeiten, Wiederholungen oder Ähnlichkeiten maschinell erfasst werden. Grundlage ist die Fähigkeit zur Klassifizierung: Merkmale müssen identifiziert werden, die innerhalb einer Merkmalskategorie identisch sind, jedoch außerhalb dieser Kategorie nicht auftreten. Auf diese Weise können Gesichter auf digitalen Fotos erkannt, Songs identifiziert oder aber Verkehrszeichen aus einer Flut von Bilddaten gefiltert werden. Auch in der Sprach- und Texterkennung ist das systematische Erkennen von Mustern von größter Relevanz.
Künstliche Intelligenz und Sprache
Eines der herausforderndsten und zeitgleich spannendsten Anwendungsgebiete der Künstlichen Intelligenz ist die maschinelle Verarbeitung natürlicher Sprache – besser bekannt unter dem Begriff Natural Language Processing (NLP). Als interdisziplinäre Querschnittsdisziplin zwischen Linguistik und Künstlicher Intelligenz besteht das Ziel in der Entwicklung von Algorithmen, die Elemente von menschlicher Sprache aufgeschlüsselt und maschinell verarbeitet. Das heißt: All das, was Menschen schriftlich oder verbal ausdrücken, kann NLP in digital lesbare Informationen übersetzen. Dieser Prozess funktioniert jedoch auch in die umgekehrte Richtung: Daten lassen sich auch in Sprache oder Text verarbeiten. Diese beiden Prozessrichtungen markieren die beiden Teildisziplinen, in denen NLP aufgeteilt werden kann: Natural Language Understanding (auch: NLU) und Natural Language Generation (auch: NLG oder Automatische Sprach- und Textgenerierung).
Natural Language Generation
Während es sich bei der Übersetzung natürlicher Sprache oder Texten in Daten um typische Formen von Natural Language Understanding handelt, spricht man bei der umgekehrten Richtung von Natural Language Generation. Bei NLU wird in der Regel natürlicher Text zu Daten verarbeitet, bei NLG-Prozessen entsteht natürlicher Text durch Daten. In all jenen Bereichen, wo strukturierte Daten anfallen – beispielsweise im E-Commerce, in der Finanzwelt oder in der Berichterstattung für Sport, Wetter oder Wahlen – können NLG-Programme in Sekundenschnelle aus Daten leserfreundliche Texte erstellen. Auf diese Weise befreien NLG-Systeme Texter und Redakteure von monotoner Routine-Arbeit. Die eingesparte Zeit kann somit verstärkt in kreative oder konzeptionelle Arbeiten gesteckt werden.
Natural Language Understanding
Natural Language Understanding hingegen hat das Ziel, einen natürlichsprachigen Text zu „verstehen“ und daraus strukturierte Daten zu erzeugen. Der Oberbegriff NLU kann auf eine Vielzahl von Computeranwendungen angewendet werden, die von kleinen, relativ einfachen Aufgaben wie kurzen Befehlen an Roboter bis hin zu hochkomplexen Aufgaben wie dem vollständigen Verständnis von Zeitungsartikeln reichen.
Unterschiede und Gemeinsamkeiten: KI, Machine Learning, Deep Learning
Mit dem Begriff Künstliche Intelligenz eng verwandt sind u.a. die Termini Machine Learning und Deep Learning. Die Begriffe werden in der öffentlichen Diskussion häufig synonym gebraucht. Im Folgenden soll eine kurze Begriffseinordnung zu einem transparenten Umgang mit den unterschiedlichen Terminologien führen.
Während Künstliche Intelligenz als Oberbegriff für sämtliche Forschungs- und Entwicklungsbereiche dient, die sich – wie oben bereits dargestellt wurde – mit der Simulation und Automatisierung kognitiver Fähigkeiten beschäftigen, lassen sich Machine Learning und Deep Learning eher als Teilbegriffe von KI verstehen. Insbesondere Machine Learning wird häufig als deckungsgleich mit KI verstanden, ist aber viel eher ein Teilgebiet dessen. Im Grunde genommen bezieht sich allerdings die überwiegende Mehrheit der aktuellen Fortschritte in KI-Anwendungen auf Machine Learning. Umso hilfreicher erscheint es daher, zunächst den Begriff Machine Learning näher zu betrachten.
Machine Learning
Bei Machine Learning (auch: Maschinelles Lernen, ML) handelt es sich um eine bestimmte Kategorie von Algorithmen, die Statistiken verwenden, um Muster in großen Datenmengen, sogenannter Big Data, zu finden. Sie verwenden die gefundenen Muster in den historischen (und bestenfalls repräsentativen) Daten dann, um Vorhersagen über bestimmte Ereignisse zu treffen – wie z.B. darüber, welche Serie einem User auf Netflix gefallen könnte oder was genau mit einer spezifischen Spracheingabe bei Alexa gemeint ist. Bei Machine Learning sind Algorithmen daher dazu in der Lage, aus großen Datensets Muster zu lernen und eigenständig die Lösung eines bestimmten Problems zu finden, ohne dass jeder Einzelfall zuvor explizit programmiert wurde. Mithilfe von Machine Learning sind Systeme daher befähigt, aus Erfahrungen Wissen zu generieren. In diesem Sinne wurde der Begriff von dem US-amerikanischen Informatiker und KI-Pionier Arthur L. Samuel bereits 1959 als System beschrieben, das die „Fähigkeit zu lernen, ohne explizit programmiert worden zu sein“ besitzt.
Relevante Daten aus Big Data extrahieren und Vorhersagen treffen
In der Praxis heißt das Folgendes: In Streamingdiensten lernen Algorithmen (ohne dass im Vorhinein in irgendeiner Weise programmiert wurde, welche Seriengenres es überhaupt gibt) beispielsweise, dass es bestimmte Arten von Serien gibt, die von einer bestimmten Klasse von Usern geschaut werden. Im Gegensatz zu regelbasierten Systemen ist es bei Machine Learning daher nicht unbedingt notwendig, für jeden neu auftretenden Einzelfall konkrete Wenn-Dann-Regeln zu implementieren, die dann auf einen Datensatz (z.B. zu Klassifikationszwecken) angewandt werden. Vielmehr nutzt Machine Learning den vorhandenen Datensatz, um eigenständig relevante Daten zu extrahieren, zusammenzufassen und dadurch Vorhersagen zu treffen.
Sie können folglich zur Optimierung oder (Teil-)Automatisierung von Prozessen genutzt werden, die ansonsten manuell erledigt werden müssten, wie beispielsweise Text- oder Bilderkennung. Machine Learning ist der Prozess, der viele der Dienste antreibt, die wir heute nutzen – Empfehlungssysteme wie Netflix, YouTube, Spotify, Suchmaschinen wie Google und Baidu, Social Media Feeds wie Facebook und Twitter, Sprachassistenten wie Siri und Alexa. In all diesen Fällen sammelt jede Plattform so viele Daten wie möglich über ihre User – welche Genres gerne gesehen werden, auf welche Links geklickt wird, welche Songs bevorzugt gehört werden – und verwendet Maschinelles Lernen, um eine möglichst treffsichere Abschätzung darüber abzugeben, was User am liebsten sehen oder hören wollen.
Deep Learning
Deep Learning wird als Unterbegriff wiederum dem Maschinellen Lernen zugeordnet und ist damit ebenfalls als Teilgebiet von Künstlicher Intelligenz zu verstehen. Während es sich bei ML um eine Art selbstadaptiven Algorithmus handelt, der sich durch Erfahrung bzw. historische Daten verbessert, verfügt Deep Learning über die Fähigkeit, den Prozess des Maschinellen Lernens noch wesentlich zu verstärken und sich selbst zu trainieren. Die Technik, die dazu verwendet wird, wird als neuronales Netz bezeichnet. Es handelt sich dabei um eine Art mathematisches Modell, dessen Struktur an der Funktionsweise des menschlichen Gehirns angelehnt ist.
Neuronale Netze und Black Boxes
Neuronale Netze enthalten zahlreiche Schichten von Rechenknoten (ähnlich der menschlichen Neuronen), die orchestriert zusammenspielen, um Daten zu durchsuchen und ein Endergebnis zu liefern. Da die Inhalte dieser Schichten zunehmend abstrakt und weniger nachvollziehbar werden, bezeichnet man diese Ebenen auch als versteckte Schichten (oder: Hidden Layers). Durch das Zusammenwirken mehrerer dieser Schichten können zwischen den Schichten „neue“ Informationen gebildet werden, die eine Art abstrakte Repräsentation der ursprünglichen Informationen bzw. der Eingangssignale darstellen. Selbst Entwicklerinnen und Entwickler sind daher nicht oder nur noch begrenzt dazu in der Lage, nachzuvollziehen, was die Netze dabei überhaupt lernen oder wie sie zu einem bestimmten Ergebnis gekommen sind. Man spricht hier auch von dem sogenannten Black-Box-Charakter von KI-Systemen. Zuletzt unterscheidet man bei Machine und Deep Learning zwischen drei Varianten des Lernens: überwacht, unbeaufsichtigt und verstärkt.
Überwachtes Lernen
Beim überwachten Lernen (auch: Supervised Learning), werden die zu analysierenden Daten zuvor klassifiziert, um dem ML-System zu sagen, nach welchen Mustern es suchen soll. Nach diesem Prinzip wird beispielsweise das automatische Klassifizieren von Bildern erlernt: Zunächst werden Bilder manuell hinsichtlich bestimmter Variablen markiert (z.B. ob es sich um einen traurigen, fröhlichen oder neutralen Gesichtsausdruck handelt); nach der tausendfachen Erstellung von Beispielen kann anschließend ein Algorithmus die Bilddaten automatisiert kategorisieren.
Unbeaufsichtigtes Lernen
Beim unbeaufsichtigten Lernen (auch: Unsupervised Learning) besitzen die zu analysierenden Daten keine zuvor klassifizierten Bezeichnungen. Daher müssen dem Algorithmus in einer vorgelagerten Trainingsphase auch keine exakten Zielvorgaben bereitgestellt werden. Vielmehr sucht das ML-System selbst nach jeglichen Mustern, die es finden kann. Unbeaufsichtigte Lernmethoden werden daher bevorzugt für die Exploration von großen Datensätzen eingesetzt. Unüberwachte Techniken sind (außer im Bereich der Cybersecurity) in der Praxis derzeit allerdings noch eher unüblich.
Verstärkungslernen
Als Verstärkungslernen (auch Reinforcement Learning) wird die Methode beschrieben, bei dem ein Algorithmus durch Belohnung und Bestrafung lernt. Ein Verstärkungsalgorithmus lernt also durch reines Ausprobieren, ob ein Ziel erreicht wird (Belohnung) oder verfehlt wird (Bestrafung). Verstärkungslernen wird beispielsweise beim Trainieren von Schach-Programmen eingesetzt: Beim (simulierten) Spiel gegen andere Schach-Programme kann ein System sehr schnell lernen, ob ein bestimmtes Verhalten zum gewünschten Ziel, dem Sieg, geführt hat (Belohnung) oder nicht (Bestrafung). Verstärkungslernen ist auch die Trainingsgrundlage von Googles AlphaGo, dem Programm, das die besten menschlichen Spieler im komplexen Spiel Go besiegt hat.
Grenzen und Möglichkeiten: was kann Künstliche Intelligenz (nicht)?
Nicht nur in medialen Diskursen, sondern auch in Expertenzirkeln kursieren teilweise recht unterschiedliche Definitionen von Künstlicher Intelligenz. Jedoch tragen unklare Vorstellungen und Definitionen davon, was KI ist und nicht ist, was sie kann und nicht kann, eher zu einer Verunsicherung denn zur Akzeptanz in der Gesellschaft bei. Sie münden in einer oftmals polarisierten und von unrealistischen Vorstellungen getriebenen Debatte. Eine Aufklärung über die Grenzen und Möglichkeiten von Künstlicher Intelligenz ist daher von größter Relevanz. Nur so können die Auswirkung von KI auf Gesellschaft, Wirtschaft, Kultur und Wissenschaft realistisch eingeschätzt werden.
Insgesamt werden mit dem Einsatz von Künstlicher Intelligenz große Hoffnungen verbunden: Eine KI-basierte medizinische (Krebs-)Diagnostik verspricht beispielsweise große Fortschritte im Gesundheitssektor und im Straßenverkehr könnte eine Reduktion von Unfällen oder Staus einerseits zu einer geringeren Anzahl von Verkehrstoten, andererseits zu einer geringeren Umweltbelastung führen. Auch die Art und Weise, wie wir arbeiten, scheint vor disruptiven Veränderungen zu stehen: KI könnte Arbeitskräfte von gefährlichen und monotonen Arbeiten entlasten.
Auf der anderen Seite warnen technologiekritische Skeptiker mit dystopischen Zukunftsprognosen vor dem Einsatz von KI und der daraus resultierenden vermeintlichen Machtübernahme einer Superintelligenz bzw. Singularität. Sogar Stephen Hawking und Tech-Visionär Elon Musk haben vor der Bedrohung durch KI gewarnt. Jedoch ist anzumerken, dass sich solche Befürchtungen weit weniger auf (schwache) KI-Systeme beziehen, die bislang existieren.
Eine ausgewogene Debatte, in der transparent und aufgeklärt über (mögliche) Vor- und Nachteile der Entwicklung und Implementation von KI diskutiert werden kann, ist unabdinglich. Letztlich sollte das Ziel sämtlicher KI-Systeme darin bestehen, gesellschaftlichen, kulturellen und wirtschaftlichen Mehrwert zu schaffen und somit einen Beitrag zum Wohle der Menschen leisten. Künstliche Intelligenz sollte Menschen im Alltag und im Beruf dort, wo es Sinn macht, intelligent unterstützen und unangenehme oder gefährliche Arbeiten übernehmen, ohne den Menschen überflüssig zu machen. Die Folge: Mehr Zeit und Ressourcen, um sich kreativen oder emotional und sozial wertvollen Aufgaben zu widmen, die dem Menschen Freude machen und die in der Gesellschaft, Wirtschaft und Kultur Sinn und Mehrwert stiften.
Ethik und KI: was darf Künstliche Intelligenz (nicht)?
Künstliche Intelligenz durchdringt unseren Alltag zunehmend; und damit auch die Frage nach ethischer und gesellschaftlicher Verantwortung. Schon heute entscheiden Algorithmen, welche Nachrichten der Leser ausgespielt und welche Produkte der Konsument angezeigt bekommt. Auf welcher Grundlage und durch welche technologischen Mechanismen diese Entscheidungen gefällt werden, ist den meisten weder bewusst noch nachvollziehbar. Problematisch wird es auch, wenn ein KI-System fehlerhafte oder sogar diskriminierende Entscheidungen trifft oder wenn die Möglichkeiten von KI zur Kontrolle, Überwachung und für Eingriffe in die Privatsphäre, der Bürger durch ihre Regierungen beispielsweise, missbraucht werden. Allgemein und sehr prominent stellt sich daher die Frage, was Künstliche Intelligenz darf, und was nicht.
Als erste internationale Institution hat sich die Europäische Kommission dieser Problemstellungen angenommen und auf Basis der EU-Grundrechtecharta und unter dem Titel “Ethics Guidelines for Trustworthy AI” Kriterien für die Entwicklung und Anwendung von vertrauenswürdiger KI festgehalten. Dabei wurden vier Themenfelder als ausschlaggebend für eine “Trustworthy AI” definiert: Fairness, Transparenz & Nachvollziehbarkeit, Verantwortlichkeit und Wertorientierung.
Um den nachhaltigen technologischen Fortschritt nach gemeinwohlorientierten Standards zu garantieren, ist die multilaterale Zusammenarbeit von Wirtschaft, Politik und Gesellschaft unbedingt notwendig. Immerhin birgt Künstliche Intelligenz die wohl größten Potentiale unserer Zeit – für das wirtschaftliche Wachstum, die Gesundheitsforschung, die Umwelt und unseren Alltag.
Künstliche Intelligenz programmieren
Aus IT-Perspektive gilt die Programmierung von KI-basierten Softwaretechnologien als eine Art Königsdisziplin. Jedoch sind die Tools, die zur Entwicklung einer Künstlichen Intelligenz hilfreich sind, in zahlreichen Fällen öffentlich frei verfügbar. Besondere Relevanz hat dabei die gut lesbare Programmiersprache Python; deren im Web frei zugänglichen Programmierbibliotheken ermöglichen die Auswertung von großen Datenmengen und sind damit prädestiniert für Maschinelles Lernen. Profi-Entwickler vertrauen auf Tensorflow, einer End-to-End Opensource Plattform für Maschinelles Lernen, die unter anderem auch hinter Google-Anwendungen steckt. Tensorflow wurde ursprünglich vom Google Brain Team für interne Zwecke programmiert, jedoch später unter einer Apache-2 Opensource Lizenz frei zugänglich veröffentlicht.
Quellen:
Künstliche Intelligenz (KI) ist die Simulation menschlicher Intelligenzprozesse durch Maschinen, insbesondere durch Computersysteme. Zu den spezifischen Anwendungen der KI gehören Expertensysteme, Verarbeitung natürlicher Sprache (Natural Language Processing, NLP), Spracherkennung und maschinelles Sehen (Machine Vision).
Wie KI funktioniert Mit dem zunehmenden Hype um KI haben sich die Anbieter darum bemüht, die Nutzung von KI in ihren Produkten und Dienstleistungen zu bewerben. Oft ist das, was sie als KI bezeichnen, nur eine Komponente der künstlichen Intelligenz, wie zum Beispiel maschinelles Lernen (Machine Learning). KI erfordert eine Grundlage aus spezialisierter Hardware und Software zum Schreiben und Trainieren von Algorithmen für maschinelles Lernen. Es gibt keine Programmiersprache, die gleichbedeutend mit KI ist, aber einige, darunter Python, R und Java, sind sehr beliebt. Im Allgemeinen funktionieren KI-Systeme, indem sie große Mengen gelabelter Trainingsdaten aufnehmen, die Daten auf Korrelationen und Muster analysieren und diese Muster nutzen, um Vorhersagen über zukünftige Zustände zu treffen. Auf diese Weise kann ein Chatbot, der mit Beispielen von Textchats gefüttert wird, lernen, lebensnahe Dialoge mit Menschen zu führen, oder ein Bilderkennungsprogramm kann lernen, Objekte in Bildern zu identifizieren und zu beschreiben, indem es Millionen von Beispielen überprüft. Die KI-Programmierung konzentriert sich auf drei kognitive Fähigkeiten: Lernen, logisches Denken und Selbstkorrektur. Lernprozesse. Dieser Aspekt der KI-Programmierung konzentriert sich auf die Erfassung von Daten und die Erstellung von Regeln, wie die Daten in verwertbare Informationen umgewandelt werden können. Die Regeln, die als Algorithmen bezeichnet werden, geben den Computergeräten Schritt-für-Schritt-Anweisungen, wie eine bestimmte Aufgabe zu erledigen ist. Logikprozesse. Dieser Aspekt der KI-Programmierung konzentriert sich auf die Auswahl des richtigen Algorithmus, um ein gewünschtes Ergebnis zu erzielen. Selbstkorrekturprozesse. Dieser Aspekt der KI-Programmierung dient der kontinuierlichen Feinabstimmung der Algorithmen, um sicherzustellen, dass sie möglichst genaue Ergebnisse liefern.
Die Bedeutung von künstlicher Intelligenz Künstliche Intelligenz ist wichtig, weil sie Unternehmen Einblicke in ihre Abläufe verschaffen kann, die ihnen zuvor vielleicht nicht bewusst waren, und weil KI in einigen Fällen Aufgaben besser erledigen kann als Menschen. Insbesondere bei sich wiederholenden, detailorientierten Aufgaben wie der Analyse einer großen Anzahl von Rechtsdokumenten, um sicherzustellen, dass die relevanten Felder korrekt ausgefüllt sind, erledigen KI-Tools die Aufgaben oft schnell und mit relativ wenigen Fehlern. Dies hat zu einer explosionsartigen Steigerung der Effizienz beigetragen und einigen größeren Unternehmen völlig neue Geschäftsmöglichkeiten eröffnet. Vor der aktuellen KI-Welle wäre es schwer vorstellbar gewesen, dass eine Computersoftware Fahrer mit Taxis verbindet, aber heute ist Uber eines der größten Unternehmen der Welt, da es genau das tut. Uber nutzt ausgeklügelte Algorithmen des maschinellen Lernens, um vorherzusagen, wann Menschen in bestimmten Gebieten wahrscheinlich eine Fahrt benötigen, und kann so proaktiv Fahrer auf die Straße bringen, bevor sie gebraucht werden. Ein weiteres Beispiel: Google hat sich zu einem der größten Anbieter einer Reihe von Online-Diensten entwickelt, indem es maschinelles Lernen einsetzt, um zu verstehen, wie Menschen seine Dienste nutzen, und diese dann verbessert. Im Jahr 2017 verkündete der CEO des Unternehmens, Sundar Pichai, dass Google als ein „AI first“-Unternehmen agieren würde. Die größten und erfolgreichsten Unternehmen von heute nutzen KI, um ihre Abläufe zu verbessern und sich einen Vorteil gegenüber ihren Konkurrenten zu verschaffen.
Die Vor- und Nachteile künstlicher Intelligenz Künstliche neuronale Netze (KNN) und Deep-Learning-Technologien mit künstlicher Intelligenz entwickeln sich rasant weiter, vor allem weil KI große Datenmengen schneller verarbeitet und genauere Vorhersagen macht, als es dem Menschen möglich ist. Während die riesigen Datenmengen, die täglich anfallen, einen menschlichen Forscher überfordern, können KI-Anwendungen, die maschinelles Lernen nutzen, diese Daten schnell in verwertbare Informationen umwandeln. Zum jetzigen Zeitpunkt besteht der Hauptnachteil des Einsatzes von KI darin, dass die Verarbeitung der großen Datenmengen, die für die KI-Programmierung erforderlich sind, teuer ist. Vorteile Gut geeignet für detailorientierte Aufgaben;
geringerer Zeitaufwand für datenintensive Aufgaben;
liefert konsistente Ergebnisse; und
KI-gestützte virtuelle Agenten sind immer verfügbar. Nachteile Teuer;
erfordert umfassendes technisches Fachwissen;
begrenztes Angebot an qualifizierten Arbeitskräften für die Entwicklung von KI-Tools;
weiß nur, was ihm gezeigt wurde; und
mangelnde Fähigkeit zur Verallgemeinerung von einer Aufgabe auf eine andere.
Starke KI versus schwache KI KI kann entweder als schwach oder stark kategorisiert werden. Schwache KI, auch bekannt als enge KI, ist ein KI-System, das für die Ausführung einer bestimmten Aufgabe entwickelt und trainiert wurde. Industrieroboter und virtuelle persönliche Assistenten, wie zum Beispiel Siri von Apple, verwenden schwache KI. Starke KI, auch bekannt als künstliche allgemeine Intelligenz (Artificial General Intelligence, AGI), beschreibt eine Programmierung, die die kognitiven Fähigkeiten des menschlichen Gehirns nachbilden kann. Wenn ein starkes KI-System mit einer unbekannten Aufgabe konfrontiert wird, kann es mit Fuzzy-Logik Wissen aus einem Bereich auf einen anderen anwenden und selbstständig eine Lösung finden. Theoretisch sollte ein starkes KI-Programm in der Lage sein, sowohl einen Turing-Test als auch den Test des chinesischen Zimmers zu bestehen.
Die vier Arten von künstlicher Intelligenz Arend Hintze, Assistenzprofessor für integrative Biologie, Computerwissenschaft und Ingenieurwesen an der Michigan State University, erklärte in einem Artikel aus dem Jahr 2016, dass KI in vier Arten unterteilt werden kann, angefangen bei den aufgabenspezifischen intelligenten Systemen, die heute weit verbreitet sind, bis hin zu empfindungsfähigen Systemen, die noch nicht existieren. Die vier Kategorien sind: Typ 1: Reaktive Maschinen (Reactive Machines). Diese KI-Systeme haben keinen Speicher und sind aufgabenspezifisch. Ein Beispiel ist Deep Blue, das IBM-Schachprogramm, das Garri Kasparow in den 1990er Jahren besiegte. Deep Blue kann Figuren auf dem Schachbrett erkennen und Vorhersagen treffen, aber da es kein Gedächtnis hat, kann es nicht auf frühere Erfahrungen zurückgreifen, um künftige Erfahrungen zu nutzen.
Diese KI-Systeme haben keinen Speicher und sind aufgabenspezifisch. Ein Beispiel ist Deep Blue, das IBM-Schachprogramm, das Garri Kasparow in den 1990er Jahren besiegte. Deep Blue kann Figuren auf dem Schachbrett erkennen und Vorhersagen treffen, aber da es kein Gedächtnis hat, kann es nicht auf frühere Erfahrungen zurückgreifen, um künftige Erfahrungen zu nutzen. Typ 2: Begrenzte Speicherkapazität (Limited Memory). Diese KI-Systeme verfügen über ein Gedächtnis, so dass sie auf frühere Erfahrungen zurückgreifen können, um künftige Entscheidungen zu treffen. Einige der Entscheidungsfunktionen in selbstfahrenden Autos sind auf diese Weise konzipiert.
Diese KI-Systeme verfügen über ein Gedächtnis, so dass sie auf frühere Erfahrungen zurückgreifen können, um künftige Entscheidungen zu treffen. Einige der Entscheidungsfunktionen in selbstfahrenden Autos sind auf diese Weise konzipiert. Typ 3: Theorie des Geistes (Theory of Mind). Theorie des Geistes ist ein Begriff aus der Psychologie. Auf die KI angewandt bedeutet er, dass das System über die soziale Intelligenz verfügt, Emotionen zu verstehen. Diese Art von KI wird in der Lage sein, menschliche Absichten zu erkennen und Verhalten vorherzusagen – eine Fähigkeit, die KI-Systeme benötigen, um integrale Mitglieder menschlicher Teams zu werden.
Theorie des Geistes ist ein Begriff aus der Psychologie. Auf die KI angewandt bedeutet er, dass das System über die soziale Intelligenz verfügt, Emotionen zu verstehen. Diese Art von KI wird in der Lage sein, menschliche Absichten zu erkennen und Verhalten vorherzusagen – eine Fähigkeit, die KI-Systeme benötigen, um integrale Mitglieder menschlicher Teams zu werden. Typ 4: Selbstwahrnehmung. In dieser Kategorie haben KI-Systeme einen Sinn für sich selbst, was ihnen ein Bewusstsein verleiht. Maschinen mit Selbstbewusstsein verstehen ihren eigenen aktuellen Zustand. Diese Art von KI gibt es noch nicht. Abbildung 1: Die vier Arten der künstlichen Intelligenz.
Beispiele für KI-Technologie KI wird in einer Vielzahl unterschiedlicher Technologien eingesetzt. Hier sind sechs Beispiele: Automatisierung. In Verbindung mit KI-Technologien können Automatisierungs-Tools den Umfang und die Art der ausgeführten Aufgaben erweitern. Ein Beispiel dafür ist die robotergestützte Prozessautomatisierung (Robotic Process Automation, RPA), eine Art von Software, die wiederholende, regelbasierte Aufgaben automatisiert verarbeitet, die traditionell von Menschen erledigt werden. In Kombination mit maschinellem Lernen und neuen KI-Tools kann RPA größere Teile von Unternehmensaufgaben automatisieren, so dass die taktischen Bots von RPA die Erkenntnisse der KI weitergeben und auf Prozessänderungen reagieren können. Maschinelles Lernen. Dies ist die Wissenschaft davon, wie man einen Computer dazu bringt, ohne Programmierung zu handeln. Deep Learning ist ein Teilbereich des maschinellen Lernens, den man vereinfacht als die Automatisierung der prädiktiven Analyse (Predictive Analytics) bezeichnen kann. Es gibt drei Arten von Algorithmen für maschinelles Lernen: Überwachtes Lernen . Datensätze werden mit einem Label versehen, so dass Muster erkannt und zur Kennzeichnung neuer Datensätze verwendet werden können.
Datensätze werden mit einem Label versehen, so dass Muster erkannt und zur Kennzeichnung neuer Datensätze verwendet werden können. Unüberwachtes Lernen . Die Datensätze sind nicht gelabelt und werden nach Ähnlichkeiten oder Unterschieden sortiert.
Die Datensätze sind nicht gelabelt und werden nach Ähnlichkeiten oder Unterschieden sortiert. Bestärkendes Lernen. Die Datensätze sind nicht gelabelt, aber das KI-System erhält nach der Durchführung einer oder mehrerer Aktionen eine Rückmeldung. Maschinelles Sehen. Diese Technologie verleiht einer Maschine die Fähigkeit zu sehen. Maschinelles Sehen (Machine Vision) erfasst und analysiert visuelle Informationen mit einer Kamera, Analog-Digital-Umwandlung und digitaler Signalverarbeitung. Sie wird oft mit dem menschlichen Sehvermögen verglichen, aber das maschinelle Sehen ist nicht an die Biologie gebunden und kann so programmiert werden, dass es zum Beispiel durch Wände hindurchsieht. Es wird in einer Reihe von Anwendungen eingesetzt, von der Unterschriftenerkennung bis zur medizinischen Bildanalyse. Computer Vision, die sich auf die maschinelle Bildverarbeitung konzentriert, wird oft mit maschinellem Sehen verwechselt. Verarbeitung natürlicher Sprache. Hierbei handelt es sich um die Verarbeitung der menschlichen Sprache durch ein Computerprogramm (Natural Language Processing, NLP). Eines der älteren und bekanntesten Beispiele für NLP ist die Spam-Erkennung, bei der anhand der Betreffzeile und des Textes einer E-Mail entschieden wird, ob es sich um Junk-Mails handelt. Aktuelle NLP-Ansätze beruhen auf maschinellem Lernen. Zu den NLP-Aufgaben gehören Textübersetzung, Stimmungsanalyse und Spracherkennung. Robotik. Dieser Bereich der Technik befasst sich mit der Entwicklung und Herstellung von Robotern. Roboter werden häufig für Aufgaben eingesetzt, die von Menschen nur schwer oder gar nicht ausgeführt werden können. So werden Roboter beispielsweise in Fließbändern für die Autoproduktion eingesetzt oder von der NASA, um große Objekte im Weltraum zu bewegen. Forscher nutzen auch maschinelles Lernen, um Roboter zu entwickeln, die in einem sozialen Umfeld interagieren können. Selbstfahrende Autos. Autonome Fahrzeuge nutzen eine Kombination aus Computer Vision, Bilderkennung und Deep Learning, um automatisierte Fähigkeiten zur Steuerung eines Fahrzeugs zu entwickeln, während sie in einer bestimmten Spur bleiben und unerwarteten Hindernissen wie Fußgängern ausweichen. Abbildung 2: Welche Komponenten KI umfasst.
KI-Anwendungen Künstliche Intelligenz hat in einer Vielzahl von Märkten Einzug gehalten. Hier sind neun Beispiele. KI im Gesundheitswesen. Die größten Hoffnungen ruhen auf der Verbesserung der Untersuchungsergebnisse und der Senkung der Kosten. Unternehmen setzen maschinelles Lernen ein, um bessere und schnellere Diagnosen zu stellen als Menschen. Eine der bekanntesten Technologien im Gesundheitswesen ist IBM Watson. Es versteht natürliche Sprache und kann auf Fragen antworten, die ihm gestellt werden. Das System wertet Patientendaten und andere verfügbare Datenquellen aus, um eine Hypothese zu bilden, die es dann mit einem Vertrauensbewertungsschema präsentiert. Weitere KI-Anwendungen sind virtuelle Online-Gesundheitsassistenten und Chatbots, die Patienten und Kunden im Gesundheitswesen dabei helfen, medizinische Informationen zu finden, Termine zu vereinbaren, den Abrechnungsprozess zu verstehen und andere Verwaltungsvorgänge zu erledigen. Eine Reihe von KI-Technologien wird auch eingesetzt, um Pandemien wie COVID-19 vorherzusagen, zu bekämpfen und zu verstehen. KI in der Wirtschaft. Algorithmen des maschinellen Lernens werden in Analyse- und CRM-Plattformen (Customer Relationship Management) integriert, um Informationen darüber zu erhalten, wie man Kunden besser bedienen kann. Chatbots wurden in Websites integriert, um den Kunden sofortigen Service zu bieten. Die Automatisierung von Arbeitsplätzen ist auch unter Akademikern und IT-Analysten zu einem Thema geworden. KI im Bildungswesen. KI kann Schüler einschätzen, sich an ihre Bedürfnisse anpassen und ihnen helfen, in ihrem eigenen Tempo zu arbeiten. KI-Tutoren können Schüler zusätzlich unterstützen und sicherstellen, dass sie auf dem richtigen Weg bleiben. Und sie kann verändern, wo und wie Schüler lernen, und vielleicht sogar einige Lehrer ersetzen. KI im Finanzwesen. KI in Anwendungen für persönliche Finanzen, wie Intuit Mint oder TurboTax, ist dabei, Finanzinstitute zu verändern. Anwendungen wie diese sammeln persönliche Daten und bieten Finanzberatung. Andere Programme, wie zum Beispiel IBM Watson, wurden auf den Prozess des Hauskaufs angewandt. Heute wird ein Großteil des Handels an der Wall Street durch Software mit künstlicher Intelligenz abgewickelt. KI im Rechtswesen. Der Rechercheprozess – das Durchsuchen von Dokumenten – in der Rechtswissenschaft ist für Menschen oft überwältigend. Der Einsatz von KI zur Automatisierung der arbeitsintensiven Prozesse in der Rechtsbranche spart Zeit und verbessert den Kundenservice. Anwaltskanzleien nutzen maschinelles Lernen zur Beschreibung von Daten und zur Vorhersage von Ergebnissen, Computer Vision zur Klassifizierung und Extraktion von Informationen aus Dokumenten und natürliche Sprachverarbeitung zur Interpretation von Informationsanfragen. KI in der Fertigung. Das verarbeitende Gewerbe hat bei der Integration von Robotern in den Arbeitsablauf eine Vorreiterrolle übernommen. Die Industrieroboter, die früher für die Ausführung einzelner Aufgaben programmiert und von den menschlichen Arbeitern getrennt waren, arbeiten heute zunehmend als Cobots: Kleinere, multitasking-fähige Roboter, die mit Menschen zusammenarbeiten und in Lagerhallen, Fabrikhallen und anderen Arbeitsbereichen die Verantwortung für weitere Teile der Arbeit übernehmen. KI im Bankwesen. Banken setzen Chatbots ein, um ihre Kunden auf Dienstleistungen und Angebote aufmerksam zu machen und um Transaktionen abzuwickeln, die kein menschliches Eingreifen erfordern. Virtuelle KI-Assistenten werden eingesetzt, um die Einhaltung von Bankvorschriften zu verbessern und die Kosten dafür zu senken. Banken nutzen KI auch, um die Entscheidungsfindung bei der Kreditvergabe zu verbessern, Kreditlimits festzulegen und Investitionsmöglichkeiten zu erkennen. KI im Transportwesen. Neben der grundlegenden Rolle der KI beim Betrieb autonomer Fahrzeuge werden KI-Technologien im Transportwesen eingesetzt, um den Verkehr zu regeln, Flugverspätungen vorherzusagen und die Schifffahrt sicherer und effizienter zu machen. KI im Security-Bereich. KI und maschinelles Lernen stehen ganz oben auf der Liste der Schlagworte, mit denen Sicherheitsanbieter heute ihre Angebote differenzieren. Diese Begriffe stehen auch für praktikable Technologien. Unternehmen nutzen maschinelles Lernen in SIEM-Software (Security Information and Event Management) und verwandten Bereichen, um Anomalien zu erkennen und verdächtige Aktivitäten zu identifizieren, die auf Bedrohungen hinweisen. Durch die Analyse von Daten und die Verwendung von Logik, um Ähnlichkeiten mit bekanntem bösartigem Code zu erkennen, kann KI viel früher als menschliche Mitarbeiter und frühere Technologie-Iterationen Warnungen vor neuen und aufkommenden Angriffen liefern. Die ausgereifte Technologie spielt eine wichtige Rolle bei der Abwehr von Cyberangriffen.
Erweiterte Intelligenz versus künstliche Intelligenz Einige Branchenexperten sind der Meinung, dass der Begriff künstliche Intelligenz zu eng mit der Populärkultur verbunden ist, was in der breiten Öffentlichkeit zu unwahrscheinlichen Erwartungen darüber geführt hat, wie KI den Arbeitsplatz und das Leben im Allgemeinen verändern wird. Erweiterte Intelligenz. Einige Forscher und Vermarkter hoffen, dass die Bezeichnung erweiterte Intelligenz, die eine neutralere Konnotation hat, dazu beiträgt, dass die Menschen verstehen, dass die meisten KI-Implementierungen schwach sind und lediglich Produkte und Dienstleistungen verbessern. Beispiele hierfür sind die automatische Aufdeckung wichtiger Informationen in Business-Intelligence-Berichten oder die Hervorhebung wichtiger Informationen in juristischen Unterlagen. Künstliche Intelligenz. Echte KI oder künstliche allgemeine Intelligenz ist eng mit dem Konzept der technologischen Singularität verbunden – einer Zukunft, die von einer künstlichen Superintelligenz beherrscht wird, die die Fähigkeit des menschlichen Gehirns, sie zu verstehen oder zu verstehen, wie sie unsere Realität gestaltet, weit übersteigt. Dies bleibt im Bereich der Science-Fiction, obwohl einige Entwickler an diesem Problem arbeiten. Viele sind der Meinung, dass Technologien wie das Quantencomputing eine wichtige Rolle dabei spielen könnten, künstliche allgemeine Intelligenz Wirklichkeit werden zu lassen, und dass wir den Begriff KI für diese Art von allgemeiner Intelligenz reservieren sollten.
Ethischer Aspekte künstlicher Intelligenz Während KI-Tools eine Reihe neuer Funktionen für Unternehmen bieten, wirft der Einsatz von künstlicher Intelligenz auch ethische Fragen auf, da ein KI-System im Guten wie im Schlechten das verstärkt, was es bereits gelernt hat. Dies kann problematisch sein, da die Algorithmen des maschinellen Lernens, die vielen der fortschrittlichsten KI-Tools zugrunde liegen, nur so intelligent sind wie die Daten, die ihnen beim Training zur Verfügung gestellt werden. Da ein Mensch auswählt, welche Daten zum Trainieren eines KI-Programms verwendet werden, ist das Potenzial für Verzerrungen beim maschinellen Lernen inhärent und muss genau überwacht werden. Jeder, der maschinelles Lernen als Teil von realen, produktiven Systemen einsetzen möchte, muss ethische Aspekte in seine KI-Trainingsprozesse einbeziehen und sich bemühen, Verzerrungen zu vermeiden. Dies gilt insbesondere für den Einsatz von KI-Algorithmen, die bei Deep Learning und Generative Adversarial Networks (GAN) von Natur aus nicht erklärbar sind. Die Erklärbarkeit ist ein potenzieller Stolperstein für den Einsatz von KI in Branchen, die strengen regulatorischen Anforderungen unterworfen sind. Beispielsweise sind Finanzinstitute in verschiedenen Ländern dazu verpflichtet, ihre Entscheidungen zur Kreditvergabe zu erklären. Wenn eine Entscheidung über die Ablehnung eines Kredits von einer KI-Programmierung getroffen wird, kann es jedoch schwierig sein zu erklären, wie die Entscheidung zustande gekommen ist, da die KI-Tools, die für solche Entscheidungen verwendet werden, subtile Korrelationen zwischen Tausenden von Variablen herausarbeiten. Wenn der Entscheidungsprozess nicht erklärt werden kann, wird das Programm als Black Box AI bezeichnet. Trotz der potenziellen Risiken gibt es derzeit nur wenige Vorschriften für den Einsatz von KI-Tools, und wo es Gesetze gibt, beziehen sie sich in der Regel indirekt auf KI. Die EU-Datenschutz-Grundverordnung (DSGVO) setzt strenge Grenzen für die Nutzung von Verbraucherdaten durch Unternehmen, was die Ausbildung und Funktionalität vieler verbraucherorientierter KI-Anwendungen behindert. Abbildung 3: Diese Komponenten machen einen verantwortungsvollen Umgang mit KI aus. Die Ausarbeitung von Gesetzen zur Regulierung von KI ist nicht einfach, zum einen, weil KI eine Vielzahl von Technologien umfasst, die von Unternehmen zu unterschiedlichen Zwecken eingesetzt werden, und zum anderen, weil die Regulierung auf Kosten des Fortschritts und der Entwicklung von KI gehen kann. Die schnelle Entwicklung von KI-Technologien ist ein weiteres Hindernis für eine sinnvolle Regulierung von KI. Technologische Durchbrüche und neuartige Anwendungen können bestehende Gesetze sofort überflüssig machen. So decken beispielsweise die bestehenden Gesetze zum Schutz der Privatsphäre von Gesprächen und Gesprächsaufzeichnungen nicht die Herausforderung ab, die Sprachassistenten wie Amazons Alexa und Apples Siri darstellen, die Gespräche sammeln, aber nicht weitergeben – außer an die Technologie-Teams der Unternehmen, die sie zur Verbesserung von Algorithmen für maschinelles Lernen nutzen. Und natürlich halten die Gesetze, die die Regierungen zur Regulierung der KI erlassen, Kriminelle nicht davon ab, die Technologie in böser Absicht zu nutzen.
Cognitive Computing und KI Die Begriffe KI und Cognitive Computing werden manchmal synonym verwendet, aber im Allgemeinen bezieht sich die Bezeichnung KI auf Maschinen, die die menschliche Intelligenz ersetzen, indem sie simulieren, wie wir Informationen in unserer Umgebung wahrnehmen, lernen, verarbeiten und darauf reagieren. Die Bezeichnung Cognitive Computing wird in Bezug auf Produkte und Dienstleistungen verwendet, die menschliche Denkprozesse nachahmen und ergänzen.
Die Geschichte der KI Das Konzept der unbelebten Objekte, die mit Intelligenz ausgestattet sind, gibt es schon seit der Antike. Der griechische Gott Hephaistos wurde in Mythen dargestellt, wie er roboterartige Diener aus Gold schmiedete. Im alten Ägypten bauten Ingenieure Statuen von Göttern, die von Priestern animiert wurden. Im Laufe der Jahrhunderte nutzten Denker von Aristoteles über den spanischen Theologen Ramon Llull aus dem 13. Jahrhundert bis hin zu René Descartes und Thomas Bayes die Werkzeuge und die Logik ihrer Zeit, um menschliche Denkprozesse in Form von Symbolen zu beschreiben, und legten damit den Grundstein für KI-Konzepte wie die allgemeine Wissensrepräsentation. Das späte 19. und die erste Hälfte des 20. Jahrhunderts brachten die grundlegenden Arbeiten hervor, die als Basis moderner Computer dienen. Im Jahr 1836 entwickelten der Mathematiker Charles Babbage von der Universität Cambridge und Augusta Ada Byron, Gräfin von Lovelace, den ersten Entwurf für eine programmierbare Maschine. 1940er Jahre. Der Princeton-Mathematiker John von Neumann entwickelte die Architektur des speicherprogrammierbaren Computers – die Idee, dass das Programm eines Computers und die Daten, die er verarbeitet, im Speicher des Computers gespeichert werden können. Und Warren McCulloch und Walter Pitts legten den Grundstein für neuronale Netze. 1950er Jahre. Mit dem Aufkommen moderner Computer konnten Wissenschaftler ihre Vorstellungen von maschineller Intelligenz testen. Eine Methode, um festzustellen, ob ein Computer intelligent ist, wurde von dem britischen Mathematiker und Codeknacker des Zweiten Weltkriegs Alan Turing entwickelt. Im Mittelpunkt des Turing-Tests stand die Fähigkeit eines Computers, Vernehmungsbeamten vorzugaukeln, dass seine Antworten auf ihre Fragen von einem Menschen stammten. 1956. Der moderne Bereich der künstlichen Intelligenz wurde in diesem Jahr auf einer Sommerkonferenz am Dartmouth College begründet. An der von der Defense Advanced Research Projects Agency (DARPA) gesponserten Konferenz nahmen zehn Koryphäen auf diesem Gebiet teil, darunter die KI-Pioniere Marvin Minsky, Oliver Selfridge und John McCarthy, der den Begriff der künstlichen Intelligenz geprägt haben soll. Ebenfalls anwesend waren der Informatiker Allen Newell und der Wirtschaftswissenschaftler, Politologe und Kognitionspsychologe Herbert A. Simon, die ihr bahnbrechendes Programm Logic Theorist vorstellten, ein Computerprogramm, das in der Lage war, bestimmte mathematische Theoreme zu beweisen und als erstes KI-Programm bezeichnet wurde. Abbildung 4: Die Entwicklung von KI und Machine Learning seit den 1940er Jahren. 1950er und 1960er Jahre. Im Anschluss an die Konferenz am Dartmouth College sagten führende Köpfe auf dem noch jungen Gebiet der KI voraus, dass eine dem menschlichen Gehirn gleichwertige künstliche Intelligenz kurz bevorstehe, und erhielten dafür große Unterstützung von Regierung und Industrie. Tatsächlich führten fast 20 Jahre gut finanzierter Grundlagenforschung zu bedeutenden Fortschritten auf dem Gebiet der KI: Ende der 1950er Jahre veröffentlichten Newell und Simon beispielsweise den GPS-Algorithmus (General Problem Solver), der zwar nicht in der Lage war, komplexe Probleme zu lösen, aber den Grundstein für die Entwicklung anspruchsvollerer kognitiver Architekturen legte; McCarthy entwickelte Lisp, eine Programmiersprache für KI, die auch heute noch verwendet wird. Mitte der 1960er Jahre entwickelte MIT-Professor Joseph Weizenbaum ELIZA, ein frühes Programm zur Verarbeitung natürlicher Sprache, das die Grundlage für die heutigen Chatbots bildete. 1970er und 1980er Jahre. Doch die Erreichung einer allgemeinen künstlichen Intelligenz stand nicht unmittelbar bevor, sondern wurde durch die Grenzen der Computerverarbeitung und des Speichers sowie durch die Komplexität des Problems behindert. Regierung und Unternehmen zogen sich aus der Unterstützung der KI-Forschung zurück, was zu einer Brachperiode von 1974 bis 1980 führte, die als der erste KI-Winter bekannt wurde. In den 1980er Jahren lösten die Forschung zu Deep-Learning-Techniken und die Übernahme von Edward Feigenbaums Expertensystemen durch die Industrie eine neue Welle der KI-Begeisterung aus, auf die jedoch ein erneuter Einbruch der staatlichen Finanzierung und der Unterstützung durch die Industrie folgte. Der zweite KI-Winter dauerte bis Mitte der 1990er Jahre. 1990er Jahre bis heute. Die Steigerung der Rechenleistung und die Explosion der Datenmengen lösten in den späten 1990er Jahren eine Renaissance der KI aus, die bis heute anhält. Die jüngste Konzentration auf KI hat zu Durchbrüchen unter anderen in den Bereichen Verarbeitung natürlicher Sprache, Computer Vision, Robotik, maschinelles Lernen und Deep Learning. Darüber hinaus wird KI immer greifbarer, treibt Autos an, diagnostiziert Krankheiten und festigt ihre Rolle in der Popkultur. Im Jahr 1997 besiegte Deep Blue von IBM den russischen Schachgroßmeister Garry Kasparov und war damit das erste Computerprogramm, das einen Schachweltmeister besiegte. Vierzehn Jahre später zog IBM Watson die Öffentlichkeit in seinen Bann, als es in der Spielshow Jeopardy! zwei ehemalige Champions besiegte. In jüngster Zeit verblüffte die historische Niederlage des 18-fachen Go-Weltmeisters Lee Sedol gegen AlphaGo von Google DeepMind die Go-Gemeinde und markierte einen wichtigen Meilenstein in der Entwicklung intelligenter Maschinen.
Unser Grundverständnis: Vertrauenswürdige KI
Wir möchten das Vertrauen der Menschen in Künstliche Intelligenz stärken. Und um Vertrauen herzustellen, muss eine KI-Anwendung überprüfbar so konstruiert werden, dass sie sicher und zuverlässig funktioniert sowie Datensouveränität gewährleistet. Diesem Grundsatz folgen wir beim Entwickeln jeder neuen KI-Lösung. Sie sind an ausführlichen Informationen zu diesem Thema interessiert? Entdecken Sie unsere Technologien und Lösungsansätze für eine zuverlässige Künstliche Intelligenz!
Wir helfen zudem Unternehmen, KI-Risiken zu identifizieren, zu bewerten und ihre KI-Systeme abzusichern. Wir engagieren uns in der Entwicklung von prüfbaren Standards und Normen sowie einer KI-Zertifizierung »made in Germany« – gemeinsam mit einem starken Partnernetzwerk.
Unser Schwerpunkt: Hybride KI
Wenn Maschinen KI-gestützt oder sogar autonom in Fabrikhallen, Krankenhäusern und im Haushalt eingesetzt werden, müssen sie – wie der Mensch – in der Lage sein, nicht nur aufgrund vorab trainierter Modelle auf Basis großer Datenmengen zu agieren, sondern gleichzeitig menschliche Beobachtung und Erfahrung einzubeziehen, auf dieser Basis zu lernen und den Kontext zu verstehen.
Unsere KI-Forschung zeichnet sich deshalb besonders durch »hybride KI-Lösungen« aus: Hier kombinieren wir Welt- bzw. Expert*innenwissen mit datenbasierten Ansätzen, welche mit Methoden des Maschinellen Lernens statistische Zusammenhänge analysieren. So kann die menschliche Fähigkeit nachgebildet werden, Bedeutungen aus dem Kontext heraus zu verstehen. Zudem ist die Herangehensweise einer hybriden KI für den Menschen häufig besser nachvollziehbar und deshalb besonders für die Mensch-Maschine-Interaktion geeignet.
Unsere Zukunftsvision: KI auf Quantencomputern
Quantencomputer haben das Potenzial, Informationen schneller zu verarbeiten und komplexere Probleme zu bewältigen als klassische digitale Computer. Auch bisher nahezu unlösbare Anwendungsfälle der Künstlichen Intelligenz und des Maschinellen Lernens lassen sich so durch Quantencomputer realisieren. Vor allem Simulationen und die Lösung von Optimierungsproblemen sind vielversprechende Anwendungsgebiete. Mithilfe von Simulationen lassen sich etwa die Eigenschaften von Molekülen und Materialien vorhersagen. Optimierungsprobleme stellen sich zum Beispiel in der Logistik, wenn es darum geht, den optimalen Verkehrsfluss zu ermitteln, um Straßen zu entlasten.
Am Fraunhofer IAIS forschen wir bereits seit mehreren Jahren an den Potenzialen des Quantencomputings für das Maschinelle Lernen.