Was sagt der Philosoph und Wissenschaftstheoretiker Professor Dr. Klaus Mainzer zum Thema „Künstliche Intelligenz“?

Interview von Gina Ahrend

Was ist Künstliche Intelligenz?

1950 schlug der britische Computerpionier und Mathematiker Alan Turing einen nach ihm benannten Test vor: Ein technisches System (z.B. Computer, Roboter) sei dann intelligent zu nennen, wenn es in seinen Antworten und Reaktionen nicht von einem Menschen zu unterscheiden sei. Nachteil dieser Definition: Der Mensch wird zum Maßstab von Intelligenz gemacht. Aber Tiere und Computerprogramme sind uns auf bestimmten Feldern durchaus überlegen. Daher lautet meine Definition: Ein System heißt intelligent, wenn es möglichst effizient und selbstständig schwierige Probleme lösen kann. Es gibt also nicht nur „die“ Intelligenz von uns Menschen, sondern Grade von Intelligenz von beliebigen Systemen, die von mess- und beobachtbaren Kriterien wie der Effizienz des Problemlösungsverfahrens, Autonomie des Problemlösers und Schwierigkeit des Problems abhängen. Diese Kriterien können nach Bedarf erweitert werden.

KI (Künstliche Intelligenz)-Forschung will daher heute nicht die menschliche Intelligenz ersetzen, sondern mit hocheffizienten Computerprogrammen unterstützen. Ein Beispiel ist das sogenannte Maschine Learning (ML). Basis dessen sind Lernalgorithmen, die synaptische Verknüpfungen von Nervenzellen im Gehirn simulieren. Solche Verschaltungsmuster sind beispielsweise mit der Bildwahrnehmung verbunden. Mit Lernalgorithmen konnte AlphaGo von Google die Champions in dem Brettspiel Go schlagen.

Aber es gibt auch Algorithmen, die besser als Menschen sind, ohne sie zu simulieren. Beispiel: Poker. Bei Poker haben die Spieler (im Unterschied zu Schach und Go) keinen vollständigen Überblick über die Spielstellungen (z.B. Karten der Gegner). Menschliche Spieler verstellen sich daher und gaukeln Sicherheit mit einem Pokerface vor. Menschen setzen also Emotionen ein, um mangelndes Wissen zu kompensieren. Die Algorithmen imitieren aber nicht menschliche Gefühle und Intuition, sondern lösen das Problem mit Hilfe von mathematischer Spieltheorie, Statistik und großer Rechenleistung: Millionenfach spielt ein Algorithmus gegen sich selber und minimiert seine Fehlentscheidungen, was in diesem Umfang unsere langsamen Gehirne nicht schaffen würden. Speicher- und Rechenzeit lassen sich reduzieren, wenn bestimmte Strategien aufgrund mathematisch bewiesener Erfolglosigkeit von vornherein ausgeschlossen werden können.

Stand der Forschung und Entwicklung (und Anwendung) in Deutschland im internationalen Vergleich? Können wir mithalten oder sind wir sogar im Spitzenfeld? (wachsende Konzentration in Händen weniger großer Konzerne)

Der Standortvorteil Deutschlands ist eindeutig seine große Industrieerfahrung. Automobil-, Motor- und Anlagebau sind Weltspitze. Auch die deutsche Elektrotechnik hat eine große Tradition (z.B. Siemens). In der Robotik (die aus der Mess- und Regelungstechnik entstand) sind wir daher auch führend in der Industrierobotik (vgl. Kuka). Auch deutsche Materialwissenschaft ist Weltspitze. Das sieht man aktuell an den Strafzöllen für deutschen Stahl in USA. Aber auch hier hat sich Herr Tramp in seiner Einfalt verrechnet: Die amerikanische Industrie wird in technisch anspruchsvollen Anwendungen auf deutschen Qualitätsstahl angewiesen sein, der durch ihren minderwertigeren Billigstahl so schnell nicht kompensiert werden kann.

Dahinter stehen deutsche Ingenieure und Ingenieurinnen, die höchsten Ruf weltweit genießen. (Es war eine Idiotie der deutschen Bildungspolitik, den deutschen Titel „Dipl.-Ing.“ abzuschaffen, der wie „Made in Germany“ ein internationales Qualitätsmerkmal war.) Aber nicht nur die Ingenieurausbildung. Auch die deutsche Dualausbildung der gleichzeitigen Schul- und Industrieausbildung vom Lehrling bis zum Meister ist seit ca. einem Jahrhundert weltweit beispielhaft.

Im Software Engineering sind uns allerdings die Amerikaner haushoch überlegen: Die großen Giganten sind weitgehen noch amerikanisch (Google, Mikrosoft, Intel etc.). Hier findet auch maßgeblich KI-Forschung statt. (KI ist Software!) Aber das wird sich in absehbarer Zeit in Richtung China verschieben, wo heute schon die schnellsten Superrechner der Welt stehen. Deutschland hat mit SAP nur ein großes internationales Software-Unternehmen.

Deutschlands große Chance für die Zukunft ist sein Mittelstand, der dieses Land seit dem 19. Jahrhundert maßgeblich geprägt hat. Historisches Beispiel ist seit dem 19. Jahrhundert Württemberg und der Raum Stuttgart – das Land der Tüftler und Denker („Mir könne alles außer…“), aber spätestens seit der Zeit der Olympiade auch Bayern (Münchner und Nürnberger Raum, Ingolstadt). Die deutsche mittelständische Industrie muss sich auf die Schnittstelle von Maschine und Software konzentrieren: Sie muss den Standortvorteil ihrer weltweit führenden Industrieerfahrung mit Software (KI und Automatisierung) verbinden! (So hat sich Bosch das ehrgeizige Ziel gesetzt, in Zukunft ein führendes KI-Unternehmen zu werden.) Die Automatisierung von Produktion und Vertrieb mit IT und KI ist das Ziel von Industrie 4.0. Auf diesem Gebiet wird Deutschland mittlerweile weltweit als führend anerkannt.

Artikel in der SZ (13.3. „Sprechstunde bei Dr. Bot“), wonach sogar Therapeuten durch KI ersetzt werden können. Welche Berufsgruppen sehen Sie noch „gefährdet“, an die wir nicht denken würden?

Repetitive Arbeit wird in naher Zukunft verschwinden (keineswegs nur manuelle Arbeit, sondern auch „white collar“). Das hängt mit Kostenersparnis und Effizienz zusammen. Doch es entstehen auch neue Arbeitsplätze – auch für Facharbeiter, die allerdings IT-Qualifikation voraussetzen. Auf mittlere Sicht sind selbst Programmierer bedroht, da es bereits in Standardfällen möglich ist, dass Algorithmen Computerprogramme selber schreiben.

Die größte Chance in Zukunft haben Tätigkeiten mit Kreativität und Vielseitigkeit. Aber auch Tätigkeiten mit sozialer Kompetenz und emotionaler Zuwendung werden so schnell nicht durch Algorithmen ersetzbar sein. (Hier sollte man nicht ohne weiteres den Einschätzungen von z.B. SZ- und FAZ-Journalisten vertrauen, sondern selber in den „Maschinenraum“ der KI gehen! Auch dort wird nach wie vor „mit Wasser gekocht“: Wir müssen genau bestimmen, was Algorithmen können und was sie nicht können!) Wir haben zwar „Affective Computing“, die menschliche Mimik nach einfachen Standards unterscheiden und simulieren kann. Verknüpft mit Machine Learning kann der Roboter sogar Mimik erlernen und verbessern. Aber das hat noch nichts mit Empathie und emotionaler Zuwendung zu tun, zu der Menschen fähig sind. So können Therapeuten durch Algorithmen mit großen Datensätzen in ihrer Beurteilung zwar unterstützt werden. Aber die soziale Kompetenz für eine patientengerechte („personalisierte“) Anwendung hat eindeutig der Therapeut.

Dennoch gilt für alle Berufe: Grundsätzlich ist lebenslanges Lernen angesagt, um sich mit neuen Qualifikationen auf die beschleunigten Innovationsschübe vorzubereiten.

Wo liegen die Chancen und Risiken der KI? In den Unternehmen, für die gesellschaftliche Entwicklung allgemein, für jeden Einzelnen?

Derzeit steht Industrie 4.0 im Zentrum. Maschinen sind mit Sensoren ausgestattet und untereinander vernetzt. Automatisierung in Produktion und Vertrieb sind weltweit ein großes Thema. Wir sprechen vom Internet der Dinge – also der globalen Vernetzung von Geräten und Systemen. Intelligente Algorithmen werden aber auch außerhalb der Industrie die Gesellschaft verändern. Das Poker-Beispiel ist vergleichbar mit Entscheidungssituationen in Unternehmen, wenn die Lage nicht vollständig durchschaubar ist. Entsprechende Algorithmen könnten daher in Zukunft komplexe Vertrags- und Unternehmensentscheidungen unterstützen.

Derzeit beobachten wir den Hype mit Bitcoin. In der Finanzkrise 2008 erlebten wir das totale Versagen von Menschen in Zentralbanken. Banken als Vermittlungsinstanzen des Geldverkehrs zwischen Kunden verspielten ihr wichtigstes Gut – Vertrauen und Sicherheit. Damals kam die Idee auf, Zentralbanken durch sichere Algorithmen zu ersetzen. Transaktionen werden über eine dezentrale Buchführung ohne Banken direkt zwischen allen Beteiligten abgewickelt. Diese Technologie heißt Blockchain. Dabei sind fortlaufende Datenblöcke mit Hilfe kryptologischer Codes miteinander verbunden. Jede Transaktion wird mit einem Algorithmus verschlüsselt. In jedem Datensatz steckt der Schlüssel des vorherigen Blocks. Die Codierung steigt somit in ihrer Komplexität, was wiederum Manipulationen nahezu unmöglich macht. Zudem besitzen alle Beteiligten des Blockchain eine Kopie aller Vorgänge und würden Veränderungen sofort bemerken – also totale Transparenz!

Unabhängig von derzeit umstrittenen Kryptowährungen zielt Blockchain allgemein auf Transaktionen von digitalen Werten aller Art und könnte den gesamten Dienstleistungssektor in einem Internet der Werte revolutionieren. Großer Nachteil von Blockchain ist derzeit noch der ungeheure Energieverbrauch der verwendeten Verschlüsselungstechnologie. (Es könnte aber sein, dass sich das aufgrund neuartiger Rechnertechnologie in Zukunft verändert: K. Mainzer/L. Chua (2013): Local Activity Principle, Imperial College Press: London.)

Wie sieht die Arbeitswelt in fünf, in zehn Jahren aus?

Wie schon erwähnt, wird repetitive Arbeit jeder Art verschwunden sein. Antreiber sind Markt und Wettbewerb, die zu Kostenersparnis und Effizienz zwingen. Das gilt keineswegs nur für die Industriewelt, sondern für den gesamten Dienstleistungssektor. Wir beobachten heute schon, wie sich Bankfilialen mit menschlichen Angestellten zurückziehen und zum Online-Banking führen. Eine neue Generation von digital geprägten Menschen werden es als völlig normal empfinden, Transaktionen von Werten jeder Art direkt untereinander mit Algorithmen abzuwickeln. Nach dem Internet der Dinge folgt das Internet der Werte!

Klassische Institutionen als intermediäre Einrichtungen werden zunehmend verschwinden (Stichwort: Blockchain). Wie wird das auch den Staat betreffen und die Demokratie verändern? Jedenfalls werden z.B. Richter, Staatsanwälte und Anwälte zunehmend auf KI-Algorithmen zurückgreifen müssen, um die Masse an Informationen z.B. bei der Urteilsfindung bewältigen zu können (Stichwort: Entscheidung unter unvollständiger Information) oder der Flut der Rechtsfälle Herr zu werden. Analog wird der Arzt ohne KI-Unterstützung zur Big Data Bewältigung keine patientengerechte Diagnose und Therapie finden können (personalisierte Medizin). Am Ende sollte aber auch hier der Mensch mit seiner fachlichen, sozialen und emotionalen Kompetenz die abschließende Entscheidung treffen.

Neue Mobilitätskonzepte durch KI?

Bisher haben wir nur Fahrerassistenzsysteme. Sie können z.B. selbstständig einparken, frühzeitig abbremsen, den Fahrer beim Einschlafen erkennen und den Wagen sicher anhalten etc. Ferner gibt es Fahrerassistenzsysteme für das halbautonome Fahren: Dabei können Automobile sich auf Standard-Verkehrssituationen einstellen: Wie weicht man am besten einem Hindernis unter gegebenen Umständen aus? Welcher Art ist das Hindernis (Mensch, Tier oder Gegenstand)? Alle diese Details müssen aber vorher vom Programmierer bedacht und dann in komplizierten Fallunterscheidungen berücksichtigt werden. Ist ein Fall nicht vorgesehen, weiß das System nicht weiter und fährt an den Rand, wenn der Mensch nicht eingreift.

Aber das ist noch längst kein autonomes Fahren. In diesem Fall lernt das Fahrzeug aus der Fahrpraxis wie ein Mensch seine Fahrweise selbstständig zu verbessern. Das ist insbesondere in komplexen und ungewöhnlichen Situationen notwendig. Grundlage sind das Machine Learning mit neuronalen Netzen und Lernalgorithmen nach dem Vorbild des menschlichen Gehirns. Das ist zwar derzeit noch Zukunftsmusik in der Automobilindustrie, wird aber bei dem Erfolg des Machine Learning auf anderen Gebieten mit Sicherheit kommen.

Automobile sind zudem mit Sensoren ausgestattet und bewegen sich in Zukunft aufeinander abgestimmt wie in der Schwarmintelligenz von Insektenvölkern: Die Steuerung einer Termitenpopulation geschieht nicht durch einen „Anführer“, sondern organisiert sich durch abgestimmtes Verhalten selber. Die einzelne Termite kann nur auf beschränkte neurochemische Signale reagieren: Die Intelligenz sitzt im Netz und hat sich über Jahrmillionen in der Evolution selber programmiert und optimiert, um die beeindruckenden Termitentürme bauen zu können. Ähnlich legen Ameisen ihre raffinierten Nestbauten und Ameisenstraßen an. Auch das einzelne Neuron im Gehirn ist „dumm“ und kann nur Feuern oder Nicht-feuern. Aber alle Neuronen zusammen vermögen zu denken … In den Mobilitätsnetzen steckt die steuernde Intelligenz in der Cloud.

Möglichkeiten des Missbrauchs reichen weit: Hacking nicht nur von Rechnern, sondern auch KI-getriebene Systeme wie Drohnen, Fahrzeuge, Roboter, Waffen, Wettrüsten in Fragen der Cybersicherheit. Einige führende Forscher und Entwickler fordern schon ein Moratorium für die Weiterentwicklung der KI. Ist das Alarmismus? Was meinen Sie? Welche Lösungsansätze sehen Sie?

Die Technik der künstlichen Intelligenz muss gestaltet werden. Informatikerinnen und Informatiker können sich nicht darauf zurückziehen, dass sie nur für ihren begrenzten Bereich verantwortlich sind und alles andere die Politik oder die Ethik zu regeln hat. Das ist eine gefährliche Einstellung. Künftige Technikerinnen und Techniker müssen bereits in der Ausbildung den Aspekt der Technikgestaltung erlernen. Sie müssen darauf vorbereitet sein, dass sie technischen Infrastrukturen, die durch Algorithmen gesteuert werden, für Menschen schaffen. Denken Sie nur an die Infrastruktur der Arbeitswelt in Industrie 4.0 und die Verantwortung für zukünftige Beschäftigung von Menschen, die Rolle sozialer Sicherungssysteme und die Ausbildung für eine digitale Zukunft. Ein weiteres Beispiel sind Mobilitätsnetze und Energieversorgungsnetze mit ihren wirtschaftlichen und sozialen Herausforderungen. Smart City betrifft die Infrastruktur einer Millionenmetropole, deren Dienstleistungseinrichtungen der Verwaltung, des Verkehrs, der Sicherheit, der Energie, des Tourismus etc. nur noch mit IT- und KI-Unterstützung koordinierbar sind.

Ingenieurinnen und Informatiker bedürfen also neben ihrer technischen Ausbildung auch human- und sozialwissenschaftliche Kenntnisse, um von vornherein die passenden Infrastrukturlösungen für Menschen zu entwickeln. Es ist zu spät, hinterher im Technology Assessment festzustellen, dass die technische Lösung am Menschen und seinen Bedürfnissen vorbei konstruiert wurde. Um diese Ausbildungs- und Bildungsfragen von angehenden Ingenieurinnen und Ingenieuren habe ich mich an der TUM in der Carl von Linde-Akademie und dem Munich Center for Technology in Society (MCTS) gekümmert.

Sorgen der KI-Entwickler drehen sich insbesondere um Entscheidungen, die Menschen nicht nachvollziehen können („ich bin nur der Programmierer“ = „ich habe nur Befehle ausgeführt“ hatten wir schon mal …). Es gibt ein Committee on Professional Ethics (COPE), aber ja Millionen von Programmierern und keine internationalen Berufsorganisationen oder einen hippokratischen Eid wie bei Ärzten. Welche Möglichkeiten der (politischen) Einflussnahme sehen Sie hier?

Dabei müssen wir zwischen programmierten Regeln von Robotern und ethischen Entscheidungen unterscheiden, die (auf dem Hintergrund heute absehbarer Softwareentwicklung) nur der Mensch treffen kann. Dies zeigt sich deutlich am „moral soldier“, der in den USA entwickelt wurde. Dieser Kriegsroboter hat die Regeln der Genfer Konvention in seine Algorithmen eingebaut. Er soll demnach keine Kriegsverbrechen begehen. Die Überlegung ist, dass die Maschine belastbarer ist als Menschen und sich daher auch in Extremsituationen an die Regeln hält – anders als Menschen, wie die Kriegsverbrechen US-amerikanischer Soldaten beim Massaker an der Zivilbevölkerung in My Lai während des Vietnam-Kriegs zeigten.

Allerdings ist das regelgerechte Verhalten nur programmiert und nicht ethisch. Ethisch heißt nicht, dass ich stur einen Befehl ausführe, und sei es einen guten. Ethik heißt, dass wir aus Verantwortung selbstständig eine Entscheidung treffen. Diese Verantwortung liegt im Fall von KI also beim Entwickler – den Programmierern und Unternehmen. Wieweit hier ein moralischer Appell in der Form eines „Eides“ ausreicht, wage ich zu bezweifeln. Was KI-Kriegswaffen betrifft, müssen wir zu weltweiten völkerrechtlich bindenden Abkommen der Ächtung kommen wie z.B. beim Einsatz von Giftgas und Atombomben.

An welchen Themen arbeiten Sie z. Zt. oder haben Sie gearbeitet?

Seit meinem Studium, also seit nunmehr einem halben Jahrhundert, stehen Algorithmen im Zentrum meines Interesses. Wie berechenbar ist eine Welt, die immer komplexer wird? Ich habe das Auf- und Ab der KI-Forschung in dieser Zeit miterlebt und beforscht. Vieles, was damals logisch-mathematische Theorie war, ist heute – aufgrund der exponentiell wachsenden Computerpower (Mooresches Gesetz) – Realität. Das gehören die neuronalen Netze und Lernalgorithmen nach dem Vorbild des menschlichen Gehirns. Meine ersten Artikel und Bücher schrieb ich darüber Anfang der 1990er Jahre. Damals war das alles nur „graue“ Theorie. Heute sind neuronalen Netze ein großer Hype. Sie sind aufgrund der hohen Rechenleistung, die wir heute zur Verfügung haben, realisierbar. Am Beispiel der Automobilindustrie und des Deep Learning bei der Bilderkennung ahnen wir ihr Potential für die Zukunft.

Aber sie sind auch eine Blackbox: Niemand weiß genau, was in diesen Millionen von Neuronen abläuft, wenn wir es beim verstärkenden Lernen zu einem bestimmten Verhalten trainieren. Das erinnert tatsächlich an die Vorgänge in einem lebenden Gehirn: Sie können einen Hund zu einem verlässlichen Polizeihund ausbilden. Aber der Erfolg ist vom Training des Hundegehirns abhängig. Und es kann immer passieren, dass der Hund sie irgendwann doch beißt. Wie verlässlich ist ein neuronales Netz beim autonomen Fahren, um Unfälle zu vermeiden? Heute macht z.B. die Automobilindustrie viele Tests, um Fehler zu entdecken. Aber das hängt von den ausgewählten Datensätzen ab. Es könnte also sein, dass irgendwo versteckt Ursachen von Fehlverhalten verborgen sind, die uns bei dem vorliegenden Test entgangen sind.

Ich beschäftigte mich daher derzeit mit mathematischen Beweisen, wie wir Fehler systematisch vermeiden und neuronale Netze besser kontrollieren können. Aus der Mathematik wissen wir, dass erst ein Beweis die Korrektheit garantiert. Die Verbindung des Machine Learning mit mathematischer Beweistheorie ist ziemlich neu. Andernfalls gehen wir große und nicht zu verantwortende Risiken ein, wenn wir uns nur auf den scheinbaren Erfolg schneller Algorithmen und Big Data verlassen (getrieben von schnellen Anwendungserfolgen und Geschäftsinteressen). In einer Art Manifest bin ich auf dieses Grundproblem unserer Algorithmen- und Datenwelt kürzlich eingegangen. Es zeigt, dass selbst Theoretiker in der KI-Forschung wie ich heutzutage eine große Verantwortung tragen:

K. Mainzer (2018): Wie berechenbar ist unsere Welt? Herausforderungen für Mathematik, Informatik und Philosophie im Zeitalter der Digitalisierung. Reihe: Essentials. Springer: Berlin.

Prof. Dr. Klaus Mainzer (*1947) arbeitet als Wissenschaftsphilosoph über Grundlagen und Zukunftsperspektiven von Wissenschaft und Technik. Im Zentrum stehen dabei mathematische Grundlagenforschung und Computermodellierung von Wissenschaft und Technik. Bekannt wurde er als Komplexitätsforscher, der schwerpunktmäßig komplexe Systeme, Algorithmen und künstliche Intelligenz in Natur, Technik und Gesellschaft untersucht.
Prof. Mainzer studierte Mathematik, Physik und Philosophie an der Universität Münster, wo er über Philosophie und Grundlagen der Mathematik promovierte (1973) und sich in Philosophie habilitierte. Vor seiner Berufung auf den Lehrstuhl für Philosophie und Wissenschaftstheorie an der TUM und seiner Tätigkeit als Direktor der Carl von Linde-Akademie im Jahr 2008 arbeitete er als Professor (1981-1988) und Prorektor (1985-1988) an der Universität Konstanz sowie als Professor und Gründungsdirektor des Instituts für Interdisziplinäre Informatik (1988-2008) an der Universität Augsburg. Er war Gründungsdirektor des Munich Center for Technology in Society (MCTS) und ist seit 2016 TUM Emeritus of Excellence.

http://www.professoren.tum.de/mainzer-klaus/

Bücher zum Thema u.a.: K. Mainzer (2014), Die Berechnung der Welt. Von der Weltformel zu Big Data, C.H. Beck: München; ders. (2016), Künstliche Intelligenz. Wann übernehmen die Maschinen? Berlin, Springer; ders. (2016) Information: Algorithmus – Wahrscheinlichkeit – Komplexität – Quantenwelt – Leben – Gehirn – Gesellschaft, Berlin University Press: Berlin.