+49 173 900 8703 info@wibior.de

Gehypt von den einen, gefürchtet von anderen: Künstliche Intelligenz, KI, ist in aller Munde. Befragt man fünf Experten dazu, wie sich die Technologie in den kommenden Jahr(zehnt)en entwickeln wird, bekommt man fünfzehn Antworten. Erschwert wird die Recherche dadurch, dass es keine einheitliche Definition für KI gibt. Ab wann ist Prozessautomatisierung intelligent? Was müssen Maschinen lernen, um aus Datenwissen intelligenten Verhalten abzuleiten? Und was heißt intelligent? 
Bei allen Unwägbarkeiten wage auch ich mich auf die Suche nach Einschätzungen. Mich interessiert, ob und wie KI unsere Arbeitswelt verändern wird; wird sie gar unser ganzes Leben revolutionieren oder den Menschen überflüssig machen?

Ich frage meinen Schwager, erfahrener Programmierer für Steuersoftware. Er habe auf dem Gebiet seit Jahren nicht viel Neues gesehen, meint der zunächst. Unterscheidet dann aber zwischen starker und schwacher KI.
Unter schwacher KI versteht man solche Algorithmen, die menschliche Entscheidungsfindung unterstützen können, den Menschen aber nicht die Entscheidung abnehmen. Da die lernenden Systeme insbesondere in der Bild- aber auch in der Spracherkennung tatsächlich große Fortschritte gemacht haben, gibt es hier einiges an Bewegung. KI hilft Ärzten dabei, Datensätze aus bildgebenden Verfahren zu interpretieren und macht Therapien dadurch sicherer. Sie kann sogar anhand einer Liste von Symptomen einer erste Diagnose erstellen.

In absehbarer Zeit werde KI aber auch in der Lage sein, Forschungsergebnisse eigenständig in den Kontext bestehender Fachliteratur einzuordnen, meint Dr. Dieter Treichel, Patent & Start up Manager bei Max-Planck-Innovation. Das gibt mir zu denken. Denn der “Kontext bestehender Fachliteratur”, was ist das eigentlich? Natürlich der Wortlaut der einschlägigen Artikel. Zur “Einordnung” gehört aber mehr. Über das rein semantische Verständnis hinaus braucht es Fachkenntnis über die angewandten Methoden: Sind sie adäquat gewählt, um die gestellte Frage zu beantworten? Auch hilft detaillierte Erfahrung mit einzelnen Systemkomponenten, deren Eigenheiten und Fehleranfälligkeiten. Und schließlich spielen nicht selten politische Hintergründe eine Rolle: Wie, wo, wann, warum und von wem eine bestimmte Erkenntnis publiziert wird, hat oft nicht nur wissenschaftliche Gründe. Die zu durchdringen basiert natürlich auf Faktenwissen, aber ist da nicht auch noch das gewisse Etwas, ein Bauchgefühl des Wissenschaftlers?

KI bezeichne “den Versuch, menschenähnliche Entscheidungsstrukturen in einem nichteindeutigen Umfeld nachzubilden,” heißt es auf Wikipedia. Und wie weit ist dieser Versuch im Jahre 2018 gediehen?
Auf der Cebit begebe ich mich auf die Suche nach Antworten.

“KI kann intuitiv handeln” Andreas Dengel, DFKI



Das Deutsche Forschungsinstitut für Künstliche Intelligenz, DFKI, scheint mir die richtige Adresse für meine Suche. Auf dem Stand präsentieren Mitarbeiter aktuelle Lösungen aus dem Bereich der Systemsteuerung. Mit meiner allgemeinen Frage nach dem Gedeihen der KI-Technologie werde ich zunächst etwas herumgereicht. Schließlich bemüht sich Andreas Dengel um Antworten. Er ist wissenschaftlicher Direktor des Forschungsbereichs Smart Data & Knowledge Services am DFKI und herausragender Ehrenprofessor (tokubetu eiyo kyoju) der Präfekturuniversität Osaka. 

Die KI habe den Menschen schon längst überholt, erklärt er mir. Ich solle mir nur die Suchalgorithmen oder Wissensgraphen von Google* anschauen. Oder moderne Navigationssysteme, die komplexe Echtzeitdaten integrieren um jederzeit die optimale Route zu weisen. “Diese Leistung könnte ein menschlicher Beifahrer nie erbringen.” Was bleibt dann für uns Menschen zu tun, frage ich Professor Dengel. “Das Emotionale,” ist seine knappe Antwort. Das Zwischenmenschliche, im Gespräch und im Handeln, das können keine KI ersetzen. 

Und was ist mit dem Bauchgefühl des Wissenschaftlers aus meinem Beispiel?
“KI hat keine Intuition,” sagt Professor Dengel. “Aber sie kann intuitiv handeln.”
Als Beispiel nennt er Alpha Go, ein lernendes Computerprogramm, das den weltbesten menschlichen Spieler im asiatischen Brettspiel Go schlug. “Alpha Go hat einen Zug angewendet, den so noch kein Mensch gespielt hatte,” erläutert Dengel.
Ist das wirklich intuitives Handeln, frage ich mich, oder doch eher Berechnung?

“People have to be in charge” Ed Doran, MSR

Ed Doran, führender Produktmanager bei Microsoft Research, MSR, spricht über künstliche Intelligenz wie über Autos oder Tablets. Natürlich ist sie da, natürlich nutzen wir sie. “KI unterstützt Menschen in ihrer Performance,” sagt Doran. Sein Fokus ist nicht die Technik dahinter, sondern die Frage, wie und wofür wir sie nutzen. MSR entwickelt KI Anwendungen unter anderem für die Bildung, Inklusion, Wissenschaft und Landwirtschaft. Wo und wie sie zum Einsatz kommen, müsse gemeinschaftlich entschieden werden, betont Ed Doran.
“People have to be in charge,” ist eines seiner Credos: Menschen müssen die Verantwortung tragen, wenn KI im Einsatz ist. Schon heute gibt es Bots, die sich stundenlang mit Menschen unterhalten oder in den sozialen Medien Meinungen machen. Diese dürften aber nicht sich selbst überlassen werden, ihr Lernfortschritt gehöre überwacht, mahnt Ed Doran. 
“Wir müssen vermeiden, der KI die Voreingenommenheit der Menschen anzutrainieren,” warnt er.
Darauf habe ich als Verbraucher zunächst mal wenig Einfluss. Ich muss den Entwicklern von KI-Systemen ebenso vertrauen wie denen der Antriebs- oder Bremssysteme meines Fahrzeuges. Oder sollte ich sagen, wie denen der Steuersoftware…? Wenn die Bremsen nicht funktionieren, merke ich das und kann einen Unfall vermeiden. Zu durchschauen, ob und wie Google mich mit seinen Suchergebnissen beeinflusst, ist eine unvergleichlich komplexere Angelegenheit.*

KI gibt sich dem unbedarften Nutzer nicht unbedingt als solche zu erkennen. Vermutlich rührt auch daher die Angst vieler Menschen, sie könnte uns unbemerkt überholen und unser Schicksal in die Hand nehmen, ohne dass wir es merken?

Roboter als Wegweise? Versagt.

Kommen wir zurück zur eingangs erwähnten Medizin. Hier gibt es transparente Beispiele für die Nutzung von lernenden Softwaresystemen. 
Ada ist eine europäische App, die Symptome und persönliche Daten analysiert und eine Diagnose vorschlägt, wenn der Nutzer sich unwohl fühlt. Basis für die Funktion von Ada ist eine ständig von Medizinern kuratierte Datenbank von Symptomen und Diagnosen. Anhand der von App-Nutzern erhobenen Daten, bildet das System sich eigenständig weiter. 

Am Fraunhofer-Institut für bildgestützte Medizin, MEVIS, nutzen Forscher einer der ausgeprägten Stärken derzeitiger KI: die Bilderkennung. Hier werden Algorithmen trainiert, anhand von Datensätzen aus bildgebenden Verfahren die Lage bestimmter Organe präzise zu bestimmen oder auch eine Hirnblutung zu erkennen. Sie helfen, Diagnosen zu schärfen und Therapien zu optimieren. Die Techniken in diesem Bereich erscheinen derart ausgereift, dass man sich nur noch über die verhaltene Zustimmung mancher Ärzte wundert. Nicht jeder ist spontan begeistert davon, stundenlange Routinearbeit an eine Software abzugeben und sich stattdessen anderen Aspekten seines Berufes zu widmen.

Institute der Fraunhofer Gesellschaft erforschen diverse Aspekte künstlicher Intelligenz, nur wenige davon sind Thema auf der Cebit. Ein kleiner Roboter, Typ Pepper, soll Besuchern helfen, sich auf dem Stand zu orientieren. Auf handtellergroßen Plexiglasteilen stehen verschiedene Begriffe, auf der Rückseite ist ein 2D-Code angebracht. Der hat etwa die Form eines Sternes oder eines Fünfecks. Ich nehme einige der Begriffe hoch und halte dem Roboter den Code vor die Kamera, damit er mir sagt, in welchem Teil des Standes ich Informationen zu dem genannten Thema finde. 
Das Gerät blinzelt mit seinen regenbogenfarbenen LED Äuglein, schüttelt den Kopf und schaut – verwirrt? – umher. Vier von fünf Codes die ich ihm zeige, erkennt er gar nicht. Ernüchtert versuche ich mir vorzustellen, wie lang die Schlange wäre, wenn der Codescanner an der Supermarktkasse derart erbärmlich funktionieren würde. 

Natürlich haben die Schwächen der Hardware im Code-scannenden Roboter wenig bis gar nichts mit künstlicher Intelligenz zu tun. Und vielleicht bin ich auch einfach ein Techniktölpel. 
Insofern ist meine Reaktion nur eingeschränkt zulässig. Und dennoch: Nach diesem Erlebnis technischer Umsetzung zum Abschluss meines Messebesuches fühle ich mich wieder einigermaßen angekommen auf dem Boden der Tatsachen, was das Überbieten menschlicher Performance durch von Menschen entwickelten Algorithmen angeht.

 

*Eine ernste Herausforderung: Nicht ohne Grund sind Google Suchalgorithmen gut gehütetes Geheimnis.