Wenn #MachineLearning Leben zerstört

Wir müssen über „cost of failure“ sprechen. Denn künstliche Intelligenz diskrimminiert und zerstört Leben.

Lernende Algorithmen (Neuronale Netze, Machine Learning, Predictive Maintenance, Deep Learning) sind aktuell eine der Wunderwaffen der Digitalisierung. Was für Menschen eine gewaltige Arbeit mit riesiger Fehlerquote (aufgrund begrenztem Konzentrationsvermögen) ist, können moderne Computersysteme hervorragend: Daten Auswerten und Kategoriesieren. Mit Kategorisieren ist gemeint: Entscheidungen treffen. Die guten ins Töpfchen, die schlechten ins Kröpfchen.

Doch was, wenn nicht nur die schlechten ins Kröpfchen geraten? Okay, die meisten von uns sind sich schon nach MinorityReport einig gewesen, dass #PredictivePolicing eine wirklich schlechte Idee ist (was am Rande bemerkt Hamburg, Hannover, Bonn, München und viele andere nicht davon abhält, gerade Pilotprojekte zu fahren). Interessant wird es in der breiten Masse. Denn maschinelles Lernen ist längst nichts mehr, was nur mit viel Forschung und in Begleitung von Universitäten eingesetzt werden kann. Jeder, und das schließt Sie als Leser/Leserin ein, kann heute eine Lösung mit Machine Learning zusammenklicken. Das ist Kinderleicht. Und dann sortiert die KI für Sie die guten und die Schlechten aus. Oder sortiert Datensätze einem passenden Körbchen zu. Dass ein Google Classifyer 2015 ein afro-amerikanisches Pärchen als Gorillas markiert hat, hat einiges Aufsehen erregt. Die Tragweite dessen, ist den meisten jedoch nicht bewusst geworden.

Die Tragweite der Probleme

Machine Learning wird überall eingesetzt: Für passende Zielgruppenansprache im Marketing, für bessere Diagnosen in der Medizin, für bessere Verkehrsflüsse, für bessere Partnersuche, für bessere Kreditvergabe, für bessere private Krankenversicherung, für bessere Erkennung passender BewerberInnen für Jobs. Letzteres beispielsweise bei vielen Konzernen in England. Bei uns in Deutschland hat das letzte Wort noch immer der Mensch. Doch was soll der Mensch sagen, wenn alle Algorithmen den Daumen runter zeigen? Immerhin steht hier meist das eigene Bauchgefühl gegen eine von Experten trainierte KI, die viel leistungsfähiger ist, alle Daten und Zusammenhänge zu erkennen. Das Problem ist: Dass Frau Meier die letzten zwei Jahren nicht gearbeitet hat, lag daran, dass sie ihre Elten zuhause vollzeit gepflegt hat. Doch sowas ist im Modell der KI nicht vorgesehen. Max Mustermann bekommt keinen Kredit, weil er zufällig einen Doppelkonsonanten im zweiten Vornamen hat. Unglücklicherweise hatten die Menschen mit deren Daten kreditunwürdiger Menschen, mit denen der Classifyer trainiert wurde, auch eine Häufung von Doppelkonsonanten im zweiten Vornamen. Und irgendwer dachte, der Name wäre doch interessant, denn ein Jeremy-Pascal Baujahr 2010 – das hat doch eine Aussagekraft in Bezug auf die Kreditwürdigkeit. Hinter all der Zahlengläubigkeit wird vergessen, dass die KIs von Menschen trainiert werden, Und zwar von Menschen, die Daten nicht gut verarbeiten können, die viele Muster nicht erkennen können. Die niemals alle Sonderfälle im Vorfeld sehen können. Das problematische ist: Man kann nicht einmal einen Einzelfall im Nachgang prüfen. Denn die KI entscheidet nach Bauchgefühl. Wenn wir zwei Menschen sehen und einer ist hübscher als der andere, dann können wir nicht genau begründen, warum wir uns so entschieden haben oder an welchen Merkmalen wir das festmachen. Es ist einfach eine Gewichtung, die sich bei Betrachtung vieler tausend Gesichter in unserem Gehirn eingeschliffen hat. So ist es mit neuronalen Netzen auch. Ein Kausalzusammenhang, von welchem Merkmal (Feature Vektor) eine Entscheidung abhing, kann im Nachhinein nicht identifiziert werden. Selbst wenn Sie den Programmierer fragen würden, aufgrund welcher Daten sein Filter Sie als kreditunwürdig eingestuft hat – er könnte es Ihnen nicht sagen.

Die Lösung: Mehr Mensch, mehr Vertrauen in uns

Was wir besser können als die Maschine ist, und jeden Einzelfall anzuschauen, offen für Argumente zu sein und überzeugen zu lassen. Und das ist eine Fähigkeit, die uns haushoch jeder Maschine überlegen macht. Leider können heute alle Programmiererinnen und Programmierer kinderleicht mit ein paar Klicks Cognitive Services nutzen. Und das tun sie auch. Und die blinde Zahlengläubigkeit führt dazu, dass die Menschen den Ergebnissen mehr vertrauen, als ihrem Menschenverstand. Was wir dringend brauchen, ist Regulierung. Prüfkriterien. Qualitätssicherung. Einstufung nach cost of failure. Wir nur eine Werbeanzeige nicht angezeigt, oder bekommt jemand eine falsche Krebstherapie, wenn die Klassifizierung falsch liegt? Ich wäre dafür, ganz unten anzufangen. Und den Kindern in allen Schulformen einen kritischen und kompetenten Umgang mit Statistiken beizubringen. Denn Mathe – in den falschen Händen – ist gnadenlos.

Leben zerstören – überzogen?

Ich habe auf diesen Post viel Feedback bekommen. Neben positiven Rückmeldungen auch, dass der Titel oder das Bild doch sehr reißerisch seien. Das sehe ich nicht so. Von Geburt an werden Entwscheidungen unser Leben betreffend mit Unterstützung von Algorithmen getroffen. Machine Learning findet in der Medizin, in der Psychologie, in der Psychiatrie bereits Verwendung. Falsche Negativentscheidungen über Kredite oder Bewerbungen haben durchaus eine gewaltige Tragweite. Algorithmen diagnostizieren heute Depressionen, was in der Personalakte gespeichert wird. Stichwort Germanwings Absturz. Spätestens ob man eine Krankenversicherung bekommt, entscheidet in den meisten Ländern der Erde vielfach über die Behandlungsmöglichkeiten und damit buchstäblich über Leben und Tod. Unser Werdegang und unser Leben werden immer mehr durch Algorithmen mitbestimmt. Es geht mir nicht darum Methoden wie KI, Machine Learning, Deep Learning zu verteufeln. Qualitätsstandards im Umgang mit dieser Technologie sind allerdings längst überfällig.

 

Diesen Artikel teilen

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.