Algorithmen und Scoring Wir müssen die Bewerter bewerten

Algorithmen bewerten Menschen und entscheiden oft über ihr Schicksal. Wie so eine automatisierte Beurteilung des Computers zustande kommt, bleibt dabei oft im Dunkeln. Höchste Zeit für ein Testsystem.

In immer mehr Bereichen sind es nicht Menschen, sondern Computer, die uns bewerten, beurteilen und klassifizieren. Und zwar vollautomatisch. Dieses "Scoring" greift längst über klassische Bereiche wie Punkte in Flensburg oder die Bonitätsbewertung von Kreditnehmern hinaus. Softwareanbieter versprechen sogar, einen Algorithmus den idealen Kandidaten für eine offene Stelle auswählen zu lassen - vermeintlich vorurteilsfrei und viel passgenauer, als ein Mensch das je könnte. "People Analytics" nennt sich das dann. Im Zeitalter solcher Computerentscheidungen droht die Gefahr, dass Autonomie und Menschenwürde auf der Strecke bleiben.

Zu den Autoren
Foto: MPIB

Der Ökonom Gert G. Wagner (Foto), 65, ist Mitglied der Deutschen Akademie der Technikwissenschaften (acatech) und Mitglied im Sachverständigenrat für Verbraucherfragen.
Johannes Gerberding, 35, ist Jurist und arbeitet als wissenschaftlicher Referent für den Sachverständigenrat für Verbraucherfragen.
Der Sachverständigenrat hat Ende Oktober das Gutachten "Verbrauchergerechtes Scoring" vorgelegt.

Vom Computer können wir nicht in der gleichen Weise wie von unserem Mitmenschen verlangen, dass er über seine Entscheidungen Rechenschaft ablegt. Deshalb ist es nötig, die verborgenen Prozesse im Inneren der Maschine für diejenigen transparent und verständlich zu machen, die ihnen ausgesetzt und von ihnen betroffen sind. Und das sind wir alle: so als Onlineshopper, Versicherungskunden, Kontoinhaber, Bewerber und Nutzer des Internet.

Allerdings ist es keineswegs damit getan, schlicht Transparenz von den Herstellern einzufordern. Denn die käme nicht nur den Betroffenen zugute, sondern vor allem der Konkurrenz. Schließlich kostet die Entwicklung der Algorithmen Geld. Und kann der eigene Algorithmus besser als die der Konkurrenz vorhersagen, welche dem Kunden angezeigte Werbung zum Kauf des beworbenen Produktes führt, kann dies ein wirtschaftlicher Vorteil sein. Deshalb schützen sich die Entwickler von Algorithmen durch Intransparenz, rechtlich abgesichert durch ihr Geschäftsgeheimnis.

Um einen Algorithmus zu testen, muss man nicht seinen Bauplan kennen

Wie also könnte man Transparenz für die einschlägigen Scoring-Algorithmen herstellen - ohne die Geschäftsinteressen der Entwickler zu verletzen?

Man könnte über Patentschutz nachdenken, aber ein Algorithmus ist erstmal nichts anderes als eine gute Idee, wie man eine bestimmte Aufgabe lösen kann. Gute Ideen als solche sollten aber nicht patentierbar sein und sind es meistens auch nicht. Ein Patentschutz für Software ist zwar nicht unbekannt, die Diskussion darüber, wie weit er reichen sollte, verläuft aber kontrovers. Zur Herstellung von Scoring-Transparenz in dieses Wespennest zu stechen, lohnt sich nicht.

Auch das Urheberrecht bietet keinen gangbaren Weg zur Herstellung von Transparenz. Denn das Urheberrecht schützt nur eine konkrete Programmierung, nicht aber ein Konzept. Ein Programmierer kann jedoch denselben Algorithmus in ganz unterschiedlicher Weise um - und einsetzen.

Der Ausweg aus dem Dilemma zwischen Transparenz und Geschäftsgeheimnis liegt im Testen von Algorithmen. Um einen Algorithmus zu testen, muss man nicht seinen Bauplan kennen, sondern man schaut nur genau hin, wie er sich im alltäglichen Einsatz bewährt. Man füttert das System mit bekannten Beispieldaten und schaut, wie es sich verhält: Liefert der Algorithmus plausible Ergebnisse oder produziert er Unsinn? Durch Tests kann man auch herausfinden, ob der Algorithmus verbotenerweise diskriminiert, also bestimmte Personengruppen benachteiligt.

Der Limonadenhersteller muss seine Geheimrezeptur auch nicht verraten

Der Clou am Testen ist, dass das Geschäftsgeheimnis der Algorithmen-Entwickler erstmal nicht beeinträchtigt wird. Und man muss auch den Computercode nicht verstehen. Mit Produkten, die handfester sind als Computer-Algorithmen, verfahren wir so seit Jahrzehnten: Der Limonadenhersteller muss seine Geheimrezeptur nicht verraten, damit die Limonade getestet werden kann. Um festzustellen, ob die Limo Bauchweh verursacht, trinkt man sie einfach. Und zwar nicht unter Laborbedingungen - wie bei den Dieselautos, wodurch geschummelt werden konnte - sondern unter Alltagsbedingungen.

Bislang muss allerdings kein Algorithmen-Entwickler es der kritischen Öffentlichkeit leicht machen, seine Produkte zu testen. Das Befüllen der Black Box mit Testdaten kann deshalb ein mühsames Unterfangen sein. Anders lägen die Dinge, sobald es einen rechtlichen Anspruch auf Durchführung von Tests gäbe. Dann müssten die Algorithmen-Entwickler eine Schnittstelle vorsehen, über die Testdaten eingespeist werden können. Die Arbeit der Algorithmentester würde das ungemein vereinfachen.

Da das Testen von Computer-Algorithmen bislang allerdings nur in Fachkreisen diskutiert wird, hat der Sachverständigenrat für Verbraucherfragen vorsichtshalber bei den Experten der Gesellschaft für Informatik eine Studie in Auftrag gegeben. Sie sollte ausloten, ob testen machbar ist und wie der Algorithmentest in geltendes Recht eingefügt werden könnte, und kam zu einem eindeutigen Ergebnis: Testen ist machbar und unter den vielen gesetzlichen Herausforderungen, die sich aus den neuen vollautomatisierten Entscheidungsprozessen ergeben, ist der Algorithmentest eine der kleineren. Deshalb haben die Experten konkrete Vorschläge gemacht, an welchen Stellen der Gesetzgeber tätig werden müsste, um einen "Anspruch auf Algorithmentests" zu verankern.

Diesmal müssen Menschen abwägen, nicht Computer

Dadurch ließe sich der Konflikt zwischen dem Wunsch nach Transparenz einerseits und den Interessen der Unternehmen andererseits entschärfen. Restlos auflösen lässt sich das Spannungsverhältnis aber nicht. Denn je intensiver man eine Black Box von außen testet, desto mehr gibt sie ihre inneren Geheimnisse preis. In manchen Fällen dürfte es keinen Unterschied mehr machen, ob der Algorithmus offengelegt oder "nur" getestet wurde.

Zwar schützt das Gesetz Unternehmen davor, zwangsweise ihre Geschäftsgeheimnisse offenlegen zu müssen. Doch der Schutz des Geschäftsgeheimnisses ist nicht absolut. Wie weit er reicht, entscheidet sich erst durch eine Abwägung mit anderen in der Verfassung garantierten Rechtsgütern.

Dazu gehören etwa das Persönlichkeitsrecht und die informationelle Selbstbestimmung derjenigen, die den bislang undurchschaubaren Algorithmen ausgesetzt sind. Beides gilt es zu schützen. Deshalb braucht es auch diesmal eine genaue Abwägung - und zwar durch Menschen, nicht durch Computer.

Die Wiedergabe wurde unterbrochen.