Regulierung im Digitalen Lob der Langsamkeit

Die rasend schnelle Digitalisierung lässt die Gesetzgebung alt, langsam und manchmal ein bisschen vertrottelt aussehen. Vielleicht sollten wir das Regieren einfach den Maschinen überlassen?

Getty Images/ iStockphoto

Eine Kolumne von


"Der Code oder die Architektur legt die Bedingungen fest, unter denen das Leben im Cyberspace abläuft."
Harvard-Professor Lawrence Lessig, " Code is Law " (2000)

Dass Softwarecode Gesetzen gleicht, ist unter Internetauskennern schon um die Jahrtausendwende zum Gemeinplatz geworden. 1999 erschien die erste Auflage von Lawrence Lessigs Buch "Code und andere Gesetze des Cyberspace". Das obige Zitat stammt aus einem auch heute noch sehr lesenswerten Essay, der dessen Kerngedanken zusammenfasst.

"Unregulierbarkeit ist eine Funktion des Codes", heißt es darin, "aber der Code kann sich ändern". Damals, 2000, wehte noch der Hauch der Anarchie durchs Netz, aber Lessig ist ein Mann mit Weitblick: Andere Schichten könnten auf das gestapelt werden, was die Basisfunktionalität des Internets ausmache, schrieb er, und "diese anderen Architekturen können das Verhalten im Netz fundamental regulierbar machen". Facebook gab es damals noch nicht.

Irgendwas ist immer, wir haben uns daran gewöhnt

Bei Software hat man sich längst daran gewöhnt, dass sie nie perfekt ist. Die meisten von uns akzeptieren ständige Sicherheitsupdates als Selbstverständlichkeit. Der Code kann sich nicht nur ändern, er muss es, weil er nie ganz fertig ist. Und künftig wird er in noch höherem Tempo noch komplexer werden, denn jetzt beginnt Software, sich selbst zu schreiben.

Die Sicherheits- und Qualitätslücken der lernenden Maschinen der Zukunft könnten noch gravierendere Konsequenzen als die von heute haben: Das Gesichtserkennungssystem, das einen Flugpassagier fälschlicherweise als Terroristen einstuft, die Roboterwaffe, die eine Schildkröte für ein Gewehr hält, der diskriminierende Personalauswahl- oder Bewährungsalgorithmuslgorithmus, das vermeintlich intelligente Videonetzwerk, das Verschwörungstheoretikern Publikum verschafft. Und das sind nur die Beispiele, die wir jetzt schon sehen können.

Ich bin ein Fan des Fortschritts, aber ich glaube tatsächlich, dass der FDP-Slogan "Bedenken second" in dieser Phase eher nicht der richtige ist.

Die traurige Geschichte vom Roboterfonds

Einmal ist das Prinzip "Code is Law" schon in aller Konsequenz umgesetzt und prompt aufs Gemeinste missbraucht worden: Die Geschichte von The DAO kann man beispielsweise bei "Wired" nachlesen, hier die Kurzfassung: Ein deutscher Softwareentwickler hatte die Idee, Blockchain-Technik einzusetzen, um einen dezentralen, autonom handelnden Investmentfonds aufzulegen. Alle Regeln und Verträge waren im Code selbst festgeschrieben.

Grob vereinfacht: The DAO sollte das Geld seiner Anteilseigner, am Ende waren es 150 Millionen Dollar, selbsttätig investieren. Die Software sollte gleichzeitig dafür sorgen, dass Gewinne und Verluste fair und ohne Mogeln an die Anteilseigner weitergereicht wurden.

Unglücklicherweise ließ sich der DAO offenbar austricksen. Im Sommer 2016 verschwanden deshalb 50 Millionen Dollar in Kryptowährung. Es gab gewissermaßen eine Gesetzeslücke im Code, die jemand ausnutzte. Anschließend gab es sogar Streit darüber, ob der Diebstahl nicht eigentlich in Ordnung sei, schließlich hatten die Diebe sich ja nur die Buchstaben und Zahlen des Codes zunutze gemacht. Ein bisschen, als ob derjenige mit dem besten Anwalt gewinnt, auch wenn er moralisch augenscheinlich im Unrecht ist.

Wenn man Systeme baut, die anschließend nicht mehr angetastet werden sollen, sollte man sich sehr sicher sein, dass nichts schiefgehen kann. Das kann man aber bei - hinreichend komplexer - Software nie.

Alt, nicht "smart", langsam - aber sicher?

Womit wir bei den echten, langsamen, nicht "smarten" Gesetzen wären. Wir leben in einer Welt, die sich in atemberaubendem Tempo verändert. Reguliert wird sie mit Gesetzen und Verträgen, die mit diesem Tempo kaum mithalten können. Was wird schneller fertig - verlässliche selbstfahrende Autos oder die entsprechende Gesetzgebung?

Das beste aktuelle Beispiel ist die neue Europäische Datenschutzverordnung, die im Mai in Kraft treten wird. Seit der Text finalisiert wurde, hat es bereits technische Entwicklungen gegeben, die seine Autoren in dem langen, zähen Prozess der Ausarbeitung kaum hätten vorhersehen können. Wird sie trotzdem funktionieren? Können Gesetze Dinge regulieren, die es bei ihrer Verabschiedung noch gar nicht gab?

In den USA zum Beispiel gibt es Mahner, die davor warnen, die EU-Verordnung werde die Entwicklung im Bereich Künstlicher Intelligenz in Europa bremsen. Konkret geht es um Artikel 22, dessen erster Absatz folgendermaßen lautet:

"Die betroffene Person hat das Recht, nicht einer ausschließlich auf einer automatisierten Verarbeitung - einschließlich Profiling - beruhenden Entscheidung unterworfen zu werden, die ihr gegenüber rechtliche Wirkung entfaltet oder sie in ähnlicher Weise erheblich beeinträchtigt."

Der US-Rechtsexperte Andrew Burt zum Beispiel, der früher einmal für das FBI gearbeitet hat, fürchtet, dass diese Regelung und ihre vermutete Auslegung "potentiell verheerende Auswirkungen auf die aufregende Zukunft von Gesetzestechnologie" haben könnte, "einschließlich automatischer und selbsterfüllender Verträge".

Hängt China uns dann nicht ab?

Regulierungskritiker verweisen gern darauf, dass andere Weltgegenden, allen voran China, mit dem Daten- und Persönlichkeitsrechtsschutz nicht so zimperlich sind. Sie könnten dem Westen, vor allem Europa, in Sachen KI auch deshalb den Rang ablaufen.

Das mag sein. Und es ist zweifellos richtig, dass die Regulierer gut daran täten, ihr Arbeitstempo etwas zu beschleunigen. Vor allem aber ist es wichtiger denn je, dass sie ihre Aufgabe mit extremem Weitblick angehen. Mit dem gleichen Anspruch auf Zukunftsfestigkeit, wie er an Verfassungen angelegt wird. Ich persönlich möchte nicht in einer KI-Welt mit Chinas Wertesystem leben.

Auf absehbare Zeit wird "Code ist Gesetz" zwar weiterhin irgendwie stimmen, aber mitnichten der Umkehrschluss "Gesetze sind Code". Gesetze vollziehen sich eben nicht selbst.

Das bedeutet auch, dass - wie es im Fall der Datenschutzgrundverordnung fast sicher passieren wird - viele Jahre lang Gerichte damit beschäftigt sein werden, in Einzelfällen zu entscheiden, was die Worte des Gesetzes denn nun eigentlich bedeuten. Und das ist vermutlich auch besser so. Höchstrichterliche Urteile sind in funktionierenden Rechtsstaaten Updates für Gesetze mit Sicherheitslücken. Diverse Bundesregierungen können das bestätigen.

Zum Schluss noch mal ein 18 Jahre alter Satz von Lawrence Lessig: "Entscheidungen über Code und Gesetze werden Entscheidungen über Werte sein."

Mehr zum Thema
Newsletter
Kolumne - Der Rationalist


insgesamt 26 Beiträge
Alle Kommentare öffnen
Seite 1
Radio-Gaga 08.04.2018
1. Widerspruch
"Höchstrichterliche Urteile sind in funktionierenden Rechtsstaaten Updates für Gesetze mit Sicherheitslücken." Nicht so in Deutschland! Für die Abgrenzung von Werkverträgen zu illegaler Leiharbeit arbeitet der Zoll und die Bundesagentur für Arbeit mit einer Checkliste. Auch das LAG Berlin-Brandenburg setzte bei einer Klage wegen illegaler Leiharbeit gegen eine öffentlich-rechtliche Rundfunkanstalt 2015 diese Maßstäbe der obersten Rechtssprechung und der Rechtswissenschaft an und stellte illegale Leiharbeit fest. 2017 setzte sich das BAG über alle Grundsätze der eigenen Rechtssprechung und der Rechtswissenschaft hinweg und kassierte das Urteil des LAG Berlin-Brandenburg zugunsten der öffentlich-rechtliche Rundfunkanstalt. Bitteres Fazit des Kommentarors auf JURIS: "Arbeitnehmern, die im Rahmen eines Dienstvertrages in einem anderen Unternehmen eingesetzt werden, muss – außer in völlig eindeutigen Fällen – von der Geltendmachung eines etwaigen Anspruchs auf das fingierte Arbeitsverhältnis aus § 10 Abs. 1 AÜG abgeraten werden. Im Lichte der BAG-Rechtsprechung handelt es sich dabei regelmäßig um ein aussichtsloses Unterfangen. Die hier vorgenommene Verteilung der Beweislast ist deshalb mit dem Schutzzweck des AÜG nicht in Einklang zu bringen." https://www.juris.de/jportal/portal/t/1tkj/page/homerl.psml?nid=jpr-NLAR000003818&cmsuri=/juris/de/nachrichten/zeigenachricht.jsp Eine politisch unabhängige Software hätte an Stelle des BAG anders geurteilt und den Revisionsantrag dieser öffentlich-rechtliche Rundfunkanstalt richtigerweise abgelehnt.
dirk.resuehr 08.04.2018
2. KI und KI
Da stehen zwei Kürzel einander gegenüber, das eine steht für den kategorischen Imperativ, das andere für die medial zelebrierte künstliche Intelligenz. Hier wird beklagt, daß sich Gesellschaft und Technologie schneller ändern als die Gesetzgebung. Das ist, pardon, keine neue Erkenntnis, war immer so. Siehe LBTG! Die künstliche Intelligenz wird immer gewaltig überschätzt, weil die Mehrzahl der Journaille von IT so viel nicht versteht. Jeder weiß, daß Algorithmen in vielen Bereichen zum Einsatz kommen,. Sie können aber manches nicht entscheiden, oder sie entscheiden falsch. Da kommt das erste KI, der Kantsche Imperativ ins Spiel, der wohl, obschon über 200 Jahre alt(!); HEUTE NOCH GILT.Das ist das Dilemma der künstlichen Intelligenz:Wie programmiert man ethische Grundsätze, und wo und wer programmiert und kontrolliert sie? Weiter:Wie programmiert man Emotionen? Geht das überhaupt? Die künstliche Intelligenz mag besser und schneller rechnen können, als der Mensch, besser erinnern und speichern, nach Algorihmen logisch entscheiden, aber moral-ethisch falsch. Also bitte mit dem Hochjubeln dieser KI besser aufhören, so irrsinnig viel kann sie nicht. Sie sollte den technisch-mathematischen Bereich nicht verlassen, da sie wohl nie ein Gewissen haben wird!
mhwse 08.04.2018
3. mechanisch ungerechte und unsinnige Folgeketten
sind ganz ohne Automaten möglich - schon dadurch dass Gesetze und Mitarbeiter von Behörden sich den übergeordneten Gesetzen unterwerfen müssen - und auch danach handeln, wenn offensichtlich die Schuld einen Dritten trifft. Der unfreiwillige Verursacher aber dadurch in Haftung treten muss. Dazu braucht es keinerlei Computer - und - Überredungsversuche sind jetzt schon zwecklos, wenn auch auf menschlicher Ebene Zustimmung, wegen der darstellbaren Ungerechtigkeit kommt.. Ich gehe sogar soweit zu sagen, dass ein Automat, ein Recht - das den "Override" möglich machen würde - eher finden und ausführen würde, als ein einfacher Sachbearbeiter einer städtischen oder staatlichen Stelle. Ein Automat muss seinen Chef nicht fürchten oder eine drohende Entlassung vermeiden, wenn er zu oft nachfragt .. Man hofft, dass staatliche Vollstreckungsstellen durch den Einsatz von Menschen dort menschlicher würden - dem ist aber leider gar nicht so.
robbery 08.04.2018
4. Lieber Hr. Radio Gaga
Sie haben irgendwie das Thema anders verstanden als gedacht. Es geht um eine ausschließlich von Software Rechtsprechung und nicht um Auslegung der Gesetze. Der Autor nimmt ja genau diesen Punkt auf, dass keine SW alleine über einen Menschen richten darf. Mir ist ja sowieso schleierhaft wie ein ausschließlich deterministisches System, das auch noch faktisch fehlerbehaftet ist zu einem Fortschritt in der Rechtssprechung führen soll? Auch KI ist NUR SW und steckt mehr als in den Kinderschuhen. Oder hat schon mal ein KI System irgendeine Idee gehabt oder ein Schachspiel gewonnen, bei dem geschummelt wird? Das kann keine SW weil sie nur bei endlichen Randbedingungen funktioniert. Deshalb werden auch die Chinesen scheitern, weil sie durch ihr restriktives System genau das fördern was SW nie nachvollziehen kann: individuelle Kreativität! Zudem sollte jeder Diskutant hier einmal eine Produktiv SW erstellen, was zumindest in der Schule jeder lernen sollte! Meiner Meinung gehen wir wieder direkt auf was Vergleichbares wie die Internet Blase zu (Y2k) und jeder will es dann wieder gewusst haben! Facebook lässt grüßen!!
onelastremarktoall 08.04.2018
5. Das Problem des Pazifisten, der Dämmstoffe herstellt...
..., ist ähnlich gelagert, denn er weiss nicht, ob selbige beispielsweise in U-Booten eingesetzt werden. Auch im Artikel ist wieder die Rede von den Algorithmen (im Zusammenhang mit der sogenannten KI), aber seit einigen Jahren drängt sich eine wesentlich kritischere Komponente in den Vordergrund: Vor 10 Jahren noch unvorstellbar grosse Datenmengen, die relativ preiswert und schnell verarbeitbar sind. Es gibt nicht unüberschaubar viele Architekturen und Algorithmen, die im Umfeld des maschinellen Lernens eingesetzt werden, aber diese sind überwiegend in einem gewissen Rahmen universell einsetzbar: die gleichen Komponenten lassen sich für die Erkennung von Krankheiten einsetzen, wie auch für die Identifizierung von Personen, die durch Drohnen getötet werden sollen. Es hängt ausschliesslich davon ab, welche Daten man einem derartigen System zum lernen zur Verfügung stellt. Schon kurz nach 2000 gab es Untersuchungen bezüglich der Qualität von verschiedenen Algorithmen im Umfeld des maschinellen Lernens. Mit den damaligen - für heutige Verhältnisse lächerlich - Datenmengen zeigte sich, dass es auf den Algorithmus viel weniger ankommt, als man ursprünglich vermutete. Entscheidend ist die Menge zur Verfügung stehender Daten.
Alle Kommentare öffnen
Seite 1

© SPIEGEL ONLINE 2018
Alle Rechte vorbehalten
Vervielfältigung nur mit Genehmigung der SPIEGELnet GmbH


TOP
Die Homepage wurde aktualisiert. Jetzt aufrufen.
Hinweis nicht mehr anzeigen.