Warum es so wichtig (und machbar) ist, Grundlagenmodelle im European AI Act jetzt zu regulieren
November 24, 2023
Dieser Tage stehen wir in Brüssel vor einer Situation, die wohl niemand der Verhandelnden und Beobachtenden in den vergangenen fünf Jahren Vorbereitungs- und Verhandlungszeit zum EU AI Act erwartet hätte: In langwieriger Arbeit mit EntscheidungsträgerInnen und ExpertInnen aus Computer Science, Recht und Gesellschaft lag ein Kompromiss auf dem Tisch, aus dem zum Ende diesen Jahres ein Beschluss für die weltweit erste horizontale KI-Regulierung mit Einschluss ihrer zur Zeit populärsten Technologie, der Grundlagenmodelle, werden sollte. Da haben Regierungsvertreter der drei größten Mitgliedstaaten, Frankreich, Deutschland und Italien, ein Non-Paper veröffentlicht, mit dem sie sich gegen alle erreichten politischen Kompromisse und die Haltung des Großteils der Wissenschaft wenden und die vorgeschlagene moderate Regulierung von Grundlagenmodellen mit einem gestuften Ansatz je nach Größe der Unternehmen durch einen simplen Code of Conduct, also einer Selbstregulierung, die in der Technologiebranche leider in den vergangenen Jahrzehnten nie funktioniert hat, ersetzen wollen.
BranchenkennerInnen und -vertreterInnen aus Europa und international sind nicht nur überrascht, sondern auch erschrocken. Soll das ein faires und zukunftsgewandtes europapolitisches Handeln sein? Werden damit nicht alle in den verschiedensten Gremien hart und mit profunder Sachkenntnis erarbeiteten Vorschläge und Kompromisse in den Wind geschrieben und mit einem herablassenden „kognitive Verwirrung“ (so Minister Habeck beim Digitalgipfel letzten Dienstag) disqualifiziert und vor den Kopf gestoßen?
In der Essenz geht es für mich hier darum, wie wir in Zukunft zusammenleben wollen.
Die Demokratie ist für uns die politische Grundlage eines friedlichen Zusammenlebens und eine Voraussetzung dafür, dass jeder Mensch die Chance hat, sich selbst zu verwirklichen. Unser Gebrauch digitaler Technologien setzt allerdings die Demokratie unter Druck:
-
Digitale Überwachungstechniken können die freie Meinungsäußerung behindern und die Meinungsvielfalt einschränken;
-
kritischem Journalismus und einer freien Presse kann durch digitale Informationsplattformen die Grundlage entzogen werden;
-
die Macht globaler digitaler Konzerne kann die staatliche Souveränität einschränken;
-
manipulative Kommunikationssysteme können den urdemokratischen Anspruch unterlaufen, Machtkonstellationen durch Wahlen zu ändern;
-
die Nachvollziehbarkeit und Korrigierbarkeit von Entscheidungen kann durch den Einsatz von KI beeinträchtigt werden.
Ich habe gerade bei all diesen Beispielen die Worte „kann“ oder „können“ benutzt, dabei passiert all dies schon. Technologie hat schon all diese Folgen auf die Gesellschaft.
Und es ist ja nicht so, dass die Unternehmen das noch nicht realisiert hätten. Aus meiner Arbeit mit KI-Unternehmen habe ich viel über interne Ethik-Richtlinien gelernt. Viele von ihnen, vor allem einige der großen Player wie Microsoft, Google, IBM und auch Salesforce, haben schon vor mehreren Jahren interne Prinzipien etabliert, nach denen sie ihre KI-Entwicklung ausrichten. Diese Richtlinien sind freiwillig entstanden, werden vielfach als Teil von Marketingstrategien verwendet (was ich auch gegenüber der Öffentlichkeit richtig finde, aber wir können nicht da stehen bleiben, sie müssen auch tatsächlich wirken). Manchmal wird zu ihrer Erstellung ein aufwendiger interner und extern begleiteter Prozess durchgeführt. Oft sind die Teams, die sich damit befassen, die ersten, die auch wieder in Frage gestellt werden, wenn Arbeitsplätze abgebaut werden sollen.
Für mich sind diese internen Ethikrichtlinien daher ein wichtiger erster Schritt. Sie vermitteln denjenigen, die die Technologie entwickeln, dass sie Verantwortung tragen nicht nur gegenüber ihren Aktionären, ihren Investoren, ihren Kunden, ihren Mitarbeitern. Sondern dass ihre Produkte erwiesenermaßen auch positiven, oder zumindest keinen negativen, gesellschaftlichen impact haben, der bisher in der product design Phase oder auch im go-to-market nicht ausreichend bedacht und abgesichert wird.
Beim verantwortungsvollen Design von technologischen Produkten dürfen wir aber nicht davon ausgehen, dass damit die Arbeit getan wäre. Diese selbstauferlegten Richtlinien sind wie gesagt eine Übergangslösung, und zwar bis der Gesetzgeber es hinkriegt, echte Leitplanken zu schaffen, mit den entsprechenden Absicherungen, und diese auch international und kraftvoll wirken. Und da standen wir jetzt in Europa.
Im Unternehmen intern festgelegte Prinzipien der KI-Governance sind kaum von außen durchsetzbar und Wettbewerber sind nicht daran gebunden. Außerdem gibt es so viele verschiedene von ihnen, dass es aus Verbraucherinnensicht, und das ist meine Perspektive, schwierig ist, wirklich zu wissen, wo ein Unternehmen in Bezug auf die Einhaltung seiner eigenen Regeln steht. Zumindest verpflichten sie das Unternehmen dazu, sich einer genauen Prüfung seiner Produkte zu stellen.
Was Unternehmen darüber hinaus benötigen, sind starke, obligatorische Governance-Kontrollen. Unsere bestehenden Governance Frameworks sind nicht umfassend und nicht aktuell genug, um abzudecken, was Technologie heute leisten kann.
Wie gesagt, in der EU wird zur Zeit der European AI Act verhandelt, eine Verordnung, die – im Paket mit anderen europäischen Gesetzgebungen wie DS-GVO, Digital Services Act, Digital Markets Act – KI „horizontal“ regulieren soll, d.h. nicht auf den Sektor bezogen, in dem sie eingesetzt wird, sondern als Technologie als solche. Auf die Verordnung folgen sollen dann noch Richtlinien, z.B. zum Thema Haftung, die die bestehende Gesetzgebung auf KI-spezifische Aspekte erweitern sollen.
Wenn Kritiker sagen, es sei falsch, dass die EU eine so vergleichsweise strenge Verordnung verhandelt, die USA ziehen dann die Industrie an, die vor den Regeln aus Europa flieht – dann halte ich dagegen, dass die USA, trotz der schwierigen politischen Verhältnisse in Washington DC, durchaus in der KI-Regulierung mitziehen. Nur eben auf anderen Wegen.
Ich möchte noch darauf eingehen, warum aus meiner Sicht gerade kleine Unternehmen davon profitieren, dass Guidelines zu Gesetzen werden: Ich habe in den letzten drei Jahren mit vielen Startups darüber gesprochen, was Incentives sein könnten, freiwillige Guidelines zu nutzen. Für große ist das Argument ja meist: Wir können selbst am besten einschätzen, welche Maßnahmen am besten wirken. Wir haben die Experten für die Technologie an Bord und auch die besten JuristInnen in unseren Legal Teams, dass wir unsere Regeln selbst machen. Wenn wir die dann der Öffentlichkeit zeigen und auch befolgen, dann kann die Politik die übernehmen, und wir haben Standards geschaffen.
Bei kleinen Unternehmen ist das etwas anders. Von außen gesetzte Regeln sind für sie wichtige Wegweiser, sie ermöglichen ein einigermaßen level playing field und erlauben ihnen, ihre Kreativität sinnvoll zu nutzen und sicherere und bessere Produkte zu bauen. Entwickler bekommen die Zeit, ihre Systeme wirklich zu testen, bevor sie auf den Markt kommen, und auf hohe Qualität zu achten. Produktideen zu verfolgen, von denen schon deutlich wird, dass sie wenige Jahre später aufgrund der Schäden, die sie verursachen, illegal werden, sind keinen „Versuch wert“, sondern ein Risiko für ihre Finanzierung.
Und da sind wir beim nächsten wichtigen Stichwort: Das andere, was sie brauchen, sind Investoren, die diese politischen und gesellschaftlichen Zusammenhänge verstehen und mitdenken. Und denen klar ist, dass Investitionen in kurzlebige Geschäftsmodelle, die die gesellschaftliche Wirkung nicht mitdenken, sich langfristig rächen. In Investoren-Kreisen ist das Bewusstsein um all das, was in KI-Governance-Kreisen diskutiert wird, nicht sehr verbreitet. Für sie ist Regulierung das Risiko, nämlich für ihre Investition. Wenn es Investoren gelingt, zu verstehen, welche Innovationen wirklich Teil der Lösung sind und sie dahin Kapital lenken können, dann kann z.B. Venture Capital eine sehr positive und wichtige Rolle spielen.
ROI ist das Zauberwort, wir müssen es hinkriegen, dass es sich für Unternehmen lohnt, kreative und innovative Wege zu finden, die nicht wegzudiskutierenden, offensichtlichen und jetzt schon sichtbaren gesellschaftlichen Folgen von KI abzumildern, in gute Wege zu lenken und klare von der Politik gesetzten Grenzen zu respektieren.
Ich bin deshalb gar nicht pessimistisch, was die Aussichten für Tech MIT starken Regeln auch in Europa betrifft. Verantwortung ist gut. Kontrolle ist besser.
Die Hauptsache ist, dass die kleinen Hersteller eine Chance bekommen, die hohe Latte, die wir durch neue Gesetzgebung aufstellen, auch zu schaffen. Am besten mithilfe von durchdachten Investitionen, die Geschäftsmodelle in eine Richtung lenken, wo sie auch der Gesellschaft gut tun, und die es für die Unternehmen auch wirtschaftlich lohnenswert machen, KI mit gut getesteten qualitativ hochwertigen Produkten auf den europäischen Markt zu bringen.
Ich habe mich mit den geplanten Auflagen und wie sie für kleine KI-Startups umzusetzen wären in den vergangenen vier Jahren intensiv auseinandergesetzt, mit KI-EntwicklerInnen in den USA und in Europa darüber gesprochen, Audits von Algorithmen mitentwickelt, sie wieder und wieder im Einzelnen analysiert, auch in Bezug auf Grundlagenmodelle. Es dreht sich hier im wesentlichen um Testen und Qualitätssicherung sowie um Dokumentation zur späteren Überprüfung und Rechtssicherheit, falls doch etwas schiefgeht, wie sie für pharmazeutische Hersteller oder die Fintech-Branche schon gang und gäbe sind.
Und so müssen wir Large Language Models schon in ihrer Bauphase wie auch andere KI-Systeme in für uns BürgerInnen entscheidenden Lebensbereichen auch sehen: als Produkte, über deren Risiken und Nebenwirkungen wir aufgeklärt wurden und die einem entsprechenden Zulassungsprozedere unterliegen (wie eine Tablette Aspirin), und die uns dann, nach einer nach meiner Erfahrung gut zu erfüllenden und zur Größe und Wirkkraft des Unternehmens proportionalen und fairen Qualitätssicherung, in wichtigen Bereichen unseres Lebens den Vorteil bieten können, den wir uns von KI erhoffen.
Und dafür ist eine baldige Verabschiedung des European AI Act einschließlich der im Kompromiss der spanischen Ratspräsidentschaft erarbeiteten Auflagen für Grundlagenmodelle wichtig.