Die KI-Verordnung - Ist es noch zu früh, um KI zu regulieren?
Ersticken wir in der EU den Keim der KI-Technologie oder werden wir Vorreiter in der Regulierung?
Willkommen bei Tech & Legal! Heute mit Audiogrußwort:
Die EU arbeitet weiter an ihrer KI-Verordnung, um KI-Technologien zu regulieren. Das ruft bei einigen die Befürchtung hervor, dass diese Pläne den Markt so weit einschränken könnten, dass weder von außen noch von innen KI-Technologien nutzbar sind oder es unmöglich wird, solche zu entwickeln.
Doch warum sollte man denn KI überhaupt regulieren? Was ist das Ziel des KI-Verordnung und brauchen wir diese überhaupt? Ist es vielleicht am Ende einfach noch zu früh für eine gesetzliche Regulierung?
WIE WEIT IST DIE EU MIT DER KI-VERORDNUNG?
Bevor ich zur Hauptfrage komme, noch ein kleines Update zur KI-Verordnung. Aktuell befindet sich diese in den Trilogverhandlungen (Vermittlungsausschuss), was der letzte Schritt ist, bevor eine Verordnung in der dritten und letzten Lesung angenommen werden kann. Geschieht dies nicht, gilt der Gesetzesakt als gescheitert.
Es wird weiterhin über eine Menge Details und auch große Änderungen gestritten und die nächste EU-Wahl steht kurz vor der Tür. Es ist also nicht ganz unwahrscheinlich, dass eine Einigung länger dauern könnte. Große Streitpunkte sind die vorgesehenen Ausnahmen, der Umgang mit Generative AI (ChatGPT, Midjourney und Co.) sowie Definition und Abgrenzungen der einzeln genutzten Begrifflichkeiten.
Um was geht es bei der KI-Verordnung?
Die KI-Verordnung ist in erster Linie ein Schutzgesetz und soll EU-Bürger vor den “unabwägbaren” Folgen des unkontrollierten und vor allem undurchsichtigen Einsatzes von KI schützen. Einer der größten Aufhänger sind dabei auf staatlicher Seite Social-Scoring-Modelle oder andere KI-getriebene Überwachung- und Kontrollsysteme, welche bereits in anderen Ländern eingesetzt werden und auf privater Seite sollen Personen vor dem betrügerischen oder schädigenden Einsatz von KI geschützt werden.
Das sind jetzt nur die extremsten Ausprägungen. Es gibt unheimliche viele Einsatzmöglichkeiten von AI und allen ist gemein, dass sie inhärent schwer wahrnehmbar und noch schwerer nachvollziehbar sind. Das ist bei KI-Software, welche eher keinen bedeutenden Einfluss hat, relativ unbedeutend und wird umso bedeutender, umso intensiver der Einfluss des KI-Systems auf Personen werden könnte.
Demnach richten sich regulatorische Einschränkungen bis hin zu Verboten, je nachdem wie riskant der Einsatz eines KI-Systems sein könnte. Das ist ein wenig wie im Straßenverkehr, wenn ich einen LKW fahre unterliege ich höheren Sorgfaltspflichten als ein Fahrradfahrer.
Wenn somit also nicht gleich ein Verbot vorliegt, muss der Einsatz von KI-Systemen dokumentiert und transparent gemacht werden. Das kann für kleinere Unternehmen und die Wissenschaft bedeuten, dass die Kosten und der Aufwand zur Entwicklung oder Unterhaltung eines KI-System zu hoch wird und nicht mehr tragbar ist. Es sind jedoch Ausnahmen wie z.B. in Form von Reallaboren vorgesehen. (Umsetzung: Großes Streitthema!)
Die Haftung für KI-Systeme, wie bspw. bei verursachten Unfällen oder wirtschaftlichen Schäden wird wiederum nicht in der Verordnung geregelt und soll in einer gesonderten KI-Haftungsrichtlinie geregelt werden, welche jedoch im Gegensatz zur Verordnung noch in nationales Recht umgesetzt werden muss.
Sollten wir AI also nun regulieren?
Unbestritten hat AI ein großes Potential, die Welt um uns herum neu zu formen und das hat sie auch bereits getan, nur weniger öffentlichkeitswirksam als ChatGPT es vermochte. Betrachtet man also die Zeit vor ChatGPT (bis Nov 2022) kann man die berechtigte Frage stellen: Wie sehr war in diesem Zeitraum eine Regulierung von AI notwendig? Welche konkreten Schutzgüter waren bisher konkret durch den Einsatz von AI in Gefahr? Ich muss gestehen, mir war und ist wenig bewusst. Betrügerisches Handeln ob mit oder ohne Software war und ist auch vorher strafbar, automatisierte Entscheidungen waren und sind durch den Artikel 22 der DSGVO eingeschränkt bis unmöglich, wie die Schufa wohl gerade vor dem EUGH spürt und die Gefahren durch überhöhte Preise wie bei Amazon mittels Personal Pricing sind überschaubar.
Einzig staatliche Akteure, welche per Ausnahme dem Art. 22 DSGVO nicht unterliegen, erfahren eine notwendige Einschränkung, um Social Scoring- Modelle oder ähnlich diktatorisch anmutende Technologie in Europa zu untersagen. Nicht umsonst ist das Thema Social-Scoring-Verbot einer der treibenden Faktoren für die KI-Verordnung.
Einer der großen Regelungsinhalte der KI-Verordnung ist das Ziel, KI und ähnliche Technologien zu kontrollieren, indem man Verwender wie auch Hersteller umfangreiche Pflichten zur Dokumentation und Kontrolle der KI auferlegt, um eine menschliche Überwachung zu gewährleisten. Die der KI-Technologie inhärente Undurchsichtigkeit soll mittels Dokumentation, Überwachung und Transparenz entzaubert werden. Dies begründet sich jedoch aktuell nicht in einer konkreten Gefahr, sondern in einer abstrakten Vermutung einer möglichen Gefahr, welche von einer hoch entwickelten KI ausgehen könnte.
Interessant ist noch ein Vergleich zu einer anderen bahnbrechenden Technologie, welche nicht nur erhebliche Gefahren für Leib und Leben mit sich brachte, sondern auch noch einen erheblichen disruptiven Einfluss auf unser gesamtes Leben hatte: Das Auto.
Das Auto wurde zu Beginn des 20. Jahrhunderts immer beliebter, was dazu führte, dass es zu immer mehr Unfällen und großen Gefahren für alle Verkehrsteilnehmer kam. Nachdem die Gefahren überhand nahmen, wurde zunächst 1909 ein Gesetz erlassen, welche die Haftung bei Verkehrsteilnehmern regelte. Dies führte automatisch zu Veränderungen im Verhalten der Verkehrsteilnehmer, aber eine Regulierung des Verkehres erfolgte erst durch die StVO im Jahr 1934.
Ein direkter Vergleich mit der heutigen Zeit hinkt immer etwas. Gesetze werden erheblich schneller erlassen und man muss natürlich nicht warten, bis Gefahren sich unwiederbringlich manifestiert haben. Es spricht jedoch gegen eine ernste Gefahrenlage, wenn die Regulierung vor der Haftung gesetzlich geregelt wird. Eine Regulierung, die wir aktuell nur “erraten” können, was somit bedeutet, dass es passen kann oder einfach nur ein Hindernis darstellt.
Ich bin nicht gegen die Regulierung von KI, doch sollte sie sich zum aktuellen Zeitpunkt auf ein notwendiges Minimum konzentrieren, anstatt zu versuchen Gefahren zu regulieren, die man vermutet. Es wirkt ein wenig als würde man sich vor einer weltzerstörenden KI a la Skynet aus Terminator fürchten. Das vermittelt letztendlich den Eindruck, dass die EU eigentlich nicht weiß was sie tut.
Mein Eindruck ist, dass die EU große Probleme hat, bestehende Verordnungen später anzupassen und daher versucht, den Moment zu nutzen, um möglichst viel jetzt zu regeln, egal ob es passt oder nicht. Die ganzen Diskussionen um die Ausgestaltung kommt mir wie ein reiner Abnutzungskampf vor, in dem alle Akteure versuchen die Verordnung so klein wie möglich zu halten und die Ausnahmen so weit wie möglich zu ziehen.
Am Ende könnte dies bedeuten, dass wiederum die europäischen Gerichte die konkrete Ausgestaltung der Verordnung übernehmen, was nicht der Sinn demokratischer Strukturen ist. Schade, denn der Grundgedanke der KI-Verordnung ist der richtige.
ChatGPT kann jetzt sehen!
Das neue Modell GPT-4V ist nun freigeschaltet und das bedeutet nicht nur, dass man sich mal kurz ein Bild beschreiben lassen kann, sondern verschiedenste Analysen durchführen kann.
Hier sind ein paar Use Cases:
Beschreiben - Einfach erklären lassen, was auf dem Bild zu sehen ist (Bsp.: Was siehst du auf dem Foto?)
Interpretieren - Den tieferen Kontext eines Bildes erläutern lassen, also eine Ebene tiefer gehen als nur beschreiben. (Bsp.: Einen Bauplan erläutern lassen oder ein Schriftstück auslesen und erklären.)
Kritisieren - Empfehlungen oder Kritik an Bildern nutzen, um dieses zu verbessern (Bsp.: Bitte bewerte die Farbzusammenstellung in meinem Bild)
Transformieren - Ganze Bilder (auch Screenshots) in Code oder Designs umwandeln lassen. (Bsp.: Erstelle aus diesem Screenshot eine Webseite)
Extrahieren - Objekte oder ganze Strukturen aus einem extrahieren (Bsp.: Fasse alle Daten auf der Fahrerlaubnis zusammen.)
Unterstützen - Lösungen mittels Bildern finden (Bsp.: Finde Unfallspuren an diesem Auto.)
Bewerten - Subjektive Bewertungen mittels Bildern erzeugen (Bsp.: Welches Thumbnail ist besser für das Video?)
Ich bin schon echt gespannt, was noch für interessante Use Cases gefunden werden. (Der Original Post von mir war auf LinkedIn)
Die Idee ist von diesem Twitter Post.
Und noch viele andere Idee wie man ChatGPT-4V nutzen kann, findet man auf über 166 Seiten hier.
👍👎 Feedback Corner
❤️ Sharing is Caring
Ausgabe teilen:
Newsletter teilen:
Newsletter abonnieren:
📊 Statistiken
Newsletter Nummer: 06
Empfangende Personen: 129 ↗️
Wörteranzahl Newsletter: 1.310
Beiträge: 2
Sätze: 86
Lesezeit: ca. 6 Minuten