Am 21. Mai 2024 wurde der EU AI Act beschlossen, um die KI zu regulieren. KI-Systeme sollen künftig nach Risikoklassen eingeteilt werden. Hochrisiko-Anwendungen unterliegen dabei strengeren Auflagen als Systeme mit niedrigem Risiko.Doch wirklich schmerzhaft einschränken möchte man anscheinend doch niemanden. Mächtige Interessengruppen können immer noch gesetzliche Lücken nutzen, um ihre Geschäftsmodelle abzusichern.
Entscheidend dabei ist die Kategorisierung.Die Einstufung als vermeintlich geringes Risiko zahlt sich aus, wenn es gelingt, das eigene Geschäftsmodell in die niedrigste Risikoklasse einzuordnen. Gerade die Firmen aber, die als «geringes Risiko» eingestuft werden, dringen in unsere Privatsphäre ein und eröffnen ein großes Potenzial für Manipulation durch gezielte Werbung. Die erhobenen Daten könnten ausserdem von Drittanbietern oder sogar staatlichen Stellen genutzt werden. Ohne stärkere Regulierung können Unternehmen zudem umfassende Verhaltensprognosen ihrer Nutzer erstellen. Selbstlernende Systeme, die sich eigenständig weiterentwickeln, könnten ausserdem innerhalb kürzester Zeit ihre Risikostufe verändern, ohne dass eine erneute Prüfung erforderlich wäre. Schwachstellen im EU AI Act liegen auch im Bereich autonomer Waffensysteme; darin dass die Vorschriften ausschliesslich für Unternehmen mit Sitz in der EU gelten; Intransparenz, denn Unternehmen können sich auf das Betriebsgeheimnis berufen und die Möglichkeit der Massenüberwachung.
Der EU AI Act ist ein Schritt in die richtige Richtung, weist jedoch weitreichende Mängel auf. Wenn technologische Entwicklungen rasant voranschreiten, muss man sicherstellen, dass ethische Grundsätze und der Schutz der Menschenrechte nicht auf der Strecke bleiben.
Lesen Sie im Zeitpunkt auch:
Sind wir lernfähig? In der EU soll die KI erstmals reguliert werden | Zeitpunkt