AI-Act: Gesetz will KI in sichere Bahnen lenken

AI-Act

Künstliche Intelligenz (KI) bietet jede Menge Chancen – aber birgt auch eine Vielzahl von Risiken. Kann es gelingen die Gefahr zu minimieren und das Potenzial von KI zu erhöhen? Das Europäische Parlament hat dazu jüngst mit großer Mehrheit für den AI-Act gestimmt – das erste Gesetz seiner Art weltweit, das sich mit der Regulierung von Künstlicher Intelligenz befasst. Ziel der neuen Vorschriften ist es, vertrauenswürdige KI in Europa und darüber hinaus zu fördern. Diese Verordnung wird sich künftig darauf auswirken, wie Unternehmen KI entwickeln, einsetzen und weiterentwickeln dürfen. Sie wurde zum Schutz der Sicherheit und individuellen Rechte der Menschheit konzipiert und soll die Transparenz und Rechenschaftspflicht erhöhen.  

KI verschiebt die Grenzen des Machbaren immer weiter. Sie hat bereits zahlreiche Bereiche unseres Lebens revolutioniert, sei es in der Gesundheitsversorgung, der Automobilindustrie oder im Finanzwesen. Doch während die Vorteile und Möglichkeiten von KI unbestreitbar sind, sind auch ihre potenziellen Risiken und Herausforderungen unübersehbar. Daher ist es von entscheidender Bedeutung zum Wohle der Gesellschaft, durch das neue Gesetz die verantwortungsvolle Entwicklung und Anwendung von KI zu fördern.

An wen richtet sich der AI-Act?

Der AI-Act adressiert in erster Linie alle Akteure, die KI-Systeme auf dem europäischen Markt anbieten – sei es durch Entwicklung oder Vertrieb. Dies umfasst nicht nur große Unternehmen, sondern auch Start-ups und Organisationen, die KI-Technologien anbieten und herstellen. Zusätzlich unterliegen auch Importeure, Händler und Nutzer dem Gesetz. Diese müssen aber Stand heute lediglich die erforderlichen Dokumentationsnachweise des Anbieters beschaffen. 

Kategorisierung von KI-Systemen nach ihrem Risikopotenzial

Der Gesetzesrahmen stellt unter anderem die Kategorisierung von KI-Systemen nach ihrem Risikopotenzial in den Fokus und schreibt entsprechende Maßnahmen vor, um die damit verbundenen Risiken zu kontrollieren und zu minimieren.

Im Rahmen des AI-Acts werden KI-Systeme in diese Risikostufen eingeteilt:

1. Inakzeptables Risiko: Diese Kategorie umfasst KI-Systeme, deren Einsatz ein unannehmbares Risiko für die Sicherheit, die Privatsphäre oder die Grundrechte der Menschen darstellt. Beispielsweise ein autonomes Waffensystem, das ohne menschliche Kontrolle Angriffe durchführen soll. Solche Systeme könnten schwerwiegende Schäden oder Verletzungen verursachen und sind daher aus ethischen oder rechtlichen Gründen inakzeptabel.

2. Hohes Risiko (Hochrisiko-KI-Systeme): Hierunter fallen KI-Systeme, die ein signifikantes Risiko für die Gesellschaft, die Umwelt oder die individuellen Rechte und Freiheiten der Menschen darstellen. Hierzu zählt zum Beispiel ein medizinisches Diagnosesystem, das fehlerhafte Diagnosen stellt und dadurch Menschenleben gefährdet. Diese Systeme können potenziell schwerwiegende Folgen haben und erfordern daher strenge Regulierung und Überwachung.

3. Begrenztes Risiko: Diese Risikostufe bezeichnet KI-Systeme, die ein geringeres Risiko für die Gesellschaft und die individuellen Rechte der Menschen darstellen. Obwohl sie potenziell zu Problemen führen können, sind die damit verbundenen Risiken begrenzt und können durch angemessene Sicherheitsvorkehrungen und Kontrollmechanismen minimiert werden. Dies könnte ein Chatbot zur Kundenbetreuung sein, der gelegentlich falsche Antworten liefert, jedoch keine schwerwiegenden Folgen mit sich bringt.

4. Niedriges Risiko: Hierunter fallen KI-Systeme, die nur ein sehr geringes Risiko für die Gesellschaft und die individuellen Rechte der Menschen darstellen. Sie erfordern eine weniger strenge Regulierung. Ein Beispiel dafür ist ein automatisches Übersetzungssystem für Texte, das gelegentlich ungenaue Übersetzungen liefert.

Anbieter von KI-Systemen stehen in der Beweispflicht

Um sicherzustellen, dass die Bestimmungen des AI-Acts eingehalten werden, sind Anbieter von KI-Systemen verpflichtet, ihre Technologien und die damit verbundenen Risiken eigenständig zu bewerten, zu dokumentieren und den Behörden zu melden. Dies erfordert eine enge Zusammenarbeit zwischen Unternehmen und Regulierungsbehörden, damit eine effektive Umsetzung der Vorschriften gewährleistet ist.

Unwissenheit schützt vor Strafe nicht

Verstöße gegen die Bestimmungen des AI-Acts können erhebliche Geldstrafen nach sich ziehen, die je nach Schwere des Verstoßes gestaffelt sind und in Millionenhöhe steigen können. Diese Strafen sollen sicherstellen, dass Unternehmen die Regeln einhalten und ihre KI-Systeme verantwortungsvoll entwickeln und einsetzen. Mittelständische Unternehmen und Start-ups werden dabei entsprechend den aktuellen Bestimmungen des Gesetzes mit geringeren Strafen belegt.

Unternehmen sollten sich zu ihrer eigenen Sicherheit rechtzeitig mit den Bestimmungen des Gesetzes befassen. Die Übergangsfrist räumt ausreichend Zeit für die Umsetzung und das Testen von Anwendungen ein.

Fazit: Insgesamt stellt der AI-Act einen bedeutsamen Schritt in Richtung einer verantwortungsvollen und ethischen Nutzung von KI dar. Durch die Schaffung eines klaren rechtlichen Rahmens wird nicht nur das Vertrauen in KI-Technologien gestärkt, sondern auch die Sicherheit und Rechte der Bürgerinnen und Bürger in Europa geschützt.

Nach oben scrollen