Skip to main content

Das Know-How.

Seminare, Schulungen, Ausbildungen und Trainings

AI Act

Definition

Der AI Act (kurz für Artificial Intelligence Act) ist die erste umfassende Regulierung von Künstlicher Intelligenz (KI) weltweit. Er wurde von der Europäischen Union verabschiedet, um den Einsatz von KI sicher, transparent und menschenorientiert zu gestalten.

Der AI Act ist eine EU-Verordnung, die am 1. August 2024 in Kraft getreten ist. Sie verfolgt einen risikobasierten Ansatz und unterteilt KI-Systeme in vier Kategorien:

  1. Unzulässige KI-Systeme: Diese stellen ein inakzeptables Risiko dar und sind verboten. Dazu gehören z. B. Social Scoring durch staatliche Stellen oder Echtzeit-Biometrieüberwachung im öffentlichen Raum (mit wenigen Ausnahmen).
  2. Hochrisiko-KI-Systeme: Dazu zählen KI-Anwendungen in sensiblen Bereichen wie Bildung, Personalmanagement, Strafverfolgung oder Zugang zu Sozialleistungen. Für sie gelten strenge Vorgaben hinsichtlich Transparenz, Risikomanagement, Dokumentation und menschlicher Aufsicht.
  3. KI-Systeme mit besonderen Transparenzanforderungen: Beispiele sind Chatbots oder KI-generierte Inhalte. Nutzerinnen und Nutzer müssen hier klar erkennen können, dass sie mit einer Maschine interagieren oder dass Inhalte künstlich erzeugt wurden.
  4. KI-Systeme mit minimalem Risiko: Diese Systeme, z. B. viele KI-Anwendungen im Bereich Unterhaltung oder E-Mail-Autovervollständigung, unterliegen keinen spezifischen gesetzlichen Anforderungen, können sich aber freiwilligen Verhaltenskodizes anschließen.

Welche Ziele verfolgt der AI Act?

Der AI Act verfolgt mehrere zentrale Ziele:

Schutz der Grundrechte

Vermeidung von Diskriminierung, Wahrung der Privatsphäre und Schutz der persönlichen Freiheit.

Förderung von Vertrauen

Sicherstellung, dass KI-Systeme transparent, nachvollziehbar und verlässlich sind.

Unterstützung von Innovation

Schaffung eines einheitlichen Rechtsrahmens für den Binnenmarkt.

Verantwortungsvoller Einsatz

Förderung einer menschenzentrierten, ethischen und nachhaltigen KI-Entwicklung.

Zeitlicher Ablauf – wann gelten welche Regeln?

Die Umsetzung erfolgt schrittweise, um Unternehmen und Behörden genügend Vorbereitungszeit zu geben:

2. Februar 2025: Verbot von KI-Systemen mit inakzeptablem Risiko tritt in Kraft.

2. August 2025: Governance-Regeln für KI-Modelle mit allgemeinem Verwendungszweck (z. B. große Sprachmodelle) werden verbindlich.

2. August 2026: Die meisten Vorschriften, insbesondere für Hochrisiko-KI, gelten ab diesem Zeitpunkt.

2. August 2027: Spezifische Regelungen für KI-Systeme, die in bereits regulierte Produkte (wie Medizinprodukte oder Maschinen) integriert sind, werden wirksam.

Internationale Perspektive

Mit dem AI Act nimmt die EU eine Vorreiterrolle in der globalen KI-Regulierung ein. Während Länder wie die USA einen eher fragmentierten Ansatz verfolgen (oft mit individuellen Regeln auf Bundesstaatenebene), setzt die EU mit dem AI Act einheitliche, verbindliche Standards.

Der AI Act gilt daher vielen als Blaupause für internationale Regulierungsansätze – vergleichbar mit der DSGVO im Bereich Datenschutz.

Was bedeutet das für Unternehmen?

Unternehmen, die KI-Systeme entwickeln oder einsetzen, müssen:

  • ihre Systeme gemäß der EU-Risikokategorien einstufen,
  • die jeweils geltenden Anforderungen erfüllen (z. B. Risikoanalysen, Transparenzpflichten, technische Dokumentation),
  • und ggf. ihre Compliance-Prozesse und Produktentwicklungen anpassen.

Das Ziel: KI verantwortungsvoll nutzen; im Sinne von Gesellschaft, Verbraucherschutz und technologischer Innovation.