Künst­li­che Intel­li­genz (KI) bringt rasend schnell Inno­va­tio­nen in vie­le Bran­chen, aber KI birgt auch gro­ße Gefah­ren. Daher hat die EU am 1. August 2024 den Arti­fi­ci­al Intel­li­gence Act (AI Act) ver­ab­schie­det, um einen recht­li­chen Rah­men für alle Markt­teil­neh­mer zu schaffen.

Der AI Act wur­de ein­ge­führt, um poten­zi­el­le Risi­ken der künst­li­chen Intel­li­genz zu mini­mie­ren, hier­bei geht es pri­mär um Dis­kri­mi­nie­rung und Mani­pu­la­ti­on, z.B.

  • KI Ergeb­nis­se aus vor­ein­ge­nom­me­nen Daten­sät­zen, den soge­nann­ten KI Bias. Bei­spiels­wei­se sind das geschlech­ter­spe­zi­fi­sche oder ras­sen­spe­zi­fi­sche Beru­fe und Tätig­kei­ten, die so antrai­niert die­se Merk­ma­le in KI unter­stüt­zen Bewer­bungs­sys­te­men anwen­den. Aber auch eine Kre­dit­be­ur­tei­lung, wenn ein Mensch in einem ärme­ren Stadt­vier­tel lebt.
  • Wenn KI genutzt wird, um Men­schen zu mani­pu­lie­ren oder zu täuschen.
  • Wenn KI für die unrecht­mä­ßi­ge Über­wa­chung von Men­schen genutzt wird.

Für wen gilt der AI Act?

Der AI Act unter­schei­det sechs Grup­pen von Akteu­ren, für die der AI Act anzu­wen­den ist:

  1. Anbie­ter – Ent­wi­ckeln KI-Sys­te­me und brin­gen die­se unter eige­nem Namen auf den Markt
  2. Betrei­ber – Nut­zen KI-Sys­te­me oder inte­grie­ren die­se in inter­ne Pro­zes­se inner­halb der EU
  3. Pro­dukt­her­stel­ler – Bie­ten KI-Anwen­dun­gen oder ver­trei­ben die­se unter eige­nem Namen in der EU, auch wenn dies nur ein Bestand­teil eines Pro­duk­tes ist.
  4. Bevoll­mäch­tig­te – In der EU nie­der­ge­las­se­ne Ver­tre­ter von aus­län­di­schen KI-Anbie­tern (sie­he 1.)
  5. Ein­füh­rer – die­se brin­gen KI-Sys­te­me von aus­län­di­schen KI-Anbie­tern auf den EU Markt
  6. Händ­ler – ver­trei­ben KI-Pro­duk­te an Unter­neh­men oder End­nut­zer in der EU

Unser Arti­kel fokus­siert sich auf die Anfor­de­run­gen und Pflich­ten der Betrei­ber, also alle Unter­neh­men die bestehen­de KI-Sys­te­me nut­zen oder in inter­ne Pro­zes­se inte­grie­ren. Dazu zählt auch, wenn ein KMU Unter­neh­men die Nut­zung von ChatGPT oder Micro­soft Copi­lot dul­det und die Mit­ar­bei­te­rIn­nen die­se selbst­stän­dig in ihre täg­li­che Arbeit integrieren.

Defi­ni­ti­on des Begrif­fes „Betrei­ber“ im AI Act:

Betrei­ber“ eine natür­li­che oder juris­ti­sche Per­son, Behör­de, Ein­rich­tung oder sons­ti­ge Stel­le, die ein KI-Sys­tem in eige­ner Ver­ant­wor­tung ver­wen­det, es sei denn, das KI-Sys­tem wird im Rah­men einer per­sön­li­chen und nicht beruf­li­chen Tätig­keit verwendet.

Ach­tung! Ein Unter­neh­men wird nicht erst zum Betrei­ber, wenn man ein KI-Sys­tem selbst „betreibt“, son­dern auch wenn man bereit­ge­stell­te KI-Sys­te­me z.B. in der Cloud nutzt.

Der risi­ko­ba­sier­te Ansatz des AI Acts

Der AI Act defi­niert vier Risi­ko­stu­fen, die mit kon­kre­ten Pflich­ten je Akteur ver­bun­den sind.

Risikobasierter Ansatz AI Act

Was genau sind die ver­bo­te­nen KI-Anwendungen?

Der Arti­kel 5 des AI Acts regelt die ver­bo­te­nen Prak­ti­ken im KI-Bereich, dazu zäh­len KI-Sys­te­me die:

  1. unter­schwel­li­ge Beein­flus­sung oder mani­pu­la­ti­ve Tech­ni­ken nut­zen, um das Ver­hal­ten von Per­so­nen wesent­lich zu ver­än­dern und mit hin­rei­chen­der Wahr­schein­lich­keit ein erheb­li­cher Scha­den zuge­fügt wird,
  2. schutz­be­dürf­ti­ge Per­so­nen oder Grup­pen aus­nut­zen oder einen erheb­li­chen Scha­den zufügen,
  3. eine Schlech­ter­stel­lung oder Benach­tei­li­gung von Per­so­nen auf­grund ihres sozia­len Ver­hal­tens, ihrer per­sön­li­chen Eigen­schaf­ten oder ihrer Per­sön­lich­keits­merk­ma­le bringen,
  4. eine Pro­fi­lie­rung von Per­so­nen in Bezug auf die mög­li­che Bege­hung von Straf­ta­ten durchführt,
  5. Daten­ban­ken zur Gesichts­er­ken­nung aus dem Inter­net oder aus Über­wa­chungs­auf­nah­men erstellt,
  6. Ablei­tung von Emo­tio­nen von Per­so­nen am Arbeits­platz oder Bil­dungs­ein­rich­tun­gen durchführt,
  7. Eine bio­me­tri­sche Kate­go­ri­sie­rung von Per­so­nen auf­grund von bio­me­tri­schen Daten, der Ras­se, der poli­ti­schen Ein­stel­lung, ihrer Gewerk­schafts­zu­ge­hö­rig­keit, ihrer reli­giö­sen oder welt­an­schau­li­chen Über­zeu­gung, ihres Sexu­al­le­bens oder sexu­el­le Aus­rich­tung ermöglichen,
  8. eine bio­me­tri­sche Echt­zeit-Fern­iden­ti­fi­ka­ti­on in öffent­lich zugäng­li­chen Räu­men ermöglichen,

Eini­ge der ver­bo­te­nen Prak­ti­ken haben Aus­nah­men z.B. bei medi­zi­ni­schen Grün­den oder für die Strafverfolgung.

Wel­che KI-Sys­te­me fal­len unter die Hochrisiko-KI?

Im Arti­kel 6 des AI Acts sind die Anwen­dun­gen zur Ein­stu­fung als Hoch­ri­si­ko-KI-Sys­tem definiert:

  1. KI-Sys­te­me die als Sicher­heits­bau­stein in Pro­duk­te fal­len, die im Anhang I des AI Acts gelis­tet sind, hier geht es i.d.R. um Gefah­ren für Leib und Leben [Art. 6 (1) a) und b)]
  2. Bio­me­tri­sche Fernidentifizierungssysteme
  3. Bio­me­tri­sche Kate­go­ri­sie­rung nach sen­si­blen oder geschütz­ten Attri­bu­ten oder Merkmalen
  4. KI-Sys­te­me zur Emotionserkennung
  5. Ein­satz als Sicher­heits­bau­teil in kri­ti­schen Infra­struk­tu­ren des Stra­ßen­ver­kehrs, Wasser‑, Gas‑, Wär­me- oder Stromversorgung
  6. Für die all­ge­mei­ne oder beruf­li­che Bil­dung in einer Viel­zahl an Anwendungsbereichen
  7. Für die Bewer­tung von Ein­stel­lun­gen, Beschäf­ti­gung, Per­so­nal­ma­nage­ment und dem Zugang zur Selbstständigkeit
  8. Zugang und Inan­spruch­nah­me von grund­le­gen­den Diens­ten und Leis­tun­gen, u.a. Unter­stüt­zungs­leis­tun­gen, Gesund­heits­diens­ten, Kre­dit­wür­dig­keit, Boni­täts­be­wer­tung, Bewer­tung von Lebens- und Kran­ken­ver­si­che­run­gen, Bewer­tung von Notrufen
  9. KI-Sys­te­me für die Strafverfolgung
  10. beim Ein­satz für Migra­ti­on, Asyl und Grenzkontrolle
  11. in Ein­satz für die Rechts­pfle­ge (Jus­tiz­be­hör­de) und demo­kra­ti­schen Pro­zes­sen wie Wahr­ver­hal­ten und Wahrrecht

Die Details und mög­li­che Aus­nah­men sind dem Arti­kel 6 des AI Acts zu entnehmen.

Es gibt sehr hohe Anfor­de­run­gen für Betrei­ber von Hoch­ri­si­ko-KI. Die Anfor­de­run­gen sind im Arti­kel 26 „Pflich­ten der Betrei­ber von Hoch­ri­si­ko-KI-Sys­te­men“ des AI Acts gelis­tet. Hier­zu zäh­len unter anderem:

  • Ver­wen­dung gemäß Anleitung
  • Risi­ko­ma­nage­ment und Kontrolle
  • Auf­zeich­nungs­pflich­ten
  • Ver­pflich­tung zur mensch­li­chen Aufsicht
  • Schu­lung des Personals
  • Pro­to­kol­lie­rung (zumind. 6 Monate)
  • Mel­dung von Vor­fäl­len an die zustän­di­gen natio­na­len Behörden

Trans­pa­renz­pflich­ten – Bei­spie­le für KI-Sys­te­me mit begrenz­tem Risiko

Der Arti­kel 50 „Trans­pa­renz­pflich­ten für Anbie­ter und Betrei­ber bestimm­ter KI-Sys­te­me“ lis­tet zahl­rei­che Anfor­de­run­gen auch für die Betrei­ber. Hier eini­ge Beispiele:

Arti­kel 50 (4) Betrei­ber eines KI-Sys­tems, das Bild‑, Ton- oder Video­in­hal­te erzeugt oder mani­pu­liert, die ein Deepf­ake sind, müs­sen offen­le­gen, dass die Inhal­te künst­lich erzeugt oder mani­pu­liert wurden.

Wobei „Deepf­akes“ im AI Act nicht unmit­tel­bar nega­tiv belegt sind:

Deepf­ake“ einen durch KI erzeug­ten oder mani­pu­lier­ten Bild‑, Ton- oder Video­in­halt, der wirk­li­chen Per­so­nen, Gegen­stän­den, Orten, Ein­rich­tun­gen oder Ereig­nis­sen ähnelt und einer Per­son fälsch­li­cher­wei­se als echt oder wahr­heits­ge­mäß erschei­nen würde;

Für Infor­ma­tio­nen mit öffent­li­chem Inter­es­se gibt es eine wei­te­re Transparenzregel:

Arti­kel 50 (4) Betrei­ber eines KI-Sys­tems, das Text erzeugt oder mani­pu­liert, der ver­öf­fent­licht wird, um die Öffent­lich­keit über Ange­le­gen­hei­ten von öffent­li­chem Inter­es­se zu infor­mie­ren, müs­sen offen­le­gen, dass der Text künst­lich erzeugt oder mani­pu­liert wurde.

Was sind GPAI (Gene­ral-Pur­po­se AI) Sys­te­me und was ist dabei zu beachten?

Laut EU AI Act bezeich­net GPAI ein KI-Sys­tem, das für eine Viel­zahl von Auf­ga­ben ein­setz­bar ist – nicht auf eine spe­zi­fi­sche Anwen­dung beschränkt. Es kann für unter­schied­li­che Zwe­cke ange­passt oder wei­ter­ent­wi­ckelt werden.

Bei­spie­le:

  • Gro­ße Sprach­mo­del­le (wie GPT‑4, Clau­de, Gemi­ni etc.)
  • Bild­ge­ne­rie­rungs­mo­del­le (z.B. DALL·E, Midjourney)
  • Mul­ti­mo­da­le KI-Sys­te­me (Text, Bild, Video kombiniert)
  • Basis­mo­del­le, auf denen vie­le nach­ge­la­ger­te KI-Anwen­dun­gen aufbauen

Die­se Model­le haben ein hohes Poten­zi­al, weit­rei­chen­de Aus­wir­kun­gen auf die Demo­kra­tie & Mei­nungs­bil­dung (z.B. Des­in­for­ma­ti­on), auf wirt­schaft­li­che Macht­ver­hält­nis­se, sowie auf Sicher­heit, Grund­rech­te und gesell­schaft­li­che Pro­zes­se. Der Gesetz­ge­ber will daher sicher­stel­len, dass die­se Sys­te­me ver­ant­wor­tungs­voll trai­niert und nicht miss­braucht wer­den kön­nen, sowie trans­pa­rent sind.

Das neue EU AI Office (Teil der Euro­päi­schen Kom­mis­si­on) über­nimmt die Auf­sicht über GPAI-Model­le, ins­be­son­de­re jene mit sys­te­mi­schem Risi­ko. GPAI Sys­te­me und deren Anfor­de­run­gen für Anbie­ter sind nicht Teil die­ses Artikels.

Müs­sen alle Mit­ar­bei­ter die KI nut­zen eine KI-Kom­pe­tenz­schu­lung machen?

Im Rah­men der EU-KI-Ver­ord­nung – dem AI Act – ist eine KI-Kom­pe­tenz­schu­lung ver­pflich­tend, sobald sie Hoch­ri­si­ko KI-Sys­te­me ein­set­zen. Die­se Schu­lung ist ein zen­tra­ler Bestand­teil der Anfor­de­rung an Betrei­ber, spe­zi­ell in Hin­blick auf den siche­ren, rechts­kon­for­men und ethi­schen Einsatz.

Defi­niert ist die KI-Kom­pe­tenz in Arti­kel 4:

Die Anbie­ter und Betrei­ber von KI-Sys­te­men ergrei­fen Maß­nah­men, um nach bes­ten Kräf­ten sicher­zu­stel­len, dass ihr Per­so­nal und ande­re Per­so­nen, die in ihrem Auf­trag mit dem Betrieb und der Nut­zung von KI-Sys­te­men befasst sind, über ein aus­rei­chen­des Maß an KI-Kom­pe­tenz ver­fü­gen, wobei ihre tech­ni­schen Kennt­nis­se, ihre Erfah­rung, ihre Aus­bil­dung und Schu­lung und der Kon­text, in dem die KI-Sys­te­me ein­ge­setzt wer­den sol­len, sowie die Per­so­nen oder Per­so­nen­grup­pen, bei denen die KI-Sys­te­me ein­ge­setzt wer­den sol­len, zu berück­sich­ti­gen sind.

Gere­gelt ist die KI-Kom­pe­tenz­schu­lung in Arti­kel 26 (2) des AI Acts, jedoch gilt die­se Pflicht nur für Betrei­ber von Hochrisiko-KI-Systemen.

Die Betrei­ber über­tra­gen natür­li­chen Per­so­nen, die über die erfor­der­li­che Kom­pe­tenz, Aus­bil­dung und Befug­nis ver­fü­gen, die mensch­li­che Auf­sicht und las­sen ihnen die erfor­der­li­che Unter­stüt­zung zukommen.

Wel­che Fris­ten müs­sen von Betrei­bern ein­ge­hal­ten werden?

Im AI Act sind unter­schied­li­che Fris­ten defi­niert, die zum einen für die Behör­den selbst und die natio­na­len Umset­zun­gen gel­ten, aber auch für die Anbie­ter der gro­ßen Gene­ral-Pur­po­se KI-Sys­te­me (GPAI). Hier eine Zusam­men­fas­sung der Fris­ten für die Betrei­ber von KI-Systemen:

Fristen für Betrieber - AI Act

Ver­ein­fach­te Zusammenfassung

Die EU hat über den EU AI Act ent­schie­den, Pflich­ten und Auf­la­gen an das Risi­ko zu kop­peln, das von einem KI-Sys­tem für Grund­rech­te, Gesund­heit, Sicher­heit oder den Rechts­staat ausgeht:

Risi­koklas­se Bei­spie­le Regu­la­to­ri­sche Pflichten
Unan­nehm­ba­res Risiko Social Scoring, mani­pu­la­ti­ve KI Ver­bo­ten!
Hohes Risi­ko KI im Justiz‑, Gesundheits‑, Finanz- oder Bildungsbereich Stren­ge Auf­la­gen, z.B. Schu­lun­gen, Risi­ko­ma­nage­ment, Dokumentation
Begrenz­tes Risiko Chat­bots, Deepfakes Trans­pa­renz­pflich­ten
Mini­ma­les Risiko Pro­duk­ti­ons­stei­ge­rung, Spam­fil­ter, Spiele-KI Kei­ne spe­zi­fi­schen Auflagen