Angrei­fer haben eine neue Geheim­waf­fe: Gene­ra­ti­ve Künst­li­che Intel­li­genz (KI). Täu­schend ech­te Deepf­ake-Vide­os, per­fekt for­mu­lier­te Phis­hing-Mails und KI-gene­rier­te Schad­soft­ware stel­len jeden CISO vor nie dage­we­se­ne Her­aus­for­de­run­gen. Laut einer aktu­el­len Stu­die der KPMG1 waren 54 % der Unter­neh­men in Öster­reich in den letz­ten 12 Mona­ten Opfer von Des­in­for­ma­ti­ons­kam­pa­gnen mit KI-gene­rier­ten Inhal­ten. Zusätz­lich haben sich Deepf­ake-Angrif­fe auf öster­rei­chi­sche Unter­neh­men im Jahr 2024 im Ver­gleich zum Vor­jahr mehr als ver­dop­pelt1. Die Ten­denz? Stei­gend.

Für Sie bedeu­tet das: Her­kömm­li­che Abwehr­stra­te­gien grei­fen nicht mehr. Die neu­en, KI-basier­ten Angriffs­tech­ni­ken sind schnel­ler, intel­li­gen­ter und schwe­rer zu erken­nen als je zuvor. Wer noch glaub, dass klas­si­sche Fire­walls und Spam­fil­ter aus­rei­chen, um sein oder ihr Unter­neh­men zu schüt­zen, könn­te schon bald selbst Opfer eines KI-Angriffs werden.

[1] https://kpmg.com/at/de/home/insights/2024/04/cybersecurity-studie-2024.html

Deepf­akes, KI-Phis­hing, auto­ma­ti­sier­te Exploits – die unsicht­ba­re Gefahr für Ihr Unternehmen

Gene­ra­ti­ve KI ermög­licht es bös­wil­li­gen Akteu­ren, Angrif­fe in einer Qua­li­tät und Geschwin­dig­keit aus­zu­füh­ren, die bis dato undenk­bar war. Unter­neh­men wer­den neu­ar­ti­gen Bedro­hun­gen aus­ge­setzt, die nicht mehr nur auf tech­no­lo­gi­sche Schwach­stel­len, son­dern gezielt auf Emo­tio­nen, sprich Men­schen und deren Ent­schei­dungs­pro­zes­se abzie­len. Ein Bei­spiel dafür sind Deepf­ake-Tech­no­lo­gien, die sich in den letz­ten Jah­ren stark wei­ter­ent­wi­ckelt haben. Heut­zu­ta­ge reicht eine Sprach­pro­be oder ein öffent­lich zugäng­li­ches Video, um täu­schend ech­te Fäl­schun­gen zu erzeugen:

  • CEO-Fraud durch Iden­ti­täts­ma­ni­pu­la­ti­on: CEO-Fraud erreicht ins­be­son­de­re durch die Kom­bi­na­ti­on aus Video- und Audio-Deepf­akes eine neue Dimen­si­on – Mit­ar­bei­ter erhal­ten schein­bar per­sön­li­che Anwei­sun­gen ihres Vor­ge­setz­ten, ohne zu ahnen, dass es sich um eine simu­lier­te Stim­me oder ein mani­pu­lier­tes Video han­delt und geben im guten Glau­ben Über­wei­sun­gen frei oder ver­trau­li­che Infor­ma­tio­nen preis.
  • Mani­pu­la­ti­on von Authen­ti­fi­zie­rungs­me­cha­nis­men: Auch bio­me­tri­sche Sicher­heits­lö­sun­gen, die auf Stim­me oder Gesichts­er­ken­nung set­zen, sind durch gene­ra­ti­ve KI gefähr­det. Deepf­ake-Audio­auf­nah­men und ver­än­der­te Gesichts­auf­nah­men kön­nen Sicher­heits­sys­te­me täu­schen und moder­ne Erken­nungs­al­go­rith­men umgehen.
  • KI-gesteu­er­te Des­in­for­ma­ti­on: Mit gene­ra­ti­ver KI lässt sich Des­in­for­ma­ti­on ein­fach und in gro­ßem Maß­stab ver­brei­ten. Auch Unter­neh­men wer­den zuneh­mend Ziel­schei­be von geziel­ten Kam­pa­gnen, die deren Image beschä­di­gen oder poli­ti­sche bzw. wirt­schaft­li­che Unsi­cher­heit aus­lö­sen sollen.
  • KI-opti­mier­tes Phis­hing: Phis­hing-Mails, die noch bis vor kur­zer Zeit durch auf­fal­lend schlech­te Gram­ma­tik und merk­wür­di­ge For­mu­lie­run­gen auf­fie­len, sind inzwi­schen nahe­zu per­fekt. Gene­ra­ti­ve KI kann den Schreib­stil von Kol­le­gen, Vor­ge­setz­ten oder Kun­den imi­tie­ren und damit gezielt auf eine Ziel­per­son zuge­schnit­te­ne Nach­rich­ten erstel­len. Selbst gut geschul­te Mit­ar­bei­ter tun sich schwer, ech­te und gefälsch­te Nach­rich­ten zu unterscheiden.
  • Auto­ma­ti­sier­te Mal­wa­re-Gene­rie­rung: KI revo­lu­tio­niert wei­ters die Art, wie Mal­wa­re ent­wi­ckelt wird. Wo frü­her ver­sier­te Hacker mit tief­ge­hen­dem Pro­gram­mier­wis­sen erfor­der­lich waren, reicht nun der geziel­te Ein­satz von gene­ra­ti­ver KI, um rela­tiv schnell funk­tio­na­len Schad­code zu erzeu­gen oder bestehen­de Mal­wa­re anzu­pas­sen. Dadurch kön­nen selbst uner­fah­re­ne Akteu­re gefähr­li­che Exploits gene­rie­ren und Sicher­heits­lü­cken ausnutzen.
  • Zero-Day-Exploits in Rekord­zeit: Nicht nur zur Gene­rie­rung von Mal­wa­re, auch zur sys­te­ma­ti­schen Echt­zeit-Ana­ly­se von unbe­kann­ten Soft­ware-Schwach­stel­len kann gene­ra­ti­ve KI ein­ge­setzt wer­den. Erkann­te Schwach­stel­len kön­nen anschlie­ßend auto­ma­ti­siert aus­ge­nutzt und Schad­code inner­halb von Sekun­den ange­passt werden.

Der AI-Act: Euro­pas Ver­such zur Regu­lie­rung von KI-Systemen

Die Euro­päi­sche Uni­on reagiert auf die wach­sen­de Bedro­hungs­la­ge mit dem Ver­such, den Ein­satz künst­li­cher Intel­li­genz zu regu­lie­ren. Mit dem 2024 in Kraft getre­te­nen und sich der­zeit in der Über­gangs­pha­se befind­li­chen AI-Act wur­de ein regu­la­to­ri­scher Rah­men geschaf­fen, der kla­re Leit­li­ni­en für den Ein­satz und die Sicher­heit von KI setzt. Für CIS­Os bedeu­tet das aller­dings, dass beim Ein­satz von KI-Sys­te­men neben den erwähn­ten Bedro­hun­gen zusätz­lich noch Com­pli­ance-Aspek­te beach­tet wer­den müs­sen. Um eine risi­ko­ba­sier­te Bewer­tung zu ermög­li­chen, unter­teilt der AI-Act KI-Sys­te­me in ins­ge­samt vier Risikostufen:

  • Inak­zep­ta­bles Risi­ko: KI-Anwen­dun­gen, die eine kla­re Gefahr für grund­le­gen­de Men­schen­rech­te, Sicher­heit oder Demo­kra­tie dar­stel­len, sind in der EU ver­bo­ten. Dazu gehö­ren bei­spiels­wei­se sozia­le Bewer­tungs­sys­te­me und KI-basier­te Mani­pu­la­ti­ons­tech­ni­ken zur intrans­pa­ren­ten Beein­flus­sung von Personen.
  • Hohes Risi­ko: KI-Anwen­dun­gen mit hohem Risi­ko für Gesund­heit, Sicher­heit oder Grund­rech­te von Per­so­nen­grup­pen müs­sen ein funk­tio­nie­ren­des Risi­ko­ma­nage­ment­sys­tem nach­wei­sen, Daten­ma­nage­ment­an­for­de­run­gen ein­hal­ten, die tech­ni­sche Doku­men­ta­ti­on aktu­ell hal­ten, Ereig­nis­se pro­to­kol­lie­ren, trans­pa­ren­te Infor­ma­tio­nen für Nut­zer bereit­stel­len, durch Men­schen über­wacht wer­den und ein ange­mes­se­nes Maß an Cyber­si­cher­heit erfül­len. Hier­un­ter fal­len u.a. Sys­te­me, die in kri­ti­schen Infra­struk­tu­ren, in der Bil­dung als Prü­fungs­be­ur­tei­lungs­sys­tem, zur Fil­te­rung von Bewer­bun­gen oder bei bio­me­tri­schen Iden­ti­fi­zie­run­gen ein­ge­setzt werden.
  • Begrenz­tes Risi­ko: Hier­zu zäh­len KI-Anwen­dun­gen, die durch direk­te Inter­ak­ti­on mit Men­schen gewis­se Risi­ken ber­gen, wie bei­spiels­wei­se Chat­bots oder bio­me­tri­sche Kate­go­ri­sie­rungs­sys­te­me. In Zukunft müs­sen Anbie­ter daher sicher­stel­len, dass die Nut­zer klar dar­über infor­mie­ren wer­den, dass sie mit einem KI-Sys­tem interagieren.
  • Nied­ri­ges Risi­ko: Für in die­se Risi­koklas­se fal­len­de KI-Anwen­dun­gen, wie auto­ma­ti­sier­te Über­set­zungs­tools oder Spam-Fil­ter, sind kei­ne recht­li­chen Anfor­de­run­gen vor­ge­se­hen, es ist aller­dings eine tech­ni­sche Doku­men­ta­ti­on und Risi­ko­be­wer­tung notwendig.

Sechs Sofort­maß­nah­men für CISOs

Dies stellt CIS­Os vor eine dop­pel­te Her­aus­for­de­rung: Zum einen müs­sen sie ihre Unter­neh­men vor KI-basier­ten Bedro­hun­gen schüt­zen und zum ande­ren sicher­stel­len, dass die eige­nen KI-Anwen­dun­gen den gesetz­li­chen Anfor­de­run­gen ent­spre­chen. Die fol­gen­den Maß­nah­men kön­nen dabei unterstützen:

#1 Regu­la­to­ri­sche Compliance

Ist Ihr Unter­neh­men bereits AI-Act-kon­form? Falls nicht, könn­ten bald hohe Buß­gel­der dro­hen! Der AI-Act for­dert Trans­pa­renz und Risi­ko­be­wer­tun­gen für vie­le KI-Sys­te­me. CIS­Os müs­sen daher drin­gend über­prü­fen, wel­che inter­nen Sys­te­me betrof­fen sind, und die not­wen­di­gen Doku­men­ta­ti­ons- und Sicher­heits­maß­nah­men umset­zen, um Stra­fen und Haf­tungs­ri­si­ken zu vermeiden.

#2 Secu­ri­ty Awa­re­ness 2.0

Mit­ar­bei­ter müs­sen durch per­so­na­li­sier­te, simu­lier­te Kam­pa­gnen gezielt auf KI-gestütz­te Bedro­hun­gen wie Deepf­ake-Betrug und per­so­na­li­sier­te Phis­hing-Mails sen­si­bi­li­siert werden.

  • Berück­sich­ti­gen Sie Deepf­ake Video und simu­lier­te Stim­me, Wha­ling, Phis­hing sowie Smis­hing in den Secu­ri­ty Awa­re­ness Kampagnen
  • Pla­nen Sie einen Phis­hing-Test durch eine Phis­hing-Simu­la­ti­on Ihrer Mit­ar­bei­te­rIn­nen, ger­ne unter­stüt­zen wir mit einer Phishing-Simulation

#3 KI-gestütz­te Phishing-Filter

Angrei­fer nut­zen KI, um E‑Mails per­fek­ter zu fäl­schen – CIS­Os müs­sen auf glei­cher Höhe mit­zie­hen und auf KI-basier­te Sicher­heits­lö­sun­gen set­zen, die nicht nur regel­ba­sier­te Erken­nung nut­zen, son­dern auch Ver­hal­tens­mus­ter ana­ly­sie­ren und ver­däch­ti­ge Kom­mu­ni­ka­ti­on in Echt­zeit blockieren.

  • Prü­fen Sie, ob die ein­ge­setz­te Spam-Lösung den zukünf­ti­gen Anfor­de­run­gen ent­spricht und ergän­zen Sie die­se ggfls. um wei­te­re Schutzmaßnahmen.

#4 Deepf­ake-Erken­nung

Der Ein­satz KI-gestütz­ter Erken­nungs­tools ist essen­zi­ell, um gefälsch­te Vide­os und Audio­da­tei­en zu iden­ti­fi­zie­ren und gezielt abzu­weh­ren, bevor die­se Scha­den anrich­ten können.

  • Emp­feh­len Sie Ihren Mit­ar­bei­te­rIn­nen Tools wie z.B. DEEPFAKE TOTAL von Fraun­ho­fer AISEC.
  • Eine gute Samm­lung von Tools und Tech­ni­ken zur Erken­nung von Deepf­akes fin­den Sie unter Unite.AI.

#5 Zero-Trust-Archi­tek­tur

KI ist in der Lage, Iden­ti­tä­ten täu­schend echt nach­zu­bil­den. Eine Zero-Trust-Stra­te­gie sorgt dafür, dass jede Inter­ak­ti­on, jeder Zugriff und jede Iden­ti­tät unab­hän­gig veri­fi­ziert wird, bevor Zugriff auf kri­ti­sche Sys­te­me gewährt wird.

  • Prü­fen Sie den Ein­satz von Zero-Trust-Tech­no­lo­gie, spe­zi­ell für die Benut­zer-End­ge­rä­te. Dies inklu­diert Stra­te­gien zur per­man­te­nen Benut­zer- und End­ge­rä­te­i­den­ti­fi­ka­ti­on und oft auch Always-on VPN.
  • Zero-Trust erfor­dert ver­stärk­ten Ein­satz von (Netz­werk) Seg­men­tie­rung und strin­gen­ten Access-Con­trol Regeln.

#6 Thre­at Intel­li­gence für KI-Bedrohungen

Wer die neu­es­ten Angriffs­tech­ni­ken kennt, kann sich bes­ser davor schüt­zen. Daher ist es für CIS­Os essen­zi­ell, aktu­el­le KI-Bedro­hungs­be­rich­te aktiv zu verfolgen.

  • Als CISO lesen Sie Fach­bei­trä­ge zum The­ma gene­ra­ti­ve KI und Cyber­be­dro­hun­gen durch KI.
  • Geben Sie Ihrem IT-Secu­ri­ty Team die erfor­der­li­che Zeit, sich mit KI und KI-Bedro­hun­gen zu beschäftigen.
  • Nut­zen Sie die Maschi­ne-Lear­ning (ML) Prä­ven­ti­ons­maß­nah­men ihrer bestehen­den Secu­ri­ty-Pro­duk­te, um Anoma­lien und neue Bedro­hun­gen früh­zei­tig zu erkennen.

Mein Fazit: Wer früh­zei­tig han­delt, kann nicht nur Sicher­heits­ri­si­ken mini­mie­ren, son­dern auch teu­re Stra­fen ver­mei­den und einen Wett­be­werbs­vor­teil erlan­gen. Die Zeit für reak­ti­ve Maß­nah­men ist vor­bei, jetzt ist stra­te­gi­sches Han­deln gefragt!

Dipl.-Ing. Bian­ca Danc­zul, M.ScSeni­or Secu­ri­ty Beraterin