SecurityWorldMarket

09-12-2023

Tsunami af AI-forstærkede hackerangreb i 2024

Christian K. Beck, administrerende direktør hos Trend Micro i Danmark.

Spammails fra hackere helt uden grammatiske fejl og på 100 pct. flydende dansk. Det bliver virkeligheden i 2024, hvor hackerne kommer til at bruge AI til så sofistikerede hackerangreb, at de bliver noget nær umulige at afsløre med traditionelle sikkerhedsløsninger. Det forudser cybersikkerhedsselskabet Trend Micro i en ny rapport om det kommende års cybersikkerhedstendenser.

Generativ AI – hvor kunstig intelligens bruges kreativt til at skabe bl.a. tekst, video og lyd – kommer til at transformere trusselsbilledet inden for cybersikkerhed i 2024.

- Large Language-modellerne (LLM), som bruges i AI, kan bruges på alle sprog og udgør en væsentlig sikkerhedstrussel, fordi de eliminerer de traditionelle tegn på phishing som fx bemærkelsesværdig formatering eller grammatiske fejl. Det gør truslerne langt vanskeligere at opdage. Danske virksomheder er derfor nødt til at bevæge sig væk fra de konventionelle metoder, man hidtil har brugt til at opdage phishing, og over til nye, moderne sikkerhedsmetoder, som overgår menneskets evner til at gennemskue de nye typer af AI-forstærkede angreb, forklarer Christian K. Beck, administrerende direktør hos Trend Micro i Danmark.

Trend Micro spår, at vi kommer til at se et stort antal avancerede AI-udviklede værktøjer, der kan bruges til at lave hyperrealistisk video og lyd, som gør hackerne i stand til at gennemføre bl.a. direktørsvindel (Business Email Compromise), virtuelle kidnapninger og identitetstyveri på et helt nyt niveau.

Trend Micro fremhæver især stemmekloning som et værktøj, hackerne vil gøre brug af i den nærmeste fremtid.

AI til angreb på AI

AI-modellerne selv kan også blive udsat for angreb i 2024. Mens datasæt fra generative AI-værktøjer og LLM er svære for hackerne at påvirke, er specialiserede machine learning-modeller langt mere attraktive mål, fordi de arbejder med mindre datasæt, som er nemmere at påvirke.

Konkret betyder det, at hackere kan “forgifte” datasættene med falske data og dermed manipulere de machine learning-algoritmer, som skal lære ud fra datasættene.

“Machine learning-algoritmer ved i sig selv ikke noget. De lærer ud fra de datasæt, de bliver fodret med. Det gør machine learning til et tveægget sværd. Det er et værktøj, som på den ene side er supereffektivt til at behandle data med. Men på den anden side kræver det, at dataene er korrekte. Hvis hackere kan få adgang til de datasæt, virksomhederne bruger til deres machine learning-værktøjer, kan de også manipulere, hvad machine learning-algoritmen lærer, og så kan tingene hurtigt gå helt galt,” forklarer Christian K. Beck.

Ifølge Trend Micro koster det i dag under 700 kr. at få hackere til at påvirke et datasæt.

Flere ormeangreb på cloudinfrastruktur og private blockchains

I rapporten fremhæver Trend Micro også, at vi vil se langt flere angreb med orme på cloudinfrastruktur. Ormene vil især være rettet imod servere og tjenester, som er sårbare, fordi de ikke er konfigureret korrekt. En orm er et ondsindet program, som kan replikere sig selv og dermed automatisk sprede sig til flere servere og computere.

I 2024 vil vi også se flere angreb på sårbare private blockchains. En privat blockchain er en blockchain, som er ejet af en privat organisation, og som kun er tilgængelig for godkendte medlemmer. Hackerne vil angribe de private blockchains for at modificere, overskrive eller slette transaktioner og forlange en løsesum. Der er også risiko for, at hackerne kan kryptere hele blockchainen og låse den fast.



Leverandører
Tilbage til toppen