SecurityWorldMarket

25-06-2021

Så let er det at misbruge AI til at sprede misinformation

Matti Aksela, Vice President for Artificial Intelligence hos F-Secure.

En ny undersøgelse fra den finske it-sikkerhedsvirksomhed F-Secure viser, at det med simple metoder er let at manipulere kunstig intelligens til at sprede misinformation. Ifølge F-Secure er det derfor vigtigt, at virksomheder, der benytter kunstig intelligens, er opmærksomme på, at teknologierne kan misbruges. I modsat fald vil tilliden til teknologien falde i fremtiden.

Analytikere fra F-Secures Artificial Intelligence Center of Excellence har netop gennemført en række undersøgelser med det formål at lære, hvordan simple manipulationsteknikker af kunstig intelligens kan påvirke sociale mediers anbefalinger til brugerne.

Systemer, der genererer anbefalinger på baggrund af kunstig intelligens, benyttes af mange onlinetjenester, herunder søgemaskiner, netbutikker, streamingtjenester og sociale medier. Den stigende brug af kunstig intelligens har dog også vakt bekymring over, om teknologierne kan misbruges til at sprede misinformation og konspirationsteorier.

- Twitter og andre sociale netværk er blevet en kampplads, hvor forskellige brugere og grupperinger forsøger at drive forskellige budskaber frem. Det sker blandt andet via almindelige diskussioner og reklamer men også gennem beskeder, der kun har til formål at underminere og fjerne tilliden til reel information. Ved at undersøge hvordan disse internetkrigere kan manipulere kunstig intelligens, kan vi se begrænsningerne af kunstig intelligens, og hvordan vi kan forbedre teknologien i fremtiden, udtaler Andy Patel, der er analytiker hos F-Secure.

En undersøgelse fra PEW Research Center i 2020 viser, at hele 53 procent af alle amerikanere får nyheder fra sociale medier. Desuden fortæller respondenterne mellem 18 og 29 år i samme undersøgelse, at sociale medier er deres primære kilde til nyheder. Desværre kan det være en potentiel faldgrube at stole på nyheder udelukkende fra sociale medier. Således viser en undersøgelse fra 2018, at Twitter-beskeder med falske postulater har 70 procent større chance for at blive retweetet.

Simpel metode kan påvirke anbefalinger fra kunstig intelligens
I F-Secures undersøgelse samlede analytikerne data fra Twitter og brugte dem til at træne samarbejdsfiltreringsmodeller, der er en maskinindlæringsmetode, som udregner ligheder mellem brugere og indhold baseret på tidligere interaktioner. Efterfølgende udførte F-Secure en gentræning af disse modeller ved hjælp af datasæt indeholdende yderligere retweets, og dermed manipuleret data, mellem udvalgte konti, for at se, hvordan systemernes anbefalinger ændrede sig.

Ved at vælge de rette konti til retweets samt variere antallet af konti og publicerede retweets viste undersøgelsen, at selv et meget lille antal retweets er nok til at påvirke anbefalingssystemet til at promovere konti, hvis indhold blev delt gennem de manipulerede retweets.

Selvom undersøgelsen benyttede en simpel version af den type kunstig intelligens, som f.eks. sociale medier benytter til anbefalinger, mener Andy Patel, at Twitter og andre populære tjenester allerede i dag oplever denne type cyberangreb, hvor hackere bruger teknologien til at påvirke deres egen agenda.

- Vi udførte disse tests med simple metoder for at lære, hvordan rigtige angreb faktisk sker, og jeg er overbevist om, at sociale medier allerede i dag bliver ramt af denne type angreb. Det er desværre svært for virksomheder, der benytter denne type kunstig intelligens, at være sikre på, at der faktisk sker angreb, da de blot ser resultatet af angrebet og ikke ser det ske, forklarer Andy Patel.

Virksomheder skal være opmærksomme på risikoen
Ifølge Matti Aksela, der er Vice President for Artificial Intelligence hos F-Secure, er det vigtigt at virksomhederne anerkender og adresserer de potentielle sikkerhedsudfordringer, der kan følge med kunstig intelligens.

- Vi stoler mere og mere på kunstig intelligens, og derfor er der behov for viden, så vi kan undgå misbrug. Kunstig intelligens og maskinlæring vil fremover understøtte flere tjenester, og derfor er det vigtigt for virksomheder at forstå både fordele og ulemper ved disse nye teknologier samt deres svagheder og styrker. Hvis samfundet skal kunne stole på kunstig intelligens, er det vigtigt at virksomhederne sikrer deres teknologier mod misbrug, siger Matti Aksela.



Leverandører
Tilbage til toppen