SecurityWorldMarket

2020-11-02

Många oförberedda på regleringar kring etisk AI

En ny undersökning från Corinium på uppdrag av Fico, ledande inom avancerade analyslösningar, visar att många organisationer är oförberedda inför striktare regelverk kring etisk AI.
Undersökningen visar också att detta bidrar till att stoppa upp användningen av AI i organisationer. Därför bör AI-ansvariga nu proaktivt självreglera, snarare än att vänta in kommande regelverk kopplat till etisk AI.

Samtidigt som AI-etik snabbt blivit en viktig fråga för många organisationer visar undersökningen från Corinium på uppdrag av FICO att en av tre ansvariga för data/analys inte är förberedda på striktare reglering gällande etisk AI. Detta kan stoppa upp AI-utveckling i organisationer då 93 procent uppger att etiska överväganden är en kritisk barriär för ytterligare AI-införanden i deras organisationer.

– I takt med att AI-algoritmer mer sofistikerade och används mer utbrett bör organisationer säkerställa att de undviker oavsiktliga negativa skadeverkningar, säger Dr. Scott Zoldi, chefsanalytiker på FICO.

– Därför är det viktigt att företag börjar prioritera etisk AI och ligger steget före de rörelser som är på väg inom AI, menar han vidare.

Datasäkerhet
Tidigare har AI-etik mestadels kopplats till beslut rörande applikationer som exempelvis självkörande bilar eller kreditbeslut. Nu för tiden är det dock mer komplext, inte minst när det gäller att förvara lagrad kunddata på ett säkert sätt. Fler organisationer använder AI för att bättre förstå kunder, vilket gör dem mer sårbara och ökar risken för kritik om data missbrukas. Undersökningen visar att 38 procent av ansvariga inom data/analys upplevt säkerhetsincidenter, 24 procent har upplevt kontaminerad data och en av fyra har upplevt dataintrång.

– Det är viktigt att organisationer säkerställer att de är skyddade mot fientliga AI-attacker. Det är troligt att kriminella kommer arbeta mer fokuserat för att upptäcka svagheter i modeller eller försöka överrumpla AI-modeller för att stänga ner dem, säger Scott Zoldi. 

Självreglering
Undersökningen visar att det i nuläget finns viss självreglering, 47 procent uppger att de byggt in steg för att undvika fördomar i utvecklingen av modeller, vilket inkluderar variabler som kön och etnicitet, och 41 procent använder tredjepartsaktörer för att säkerställa att deras modeller är etiska och fria från fördomar. Men, 67 procent monitorerar exempelvis inte deras modeller för att säkerställa att de fortsätter vara korrekta och inte avviker med tiden.

– Innovationstakten inom AI har alltid varit högre än takten hos hos de som lagstiftar kring teknik. AI-ledare bör därför ta ytterligare steg för att självrelgera via disciplinerade processer och procedurer för att säkerställa att de är redo för striktare regelverk gällande etisk användning av AI, 

Rapporten – Building AI-driven Enterprises in a Disrupted Environment – består av djupintervjuer med fler än 100 höga chefer inom analys och data.



Leverantörer
Till toppen av sidan