Rätt AI i rätt situation avgörande efter GDPR

I vintras gick rådet för finansiell stabilitet (FSB) ut och varnade för riskerna med artificiell intelligens (AI) i finansbranschen. Frågan är i dag hetare än någonsin i och med EU:s nya dataskyddsförordning, GDPR.

Annons

I vintras gick rådet för finansiell stabilitet (FSB) ut och varnade för riskerna med artificiell intelligens i finansbranschen. Riskerna är i detta fall inte kopplade till dystopiska farhågor om att robotar ska ta över världen, utan handlar i stället om oavsedda och oönskade konsekvenser som användningen av AI kan få. Frågan är i dag hetare än någonsin i och med EU:s nya dataskyddsförordning, GDPR.

Riskerna med AI

Vilka är då riskerna med artificiell intelligens i finansbranschen? För att förstå svaret på frågan är det viktigt att veta att AI kan delas in i två typer – ”transparent” och ”opak” (ej transparent), båda med väldigt olika användningsområden. Rent tekniskt fungerar det så här: Transparent AI är ett system vars insikter kan förstås och granskas. Opak artificiell intelligens, å andra sidan, har svårt att redovisa hur det arbetar. Inte helt olikt den mänskliga hjärnan kan det vara en utmaning för opak AI att förklara exakt hur det kommit fram till en viss insikt, eller hur ett visst beslut fattades. Utan krav på sig att kunna redovisa hur det arbetar kan opak AI i gengäld ofta leverera mer exakta beräkningar.

När banker nu i och med GDPR behöver kunna redovisa hur deras system tagit olika beslut står vi inför en ny situation. Plötsligt riskerar de mest tillförlitliga AI-systemen sett till noggrannhet att bli en laglig belastning.

Agerar diskriminerande

Ett ytterligare potentiellt problem med opak AI är risken för att systemet agerar diskriminerande och kan komma att föreslå saker som strider mot företagets värderingar. Det kan låta otroligt, men det är lätt för ett AI-system att använda neutral data för att dra slutsatser som sedan leder till icke-neutrala beslut gentemot kunder. Exempelvis skulle en bank som använder opak AI kunna tolka kunddata och använda det för att ge bättre erbjudanden till kunder baserat på deras etnicitet, kön eller andra variabler. Av uppenbara skäl vore ett sådant scenario katastrofalt.

Så hur vet företag om de använder artificiell intelligens på rätt sätt? För att kunna lita fullt ut på ett AI-system krävs antingen att systemet är transparent, så att företagsledningen kan förstå hur det fungerar. Är systemet opakt behöver det testas innan det tas i bruk, för att säkerställa att det inte agerar diskriminerande eller bryter mot andra regler.

Hotar dryga böter

Banker och andra företag i finansbranschen står inför en ny verklighet där de behöver balansera förbättringar i kundupplevelsen med risker för att bryta mot nya regelverk. Lösningen handlar om att se till att rätt expertis finns på plats för att övervaka omställningen, precis som FSB också rekommenderar. För de som misslyckas hotar dryga böter. För de som tar utmaningen på allvar är möjligheterna goda att avsevärt förbättra sin relation till kunderna.