Kan AI vara ett verktyg för att begå brott?

Det är mycket prat om AI nu. Men inte så mycket om den ”mörka” sidan, och mer specifikt, hur AI kan användas för att begå brott. Något vi bör prata mer om anser säkerhetsexperten som ger exempel på brott och hur företag bör skydda sig.

Vi ser att AI gör snabba framsteg med den mycket omtalade AI botten chat-GPT4 som ett exempel. Men Chat-bottar som chat-GTP är dock bara toppen på isberget. Det är viktigt att vi redan nu förbereder vårt samhälle och våra företag för hur tekniken kommer se ut inom en snar framtid, och hur den kommer att påverka oss.

Till exempel kan AI användas till att ändra en persons röst och utseende för att efterlikna en annan person, detta med endast några minuter inspelad röst och en bild som referens. Än så länge är denna typ av realtidsgenererad avbild inte särskilt trovärdig, och de flesta av oss skulle inse att något inte stod rätt till. Men framstegen är stora, och utvecklingen går i rasande takt.

Det är bara en fråga om tid tills det kommer vara otroligt svårt att avgöra om personen man ser och pratar med är AI genererad eller inte. När dessa AI-verktyg blir mer sofistikerade och när de sedan blir tillgängliga för allmänheten kan det komma att användas för att begå exempelvis bedrägerier. Ett samtal från chefen eller styrelsemedlemmen kan istället vara en bedragare som är ute efter pengar eller känslig information.

Det kommer alltså inom en snar framtid inte vara säkert att förlita sig på personens röst eller utseende när man har ett digitalt samtal.

Med hjälp av AI kan man redan idag:

  • Ändra utseende på en person i en video eller bild
  • Automatiskt generera CV och anställningsbrev
  • Förvränga och ändra ljudinspelningar
  • Genera bilder på personer och/eller händelser
  • Skapa falska nyhetsartiklar
  • Efterlikna personalbrev/personalinformation
  • Skapa program eller appar som liknar ett företags tjänster
  • Tillverka fishing mail som riktar sig till specifika personer eller företag
  • Skapa falska offerter/fakturor
  • Ändra vilket telefonnummer som syns när man ringer
  • I realtid ändra sitt utseende och/eller röst i ett videosamtal
    … och mycket mer.

Vad kan man göra för att skydda sig?
Utvecklingen kring AI går inte längre att ignorera, och även om branschen man tillhör inte specifikt jobbar med AI så kommer sättet vi gör affärer och hur vi kommunicerar påverkas av tekniken. Det är därför hög tid att framtidssäkra med och mot AI.

  • Det är viktigt att ha rutiner och processer på plats som en bedragare eller AI har svårt att känna till eller efterskapa redan nu. Det kan handla om överenskomna fysiska tecken, fraser eller kodord, tvåstegsverifiering, rutiner kring signering, motringning via växeltelefon för verifieringskontroll med mera.

  • Det är även viktigt att man i rättsliga fall, säkrar sin digitala bevisning och att man kan påvisa dess riktighet. Med andra ord, att det man presenterar eller använder som bevis, inte är manipulerat eller ändrat. För detta krävs ofta tillgång till extern expertis inom digital forensik. Det är lätt att annars, genom felaktigt agerande, förstöra den digitala bevisningen.

Mattias Nygren
Mattias Nygren har under 15 år arbetat vid Polisens Nationella Insatsstyrka (NI). Han har därefter haft en karriär som säkerhetschef inom FN där han arbetat med valsäkerhet, matleveranssäkerhet, evakueringsplanering och skydd av FN:s personal och tillgångar. Han har erfarenhet av arbete i en rad olika högriskländer.

Dela artikeln: LinkedIn

Prenumerera på vårt nyhetsbrev

Inköpsportal - tipsa oss

Inköpsportal - ansökan
Logotyp, minst 200 pixlar bred *

Maximum file size: 209.72MB

Bild, minst 540 pixlar bred *

Maximum file size: 209.72MB

Kontaktspersonsbild, minst 200 pixlar bred *

Maximum file size: 209.72MB

Inköpsportal - tipsa en kollega