Truslerne ved Generativ AI
Generativ AI kan anvendes til at fremstille overbevisende og realistisk indhold, der spænder fra skrevne tekster til billeder og videoer. Denne kapacitet gør den attraktiv ikke kun for kreative og produktive formål, men også for skadelige aktiviteter. Her er nogle specifikke trusler, som Center for Cybersikkerhed har identificeret:
- Falsk information:
AI kan generere troværdige nyhedsartikler eller opslag, der spreder falske oplysninger. Dette kan bruges i forsøg på at manipulere offentlig mening eller destabilisere politiske processer. - Phishing og svindel:
Cyberkriminelle kan anvende AI til at skabe personligt tilpassede e-mails eller beskeder, der ser overbevisende ud og som kan lokke modtagere til at udlevere følsomme oplysninger eller foretage betalinger. Du kan læse mere om phishing her
- Manipulation af billeder og videoer:
Generativ AI kan skabe falske billeder og videoer, der er vanskelige at skelne fra ægte materiale, hvilket kan bruges i afpresnings kampagner eller for at skade enkeltpersoners ry. Vi har skrevet et blogopslag hvilke trusler stemme klonings AI kan have. Du kan læse mere her.
Disse risici nødvendiggør en forhøjet opmærksomhed og forståelse af, hvordan man kritisk vurderer indhold skabt med eller manipuleret af AI.
3 anbefalinger til Sikker Brug
For at imødegå disse trusler foreslår Digitaliseringsstyrelsen flere strategier for at sikre en sikker brug af generativ AI:
- Kritisk tilgang til AI-genereret indhold:
AI-værktøjer kan imponere med deres evne til hurtigt at generere indhold, men det er afgørende at være opmærksom på risikoen for at modtage forkerte eller fuldstændigt opdigtede svar. Disse værktøjer arbejder med det datagrundlag, de har til rådighed, og dette kan være forældet eller ufuldstændigt. Derfor kan de producere svar, der ser korrekte ud, men som i virkeligheden ikke holder stik. Husk, at AI-værktøjerne er designet til at levere et svar, selv når de ikke har de nødvendige informationer. Det er især problematisk i situationer, hvor præcise fakta er essentielle. Derfor er det en god idé at faktatjekke de svar, du får, for eksempel ved at bede AI-værktøjet om at vise kilderne bag den genererede tekst, og derefter selv undersøge disse kilder. - Vær opmærksom på risiko for bias:
Det er vigtigt at være bevidst om, at AI-værktøjerne kan levere svar, der indeholder bias eller fordomme. Dette kan være relateret til køn, etnicitet, politiske holdninger og meget andet. Bias i AI-svar skyldes ofte de data, som værktøjerne er trænet på, eller specifikke regler, der styrer værktøjets output. Derfor bør du altid forholde dig kritisk til de svar, du modtager fra et AI-værktøj, og være opmærksom på potentielle skævheder. - Beskyt dine personlige oplysninger:
Når du interagerer med AI-værktøjer, er det afgørende at være forsigtig med, hvilke personlige oplysninger du deler. Oplysninger, du indtaster som en del af dine prompts eller spørgsmål, kan blive vist og delt med andre. Det er vigtigt at undgå at dele følsomme oplysninger som dit CPR-nummer, MitID-oplysninger, bankoplysninger og kodeord. Vær også forsigtig med oplysninger om dit helbred, politiske holdninger eller personlige forhold. Disse kan potentielt blive anvendt som data for at generere svar til andre brugere. Desværre har vi allerede set eksempler på folk der er blevet narret af malware forklædt som chatbotter. Læs mere her.
Ved at følge disse anbefalinger kan du bruge AI-værktøjer på en sikker og mere informeret måde. Det er vigtigt at tilgå disse teknologier med en bevidsthed om både deres potentiale og deres begrænsninger. Sikker og ansvarlig brug af AI er nøglen til at udnytte teknologiens fordele uden at kompromittere din egen eller andres sikkerhed.