Kunstig intelligens – en balance mellem fascination og bekymring

Sponsoreret artikel

Kunstig intelligens er hypet mere end nogensinde før. Alle taler om det. Nogle med fascination og store forventninger, andre med bekymring. Når jeg holder foredrag om kunstig intelligens møder jeg som regel en blanding, for de fleste har – i mine øjne med rette – en snert af begge dele.

Fascinationen går naturligt nok på de mange ting, kunstig intelligens efterhånden kan. Og barren for, hvad der fascinerer os, hæves dag for dag. Vi skal ikke mange år tilbage, før jeg på et foredrag om AI kunne møde benovelse over, at det var muligt for vores telefoner at modtage stemme-ordrer: ”Hej Siri, skriv en SMS til Peter Jensen” osv. Eller om at finde alle billeder af dyr på telefonen uden yderligere instruktioner. Den slags er i dag hverdag for de fleste af os.

Fra AI essays til biokemiske formler

I dag går fascinationen særligt på såkaldt generativ AI. Altså kunstig intelligens, der som OpenAI’s ChatGPT og Dall-E2 ikke blot kan sortere i data, men også selv skabe data. F.eks. i form af tekst eller billeder. Det er imponerende, at enhver ved hjælp af en enkelt instruktion kan få en chatbot til at skrive alt fra begavede essays om historiske begivenheder til digte, biokemiske formler og computerkode. For slet ikke at tale om de mange smukke billeder og animationer, modeller med fokus på grafik kan skabe.

Livsfarlig kunstig intelligens

Men samme teknologi er også med til at skabe bekymring. Ikke for, at AI skal overtage verden med iboende onde hensigter, men for, at alt det, der skabes med generativ AI oversvømmer nettet med uvederhæftig information. Hvad enten det nu skyldes et bevidst ønske om at forårsage skade eller uvidenhed. Et godt eksempel er, da der for nylig på Amazon kunne købes en bog til svampeplukkere som var skrevet af ChatGPT. Det er potentielt livsfarligt, fordi der er en stor risiko for, at chatbots som ChatGPT simpelthen opfinder tekst, der ikke er begrundet i data, men slet og ret er forkert. Desværre sker det ganske ofte, og et af problemerne er, at selv helt fejlagtig information ofte præsenteres af chatbotten i et sprog og i en form, så det forekommer rigtigt, hvis man ikke ved bedre.

Phishing og falske anmeldelser

Problematikker som fake news, phishing, falske anmeldelser og i det hele taget enten fejlagtige, vildledende eller manipulerende aktiviteter får også et skub i forkert retning af generativ AI. Fordi det simpelthen er blevet ekstremt nemt og meget lidt tidskrævende at producere indholdet og tilpasse det til forskellige målgrupper. Også selvom OpenAI og andre firmaer bag de store sprogmodeller, der ligger bag de populære chatbots gør sig store anstrengelser for at undgå, at deres teknologi kan producere falsk indhold.

Et sidste nyt skud på stammen af bekymringsfremkaldende teknologier er stemmekloning. Herhjemme opstod der særligt bekymring, da firmaet Elevenlabs lancerede deres værktøj til stemmekloning, som gjorde, at enhver kunne klone enhvers stemme blot ved at have et minuts digital stemmeoptagelse til rådighed. Har man det, er det bare at uploade filen og bede Elevenlabs om at få ”personen” til at sige præcis, hvad man ønsker. Det er ikke svært at forestille sig, hvad det kan give af problemer inden for alt fra politiske valgkampe til retslige beviser.

Og tilbage står vi så med den svære balance. For selvom teknologien har oplagte slagsider har mange af også vænnet os til at bruge den som en del af vores daglige arbejde. Denne tekst er produceret 100 procent manuelt og uden brug af AI-modeller, men det modsatte kunne sagtens have været tilfældet. Og det ville være gået langt hurtigere.