Hvad ved AI-chatbotterne om os og hvem deler de det med?

Hvordan er vores alle sammens privatliv sikret, nu hvor AI-bots som ChatGPT og Bard bliver forbedret med enorme mængder af data fra internettet?

Hvad ved AI-chatbotterne om os og hvem deler de det med?

De nyeste generationer af chatbots med OpenAI’s ChatGPT og Googles Bard i spidsen, kan langt mere end tidligere versioner, og det er ikke altid noget positivt.

Den nyeste eksplosion inden for udviklingen af AI har allerede skabt bekymring for misinformation, fake news, plagiering og machine-genereret malware. Men hvilke problemer kan generativ AI skabe for den almindelige brugers integritet? Det har Engadget undersøgt.

Svaret handler ifølge eksperterne, som Engadget har talt med, langt hen ad vejen om, hvordan botterne er trænet, og hvor meget vi har tænkt os at interagere med dem.

Brugernes privatliv afhænger af hvordan chatbot er trænet

For at kunne efterligne menneskelig interaktion bliver AI-botterne trænet med store mængder data, hvor en stor del af det kommer fra depoter som Common Crawl. Som navnet antyder har Common Crawl i årevis samlet data, så det nu består af petabytes med data skrabet sammen ved at støvsuge det åbne net.

Selvom ChatGPT og Bard bruger det, de kalder en ”filtreret” del af dataet fra Common Crawl, så gør bare størrelsen på modellen, at det er umuligt for nogen at undersøge og validere al den viden og information.

Enten fordi man selv har båret sig uforsigtigt ad eller på grund af dårlig sikkerhedspolicy hos en tredjepart kan data være tilgængeligt på et eller andet skummelt sted på internettet. Selvom det kan være svært at få fat i for den almindelige bruger, er det ikke umuligt, at informationen er blevet høstet og lagt ind i et træningsprogram for derefter at blive afsløret af chatbotten.

Se også: Hvilke telefoner er smarte?

Private oplysninger kan blive afsløret af ChatGPT og Bard

At en chatbot kan afsløre en persons kontaktoplysninger, er desværre ikke en teoretisk bekymring.

Skribent hos Bloomberg, Dave Lee, har i et indlæg på Twitter skrevet, at ChatGPT oplyste hans telefonnummer, da den blev bedt om at chatte på den krypterede chatplatform Signal.

Den form for interaktion er nok et ekstremt tilfælde, men det er stadig værd at tænke på, hvilken information læringsmodellerne har tilgang til.

“Det er usandsynligt, at OpenAI vil indsamle specifikke oplysninger som sundhedsdata og henføre dem til enkeltpersoner for at træne sine modeller,” fortæller stipendiat ved sikkerhedsorganisationen SANS Institute, David Hoelzer til Engadget. “Men kunne det utilsigtet være derinde? Absolut.”, vurderer han.

Se også: ChatGPT kan bruges på alle hjemmesider

ChatGPT: Jeg er programmeret til at følge etiske og juridiske standarder

OpenAI, selskabet bag ChatGPT, svarede ikke på Engadgets forespørsel, da de blev bedt om at redegøre for de foranstaltninger, de benytter for at beskytte dataintegritet, eller hvordan de håndterer personlig identificerbar information, der kan være havnet i træningssæt.

Så i stedet spurgte de ChatGPT selv. Den fortalte, at den er ” programmeret til at følge etiske og juridiske standarder, der beskytter brugernes privatliv og personlige oplysninger” og at den ikke “har adgang til personlige oplysninger, medmindre de er givet til mig.”

Google har fortalt Engadget, at de har programmeret lignende spærringer ind i Bard for at undgå deling af personlig identificerbar information i samtaler. Det er nok noget, man skal tage med et gran salt, da denne type AI-botter kan være programmeret til at oplyse dette.

Praktisk nok berørte ChatGPT selv det andet område, hvor generativ AI kan være en trussel mod integriteten: brugen af selve softwaren – enten via information delt direkte i chatlogs eller enheds- og brugerinformation opfanget af tjenesten under brug.

Se også: Hvad kan kunstig intelligens?

Advarer om at samtaler bliver gennemgået af mennesker

I OpenAIs privatlivspolitik nævnes flere kategorier af standardinformation, som den indsamler om brugerne, hvoraf noget kan bruges til at identificere brugeren. Når man starter ChatGPT, advarer tjenesten om, at samtaler kan blive gennemgået af AI-trænere, altså mennesker i kød og blod, for at forbedre systemerne.

Google Bard har derimod ikke en egen privatlivspolitik, men bruger den samme som andre Google-produkter (der derfor også er utroligt bred). Samtaler med Bard behøver ikke blive gemt på brugerens Google-konto, og brugeren kan slette samtaler via Google, fortæller Google.

Selvom den har en ”slet samtaler”-mulighed, sletter den faktisk ikke brugerens data. Det kan man læse på OpenAI’s FAQ-side. Selskabet kan heller ikke slette specifikke ordrer. De fraråder brugerne at dele følsomme oplysninger, men den eneste metode til at fjerne personlig identificerbar information, man har delt med ChatGPT, er at slette hele sin konto.

Gør man det, lover OpenAI, at man permanent fjerner al associeret data.

ChatGPT gik offline en kort tid i marts på grund af en programmeringsfejl, der afslørede information om brugeres chathistorik. Det er på dette tidligere stadie af tjenestens udvikling uvist, om chatlogs fra denne form for AI viser sig at være sårbare mål for cyberkriminelle.

Se også: Nyheder om kunstig intelligens