Kunstig intelligens: Er din virksomhed juridisk rustet? Og hvad med AI chatbots?
Kunstig intelligens har taget fart blandt mange virksomheder de seneste to år. Danmark er det land i Europa med den største andel af virksomheder, der anvender kunstig intelligens. Det viser analyse fra SMV Danmark. Men hvad med juraen – er din virksomhed ”juridisk rustet”, så den ikke risikerer at levere ringere eller fejlagtig service til kunder, være eksponeret for omdømmemæssige risici mv.
Gældende AI-regler
Selv om der endnu ikke i dansk ret eksisterer en specifik regulering af brugen af kunstig intelligens, herunder AI chatbots, er en sådan regulering ved at tage form.
Europa-Kommissionen har fremsat forslag til et direktiv om AI-ansvar samt forslag til en AI-forordning.
Kendskab til disse kommende reguleringer er relevant for din virksomheds brug af kunstig intelligens i fremtiden og dermed også for din virksomheds juridiske robusthed i AI-sammenhæng.
Væsentligt at huske er tillige, at ovenstående dog ikke betyder, at området helt er ulovreguleret. Virksomheder skal nemlig også overholde gældende dansk lovgivning, såsom regler om databeskyttelse, immaterielle rettigheder mv.
Databeskyttelse: Hvad må man oplyse en AI chatbot?
Såfremt din virksomhed skal være juridisk rustet til AI-brug fordrer dette, at I har kendskab til databeskyttelsesreglerne, her særligt reglerne om håndtering af personoplysninger.
Da de fleste virksomheder håndterer personoplysninger, enten fra medarbejdere eller kunder, er det afgørende at overveje, hvorvidt og hvilke personoplysninger I deler med f.eks. en AI chatbot. Personoplysninger er f.eks. navn, familieforhold, antal sygedage mv. Der er således tale om personoplysninger, når det er muligt at identificere en person ud fra oplysningerne eller i kombination med andre.
Deling af personoplysninger med en chatbot kræver altid et retligt behandlingsgrundlag, som f.eks. at behandlingen er nødvendig af hensyn til en retlig forpligtelse, opfyldelse af en kontrakt, eller at der er indhentet et udtrykkeligt samtykke.
Er der tale om behandling af følsomme personoplysninger, f.eks. helbredsoplysninger, etnisk oprindelse og seksuel orientering, gælder der som udgangspunkt et forbud mod behandling af disse oplysninger. Der gælder dog særlige undtagelser.
Endelig er det et juridisk krav, at der som udgangspunkt skal udarbejdes en såkaldt forudgående konsekvensanalyse vedr. databeskyttelse (DPIA), og at denne opdateres løbende.
Forretningshemmeligheder
En væsentlig faldgrube forbundet med anvendelse af en AI chatbot er ”offentliggørelse” af forretningshemmeligheder. Juridisk robusthed omfatter derfor også et kendskab til, hvad ”offentliggørelse” nærmere betyder i sammenhæng med AI chatbots.
Deling af fortrolige oplysninger med en online chatbot vil, ligesom alt anden data I deler med chatbotten, anvendes til gentræning. Det betyder, at chatbotten er dynamisk og forbedres ved at adaptere de erfaringer, I som brugere giver den, hver gang den anvendes.
Derfor skal en AI chatbot anvendes med omtanke. Deler i forretningshemmeligheder, strategier eller andre fortrolige oplysninger, vil det være muligt for andre at kopiere dette, hvis de er brugere af samme chatbot.
Ophavsret
Desto flere gange en AI chatbot anvendes, jo mere data lagres i chatbottens database. Der tages således ikke hensyn til, om dataene er underlagt ophavsretlig beskyttelse. Det betyder, at chatbottens database kan indeholde artikler, passager af fagbøger eller videnskabelige værker, som er ophavsretlig beskyttet.
Denne beskyttede data kan indgå i chatbottens svar, også kaldet output. Det kan få juridiske konsekvenser for jer, hvis I anvender beskyttet data kommercielt uden tilladelse fra den, som har ophavsretten.
Interne retningslinjer
Der kan med fordel udarbejdes interne retningslinjer for brugen af kunstig intelligens. Disse interne retningslinjer skal sikre, at medarbejdere kan navigere i, hvilke opgaver de må og kan løse ved brug af kunstig intelligens.
Det er desuden vigtigt at medarbejdere vejledes om, at de skal foretage en kritisk vurdering af f.eks. AI chatbottens output. Videregivelse eller rådgivning på baggrund af et fejlagtigt output kan have konsekvenser for kunder eller samarbejdspartnere og potentielt medføre et erstatningsansvar.
Vi anbefaler, at virksomheder bliver juridisk rustet til at håndtere blandt andet fejlagtige outputs ved eksempelvis at implementere egenkontrol og udarbejdelse af interne procedurer samt retningslinjer. Hos LOU Advokater kan vi bistå virksomheder med dette.
Er du i tvivl om, hvordan I sikrer korrekt brug af kunstig intelligens inden for de juridiske rammer, så kontakt gerne advokat og partner Camilla Moe Thorup på cmt@lou.dk og 70 300 500 eller advokatfuldmægtig Mads Christian Schwabe på masc@lou.dk og 70 300 500.