OpenAIs innsats for å produsere mindre faktafeil fra sin ChatGPT-chatbot er ikke tilstrekkelig for å sikre full overholdelse av EUs databeskyttelsesregler, ifølge en arbeidsgruppe hos EUs personvernvaktbikkje.
Arbeidsgruppen uttalte i en rapport utgitt på sin nettside fredag at selv om tiltakene som er tatt for å etterkomme transparensprinsippet er fordelaktige for å unngå misforståelser av ChatGPTs utdata, er de ikke nok til å oppfylle datanøyaktighetsprinsippet.
Organet som samler Europas nasjonale personvernvaktbikkjer, opprettet arbeidsgruppen for ChatGPT i fjor etter at nasjonale regulatorer, ledet av Italias myndigheter, uttrykte bekymringer om den mye brukte KI-tjenesten.
Pågående undersøkelser
De ulike undersøkelsene igangsatt av nasjonale personvernvaktbikkjer i noen medlemsland pågår fortsatt, ifølge rapporten.
Det er derfor ikke mulig å gi en fullstendig beskrivelse av resultatene ennå.
Funnene er ment å forstås som en «fellesnevner» blant nasjonale myndigheter.
Datanøyaktighet er et av de veiledende prinsippene i EUs sett med KI-regler.
Rapporten påpekte at den nåværende treningsmetoden kan føre til en modell som også kan produsere skjev eller oppdiktet informasjon.
– I tillegg er det sannsynlig at utdataene fra ChatGPT blir tatt som fakta av sluttbrukere, inkludert informasjon om individer, uavhengig av deres faktiske nøyaktighet, heter det i rapporten.








