ChatGPT skaberne lancerer bug bounty program med kontante belønninger
ChatGPT er endnu ikke helt så klog, at den kan finde sine egne fejl, så dens skaber henvender sig til mennesker for at få hjælp.
OpenAI afslørede tirsdag et bug bounty-program, der opmuntrede folk til at lokalisere og rapportere sårbarheder og fejl i dets kunstige intelligenssystemer, såsom ChatGPT og GPT-4.
I et indlæg på deres hjemmeside, der beskriver detaljerne i programmet, sagde OpenAI, at belønninger for rapporter vil variere fra $200 for resultater med lav sværhedsgrad til op til $20.000 for, hvad det kaldte “ekstraordinære opdagelser.”
Det Microsoft-støttede firma
Det Microsoft-støttede firma sagde, at dets ambition er at skabe AI-systemer, der “kommer alle til gode”, og tilføjede: “Med det formål investerer vi kraftigt i forskning og ingeniørarbejde for at sikre, at vores AI-systemer er sikre og sikre. Men som med enhver kompleks teknologi forstår vi, at sårbarheder og mangler kan dukke op.”
I en henvendelse til sikkerhedsforskere, der er interesserede i at blive involveret i programmet, sagde OpenAI, at det anerkendte “sikkerhedens kritiske betydning og ser det som en samarbejdsindsats. Ved at dele dine resultater vil du spille en afgørende rolle i at gøre vores teknologi mere sikker for alle.”
ChatGPT og andre OpenAI-produkter
Med flere og flere mennesker, der tager ChatGPT og andre OpenAI-produkter på tur, er virksomheden ivrig efter hurtigt at spore eventuelle potentielle problemer for at sikre, at systemerne kører problemfrit og for at forhindre, at eventuelle svagheder udnyttes til ondsindede formål. OpenAI håber derfor, at det ved at engagere sig med teknologisamfundet kan løse eventuelle problemer, før de bliver mere alvorlige problemer.
Den californiske virksomhed har allerede haft en forskrækkelse, hvor en fejl afslørede titlerne på nogle brugeres samtaler, når de skulle have været private.
Privatlivets fred som et “betydeligt problem”
Sam Altman, CEO for OpenAI, sagde efter hændelsen i sidste måned, at han betragtede privatlivets fred som et “betydeligt problem”, og tilføjede: “Vi har det forfærdeligt med dette.” Det er nu blevet rettet.
- Bommerten blev et større problem for OpenAI, da Italien udtrykte alvorlige bekymringer over bruddet på privatlivets fred og besluttede at forbyde ChatGPT, mens det udfører en grundig undersøgelse. De italienske myndigheder kræver også detaljer om foranstaltninger, OpenAI har til hensigt at tage for at forhindre, at det sker igen.
Der er lukket for kommentarer.