Microsoft har en ny måde at holde ChatGPT etisk på, men vil det virke?

Microsoft har en ny måde at holde ChatGPT etisk på, men vil det virke?

2. maj 2023 Slået fra Af admin

Microsoft fangede en masse skrammel, da det lukkede sit team for kunstig intelligens (AI) Ethics & Society i marts 2023. Det så ikke godt ud i betragtning af de næsten samtidige skandaler, der opsluger AI, men virksomheden har netop beskrevet, hvordan den har til hensigt at holde sin fremtidige indsats ansvarlig og i skak fremadrettet.

Etikteamet blev opløst,

I et indlæg på Microsofts On the Issues-blog forklarede Natasha Crampton – Redmond-firmaets Chief Responsible AI Officer – at etikteamet blev opløst, fordi “Et enkelt team eller en enkelt disciplin med ansvarlig eller etisk AI ville ikke nå vores mål. .”

I stedet valgte Microsoft den tilgang, det har taget med sine privatlivs-, sikkerheds- og tilgængelighedsteams, og “indlejrede ansvarlig AI på tværs af virksomheden.” I praksis betyder det, at Microsoft har seniormedarbejdere “som har til opgave at stå i spidsen for ansvarlig AI inden for hver kerneforretningsgruppe”, såvel som “et stort netværk af ansvarlige AI-“mestre” med en række færdigheder og roller til mere regelmæssigt, direkte engagement.”

Ud over det sagde Crampton, at Microsoft har “næsten 350 mennesker, der arbejder med ansvarlig AI, med lidt over en tredjedel af dem (129 for at være præcis) dedikeret til det på fuld tid; de resterende har ansvarlige AI-ansvar som en kernedel af deres job.”

Efter at Microsoft lukkede sit Ethics & Society-team, bemærkede Crampton, at nogle teammedlemmer efterfølgende blev integreret i teams på tværs af virksomheden. Syv medlemmer af gruppen blev dog fyret som en del af Microsofts omfattende jobnedskæringer, hvor 10.000 arbejdere blev fyret i starten af ​​2023.

Relaterede indlæg  Wimbledon vedtager AI-kommentarer for at løfte sportsudsendelser

Navigerer i skandalerne

AI har næppe været fri for skandaler i de seneste måneder, og det er disse bekymringer, der har ført til tilbageslaget mod Microsofts opløsning af sit AI-etiske team. Hvis Microsoft manglede et dedikeret team til at hjælpe med at guide sine AI-produkter i ansvarlige retninger, tænkte man, at det ville kæmpe for at begrænse de former for misbrug og tvivlsom adfærd, som dens Bing-chatbot er blevet berygtet for.

Virksomhedens seneste blogindlæg har helt sikkert til formål at afhjælpe disse bekymringer blandt offentligheden. I stedet for helt at opgive sin AI-indsats, ser det ud til, at Microsoft søger at sikre, at teams på tværs af virksomheden har regelmæssig kontakt med eksperter i ansvarlig AI.

Alligevel er der ingen tvivl om, at nedlukningen af ​​dets AI Ethics & Society-team ikke gik godt, og chancerne er, at Microsoft stadig har et stykke vej tilbage for at lette offentlighedens kollektive sind om dette emne. Faktisk mener selv Microsoft, at ChatGPT – hvis udvikler, OpenAI, ejes af Microsoft – bør reguleres .

Netop i går forlod Geoffrey Hinton – “gudfaderen for AI – Google og fortalte New York Times, at han havde alvorlige betænkeligheder ved tempoet og retningen af ​​AI-udvidelsen, mens en gruppe førende teknologieksperter for nylig underskrev et åbent brev, der opfordrede til en pause på AI-udvikling , så dens risici bedre kan forstås.

Relaterede indlæg  Microsoft bringer ChatGPT teknologi til Word, Excel og Outlook

Microsoft på rette vej?

Microsoft ignorerer måske ikke bekymringer om etisk AI-udvikling, men hvorvidt dens nye tilgang er den rigtige, skal vise sig. Efter den kontroversielle start, som Bing Chat har udstået, vil Natasha Crampton og hendes kolleger håbe, at tingene vil ændre sig til det bedre.