Elon Musk, der for nylig forfattede et åbent brev, der opfordrede til et moratorium for udviklingen af kraftfulde AI- modeller (specifikt dem, der er stærkere end GPT-4), mener, at AI bevæger sig for hurtigt. Han mener, at vi er nødt til at bremse og revurdere vores tilgang til AI-sikkerhed, før AI “tager kontrollen.” TruthGPT er en stor sprogmodel (LLM), der lover at løse disse to kerneproblemer med nutidens AI-systemer.
Hvordan ville TruthGPT se ud?
Det første tip til, hvordan TruthGPT ville se ud, er i navnet. I betragtning af “GPT”-tillægget vil TruthGPT sandsynligvis have en arkitektur, der ligner ChatGPT. Husk, Elon Musk hjalp med at samle OpenAI og holdet, der byggede ChatGPTs GPT-model.
I betragtning af, at GPT’s arkitektur har vist sig at være både en teknisk og kommerciel succes, vil det sandsynligvis være for tidskrævende og dyrt at følge en anden vej. Tid er én ting, som Elon Musk ikke har, hvis han skal bygge noget, der virkelig kan stå tå til tå med avanceret kunstig intelligens så hurtigt som muligt. Så bliv ikke for hypet – TruthGPT er måske ikke så radikalt anderledes end de AI-værktøjer, vi allerede har.
Nøjagtigheden, eller i Elon Musks sprogbrug, “sandfærdighed”, af en AI-model afhænger i høj grad af dens træningsdata og træningsalgoritmen. Vi er ikke helt sikre på, hvordan TruthGPTs træningsdata ville blive hentet, men for at få den bedste chance for at bygge et LLM, der er så “sandfærdigt” som muligt, ville Elon Musks TruthGPT skulle prioritere data fra “sandfærdige kilder.” Men det er netop problemet. Sandhed er et meget subjektivt begreb. Det, der er sandt for mig, er måske ikke sandt for dig.
Så er denne idé om en maksimal sandhedssøgende AI overhovedet praktisk?
Hvorfor det er en kæmpe udfordring at bygge TruthGPT
Når du først forstår, hvordan store sprogmodeller som GPT fungerer , bliver det klart, at det er upraktisk at være korrekt til enhver tid. Typisk trænet på et stort datasæt af internetdata, vil meget af det, forudsigeligt, være falsk information, og LLM’er har ingen inert måde at fortælle fakta fra fiktion.
Den bedste intervention er typisk fra menneskelige trænere, der forsøger at lære sprogmodellen, hvad der er god opførsel, og hvad der er dårligt. Men menneskelige trænere er forudindtaget. Bias overføres til AI-modellerne , hvilket besejrer hele formålet med en “maksimal sandhedssøgende AI.” Bemærk, vi taler ikke om direkte partiskhed eller fordomme mod et folk eller andet. Det er den mere subtile skævhed om, hvordan du fortolker sprog, situationer, udfordringer og så videre, der trækker ind i processen. Mennesker er jo mennesker.
Nøjagtigheden kan naturligvis også tackles fra algoritmesiden. Men uanset algoritmen repræsenterer sproglig tvetydighed stadig et stort problem for nøjagtigheden af AI-modeller. Selv mennesker kæmper ofte for præcist at fortolke en sætnings eller en sætnings betydning, hvilket fører til misinformation. For AI-modeller kan tvetydighed føre til fejlfortolkninger, der resulterer i unøjagtigheder.
For Musk ser TruthGPT ud til at være en chance for ham til at udskære en AI-model, som han finder passende til at levere sandheden. Hvordan det ville opstå uden at introducere hans egne forudindtagethed er et andet spørgsmål helt og effektivt fører os tilbage til starten af samtalen. Hvordan er Musks meninger om, hvad der er forudindtaget eller ikke anderledes end dem, der trænede og ledede ChatGPT?
Er TruthGPT en spændende mulighed?
Elon Musks planer for TruthGPT virker noble og prisværdige. Det er dog en svær opgave at bygge en AI-model med en ubetydelig forekomst af unøjagtigheder.
Selvom vi ville forvente, at en tech-milliardær, der har afmystificeret raketvidenskab, vil være i stand til at udføre noget af denne art, er nogle ting lettere sagt end gjort.