ChatGPT som advokat - hvordan gikk det?

For en kort tid tilbake dukket det opp en historie fra en rettsal i USA. En advokat representerte sin klient i et søksmål mot Avianca Airlines. Avianca ba om at saken skulle bli avvist på grunn av foreldelse - da gikk gikk advokaten til verks.

Denne advokaten hadde muligens lest litt for mange Twitter-tråder om at AI kan gjøre jobben din for deg, for da han skulle levere en prosedyre til retten gikk det fullstendig galt. Advokaten matet inn informasjonen om saken i ChatGPT, la all kritisk tenkning til side, og sendte den av gårde til retten. Det gikk jo som det måtte...

Teksten var velskrevet og profesjonell - problemet? ChatGPT hadde referert til ikke eksisterende rettspraksis. Den hadde altså funnet opp rettspraksis. Dette la ikke advokaten merke til - men det gjorde Avianca Airlines.

Dommeren i saken ble ikke spesielt imponert over "flausen" og har å beordret advokaten, og firmaet han jobber i, til en høring 8. juni. Der må de argumentere for hvorfor de ikke skal sanksjoneres som følge av hendelsen. 

Advokaten selv sier han "konsulterte" ChatGPT for å "supplere" sin egen research, og at dette var første gang han brukte ChatGPT i forbindelse med jobb. Han hadde til og med spurt om sakene var ekte, noe ChatGPT sa at de var, og gav en generell henvisning til juridiske databaser. Her burde han nok tenkt seg om 2 eller 3 ganger ekstra, men det gjorde han altså ikke.

Denne saken understreker tydelig viktigheten av kritisk tenkning når du bruker AI - uansett formål. Det er ikke en feilfri teknologi, og hvis du tar alt det sier for god fisk så kan du ende opp med å se ganske dum ut...

Relaterade inlägg