venerdì, Giugno 21, 2024

L’avvocato ha citato in giudizio la compagnia aerea, ma il caso si è schiantato con un robot

Must read

Silvestro Dellucci
Silvestro Dellucci
"Organizzatore. Fanatico dei social media. Comunicatore generale. Studioso di pancetta. Orgoglioso apripista della cultura pop ".

Un avvocato americano finisce nei guai dopo aver lasciato che un robot facesse il lavoro. Il giudice si è presto reso conto che era tutta una montatura.

La compagnia aerea Avianca è stata citata in giudizio, ma i loro avvocati all’inizio hanno avuto una vittoria facile.

In volo, Roberto Matta è rimasto ferito quando una delle carrozze degli assistenti di volo gli ha colpito il ginocchio. Mata ha assunto avvocati per chiedere un risarcimento.

La compagnia aerea, Avianca, ha detto che il caso non appartiene al sistema legale. Il giudice Kevin Castle ha chiesto all’avvocato di Mata di spiegare perché si dovrebbe tenere un’udienza completa del caso.

Molto rapidamente, l’avvocato Stephen Schwartz è tornato con un documento di dieci pagine. Ha citato casi come Martinez v. Delta Airlines e Varghese c. China Southern Airlines e molte altre questioni. In questo modo, ha voluto dimostrare che esiste un forte precedente affinché il tribunale si occupi di tali casi.

Il giudice di New York Kevin Castle non è rimasto molto colpito dai documenti del tribunale che ha ricevuto.

Discreta assurdità

Gli avvocati della compagnia aerea si sono avventati sul documento. Anche il giudice ha iniziato a guardarli.

Hanno subito scoperto che qualcosa non andava. Nessuno dei casi citati da Schwartz è stato trovato. Non riuscivano nemmeno a cercare su Google le citazioni di altri giuristi.

Schwartz è dovuto comparire in tribunale per spiegarsi. secondo New York Times Ha più di 30 anni di esperienza come avvocato. Ha subito messo tutte le sue carte in tavola.

READ  Intelligence ucraina: - Ha almeno tre mariti

Per la prima volta nella sua vita, afferma, ha chiesto al bot ChatGPT di utilizzare la sua intelligenza artificiale per trovare argomenti. Il risultato sembrava convincente. C’erano resoconti chiari di casi precedenti, con riferimenti a fonti e note a piè di pagina. Ma tutto si è rivelato essere una fantasia libera.

ChatGPT è solo l’inizio. Gli esperti prevedono che la precisione migliorerà molto nel tempo.

Chiedi il controllo

Cnn Scrive che Schwartz “ha confermato la qualità” delle informazioni chiedendo al bot se era sicuro che le informazioni fossero corrette. Quando ottenne una risposta affermativa, acconsentì.

Il bot si è persino scusato perché la prima risposta potrebbe sembrare un po’ confusa.

Giornale Internet al di sopra della legge, che si rivolge ad avvocati e altri giuristi, e scrive anche sul caso. Il giornale prende le distanze in modo aggressivo dai commentatori che incolpano ChatGPT. Il giornalista ritiene che invece di essere un esempio di intelligenza artificiale non all’altezza, sia la storia di un avvocato che ha preso scorciatoie.

Ha superato l’esame

Scritto a gennaio Reuters A proposito di un sondaggio in cui i professori di diritto correggono i compiti d’esame. Alcune delle risposte sono scritte da ChatGPT.

Mentre i veri studenti hanno ottenuto in media un voto B+, il robot ha dovuto accontentarsi di un C+.

– Il ricercatore di ChatGPT Jonathan Choi ha concluso, da solo, che era uno studente abbastanza mediocre. Ha aggiunto che il bot potrebbe ancora essere utile a molti avvocati. Possono utilizzare l’intelligenza artificiale per scrivere le prime bozze durante la preparazione dei casi.

READ  Nasconditi dalla polizia - VG

L’avvocato Stephen Schwartz ha affermato che il lavoro di un robot dovrebbe essere visto come una bozza e che tutto dovrebbe essere garantito dalla qualità.

Mescolare i fatti

blog Scottosblog Copre la Corte Suprema degli Stati Uniti. I giornalisti hanno posto a ChatGPT 50 domande sulla più alta corte del paese. Non è andata bene.

Solo 21 delle risposte erano completamente corrette. La qualità del legno era discutibile. 26 è stato un vero e proprio errore.

Fatti contrastanti su robotica e produzione pura. Ad esempio, il giudice conservatore Clarence Thomas è stato descritto come molto gay-friendly. Il suo voto in tribunale mostra esattamente il contrario.

I test hanno anche dimostrato che ChatGPT può dare risposte completamente diverse alla stessa domanda, a volte corrette e talvolta semplicemente senza senso.

More articles

Latest article