L’utilizzo errato dell’intelligenza artificiale ChatGPT di OpenAI da parte di un avvocato porta a citazioni inventate e potenziali sanzioni giudiziarie.

L’avvocato Steven Schwartz dello studio legale Levidow, Levidow e Oberman si sono recentemente rivolti al chatbot di OpenAI, noto come ChatGPT, per ottenere assistenza nella stesura di una memoria legale. Tuttavia, questa scelta ha portato a conseguenze disastrose e ha creato un “circostanza senza precedenti“, come riportato dal New York Times.

Lo studio legale di Schwartz aveva citato in giudizio la compagnia aerea colombiana Avianca a nome di Roberto Mata, un passeggero che afferma di essersi ferito su un volo diretto a New York. In risposta alla richiesta di archiviazione del caso da parte della compagnia aerea, gli avvocati di Mata hanno presentato una memoria di 10 pagine contenente citazioni di sentenze, tra cui “Varghese v. China Southern Airlines”, “Martinez v. Delta Airlines” e “Miller v. United Airlines”. Tuttavia, come scoperto successivamente, nessuna di queste sentenze era autentica. Erano state inventate da ChatGPT.

In una dichiarazione giurata, Schwartz ha ammesso di aver utilizzato il chatbot per “integrare” le sue ricerche sul caso. Non era a conoscenza della possibilitĂ  che il contenuto fornito da ChatGPT potesse essere falso. Ha anche fornito delle schermate che dimostravano come avesse chiesto al programma se le sentenze citate fossero reali, ottenendo risposte positive.

L’utilizzo errato di ChatGPT da parte di Schwartz ha sollevato seri dubbi sulla sua affidabilitĂ  come avvocato e sul suo approccio alla ricerca legale. Schwartz ha espresso profondo rimorso per l’incidente e ha affermato di non utilizzare mai piĂ¹ il chatbot senza una verifica accurata della sua autenticitĂ . Tuttavia, il giudice che sovrintende al caso ha ordinato un’udienza per l’8 giugno per discutere le potenziali sanzioni che potrebbero essere applicate a Schwartz a causa delle sue azioni.

Questo evento mette in evidenza le sfide e le responsabilitĂ  che accompagnano l’uso dell’intelligenza artificiale, in particolare nei settori sensibili come il sistema legale. Mentre l’intelligenza artificiale puĂ² offrire assistenza e automatizzare alcune attivitĂ , è fondamentale che gli utenti ne comprendano i limiti e agiscano con cautela per evitare conseguenze disastrose come quella verificatasi in questo caso.

Articolo precedenteSamsung Galaxy S23 FE: altre conferme per il SoC Exynos 2200
Articolo successivoSynology DS223: NAS economico e performante – Recensione