Avvocato finisce nei guai per aver usato falsi precedenti creati da ChatGPT

Un avvocato di New York andrà a processo non come difensore, ma come imputato. Un suo collaboratore ha ammesso di aver usato ChatGPT per generare precedenti legali che pensava fossero veri, ma che purtroppo per lui erano stati inventati di sana pianta del sistema di AI generativa.

La disfatta legale è iniziata in modo abbastanza innocuo. Una compagnia aerea è stata citata in giudizio per presunte lesioni personali. Il team legale del querelante ha cercato di costruire il proprio caso facendo riferimento a diversi precedenti giudiziari, presentando una memoria che citava tali esempi, sperando così di sostenere la tesi contro la compagnia aerea.

La causa ha preso una piega inaspettata quando i legali della compagnia aerea hanno contestato la validità dei casi citati. Diversi, secondo loro, erano inesistenti. “Sei dei casi presentati sembrano essere decisioni giudiziarie false con citazioni false“, ha scritto il giudice Castel, chiedendo al team legale del querelante di chiarire la situazione.

Scavando più a fondo è emersa l’imbarazzante verità: Steven A. Schwartz, un collega del legale che seguiva la causa, Peter LoDuca, aveva utilizzato ChatGPT per svolgere la ricerca di casi simili. Schwartz, a sua discolpa, ha dichiarato che era la prima volta che utilizzava il chatbot per ricerche legali e che non era a conoscenza della possibilità che questo potesse generare contenuti falsi. Inoltre, ha chiarito che l’avvocato LoDuca non era a conoscenza dei suoi metodi di ricerca “assistiti dall’AI”.

Schwartz si è impegnato a non utilizzare più l’AI per integrare le sue ricerche legali senza verificare accuratamente l’autenticità dei risultati. Schwartz e LoDuca sono stati convocati in tribunale per difendersi da una possibile azione disciplinare.

Per approfondire: ChatGPT: US lawyer admits using AI for case research