Ocurrió en los Estados Unidos de América, el país donde se supone que el uso de la tecnología es mucho más avanzado que en Paraguay. Sin embargo, la experiencia fue fatal. Un abogado confió en el programa de inteligencia artificial ChatGPT y lo usó para fundamentar su escrito que presentó ante una Corte.
Al final, el abogado hizo un verdadero papelón. Citó jurisprudencia para respaldar su escrito, no solamente de un caso sino de varios. Para citarlo recurrió al ChatGPT que había sido que le inventó todo, porque todo era falso. “Seis de los casos presentados parecen ser decisiones judiciales falsas con citas falsas y citaciones internas falsas”, le comunicó un juez sobre lo presentado.
Se discutía un caso civil ante un tribunal federal de Manhattan. La parte demandada era la compañía aérea colombiana Avianca. Le demandó una persona que sostenía haber sufrido lesiones en un vuelo entre El Salvador y Nueva York en el 2019. Entonces, en este caso, se trata del abogado Steven Schwartz, que presentó los escritos fundamentándose en los datos hallados en la inteligencia artificial.
Entonces, la contraparte, la defensa de la aerolínea, se puso a averiguar si existían esos casos citados, y encontró que todo estaba inventado. Entonces, pidió el rechazo del escrito.
El juez Kevin Castel, que entendía en el caso, y los abogados de Avianca, que iniciaron las averiguaciones para defender a su cliente, comprobaron que los fallos citados por Schwartz no existen y que los hechos a los cuales se referían eran ficticios. Al final, era realmente producto de una «inteligencia artificial», literalmente hablando.
“La corte se enfrenta a una circunstancia sin precedentes”, escribió el juez Castel, porque, según dijo, “seis de los casos presentados parecen ser decisiones judiciales falsas con citas falsas y citaciones internas falsas”.
Schwartz, que ejerce en Nueva York, se disculpó ante el juez esta semana. “Esto ha sido profundamente vergonzoso tanto a nivel personal como profesional, ya que estos artículos estarán disponibles en los próximos años. Este asunto ha sido una experiencia reveladora para mí y puedo asegurarle a la Corte que nunca volveré a cometer un error como este”, dijo el abogado Schwartz.
Señaló que sus hijos con educación universitaria le habían presentado ChatGPT y que era la primera vez que lo usaba en su trabajo profesional. “En el momento en que realicé la investigación legal en este caso, creía que ChatGPT era un motor de búsqueda confiable. Ahora sé que eso era incorrecto. Nunca fue mi intención engañar a la Corte”, señaló.
El juez le citó para que se presente en persona para hablar sobre la situación y evitar sanciones.