Oficinas Centrales

Bahía de Ballenas No. 58
Col. Verónica Anzures, Alcaldía Miguel Hidalgo
C.P. 11300, Ciudad de México

Contácto

Un abogado de Nueva York enfrenta una audiencia judicial después de que su firma utilizara la herramienta de IA ChatGPT para la investigación legal. El juez afirmó que el tribunal se enfrentaba a una “circunstancia sin precedentes” después de descubrir que un escrito hacía referencia a casos legales de ejemplo que no existían.

El abogado que utilizó la herramienta declaró ante el tribunal que “no sabía que su contenido podría ser falso”. ChatGPT genera texto original a solicitud del usuario, pero se advierte que puede “producir información inexacta”.

El caso original involucraba a un hombre que demandaba a una aerolínea por una presunta lesión personal. Su equipo legal presentó un resumen que citaba varios casos judiciales anteriores en un intento de demostrar, mediante precedentes, por qué el caso debería seguir adelante.

Sin embargo, los abogados de la aerolínea más tarde escribieron al juez para informar que no pudieron encontrar varios de los casos citados en el resumen. “Seis de los casos presentados parecen ser decisiones judiciales falsas con citas falsas y referencias internas falsas”, escribió el juez Castel en una orden que exigía al equipo legal del demandante que se explicara.

A lo largo de varias presentaciones, se descubrió que la investigación no había sido realizada por Peter LoDuca, el abogado del demandante, sino por un colega suyo en el mismo bufete de abogados. Steven A Schwartz, quien ha sido abogado durante más de 30 años, utilizó ChatGPT para buscar casos previos similares.

En su declaración por escrito, el Sr. Schwartz aclaró que el Sr. LoDuca no había participado en la investigación y no tenía conocimiento de cómo se había llevado a cabo. El Sr. Schwartz añadió que “lamenta mucho” haber confiado en el chatbot, ya que afirmó que nunca lo había utilizado para la investigación legal antes y “no sabía que su contenido podría ser falso”. Se comprometió a no volver a utilizar la IA para “complementar” su investigación legal en el futuro “sin una verificación absoluta de su autenticidad”.

Las capturas de pantalla adjuntas al escrito parecen mostrar una conversación entre el Sr. Schwarz y ChatGPT. “¿Es el caso Varghese real?”, dice un mensaje, haciendo referencia a Varghese v. China Southern Airlines Co Ltd, uno de los casos que ningún otro abogado pudo encontrar. ChatGPT responde que sí lo es, lo que lleva a Schwartz a preguntar: “¿Cuál es tu fuente?”. Después de “verificarlo nuevamente”, ChatGPT vuelve a responder que el caso es real y se puede encontrar en bases de datos de referencia legal como LexisNexis y Westlaw. Asegura que los otros casos que ha proporcionado al Sr. Schwartz también son reales.

Ambos abogados, que trabajan para el bufete Levidow, Levidow & Oberman, han sido citados para explicar por qué no deberían ser sancionados en una audiencia el 8 de junio.

Millones de personas han utilizado ChatGPT desde su lanzamiento en noviembre de 2022. Puede responder preguntas en lenguaje natural similar al humano y también puede imitar otros estilos de escritura; Además, utiliza Internet tal como estaba en 2021 como base de datos.

Ha habido preocupaciones sobre los posibles riesgos de la inteligencia artificial (IA), incluida la difusión de desinformación y sesgos.

La utilización de la inteligencia artificial (IA) en actividades cotidianas ha experimentado un crecimiento significativo en los últimos años, abarcando diversos campos más allá de la abogacía. Si bien la IA ofrece numerosos beneficios y oportunidades en el ámbito laboral, también conlleva ciertos riesgos que es importante tener en cuenta.

Uno de los principales beneficios de la IA es su capacidad para automatizar tareas repetitivas y tediosas, lo que permite a los profesionales dedicar más tiempo y esfuerzo a actividades de mayor valor agregado. En el contexto legal, por ejemplo, las herramientas de IA pueden ser utilizadas para realizar investigaciones exhaustivas en bases de datos, analizar grandes volúmenes de documentos y, redactar contratos y otros documentos legales de manera más eficiente. Esto no solo acelera el proceso, sino que también puede ayudar a mejorar la precisión y la calidad del trabajo realizado.

Además, la IA puede brindar a los profesionales acceso a vastas cantidades de información en tiempo real. Mediante el análisis de datos y la identificación de patrones, la IA puede proporcionar perspectivas valiosas para la toma de decisiones informadas. Esto puede ser especialmente útil en campos como el marketing, donde la IA puede ayudar a segmentar audiencias, personalizar estrategias y predecir tendencias del mercado.

Sin embargo, junto con estos beneficios, también existen riesgos asociados al uso de la IA. Uno de los principales riesgos es la falta de transparencia y explicación en los resultados generados por los algoritmos de IA. A menudo, los sistemas de IA operan con base en modelos complejos que pueden ser difíciles de entender, lo que dificulta la identificación de posibles sesgos o errores. Esto plantea preocupaciones en términos de responsabilidad y ética, especialmente en áreas sensibles como la toma de decisiones judiciales o la evaluación de solicitudes de empleo.

Además, existe el riesgo de que la IA reemplace ciertos puestos de trabajo, lo que podría resultar en la pérdida de empleo para algunos profesionales. Si bien es cierto que la IA puede automatizar tareas rutinarias, aún se requiere la intervención humana para actividades que implican juicio, empatía y creatividad. La colaboración entre humanos y máquinas se perfila como un enfoque más prometedor, donde la IA complementa y potencia las capacidades humanas en lugar de reemplazarlas por completo.

Otro riesgo importante es la privacidad y la seguridad de los datos. La IA depende de grandes conjuntos de datos para entrenar y mejorar sus algoritmos. Esto plantea preocupaciones sobre la recopilación, almacenamiento y uso de datos personales y confidenciales. Es esencial garantizar que se implementen medidas adecuadas para proteger la privacidad de los individuos y evitar el mal uso de la información.

Referencias

https://www.bbc.com/news/world-us-canada-65735769

https://chat.openai.com/

Share:

Rafael Bravo

editor