Usamos cookies en nuestro sitio web para brindarte la experiencia más relevante recordando tus preferencias y visitas repetidas. Haz clic en "Aceptar todas las cookies" para disfrutar de esta web con todas las cookies, configura tus preferencias antes de aceptarlas, o utiliza el botón "Rechazar todas las cookies" para continuar sin aceptar.

Gestión de Cookies
Zona Privada Asociados   |   Boletines Compliance
 
FORMULARIO DE CONTACTO
Deseo suscribirme al Newsletter de la WCA
 

05/02/2024

Cómo afectará la inteligencia artificial a la profesión jurídica

Técnicos y científicos han denunciado, a últimas fechas, los peligros de la Inteligencia artificial

¿Tienen una razón de ser sus denuncias?

Hasta Sam Haltman, cofundador de OPen AI, la compañìa que creó el GPT, exige que su propia firma sea regulada: "con la I.A: hay que tener el mismo cuidado que se tiene con las armas nucleares", declaró hace poco. Otras voces, sin embargo, consideran que a los que hay que regular es a los administradores sobre el impacto que la I.A, pueda tener en la profesión jurídica,

Tres expertos, coordinados por Gerardo Laveaga, director de El Mundo del Derecho, reflexionan sobre el tema: Christian Paredes, coordinador de la Comisión de Tecnologías de la Barra Mexicana, Colegio de Abogados; Cynthia Solís, integrante del Consejo Consultivo del IFT y coautora del libro Mi vecino es un robot; y Rodrigo García, miembro del Consejo Directivo de la Barra Mexicana y el Colegio de Abogados.

Gerardo Laveaga. ¿El avance de la inteligencia artificial es una buena noticia o una mala noticia para la profesión jurídica?

Christian Paredes. Eso va a depender de la capacidad que tengamos abogados y abogadas para adaptarnos a ella. Si no lo hacemos, será una aplanadora. Acabará con nosotros.

Cynthia Solís. Ya hay quien cree que no vale la pena pagar abogados. ¿Para qué? ¿Para elaborar contratos, avisos de privacidad, una demanda o un acuerdo? Yo creo que la I.A. va a generar más trabajo para nosotros; alguien tendrá que subsanar las omisiones que dejará la excesiva confianza en estas tecnologías, pero que, si no nos esmerarnos en desarrollarla y regularla, sí, acabará por sustituirnos en gran medida.

Rodrigo García. La inteligencia artificial llegó para quedarse. Coincido con mis colegas en que hay que adaptarnos a ella y regularla. ¿Cómo? Primero, enfocándonos en cada especialidad. Segundo, reflexionando en las consecuencias de su uso. ¿Quién va a ser responsable de que algo salga mal? ¿ante quién va a actuarse? Soy optimista y creo que la I.A. va a abrir nuevas oportunidades para la profesión jurídica, pero es preciso estar muy atentos.

Laveaga. Aunque el tema de las responsabilidades también acabara siendo resuelto por la I.A. ¿o no?

Paredes. Es posible. Antes íbamos a la papelería a comprar un machote de contrato de arrendamiento o pagaré. Hoy, eso lo hace la I.A. Al principio, servirá para esto y nos agilizará el trabajo. Luego, ella misma generará respuestas para lo que hoy no está contemplado. ¿Hasta dónde llegará? No lo sabemos…

Solís. Quien adquiere un machote, está consciente de que se trata de un machote. Puede tener fallas. Sobre la I.A., en cambio, se piensa que es perfecta, realmente hay gente que cree que emula a la perfección la conciencia humana. Y no lo es. La I.A. es como un niño: si lo educas bien, responde; si no, no. Si no nos preocupamos en crear una Inteligencia Artificial “correcta”, los efectos pueden ser catastróficos.

García. En esto, la universidad y los colegios de abogados vamos a influir. Hay que darle a la I.A. un enfoque ético. Si quien hace el proyecto lo hace mal, las cosas irán mal para todos.

Laveaga. ¿Qué significa "hacerlo mal"? ¿cómo se define, en algoritmos, el enfoque ético? Si una mujer engañada sólo quiere vengarse de su marido ¿qué solución aportará la Inteligencia Artificial? Si un sujeto gana un pleito porque la casa era suya, de acuerdo con un testamento, pero él decide donársela a su hermana ¿cómo va a proceder éticamente la I.A.?

Paredes. Habrá que hablar, entonces, de Inteligencia Artificial Emocional. El chat GPT, por ejemplo, suprime la parte emocional. Y, sí, hoy día la profesión jurídica se enfrenta a un 80 por ciento de casos donde predomina lo sentimental. Cuando lo descubra, la gente exigirá que la I.A. considere estos elementos. Aquí hay un límite clarísimo para la I.A.

Laveaga. Hay quienes aseguran que la I.A, está sobrevalorada y que en donde debemos focalizar nuestra atención es en sus administradores: "detrás de la Inteligencia Artificial, siempre hay personas", asevaran. ¿Cuántos años quedan para que la profesión jurídica siga como hasta ahora?

Solís. De cinco a diez años. Entonces veremos una transformación significativa. Y quienes aprovechen esta tecnología, dejarán atrás a los que no lo hagan. El aumento de la desigualdad en el mundo –y no sólo en el mundo jurídico en particular será preocupante.

García. Me parece que el plazo es variable y dependerá de la adaptabilidad que se vaya teniendo. Esto se confirma cuando vemos cómo un chat GPT puede aprobar un examen en un Colegio de Abogados. Y, peor aún, cuando el chat GPT inventó normar y citar jurisprudencia que no existe, como también ya ocurrió.

Paredes. O reprobarlo, como ya ocurrió…

García. En ambos casos, la pregunta es ¿qué sigue?. Esto es lo que a mí más me inquieta, ¿quién debe pagar los platos rotos y quién se hará responsable cuando falla la I.A.?

Laveaga. Veámoslo desde la perspectiva del juez, ¿la I.A. los ayudará?

Paredes. Eso dependerá del presupuesto. Podía haber sentencias más efectivas, sí. Hoy, muchas son de machote…

Solís. Hay antecedentes de “jueces electrónicos”. Los jueces ganarán con la I.A. Pero ésta nunca sustituirá a un juez. Si la I.A. se equivoca –y aquí cito a Rodrigo– ¿quién se hace responsable? El caso de Tesla fue un buen ejemplo: un usuario se confió al “automóvil que se manejaba solo” y tuvo un accidente. La culpa se le atribuyó al usuario y lo que hizo Tesla fue cambiar el concepto de “autoconducido a autoasistido”.

García. En mi opinión, la Inteligencia Artificial nunca podrá sustituir a un juez. Basta ver las posturas tan encontradas en una sesión del pleno de la Suprema Corte para anticiparlo. Será, eso sí, un auxiliar para la impartición de justicia, pero difícilmente suplantará al juzgador en su actuar.

Paredes. Estoy de acuerdo. Los elementos subjetivos siempre pesan más. Si sólo se tuviera en cuenta los objetivos, todo sería más simple.

Solís. De haber presupuesto, como dice Christian, un árbitro electrónico sería lo ideal. Pero ¿qué pasa si una de las partes omite un dato con intención… o sin intención? ¿se pide una segunda opinión a otro robot? La Ley de Protección de Datos Personales ya ha avanzado al respecto…

García. Cynthia tiene razón. Y si esto pasa en el derecho administrativo y familiar ¿qué no pasará en el penal, donde se ocultan pruebas, se miente deliberadamente y se fabrican delitos?

Laveaga. ¿Cuáles son, en estos escenarios, los principales riesgos que supone la Inteligencia Artificial?

Paredes El más obvio, que se atrofien las personas. Que dejen de pensar y se anule su sentido crítico y analítico. Y esto vale no sólo para abogados. Sino para todas las profesiones.

Laveaga. ¿Tan grave es que se resuelva un problema sin entenderlo? Yo no sé hacer raíces cuadradas, pero podría utilizar una calculadora para despejarlas…

Solís. Coincido con ambos. Hoy no habrán mayores consecuencias, pero en 10 años, las habrá. Existirá una Inteligencia Artificial que puede ser “tonta” y no sólo no nos resolverá problemas, sino que nos creará otros más graves si no la entendemos.

Laveaga. ¿Cuál sería el peor escenario?

García. Que no pongamos freno y dejemos que la máquina haga todo. Es imperativo legislar, controlar.

Paredes. De hecho, quien genera los códigos es quien decide. El dueño del código fuente es quien decide, por supuesto. Por eso, nosotros debemos involucrarnos: para evitar abusos. Tenemos que hacerlo. Y, de nuevo, aquí hay áreas de oportunidad para los abogados. Tendremos que especializarnos más.

Solís. En México ya hemos tenido casos de extorsión a algunos empresarios a través de la I.A. La legislación debe poner límites a los desarrolladores. Hay que impedir, además, sesgos como la discriminación racial o de género.

Laveaga. ¿Se puede legislar sobre todas las tecnologías?

García. Temo que no. Habrá que ir viendo caso por caso. Pensar que se puede regular algo al 100%, sería ingenuo. Todo es siempre mejorable y perfeccionable, así que se tendrá que ir legislando conforme avance la IA para evitar caer en temas de comisión de delitos, como ha sucedido en las redes sociales, donde no se anticipó el problema que se avecinaba.

Solís. El reto será poner candados. En un call center donde un robot te saca toda la información y luego no sabes a dónde va esa información, todo puede ocurrir.

García. Los hackers avanzan aceleradamente y los abogados debemos estar alerta.

DATOS

noventa por ciento de posibilidades de que entre 2075 y 2090 haya máquinas tan inteligentes como los humanos.

"La ia sintetiza y automatiza tareas intelectuales y es, por lo tanto, potencialmente relevante para cualquier ámbito de la actividad humana": stuart Rusell y Petter Norvig.

FRASES

La I.A. es como un niño: si lo educas bien, responde; si no, no. Si no nos preocupamos en crear una Inteligencia Artificial “correcta”, los efectos pueden ser catastróficos.

Cynthia Solís

La Inteligencia Artificial nunca podrá sustituir a un juez. Será, eso sí, un

auxiliar para la impartición de justicia, pero difícilmente suplantará al juzgador en su actuar.

RODRIGO GARCÍA

 

Un riesgo de la Inteligencia Artificial es que se atrofien las personas. Que dejen de pensar y se anule su sentido crítico y analítico. Y esto vale no sólo para abogados. Sino para todas LAS PROFESIONES.

 

Christian Paredes

 

Link de la noticia

Quiénes Somos


 
Patrocinadores
Colaboradores
Entidades Asociadas