LUN
-Prensa Papel
jueves, octubre 10, 2024
sectionEl Día
jueves, octubre 10, 2024 3:00 a. m.
“La Inteligencia Artificial puede llevarnos a comportamientos que no queremos tener”
Santiago Bello, decano de la Facultad de Derecho de la Universidad de Burgos, España

Explica que esta tecnología debe ser urgentemente regulada, porque, si no, puede menoscabar la dignidad de las personas.

“¿Usted está seguro de que yo soy Santiago Bello y no una Inteligencia Artificial?”.

Una voz hace una pregunta a través del teléfono. Tiene acento español, lo que indica que podría ser el decano de la Facultad de Derecho de la Universidad de Burgos, España, pero en estos tiempos las criaturas algorítmicas pueden falsear casi todo. El celular empieza con +34, el código de ese país, pero no es suficiente. Parece un test: el creado por el matemático británico Alan Turing para determinar si una máquina puede al menos simular que piensa como un ser humano, o el Voight-Kampff, que desenmascaraba a los replicantes de perfecta apariencia en la película “Blade Runner”. Hay un detalle, eso sí, que permitiría confirmar que el doctor en Derecho está realmente al otro lado de la línea.

Una Inteligencia Artificial no hablaría mal de otra Inteligencia Artificial, ¿no le parece?

“Hasta ahora no ha pasado, pero puede pasar. Una Inteligencia Artificial podría caer en contradicciones”.

Bello expuso sobre los riesgos de este avance tecnológico en el III Congreso Hispanoamericano de Derechos Humanos 2024, que se realizó en La Serena y que fue organizado por la Universidad del Alba y la Red Hispanoamericana de Derechos Humanos Francisco de Vitoria”.

¿Cuáles son los peligros de la Inteligencia Artificial?

“Por ejemplo, limitar la actuación de las personas, sustituirlas, llevarnos a comportamientos que no queremos tener, conducirnos a razonamientos que no queremos tener. En definitiva, menoscabar la dignidad de las personas y su propia autodeterminación. Una de las grandes conquistas del ser humano es ser capaz de vivir libre, de nacer libre y de morir con libertad”.

¿Podría dar un ejemplo?

“Imagínese que usted y yo estuviésemos hablando personalmente. Podríamos estar siendo grabados por un dron y cambiar la conversación que hemos tenido. Imagínese que yo voy a dar una conferencia y soy sustituido por una máquina”.

Recuerda además el caso de Blanca, una madre colombiana que el 31 de agosto del 2022 acudió a los tribunales porque una Entidad Promotora de Salud (EPS) le cobraba “cuotas moderadoras” y “copagos” por las terapias sicológicas, ocupacionales y fonoaudiológicas de su hijo con Trastorno del Espectro Autista (TEA). El tribunal de primera instancia falló a favor de ella, porque existe una ley que establece que las personas con esta condición y con bajos recursos quedan exonerados de estos pagos. Blanca tuvo que hacerse cargo sola de su hijo y no tenía trabajo estable. La EPS apeló y el 30 de enero del 2023, el “juzgado del circuito”, de segunda instancia, también le dio la razón a ella. Lo curioso es que el juez de este tribunal explicó en el fallo que, luego de tomar la decisión, le hizo unas consultas sobre el caso a la aplicación ChatGPT 3.5. Las respuestas, que el juez transcribió en ese documento, coincidían con su decisión.

“El resultado al que llega el juez como persona es el mismo resultado al que llega la máquina como máquina. Entonces la respuesta a la pregunta que se hizo Turing de si una máquina puede pensar, la respuesta es favorable. Puede pensar, porque ha sido capaz de dar una respuesta autónoma y racional a un problema. A mí, como jurista, eso me impresiona”, explica la voz al otro lado del teléfono.

El revuelo en Colombia fue tan grande que la Corte Constitucional investigó si en este caso había alguna irregularidad. Incluso llamó a declarar al juez. “No se observa en el presente trámite que se configure una violación del derecho al debido proceso”, estableció este tribunal. Sin embargo, advirtió que el juez corrió el riesgo de recibir respuestas imprecisas, debido a los sesgos que tiene esta aplicación, y elaboró una lista de criterios para el uso de Inteligencia Artificial en los tribunales colombianos. Uno de ellos es el “control humano”, es decir, se puede usar, pero siempre debe prevalecer el criterio de un juez, de carne y hueso, por cierto.

“Se asustaron al ver que un juez, pese a que había tomado la decisión como persona, podría en un momento dado preguntar oye, máquina, ¿qué hago en este juicio? Si hubiese querido, podría haberse sometido a lo que le dictaba la máquina”, asegura.

¿Qué hay que hacer, entonces?

“Hay que pedirles a los gobernantes que regulen con intensidad esta nueva tecnología. No estoy en contra de la Inteligencia Artificial. Estoy en contra de una Inteligencia Artificial descontrolada. Si no la gobernamos bien, gente que tiene mucho dinero la va a utilizar en contra de las personas que no tienen medios”.

La Inteligencia Artificial está controlada por los grandes magnates de la tecnología, que pueden manipular gobiernos para evitar el control.

“Por eso los estados tienen que hacerse igual de grandes que los magnates. Los estados tienen que trabajar en conjunto. La Unión Europea ha aprobado hace unos meses una ley de Inteligencia Artificial. Espero que esta ley sirva como ejemplo para otros países”.

Bello dice que no está en contra de la Inteligencia Artificial. Es sólo que cree que debe ser regulada.

“Imagínese que yo voy a dar una conferencia y soy sustituido por una máquina”

Santiago Bello
LUN
-Prensa Papel
jueves, octubre 10, 2024
sectionEl Día
jueves, octubre 10, 2024 3:00 a. m.
Copiar Url
descargar pdfGenerar Pdf
descargar pdfExportar a PR
Página:
2
0
Recorte
Contexto
cerrar