top of page
  • Foto del escritorAarón Almansa

Retos Jurídicos de la Inteligencia Artificial

La inteligencia artificial (IA) ha experimentado un crecimiento exponencial en todos los sectores de nuestra sociedad, siendo incluso comparada con la revolución que en su día supuso la aparición de la electricidad. Las soluciones basadas en IA han alcanzado niveles de autonomía sorprendentes, demostrando una eficacia asombrosa que a menudo supera las capacidades humanas en determinadas tareas.


Esta revolución tecnológica plantea importantes desafíos empresariales y técnicos, pero también jurídicos.


Evaluar de manera ponderada los riesgos y beneficios asociados a la IA, es fundamental para poder establecer una regulación equilibrada que garantizando los derechos fundamentales permita un progreso responsable sin obstaculizar el desarrollo y la competitividad empresarial.


Los Datos

El riesgo más importante al que se enfrenta el uso de la inteligencia artificial (IA) tiene relación con los datos que utiliza: Origen, Tipo, Volumen, y Calidad

Los datos constituyen la materia prima para que esta tecnología sea capaz de generar resultados y aprender de forma continua y constante.

Los principales retos a nivel jurídico que se plantean sobre los datos podemos clasificarlos en dos categorías:

  1. El origen y la recogida de los datos

La procedencia y recopilación de datos plantea conflictos relacionados con los derechos de propiedad intelectual y la protección de datos, especialmente en Europa. La legislación de la Unión Europea (UE) prohíbe el procesamiento de información personal sin el consentimiento de las personas, incluso cuando los datos son de acceso público en Internet. A continuación, se presentan dos ejemplos de conflictos asociados a este aspecto:

  • Para que soluciones como Midjourney puedan crear imágenes a partir de texto, se ha requerido recopilar miles de millones de imágenes y textos descriptivos de Internet. Esto ha generado un conflicto sobre la legalidad de utilizar contenido protegido por derechos de autor para "enseñar" a estos sistemas. Muchos artistas sostienen que esto es ilegal, ya que se utilizan sus obras para crear otras, lo cual puede afectar a su mercado. Sin embargo, también existe un argumento técnico en sentido contrario que defiende que estos sistemas solo "aprenden", no copian ni almacenan en memoria las obras, sino que las utilizan para mejorar su conocimiento sobre cómo realizar la tarea. Esto no difiere mucho de cómo un ser humano se deja influenciar e inspirar por su entorno, lo que ve, oye, lee y conoce.

  • Para aprender a mantener conversaciones con humanos, ChatGPT ha requerido un entrenamiento exhaustivo con cientos de miles de millones de palabras extraídas de la web. Estos textos pueden incluir menciones a personas a quien nadie ha solicitado su consentimiento. Por lo tanto, con una interpretación estricta de la normativa europea, parece incompatible su uso en sistemas como ChatGPT. En este contexto, Italia ha prohibido su uso, y Alemania y España están estudiando medidas similares.

El problema es que esta prohibición tiene un impacto significativo en la competitividad de un país, ya que este tipo de herramientas aumentan la productividad de profesionales y empresas. Por ello, la legislación europea se encuentra en una encrucijada entre la protección de datos personales y la necesidad de fomentar la innovación y la competitividad en el campo de la IA.

Se requiere un enfoque equilibrado que garantice la protección de los derechos individuales sin obstaculizar el avance tecnológico y la capacidad de aprovechar los beneficios que ofrecen estas tecnologías. Es necesario evitar quedarse rezagados frente a países con regulaciones más flexibles, como los anglosajones.


2. Calidad y volumen de los datos La calidad, cantidad e imparcialidad de los datos utilizados en el entrenamiento de un sistema de IA, son aspectos cruciales que generan una dependencia significativa con la precisión y equidad de los resultados obtenidos. Si los datos no son suficientes, son poco precisos, o contienen sesgos, los resultados generados por la IA serán erróneos.

La presencia de sesgos en los datos utilizados es especialmente preocupante en el contexto de algoritmos predictivos. A continuación se presentan dos ejemplos ilustrativos de la importancia de abordar los sesgos en los datos utilizados para entrenar los sistemas de IA:

  • En el sistema judicial de Estados Unidos, se emplea un algoritmo de aprendizaje automático llamado Compass para evaluar el riesgo de reincidencia en procesos penales. Este algoritmo presentaba un sesgo racial debido a los datos utilizados para su entrenamiento. Se constató que tendía a predecir un mayor riesgo para las personas de raza negra, lo que plantea serias preocupaciones en cuanto a la equidad y la justicia del sistema.

  • Otro ejemplo de discriminación de género en el ámbito laboral es el caso de Amazon, donde se implementó un algoritmo de aprendizaje profundo en los procesos de selección de personal. Con la utilización de los resultados de este algoritmo, el número de mujeres que llegaban a la etapa final de las entrevistas de contratación era muy bajo, ya que rechazaba sistemáticamente los currículums de mujeres. Esto evidencia cómo los sesgos en los datos utilizados pueden perpetuar la discriminación y la desigualdad en el ámbito laboral.

Es necesario por tanto implementar prácticas rigurosas de recopilación de datos y técnicas de mitigación de sesgos para garantizar que la IA sea justa, equitativa y respete los derechos fundamentales de todas las personas involucradas.


Los Resultados

El segundo aspecto crítico en los riesgos asociados a las aplicaciones de IA se refiere a la opacidad de sus resultados. En la mayoría de las ocasiones, la solución genera un resultado/predicción/decisión sin proporcionar una explicación clara sobre el por qué, es decir, un razonamiento del funcionamiento del algoritmo (causas, variables, árbol de decisión, …) que le ha llevado a generar un resultado determinado (explicabilidad). Esta opacidad en la obtención de los resultados se conoce como el "efecto caja negra", y es un problema de gran envergadura no solo desde el punto de vista técnico, sino también desde la perspectiva jurídica. La falta de acceso a esta información puede llevar a violaciones ocultas e inesperadas de los derechos fundamentales. Veamos algunos ejemplos ilustrativos:

  • En el ámbito de la concesión de préstamos, un algoritmo puede rechazar una solicitud sin proporcionar una explicación clara sobre los criterios específicos utilizados. Esto puede provocar una discriminación injusta, y potenciales violaciones de los derechos de igualdad y no discriminación.

  • En el contexto del sistema de justicia penal, si un algoritmo se utiliza para predecir la reincidencia de un delincuente, pero no se comprende cómo se llegó a esa predicción, podría generar consecuencias injustas y contravenir el derecho a un juicio justo y a la protección contra la arbitrariedad. La Corte de Distrito de La Haya (Países Bajos) dictaminó en Febrero de 2020 la ilegalidad del algoritmo SyRI (Sistema de Indicación de Riesgos) empleado por el Gobierno de los Países Bajos para combatir el fraude en la Seguridad Social. Esta decisión se basó en la invasión desproporcionada y discriminatoria de la privacidad, así como en la imposibilidad de verificar el diseño del árbol de decisión utilizado por el algoritmo y los pasos/criterios involucrados en el mismo.

La Utilización

Otro aspecto fundamental en la regulación de la inteligencia artificial (IA) se relaciona con un uso adecuado. Es importante tener en cuenta que un algoritmo en sí mismo no puede calificarse y considerarse como ético, injusto, equitativo, …, ya que simplemente es una herramienta "neutra" utilizada por alguien para lograr un propósito específico. La clave está en su utilización.


Tomemos como ejemplo un sistema que analiza datos de un paciente y sugiere un diagnóstico. Este tipo de tecnología puede resultar altamente valiosa para asistir a un médico en la toma de decisiones basada en su propio criterio profesional. Sin embargo, la misma tecnología se convierte en un riesgo si es el propio sistema quien de forma autónoma diagnostica y toma la decisión final, reemplazando al facultativo.


Esto resalta la importancia de establecer una regulación que defina claramente los límites y roles de la IA en el proceso de toma de decisiones. Es esencial garantizar que la IA sea utilizada como una herramienta de apoyo para mejorar la eficiencia y precisión de los profesionales humanos, en lugar de reemplazar su juicio y experiencia.

La regulación en este ámbito debe garantizar que la toma de decisiones finales siga estando en manos de los profesionales competentes, respaldados por el análisis y las sugerencias proporcionadas por la IA de manera ética y responsable.


Las Consecuencias

El uso de la inteligencia artificial plantea un desafío adicional relacionado con la responsabilidad de los posibles fallos o errores que puedan surgir. Estos errores podrían provocar daños personales o materiales que habrá que reparar.

Poder determinar la responsabilidad civil o penal correspondiente, es crucial para garantizar una adecuada reparación de los daños ocasionados.

Vale la pena remarcar en este contexto, que los sistemas de inteligencia artificial son vulnerables a los ciberataques, y por tanto los fallos pueden ser provocados también por un tercero (ciberdelincuente).


Todo ello requiere marcos legales claros y actualizados que aborden estos desafíos y proporcionen una base sólida para la protección de los individuos y la sociedad en general. Un par de ejemplos sobre consecuencias fatales no deseadas, y la necesidad de determinar posibles responsabilidades:

  • Los errores de diseño no descubiertos en el modelo de avión Boeing 737 Max provocaron a finales de 2018 dos accidentes y la pérdida de 346 vidas.

  • En 2020 en Alemania, un ataque ransomware a los sistemas de un hospital provocó la interrupción de la unidad de cuidados intensivos, y una paciente falleció mientras se le trasladaba a otro hospital.

La relación entre la tecnología y lo humano

En el ámbito de la relación hombre-máquina, surgen tres aspectos de preocupación que destacan la importancia del factor humano en conjunción con la IA, a pesar de su vertiginoso y creciente avance en autonomía:

  1. La toma de decisiones en situaciones de discrepancia: En caso de desacuerdo entre la tecnología y el ser humano, resulta crucial determinar quién debe tener la última palabra. Esta cuestión plantea interrogantes sobre la autoridad y responsabilidad en la toma de decisiones cuando ambos actores están involucrados.

  2. La responsabilidad humana frente a fallos del sistema de IA: Si un sistema de IA presenta un fallo o comete un error, es fundamental establecer el grado de responsabilidad que recae sobre el ser humano. Definir los límites y la participación del factor humano en el desarrollo, supervisión y corrección de los sistemas de IA.

  3. Utilizar la IA para mejorar las condiciones laborales: Más allá de su capacidad para incrementar la productividad, es esencial aprovechar la IA como una plataforma tecnológica que contribuya a mejorar las condiciones laborales de los trabajadores. Su implementación debe considerar no solo aspectos económicos, sino también el bienestar y desarrollo de los profesionales involucrados.

Estos tres aspectos resaltan la necesidad de un enfoque equilibrado entre la tecnología y el factor humano, donde la IA se utilice de manera responsable y ética para potenciar tanto el rendimiento como el bienestar en nuestras sociedades.


“Poner la inteligencia artificial al servicio del progreso humano exige dar solución a los problemas jurídicos que plantea, porque estas soluciones determinarán el tipo de sociedad y de desarrollo tecnológico del futuro”.

27 visualizaciones0 comentarios

Entradas Recientes

Ver todo

Comments


bottom of page