La protección de datos personales en el caso de una Inteligencia Artificial

Cómo se tutelan los datos personales tratados por una Inteligencia Artificial

La Inteligencia Artificial (IA) o Machine Learning es una herramienta que su utiliza en la actualidad para el desarrollo de soluciones por terceros (programadores, desarrolladores de productos, etc.) con aplicación en sectores tecnológicos y de la innovación, desde buscadores de Internet, asistentes personales, robótica, videojuegos, control industrial, hasta otros como el ámbito sanitario, optimización de servicios públicos, sistemas de defensa o gestión medioambiental. La IA accede y trata esos datos como parte de otras tecnologías o tratamientos, como big data, IoT, 5G, etc. Corresponde a datos que por sus características y especial sensibilidad son tutelados por las autoridades y gobiernos, y que son tratados no solo por la IA sino por los elementos humanos y tecnológicos que la desarrollan.  

La IA es “la ciencia y la ingeniería de crear máquinas inteligentes” y su configuración legal y algunos riesgos del aprendizaje automático fueron objeto de un artículo anterior.

En esta ocasión, queremos explicar cómo se tutelan los datos personales que puedan ser tratados por una IA. Dicho tratamiento, especialmente por implicar IA aún en evolución, debe resultar legitimado, realizarse de forma transparente según elementos estandarizados de protección, y en el respeto del ejercicio de derechos por los afectados, la precisión de muestro, la minimización del impacto y un filtro de proporcionalidad.

Para normalizar esta tutela, la Agencia Española de Protección de Datos (AEPD) ha publicado un documento de Adecuación al RGPD de tratamientos que incorporan Inteligencia Artificial. Una introducción. Con base en el Reglamento General de Protección de Datos (RGPD), la AEPD ha elaborado esta guía sobre cómo deben de tratarse los datos en los casos de productos y servicios que incluyan componentes de IA, incluyendo el diseño e implementación de los tratamientos que incluyan IA.

 

TIPO DE DATOS (PERSONALES) PROCESADOS POR LA IA

Se distinguen tres categorías diferentes de IA: las inteligencias artificiales generales, fuertes y débiles. La IA general debería resolver cualquier tarea intelectual en igualdad de condiciones que un ser humano; la IA fuerte o superinteligencia iría más allá de las capacidades humanas, mientras que la IA-débil (AI-weak), en contraste con las otras dos, se centra en desarrollar soluciones a problemas concretos y delimitados.

¿Cuál es la afectación de datos personales?. La IA puede tratar datos de personas físicas (p. ej., uso de datos personalesvinculados a la configuración de preferencias de búsqueda y cuentas personales conectadas por motores de búsqueda online) de otros que no implican tratamientos de datos personales (p. ej., modelos de predicción meteorológica).

Los datos recabados o tratados (ya sean personales o no) son utilizados a la hora de la toma de decisiones por la IA de dos formas: para ayudar en el proceso de decisión pero sin tomar la decisión final (que corresponde al ser humano), o para adoptar (y ejecutar) autónomamente la decisión.

Otro elemento importante es el ciclo de vida de las soluciones de IA.

  • Concepción y análisis

Se establecen los requisitos funcionales y no funcionales de la solución

  • Desarrollo

Incluye sub-etapas como investigación, prototipado, diseño, pruebas, entrenamiento y validación, etc.

  • Explotación

Incluye sub-etapas como integración, producción, despliegue, inferencia, decisión, mantenimiento y evolución, etc.

  • Conclusión

del tratamiento/ componente

 

Filtro ético. La AEPD identifica además algunos retos éticos de la IA aplicables a su ciclo de vida completo, entre los que destacan los sesgos discriminatorios o la falta de evaluación crítica, etc.

 

CÓMO LA IA DEBE REALIZAR EL TRATAMIENTO DE DATOS PERSONALES

Tipos de tratamiento

Desarrollo/Entrenamiento

Definición / búsqueda y obtención del conjunto de datos / preprocesamiento (tratamiento de datos no estructurados, limpieza, balanceo, selección, transformación) / splitting o partición del conjunto de datos para verificación / trazabilidad y auditoría.

Validación

Solo si se utilizan datos reales para determinar la validez del modelo.

Despliegue

Habrá comunicación de datos siempre que la solución de IA se distribuya a o se obtenga de terceros.

Explotación

  • Inferencia: cuando los datos se destinen a obtener un resultado, o si provienen de terceros, o en el caso de almacenamiento.
  • Decisión: cualquier decisión sobre un interesado implicará tratamiento.
  • Evolución: cuando los datos y resultados de los interesados se destinen a mejorar el modelo de IA.

Retirada

Mediante tratamientos de supresión local, centralizada o distribuida de datos, así como portabilidad del servicio.

La retirada o conclusión del tratamiento ya sea parcial en alguna etapa del ciclo de vida o final de la IA (p. ej., mediante procedimientos de eliminación o anonimización), deberá ser real, e incluir la verificación del riesgo de re-identificación.

Roles

El responsable del tratamiento es la entidad que tome la decisión de utilizar, en el marco de un tratamiento de datos personales, una solución de IA, al ser la entidad que “determina los medios y fines del tratamiento”. La IA por sí misma nunca será responsable del tratamiento.

Los roles podrán variar según las distintas etapas.

 

ETAPA

RESPONSABLE

 

ENCARGADO

 

Desarrollo / Entrenamiento

 

Entidad que define los objetivos de la IA y decide los datos que van a utilizarse para entrenar a la IA.

 

Tercero contratado para el desarrollo o entrenamiento de la IA (no importa si el contratante proporciona los datos o si el contratado los obtiene por sí mismo).

 

Validación

 

Entidad que desarrolla la toma de decisiones por la IA respecto de los datos a utilizar para su entrenamiento.

Despliegue

 

Entidades que comercializan la solución de IA (se excluye el uso particular o doméstico por persona física).

 

Entidad que cede el uso de la solución de IA a un tercero mediante una prestación de servicios y no trata los datos con fines propios.

 

Inferencia / perfilado

 

Entidad que trata los datos de la solución de IA para sus propios fines (se excluye el uso particular o doméstico por persona física).

 

Entidad que cede el uso de la solución de IA a un tercero mediante una prestación de servicios y no trata los datos con fines propios.

 

Decisión

 

Entidad que toma decisiones automatizadas sobre los interesados para sus propios fines.

 

 

Entidad que cede el uso de la solución de IA a un tercero mediante una prestación de servicios y no trata los datos con fines propios.

 

Evolución

 

Entidad que comunica a terceros los datos de la solución de IA.

Entidad que dispone la evolución de la IA.

 

Entidad contratada para prestar el servicio de tratamiento de los datos en el sistema de IA.

 

 

 

¿CUÁLES NORMAS DEBEN CUMPLIRSE?

La AEPD impone una serie de condiciones para verificar que los tratamientos por la IA respetan la normativa de protección de datos: accountability, legitimación, información y derechos de los interesados.

 

Base legal del tratamiento

Habituales:

  • Necesidad de tratar los datos para la ejecución de un contrato o para la aplicación de medidas precontractuales.
  • Interés legítimo.
  • Consentimiento, teniendo en cuenta que la retirada posterior del consentimiento no afectará al tratamiento desarrollado hasta ese momento, ni tampoco tendrá efecto retroactivo con relación a los resultados previamente obtenidos.

Excepcionales:

  • Protección de intereses vitales.
  • Razones de interés público establecidas en el derecho de la UE o de los Estados miembros.
  • Cumplimiento de obligaciones legales determinadas en una norma de la UE o de los Estados miembros.

Los datos provenientes de terceros destinados al entrenamiento de la IA, deberán haberse adquirido legítimamente (p. ej., mediante un contrato que lo justifique, donde se identifique el origen y asegure la legalidad de dichos datos).

Las categorías especiales de datos no podrán ser utilizadas para la toma de decisiones automatizadas, salvo específico consentimiento del interesado o razones de un interés público esencial.

Las finalidades del tratamiento pueden cambiar respecto de las inicialmente previstas, pero manteniendo en todo momento la licitud de las mismas.

 

El requisito de transparencia

Los interesados deberán conocer el impacto del uso de las soluciones de IA en el tratamiento de sus datos, mientras dure este.

Información en la etapa de entrenamiento.- El interesado deberá saber si podrá ser reidentificable a partir de los datos del modelo.

Certificación.- Los mecanismos de certificación aumentan la transparencia y garantizar mayor confidencialidad para preservar la propiedad industrial.

Primera capa informativa.- Se informará a los interesados de conformidad con los artículos 13 y 14 del RGPD en cada etapa del ciclo de vida de la IA.

Información relevante para el interesado:

  • Detalle y relevancia de los datos utilizados para la toma de decisión.
  • Calidad de los datos de entrenamiento y patrones.
  • Perfilados realizados.
  • Valores de precisión o error según la métrica aplicada para determinar la inferencia.
  • Supervisión humana cualificada (en su caso).
  • Auditorías y certificación del sistema.
  • Presencia de datos de terceros, prohibiciones y sanciones previstas.

 

Figuras internas del responsable

Personal. Información, formación y auditorías para gestionar el personal involucrado.

Delegado de Protección de Datos (“DPD”). Sin ser obligatorio, el nombramiento de un DPD es recomendado por la AEPD en soluciones de IA.

Ejercicio de los derechos por los interesados

  • Supresión de datos.
  • Determinación de la base jurídica de la comunicación de datos a terceros e información a los interesados.
  • Aplicación de medidas de privacidad por defecto, desde el diseño.
  • Evaluación de impacto de los riesgos.
  • Bloqueo de datos del proceso de inferencia (i.a. entradas y resultados obtenidos) en caso de reclamación de los interesados.

Derechos específicos:

  • Rectificación. Los datos inexactos solo están permitidos de forma excepcional si es para anonimizar y evitar la re-identificación de los interesados.
  • Portabilidad. El responsable del tratamiento deberá determinar la posibilidad de portabilidad de los datos.
  • Exclusión de decisiones individuales automatizadas. Un operador humano deberá siempre poder ignorar el algoritmo utilizado y estar listo para intervenir.
  • Protección reforzada de los datos de menores. Solo podrán automatizarse cuando sea imprescindible para proteger el bienestar del menor y con las garantías adecuadas.

 

LOS RIESGOS DEL TRATAMIENTO EN LA IA

Se distinguen dos fases:

Identificación de las amenazas

El responsable del tratamiento deberá identificar los riesgos propios de la IA, incluyendo evaluaciones de impacto de protección de datos (“EIPD”) en el caso de elaboración de perfiles o de decisiones individuales automatizadas.

Medidas técnicas y organizativas

El responsable del tratamiento deberá aplicar las medidas técnicas y organizativas necesarias para eliminar o reducir el riesgo. Entre ellas:

Transparencia.

Exactitud. Tomando en cuenta los siguientes factores:

  • Errores de los sistemas de IA por elementos internos (de programación o diseño) o externos (de lectores biométricos, etc.).
  • Errores de la propia IA en los datos de entrenamiento o validación.
  • Evolución sesgada del modelo de IA.
  • Especialidad de la información biométrica (p. ej., reconocimiento facial, huellas dactilares, voz, etc.).

Minimización

  • Limitar el grado de detalle o precisión de la información.
  • Limitar el número de personas afectadas.
  • Limitar la accesibilidad de las distintas categorías de datos al personal o usuario final en cada fase.
  • Uso de técnicas estándares: supresión de datos no estructurados o información no necesaria durante el pre proceso de la información; agregación de datos; anonimización y seudonimización.
  • Especialidad de los datos de terceros.

Seguridad.

Amenazas específicas:

  • Acceso y manipulación del conjunto de datos de entrenamiento.
  • Troyanos o puertas traseras en el código o en las herramientas de desarrollo.
  • Manipulación de la API de usuario para acceder al modelo y manipular los parámetros, filtrado o ataques.
  • Filtrado o acceso a los logs resultado de las inferencias generadas en la interacción con los interesados.

Logs o registros de actividad:

  • Quién y bajo qué circunstancias accede a los datos personales incluidos.
  • Trazabilidad de la actualización de los modelos de inferencia, las comunicaciones del API del usuario con el modelo, y la detección de intentos de abuso o intrusión.
  • Seguimiento de los parámetros de calidad de la inferencia.
  • Base legal: el artículo 6 del RGPD. Por ej., seguridad de la red y de la información, cumplimiento de obligaciones legales (p. ej., de prevención del blanqueo de capitales y de la financiación del terrorismo).

 

Auditoría

La adecuación a la normativa de protección de datos del tratamiento que efectúe la IA deberá ser comprobado durante todo su ciclo de vida.

Transferencias internacionales

A menudo se dan flujos transfronterizos de datos en un sistema de IA (por ejemplo, cloud computing, etc.), incluyendo transferencia de datos a terceros para la evaluación del modelo o para su desarrollo. Estas deberán en todo momento cumplir con el capítulo V del RGPD.

 

¿QUÉ SOLUCIONES OFRECEMOS?

 

En Gowper incentivamos el uso de modelos de IA provechosos para los distintos sectores tecnológicos, de la industria y la sociedad en general. En el caso de información sensible y datos personales de gran valor para todos, se ha de verificar siempre el cumplimiento de todas las medidas de seguridad necesarias y de la legalidad vigente. Para dotar a los clientes de las herramientas legales que les permitan llevar a cabo un tratamiento seguro de datos personales por un sistema de IA o Machine Learning, ponemos a su disposición:

  • Diseño de modelos de cumplimiento normativo en materia de datos personales adaptados a la IA.
  • Revisión y adaptación de modelos de cumplimiento normativo en materia de tratamiento de datos personales a los requisitos del RGPD.
  • Examen de datos personales susceptibles de discriminación en base al modelo de IA concreto.
  • Negociación y redacción de contratos para el desarrollo y comercialización de sistemas de Machine Learning, incluyendo la protección de los datos personales que puedan ser objeto de tratamiento por la IA.

 

Conoce más visitando nuestra oferta de Planes de Servicios Individualizados (PSI), especialmente nuestro Plan Naranja, o nuestra gama de Servicios y Sectores.

COMPARTE ESTE POST
Cerrar menú
×

Carrito