Machine Learning: ¿en qué consiste y cómo está regulado?

La configuración legal y los riesgos emergentes del aprendizaje automático hoy en día

 

¿Qué se entiende por Machine Learning?

La primera definición de Inteligencia Artificial (IA) se acuñó por John McCarthy en 1956 como “la ciencia y la ingeniería de crear máquinas inteligentes”.

Indudablemente el término ha evolucionado de forma notoria hasta la actualidad, sin embargo, en esencia permanece muy apegado al original. Concretamente podemos definir IA hoy en día como la simulación de procesos de la inteligencia y comportamiento humano por parte de sistemas.

Ello hace que se categorice según los procesos que se simulen: pensamiento racional, aprendizaje, reacción física, respuesta emocional, etc. Sin embargo en la práctica comercial se vienen utilizando de manera indistinta los términos IA, Machine Learning y Deep Learning, cuando no se trata de sinónimos sino de subtipos de IA. Esto se debe a la gran popularidad en el mercado que han adquirido los sistemas que simulan el proceso de aprendizaje y predicción.

El autoaprendizaje de sistemas o Machine Learning no es más que una de las modalidades o categorías de la IA, eso sí, la más popular hoy en día. De manera que nos encontraríamos ante una relación género-especie.

El Deep Learning por su parte sería una tipología aún más concreta, pues se enmarcaría dentro del Machine Learning. Mientras que el Machine Learning representa en general todos aquellos sistemas cuyos algoritmos tienen la capacidad de, en base a la información recibida, crear reglas nuevas para mejorar su funcionamiento y en su caso predecir, el Deep Learning sería aquel sistema concreto cuyo algoritmo funciona en cascada, cada capa analiza la información con sus propios criterios y el resultado de la anterior, arrojando resultados en forma de ponderación que globalmente reducen el margen de error en la conclusión.

¿Qué hace tan popular al Machine Learning?

En febrero de 2019 se publicaron informes relativos a la evolución de la Inteligencia Artificial por parte de la OMPI, uno de los cuales venía a consolidar el Machine Learning como la técnica IA más popular y con mayor índice de crecimiento. ¿Pero, a qué se debe esta ventaja respecto del resto de técnicas?

La clave de este sistema de IA es la utilidad que ofrece en todos los niveles, desde la reducción del trabajo de programación, hasta mejora en la rentabilidad de la industria.

Por ejemplo, en 2017 el código de programación del Traductor de Google redujo su código de medio millón de líneas a tan solo 500 mediante la introducción de un sistema de Machine Learning. Esto se traduce en que los programadores de la aplicación a la hora de configurarla tienen que introducir menos instrucciones que prevean todas las situaciones que puedan darse, y de este modo la aplicación queda mucho más optimizada.

A nivel de negocios e industria, el uso de técnicas de Machine Learning se concentra en la búsqueda de una reducción de costes aparejada a un aumento de la productividad. Lo que ha llevado por su parte a que destaquen dos técnicas específicas de Machine Learning: el gemelo digital y la simulación predictiva. Ambas técnicas se encuentran completamente enfocadas a la industria manufacturera, permitiendo a los fabricantes la estimación de coste-eficacia e impacto de sus decisiones.

Una de las constantes de la industria, sea cual sea su naturaleza, es la incesante búsqueda de reducir costes y aumentar la productividad. En realidad, la única forma de dar solución a esto es un análisis constante de la información generada por el negocio concreto, decisiones, gastos, producción, beneficios, comparación con la competencia, etc. Y de dicho análisis deducir las medidas óptimas a ser tomadas.

En definitiva, los sistemas de Machine Learning permiten a los negocios una analítica en tiempo real de los datos que generan, evaluando el efecto de sus decisiones empresariales y permitiendo en última instancia mejorar el rendimiento mediante predicciones o recomendaciones.

Por otra parte, respecto de las técnicas de Deep Learning, la diferencia más importante es que se trata de una técnica no supervisada. La confianza hacia las técnicas IA se encuentra en pleno desarrollo. Es así que en sectores basados en la recolección y tratamiento de datos personales, es donde más ha revelado la fácil vulneración de derechos civiles en sistemas no supervisados. Todo esto ha llevado a una predilección por la supervisión, y con ello del Machine Learning.

¿Cuál es la situación normativa? 

No existe un ecosistema normativo en lo referente a la IA ni a ninguna de sus técnicas. No existe ni en España, ni en ningún otro país o en el panorama internacional. Lo único que existe son informes e investigaciones encabezados por organismos oficiales sobre los problemas a nivel legal que pueden acarrear las técnicas de IA, y directrices sobre el uso ético de las técnicas de IA.

En octubre 2016, la Cámara de los Comunes del Reino Unido publicó un informe relativo a la robótica e inteligencia artificial, describiendo una serie de conductas éticas que debían esperarse de los desarrolladores de estas tecnologías con un carácter vagamente vinculante. La siguiente medida se produjo de la mano de la Unión Europea, cuando en diciembre de 2018 el Grupo Independiente de Expertos de Alto Nivel sobre Inteligencia Artificial de la Comisión Europea emitió una serie de Directrices Éticas para una IA Fiable, documento cargado con más contenido vinculante que el británico pero nuevamente limitado a una mayoría de recomendaciones.

En Estados Unidos no ha existido impulso normativo de ningún tipo, tampoco en lo referente al contenido ético. Si bien en este ordenamiento jurídico hay que tener muy en cuenta su carácter fragmentado, que conlleva en ocasiones regulaciones que afectan a la materia IA en sectores específicos cuyas normativas algo puedan contemplar, o a las decisiones que en ocasiones han tomado los tribunales en casos relacionados directamente con la IA.

El ordenamiento jurídico con mayores avances normativos en la materia resulta ser el canadiense. Ello en tanto el Consejo del Tesoro de Canadá inició formalmente un proyecto de investigación relativo a los problemas que pueden ocasionar los sistemas IA con la finalidad de incorporarlos a programas y servicios del gobierno. Como colofón, en marzo de 2019 se aprobó la Directiva sobre la Toma de Decisiones Automatizadas, la cual regula exhaustivamente el funcionamiento de sistemas de Machine Learning en la Administración Pública canadiense y el régimen de responsabilidades.

Más allá de esto, legislativamente solo puede hablarse de normas de protección de datos personales, como el Reglamento General de Protección de Datos de la Unión Europea, la Ley de Protección de Información Personal y Documentos Electrónicos de Canadá, o el fragmentado sistema normativo estatal de Estados Unidos.

 

¿Concretamente qué riesgos emergen con la IA?

No todas las materias requieren una regulación exhaustiva, y de hecho, para tecnologías y sectores en ciernes lo habitual es que una regulación laxa permita su crecimiento. Sin embargo, la absoluta ausencia de regulación tiene una clara consecuencia en materia legal: todo aquel problema que surja se deberá resolver por la vía de la analogía con figuras jurídicas preexistentes y modular caso por caso en base a los principios del Derecho de cada Ordenamiento Jurídico. La consecuencia de esto no podía ser más clara: nos enfrentamos a una casuística muy grande que genera en cierta medida inseguridad jurídica y con ello la necesidad de blindajes privados, normalmente vía contrato, ante los inconvenientes que pudieran surgir.

Pero, ¿cuáles son los riesgos legales que surgen con los sistemas de IA concretamente? Entendemos que pueden ser categorizados de la siguiente manera:

  • Colusión

Se trata de una práctica prohibida y con una fuerte regulación en ordenamientos jurídicos como el de Estados Unidos y el de la Unión Europea. Sin embargo, el desarrollo de sistemas IA ofrece una serie de conductas colusorias que por naturaleza estarían prohibidas, pero que su innovadora ejecución complejiza su persecución.

En lo que se refiere a sistemas IA, la principal preocupación se centra en la colusión algorítmica. Pero en tanto la normativa no se encuentra adaptada a la tecnología, pueden darse escenarios de prohibición excesiva o insuficiente, según el caso. Por el momento, solo queda claro que los acuerdos entre competidores están prohibidos, de manera que hay que prestar atención a los casos de uso de un mismo algoritmo por competidores o en los que competidores acuden reiteradamente al mismo proveedor de algoritmos.

  • Discriminación

Se trata de la problemática más propia del Machine Learning , y puede ocurrir inintencionadamente, lo cual la hace aún más peligrosa. A la hora de configurar las bases de datos a las que tendrá acceso el sistema de Machine Learning a modo de ejemplo para comenzar con su funcionamiento, hay que procurar alterar el funcionamiento normal del sistema, introduciendo manualmente en el código, por ejemplo, pautas de conductas específicas. De lo contrario, las consecuencias podrían ser la vulneración de derechos fundamentales.

Una base de datos sesgada genera un modelo o sistema sesgado, cuya consecuencia será la discriminación de grupos o individuos, y esto acarreará responsabilidades legales. En ocasiones es inherente a la base de datos la naturaleza sesgada de los mismos, como puede ser la información técnica o científica, precisamente por esto la introducción manual de pautas de comportamiento no naturales al sistema cobra prioridad.

  • Privacidad

En este aspecto prima el cumplimiento normativo, pues afortunadamente sí que es uno de los aspectos mejor regulados en general, contando con la seguridad que ello supone. Aun así, la presencia de elementos propios de la figura como el Derecho de Acceso puede diluirse entre la complejidad que puede entrañar un sistema de Machine Learning o el alcance que por sí solo puede tener.

La supervisión de los sistemas de Machine Learning resulta clave para controlar los riesgos en esta materia, junto al establecimiento de los sistemas y protocolos de seguridad y acceso.

Además, hay que tener muy en cuenta respecto del Machine Learning la prohibición recogida en el artículo 22 del Reglamento General de Protección de Datos de la Unión Europea, respecto de la toma de decisiones automáticas basada en datos personales. Que si bien hay un listado de excepciones, pueden derivarse daños derivados de decisiones discriminatorias.

  • Responsabilidad

En materia de responsabilidad hay que estar a la norma general sobre defectos del producto, y es que normalmente el fabricante responderá por los daños que su producto ocasionará. Sin embargo, en el ámbito del Machine Learning un uso incorrecto de sistema no está precisamente alejado de la práctica habitual, es por ello que se añade la complejidad de formación. El fabricante o vendedor tendrá como obligaciones la formación para el uso del producto, advertencias necesarias, y además advertir de disfuncionalidades surgidas con posterioridad a la entrega y de las que tenga conocimiento.

Y aún con todo, las cuestiones relativas a la responsabilidad legal en materia de Machine Learning  y las decisiones basadas en estos sistemas son increíblemente complejas.

En conclusión, ante la falta de regulación específica, y los riesgos que entrañan los sistemas IA, y en especial los sistemas de Machine Learning, los prestadores de servicios que hacen uso de estos sistemas deberían considerar seriamente las negociaciones de los contratos que celebran. Valorando la inserción de cláusulas relativas a los resultados inesperados y dañinos de los sistemas IA, los remedios exigibles ante estos supuestos, los derechos sobre el algoritmo, y la responsabilidad exigible en caso de funcionamiento erróneo.

¿Qué soluciones ofrecemos?

En Gowper nos gusta que la tecnología avance y con sus utilidades nuestros modelos de negocios. Pero esto ha de hacerse siempre desde la seguridad y la legalidad, por ello ponemos a disposición de nuestros clientes todas las herramientas legales para cubrir estos problemas comunes en el uso y comercio de sistemas de Machine Learning.

  • Revisión de cumplimiento normativo en materia de tratamiento de datos personales. Incluidos canales para el ejercicio de derechos ARCO-POL.
  • Estudio desde el punto de vista jurídico de datos susceptibles de discriminación en base al modelo de negocio concreto.
  • Diseño de modelos de cumplimiento normativo en materia de datos personales.
  • Negociación y redacción de contratos para la fabricación y comercialización de sistemas de Machine Learning.
  • Defensa y representación ante procedimientos disciplinarios en materia de Competencia Desleal.

Conoce más visitando nuestra oferta de Planes de Servicios Individualizados (PSI), especialmente nuestro Plan Naranja, o nuestra gama de Servicios y Sectores.

COMPARTE ESTE POST

Profesional relacionado

PSIs relacionados

Servicios relacionados

Cerrar menú
×

Carrito