03-10-2024
HomeOpiniónLos problemas de diseño de la Política Nacional de Inteligencia Artificial en materia de relaciones de consumo

Los problemas de diseño de la Política Nacional de Inteligencia Artificial en materia de relaciones de consumo

El pasado 15 de diciembre de 2020, el Ministerio de Ciencia, Tecnología, Conocimiento e Innovación (MinCiencia) publicó el Borrador de la Política Nacional de Inteligencia Artificial para Chile. El documento de 85 páginas contiene indicaciones de carácter general sobre los lineamientos que deberían guiar a Chile en los próximos años, para el desarrollo de esta tecnología.

El documento no ha estado exento de críticas. La principal de ellas apunta a que la Política Nacional de IA no contendría ninguna propuesta concreta, sino que vagas alusiones a ideas que se buscarían concretar en el futuro. Lo cierto es que dichas críticas soslayan que estamos hablando de una política a largo plazo y que, por lo tanto, debe contener una redacción abierta y declarativa, que permita cierta flexibilidad en su adopción.

Sin perjuicio de lo señalado, sí existe un punto que merece comentarios: nos referimos al aspecto regulatorio de la Política Nacional de IA, y más particularmente, a las relaciones de consumo.

La Política Nacional de IA tiene como objetivo “fomentar un uso de IA en el comercio digital transparente, no discriminatorio y respetuoso de las normas de protección de datos personales” (párrafo 3.3.1). Para la consecución de dicho fin, la Política señala que los proveedores deberán informar a los consumidores “sobre el uso de sistemas de IA, la finalidad del tratamiento de sus datos personales; y el proceso en virtud del cual el proveedor arriba a una decisión que impacta en el consumidor, por ejemplo, al dar o no lugar a la contratación de un servicio, o al formular una oferta personalizada para un grupo de consumidores”. Hasta ahí comprensible, lo complejo viene después [énfasis agregado]: “(…) los proveedores deben procurar la utilización de algoritmos explicables y justos, configurando estructuras internas de revisión que prevengan decisiones automatizadas que no se ajusten a los parámetros de protección del consumidor conforme a la legislación nacional y, de esa forma, habiliten acciones para remediarlas. Estas estructuras deben tener por objeto evitar que los sistemas puedan operar utilizando criterios discriminatorios, tales como diferenciar condiciones de contratación o precio según género, religión u otra (…)”. Si bien el fin es noble, los problemas que derivan de su aplicación son graves y podrían tener efectos perniciosos para el desarrollo de la IA en Chile.

En primer lugar, la Ley de Protección de Derechos de los Consumidores N°19.496 tiene una aplicación territorial, esto es, se aplica a proveedores con domicilio en Chile. Por consiguiente, las obligaciones que la Política Nacional de IA genere en materia de consumo se aplicará -mayormente- a proveedores chilenos. Luego, cabe preguntarse ¿cuántas empresas proveedoras chilenas han implementado la inteligencia artificial en sus negocios de forma exitosa?

Un estudio de “Artificial Intelligence (AI) Readiness” del Instituto Data Science de la Universidad del Desarrollo, junto a la Cámara de Comercio Chileno Norteamericana (Ancham), concluyó que 8 de cada 10 empresas chilenas aún no han adoptado tecnologías o tienen iniciativas de inteligencia artificial. Este dato es revelador porque da cuenta de la realidad chilena.

En ese orden de ideas, resulta algo contraintuitivo establecer requisitos de explicabilidad de algoritmos a una industria que no se ha desarrollado en Chile. ¿Cómo un proveedor chileno va a utilizar algoritmos explicables y justos, si la adopción de la inteligencia artificial en Chile por parte de esos mismos proveedores es nula o inexistente aun? ¿No sería más prudente una política pública que primero establezca condiciones para que se desarrolle la inteligencia artificial en Chile, antes de exigirle a los proveedores chilenos que usen un determinado tipo de algoritmos?

En segundo lugar, la exigencia de explicabilidad a los proveedores chilenos ignora un aspecto técnico del todo relevante: existen ciertos algoritmos que cuya complejidad técnica hace que operen como una caja negra, es decir, que su funcionamiento sea desconocido incluso para quienes los programan. Esta opacidad, por ende, no deriva de un mero capricho de la empresa que usa dichos algoritmos, sino de la dificultad técnica de explicar cómo un algoritmo llega a una determinada decisión. Entre las causas de esa opacidad, podemos mencionar: (i) la complejidad de la estructura del algoritmo; o (ii) el algoritmo de aprendizaje automático basado en relaciones geométricas que los humanos no pueden visualizar, como en el caso de las máquinas de vectores de soporte (SVM).

Por último, la exigencia de algoritmos totalmente explicables puede afectar la representación y ajuste del modelo algorítmico. Esto quiere decir que a medida que un algoritmo da solución a problemas cada vez más complejos, más difícil será interpretar la casualidad que lo llevó a un determinado resultado. De manera tal que, la exigencia a priori de algoritmos explicables a proveedores chilenos nos podría conducir a que éstos prefieran algoritmos que resuelvan problemas menos complejos, es decir, que las empresas usen una tecnología más básica y predecible. En conclusión, el espíritu de la Política Nacional de IA apunta a la dirección correcta. Sin embargo, hay que tener cuidado en la forma cómo se busca regular una situación desconociendo la realidad chilena. Las consecuencias pueden ser nefastas: en lugar de estimular la adopción de la IA, puede terminar desincentivando su uso.

Comparte el contenido:
Etiquetas de Publicación
Escrito por

Director de Magliona Abogados. Abogado, Universidad Adolfo Ibáñez. Postgrado en Derecho Privado, Universidad Adolfo Ibáñez. Diplomado en Propiedad Intelectual, Pontificia Universidad Católica de Chile. International Professional Summer Program Understanding U.S. Intellectual Property Law en Stanford University. HarvardX, Harvard Law School, junto con el Berkman Klein Center for Internet and Society, CopyrightX.