09-05-2024
HomeEntrevistasDanielle Zaror: “La protección de la privacidad es uno de los desafíos más importantes en cuanto a inteligencia artificial”

Danielle Zaror: “La protección de la privacidad es uno de los desafíos más importantes en cuanto a inteligencia artificial”

En la última asamblea general de la ONU el desarrollo de sistemas de inteligencia artificial fue un aspecto principal de las conversaciones que sostuvieron los líderes mundiales. En ese contexto, la ministra de Ciencia y Tecnología, Aisén Etcheverry se reunió con representantes de compañías como Meta, Google y Amazon, para buscar oportunidades de innovación en este tipo de tecnologías en el país.

Pero a la par del desarrollo de las IA, está el debate sobre la protección de los datos personales. Sobre esto, Danielle Zaror Miralles, abogada e investigadora en el Centro de Derecho Informático (CEDI) de la Facultad de Derecho de la Universidad de Chile, reflexiona sobre los desafíos de Chile y el mundo en cuanto a la regulación de estas tecnologías.

“Más que regular de manera genérica, lo que corresponde es hacer una evaluación sobre qué tan avanzada e incorporada esté esta tecnología en determinado lugar y desde ahí evaluar cómo regular. Porque en algunos casos efectivamente la inteligencia artificial provoca una disrupción legal máxima. Es decir, hay que regularla por completo. Pero en otros casos esta disrupción normativa es mínima y lo que corresponde es simplemente hacer ajustes”, dice en esta entrevista Zaror.

Durante los últimos años la inteligencia artificial se ha extendido aún más allá de solo el uso de las compañías. En ese contexto, ¿cómo se pueden proteger los derechos de privacidad de las personas?

Desde la masificación del uso de la inteligencia la protección de derechos personales ha sido quizás el desafío más importante que han debido a asumir las compañías que desarrollan este tipo de tecnología y los gobiernos. La penetración de este tipo de tecnología en todos los niveles y en todas las dimensiones de la vida de las personas, ha hecho que prácticamente no queden espacios de la personalidad del individuo que no se encuentran perfilados en alguna base de datos.

Si se piensa, hoy en día todo lo que dice relación con las preferencias de entretenimiento, los datos de salud, lo que dice relación con los desplazamientos de las personas, su educación, incluso aspectos más íntimos, como la búsqueda de una pareja sentimental; está alojado en una base de datos.

En algunos lugares del mundo, como en Europa, hay algunas normas que le dan algún control a las personas sobre la información que otros poseen de ellas. Pero en el resto del mundo ese tipo de control no se encuentra tan asegurado. En Estados Unidos, por ejemplo, no hay normas que aseguren este nivel de control sobre la información. Y qué decir del otro polo de poder a nivel de tecnología que es China, donde justamente la vigilancia es el paradigma.

Y en Latinoamérica, ¿cómo ve el panorama?

En países de América Latina el panorama es bastante heterogéneo. Si bien hay países que cuentan con legislaciones muy modernas en materia de privacidad y protección de datos personales, lo cierto es que tampoco es que haya un control tan efectivo sobre los datos que poseen de nosotros.

En el caso de Chile, la situación es quizás la peor de todas porque tenemos una ley del año 99, que no permite lograr el cumplimiento de una cuestión tan básica como esta que es acceder a la información que otros tienen de nosotros. De manera que es hoy por hoy quizás, dentro de muchos otros desafíos, la protección de la privacidad uno de los más importantes en cuanto a inteligencia artificial.

¿Cómo evalúa el nivel de regulación que tiene esta tecnología?

Primero hay que decir que hoy en día es una preocupación transversal en el mundo la regulación de la inteligencia artificial. La mayoría del mundo tiene puestos sus ojos en la regulación de inteligencia artificial que está desarrollando la Unión Europea, que ha sido un bloque que lleva más de una década regulando este ecosistema. No es que esta regulación aparezca en medio de la nada, sino que, por el contrario, viene precedida de la dictación del Reglamento Europeo de Protección de Datos Personales. 

Después de la dictación de este importante instrumento regulatorio, vino una serie de otras modificaciones de directivas sobre responsabilidad civil o sobre la indemnización cuando hay productos defectuosos. El año pasado, por ejemplo, entró en vigencia la ley de mercados digitales, de manera que esta regulación no nace en medio de nada.

En algunos lugares como California también se ha promovido algunas iniciativas en torno a transparencia algorítmica, pero todo muy orientado al sector del consumo. Por eso es importante considerar que más que regular de manera genérica, lo que corresponde es hacer una evaluación sobre qué tan avanzada e incorporada esté esta tecnología en determinado lugar y desde ahí evaluar cómo regular. Porque en algunos casos efectivamente la inteligencia artificial provoca una disrupción legal máxima. Es decir, hay que regularla por completo. Pero en otros casos esta disrupción normativa es mínima y lo que corresponde es simplemente hacer ajustes.

En ese sentido, ¿en Chile se está haciendo este esfuerzo de identificar las áreas donde hay que avanzar en mayor regulación?

En el caso de Chile la Comisión de Futuro del Senado está llevando adelante un trabajo con más de 50 expertos de diversas disciplinas. Y más o menos lo que está sacando en limpio el trabajo de estos expertos es que más que promover una regulación general, como lo está haciendo la Unión Europea, que es una regulación basada en riesgos, aquí lo que corresponde es revisar qué condiciones contextuales facilitan, por ejemplo, la responsabilidad en el uso de inteligencia. 

Por ejemplo, si uno mira la ley de protección al consumidor esta tiene incorporadas bastantes reglas que, si uno las interpreta, son igualmente aplicables en escenarios donde hay inteligencia artificial. Y quizás el ajuste o la adición que hay que hacer en términos normativos es mínima.

¿Cuál sería el principal desafío en Chile respecto a esta materia y la protección de los datos de la inteligencia artificial?

Creo que, para desarrollar una inteligencia artificial en términos seguros para la ciudadanía, las comunidades y el medio ambiente, es necesario avanzar sobre algunas cuestiones mínimas, pero esenciales y de carácter estructural.

La primera de ellas es la actualización de la ley de protección de datos personales. Esa es una cuestión que ya no resiste mucho más análisis. Hoy día toda la comunidad jurídica que se dedica a derechos de tecnología en Chile está de acuerdo en que esto es la piedra angular para avanzar en cualquier tipo de tecnología segura. Y hay que considerar que hay un proyecto de ley que lleva más de 10 años en el Congreso, el cual se comprometió desde que ingresamos la OCDE en el año 2009.

¿Y por qué es tan importante esta regulación? Pues porque la inteligencia artificial puede usar datos personales u otro tipo de datos, por ejemplo, los de la naturaleza, que incluso tienen valor militar, los que requieren ser resguardados.

Otro aspecto es la regulación sobre ciberseguridad. Y luego, está el riesgo de que las bases de datos con las que se entrenan estos sistemas de inteligencia artificial puedan venir con algún tipo de sesgo lo que podría tener algún resultado discriminatorio. 

­

Y sobre esto que comenta, que es la discriminación que se puede dar en estos sistemas ¿cómo es posible incorporarlo en la legislación

Si se piensa Chile cuenta con una regulación sobre discriminación que es conocida mediáticamente como la Ley Zamudio. Y hoy día esa ley está en el Congreso está constantemente actualizándose y sufriendo modificaciones. Y uno de los aspectos relevantes, diría yo, que tiene esa ley es que incorpora el concepto de discriminación indirecta. ¿Y cómo se produce esta la discriminación? Por la tecnología que a diferencia de las personas que discriminamos dolosamente, los sistemas tecnológicos generan discriminación porque los datos que traen, como recrean este tipo de situaciones de la vida real, producen este efecto. 

Incorporar el concepto de discriminación indirecta en la regulación de este tipo de tecnologías para efectos de minimizar los riesgos y generar responsabilidades en materia de inteligencia artificial, yo también lo considero que es de muy alto valor.

Este aspecto que tiene un componente ético que pareciera ser más difícil incorporarlo a un marco normativo, ¿cómo debería darse el debate en torno a este aspecto?

Lo que yo veo es que hay un déficit de comprensión en esta conversación sobre el desarrollo ético de este tipo de proyectos. Porque cuando uno pregunta, ¿de qué manera se pueden desarrollar estos proyectos con ética?  Las personas que están insertas en el debate dicen ‘voy a tratar de proteger la privacidad’. Pero la privacidad es recién una dimensión ética de los proyectos.  Porque los proyectos hoy día que desarrollan inteligencia artificial, además de la privacidad, tienen que considerar de otros valores que en general en los diseños están súper ausentes. Por ejemplo, la transparencia. 

Uno debería saber de dónde vinieron los datos con los que se entrenó determinado sistema; porque si no fueron recogidos de manera lícita, es probable que esos datos tengan problemas de calidad.

Lo otro tiene que ver con la sustentabilidad, que es algo de lo que no se habla mucho de esto, pero sustentar mecanismos que provean soluciones con inteligencia artificial es una cuestión increíblemente intensiva en uso de recursos naturales. Porque mantener servidores que operen este tipo de sistemas también supone una competencia en el consumo de agua con los seres humanos.

Entonces, yo me aventuraría a decir que, así como hoy día, por ejemplo, es socialmente muy reprochable que la gente esté toda una tarde regando un jardín, en el futuro va a ser reprochable estar usando agua para enfriar servidores que lo que están haciendo, por ejemplo, es crear sistemas de inteligencia artificial para generar imágenes de personas desnudas lo que las menoscaba. Por eso digo, en este sentido, la conversación ética todavía no profundiza a esos niveles.

En ese sentido, ¿esta conversación debería incorporar más actores?

Claro, porque esta es una conversación interdisciplinaria, no es una conversación solo de ingenieros. Porque yo he escuchado que a veces se habla sobre la inteligencia artificial con un lenguaje de hace 50 años atrás. Por ejemplo, se habla de que los sistemas de inteligencia artificial, cuando en realidad somos los seres humanos los que tenemos alucinaciones. Lo que tiene un sistema es un error de modelo. Y eso habla de la confusión que existe sobre los conceptos, lo que al final también confunde a la gente.

Hoy en día la definición más consensuada que hay sobre inteligencia artificial y que se está usando, es la de la OECD, que lo que dice es que es un sistema que recoge información retrospectiva en base a la cual, con determinados comandos que nosotros ponemos, se entrega un resultado. 

Pero esta idea de hacerte creer que tú tienes enfrente a una superinteligencia, es falsa y te confunde y no es claro para las personas. aclara nada a las personas.  Y en ese sentido, la transparencia tiene un sentido que debe aplicarse en diversas dimensiones.

Comparte el contenido: