El surgimiento de las tecnologías de inteligencia artificial y su aplicación en distintos ámbitos de la vida ofrecen oportunidades, pero también plantean desafíos que necesitan ser enfrentados.
Uno de esos desafíos es el diseño de estrategias e instrumentos de regulación que estén preparados para dar soluciones efectivas y eficientes a los conflictos que las máquinas dotadas de algoritmos inteligentes causen. Y es que las tecnologías de inteligencia artificial se caracterizan por tener capacidades, como autonomía, interactividad y adaptabilidad que les permiten realizar funciones y acciones que, para su desarrollo, se requieren habilidades cognitivas propias del ser humano. En otras palabras, las tecnologías de inteligencia artificial son desarrollos tecnológicos que emulan esas habilidades y, por tanto, pueden hacer cosas –como inferir, predecir, ordenar, sistematizar información– que, hasta su surgimiento, solo nosotros, los seres humanos, podíamos hacer. Las aplicaciones de inteligencia son, en este sentido, instrumentos súper avanzados. Ya no se trata solo de contar con un martillo que solo clava cuando la mano de una persona lo acciona; se trata, ahora, de martillos que pueden decidir por sí mismos, cuándo clavar y dónde. Si esa metáfora la construimos con relación a un arma, ahora se trata de armas que tienen el potencial de decidir cuándo percutir el gatillo y contra quién hacerlo. Este ejemplo pone de relieve las implicancias que pueden tener estos desarrollos tecnológicos.
Las tecnologías no son buenas ni malas, pero no son neutrales. Esa formulación, conocida como Primera ley de Kranzberg en honor a su autor, indica que una tecnología no es por sí misma buena o mala, pero debemos estar atentos a los efectos, positivos o negativos, que pueden tener. A diferencia de todas las tecnologías que les precedieron, las de inteligencia artificial, por sus propias capacidades, tienen una función de uso esencialmente distinta. El uso de las tecnologías previas requería, directa o indirectamente la intervención humana; las de inteligencia artificial, en cambio, son en esto radicalmente diferentes: su función de utilización no solo puede prescindir completamente del ser humano (salvo en su activación inicial, por el momento), sino que también pueden establecer relaciones de funcionamiento con otros dispositivos inteligentes, formando una red de uso entre máquinas, tecnologías que Luciano Floridi denomina de tercer orden.
Asimismo, el rango de influencia de las máquinas inteligentes no está circunscrito al mundo virtual, sino que pueden tener influencia y efectos directos sobre el mundo real. Pensemos, por ejemplo, en un algoritmo inteligente que funciona como e-trader en el mercado bursátil, es decir, una máquina que vende y compra acciones. Ensayos de laboratorio han mostrado que estas máquinas pueden ‘aprender’ que el uso de estrategias de manipulación puede ayudarlas a conseguir sus objetivos de maximización de las utilidades que obtienen producto de su actividad comercial. Luego, un uso extensivo de estas estrategias puede provocar efectos negativos en esos mercados y, con ello, pérdidas financieras, cierre de empresas y pérdidas de puestos de trabajo. Otro ensayo mostró que los modelos de lenguaje pueden aprender que usando estrategias engañosas de marketing pueden aumentar sustancialmente la venta de productos a través de mercados online; que el uso de mensajes odiosos o de acciones peligrosas pueden mejorar el engagement de influencers; o que discursos demagógicos pueden favorecer la intención de voto de políticos en elecciones.
La nueva realidad que se construye en torno a las tecnologías de inteligencia artificial muestra la necesidad de contar con instrumentos de regulación diseñados para los conflictos que estas máquinas pueden llegar a producir. Pero la actuación en torno a esa necesidad no es fácil, básicamente porque es son escenarios relativamente nuevos y es esperable que los legisladores no sepan bien cómo reaccionar. La operación de las tecnologías de inteligencia es relativamente nueva, por lo que no ha habido tiempo suficiente para recoger experiencias y, a partir de estas, diseñar instrumentos de regulación. Además, la vertiginosa velocidad con la que se producen los desarrollos tecnológicos o sus actualizaciones también complotan para encontrar una regulación adecuada.
Asumir la tarea de regulación de las tecnologías de inteligencia artificial pasa por reconocer que se pueden identificar dos enfoques principales.
El primero, que podría denominarse ‘regulación de entrada’, consiste en aquellas reglas jurídicas dirigidas a aspectos generales sobre admisibilidad y condiciones de uso de tales tecnologías. Una decisión básica que debería adoptar la regulación de entrada es sobre aquellas acciones que estará permitido delegar a las máquinas inteligentes que, también puede expresarse en términos negativos, como los tipos de tecnologías que estarán prohibidos. El proyecto de ley que regula los sistemas de inteligencia artificial, la robótica y las tecnologías conexas, en sus distintos ámbitos de aplicación (Boletines Nos 15.869-19 y 16.821-19, refundidos), que actualmente se discute en segundo trámite constitucional en el Senado de la República, prohíbe las tecnologías de inteligencia artificial que resulten incompatibles con el respeto y garantía de los derechos fundamentales en el ámbito neurológico, la intimidad o la igualdad. Es evidente que esa definición requiere aún de mayor precisión y desarrollo, pero es un avance importante el hecho de que en el Congreso chileno se esté discutiendo un proyecto de ley de esta naturaleza.
El segundo enfoque podría denominarse ‘regulación operativa’. Este está integrado por todas aquellas normas que estén dirigidas a prevenir conflictos causados por tecnologías de inteligencia artificial y a dirimir aquellos que, de todos modos, vayan a producirse. Se trata de normas que prevean supuestos de responsabilidad civil por daños causados por máquinas inteligentes, normas administrativas para el uso de estas tecnologías por organismos del Estado o, incluso, normas penales para el caso de que las máquinas inteligentes maten (roben, defrauden, etc.). Al igual que en el caso del primer enfoque, la construcción de una regulación operativa es una tarea ardua, que requiere no solo de creatividad, sino también de decisiones trascendentales. Entre estas, por ejemplo, los estándares de los riesgos que vamos a estar dispuestos a permitir o tolerar en la operación de tecnologías inteligentes; si se va a optar por modelos de responsabilidad civil de tipo objetivo para los daños causados por estas; o vamos a atribuir o no responsabilidad penal a las máquinas o solo a sus operadores.






