Límites éticos de la IA: desarrollo tecnológico, seguridad y responsabilidad democrática

opinión

Comparte:

Un reciente conflicto en Estados Unidos abre una pregunta incómoda para el futuro de la inteligencia artificial: ¿quién decide sus límites éticos? La empresa Anthropic, desarrolladora del modelo Claude, demandó al gobierno estadounidense luego de que el Pentágono la excluyera de ciertos contratos de defensa tras negarse a flexibilizar las restricciones éticas de su sistema para usos militares.

El caso refleja una tensión cada vez más evidente. Las empresas tecnológicas no solo desarrollan herramientas de enorme poder, sino que también intentan establecer límites sobre cómo estas pueden utilizarse. A través de licencias, condiciones de uso y salvaguardas técnicas, buscan evitar aplicaciones como armas autónomas o sistemas de vigilancia masiva. Sin embargo, cuando una tecnología adquiere valor estratégico, los Estados difícilmente aceptan que esas decisiones queden exclusivamente en manos privadas.

El conflicto también plantea una pregunta jurídica relevante desde la perspectiva del derecho de propiedad intelectual: ¿Puede una empresa controlar los usos de una tecnología una vez que esta se convierte en infraestructura crítica? Durante décadas, el sistema de propiedad intelectual ha permitido a los desarrolladores definir condiciones de uso mediante licencias y restricciones contractuales. Pero, cuando esas tecnologías pasan a formar parte de sistemas estratégicos como la defensa, la seguridad o la gestión de grandes volúmenes de datos, ese control privado comienza inevitablemente a tensionarse con intereses públicos.

Parece una disputa lejana, pero es un debate que inevitablemente alcanzará a otros países, incluido Chile. A medida que los sistemas de inteligencia artificial comienzan a integrarse en servicios públicos, infraestructura digital y procesos de toma de decisiones, surge la necesidad de definir con mayor claridad quién establece sus límites y bajo qué principios.

En ese contexto, el desafío para los legisladores no será solo fomentar la innovación, sino también establecer reglas que permitan equilibrar desarrollo tecnológico, seguridad y responsabilidad democrática. Esto implica avanzar en marcos regulatorios que definan usos de alto riesgo, exijan transparencia en sistemas críticos y delimiten las responsabilidades, tanto del sector público como de los desarrolladores tecnológicos.

Chile ha avanzado en estrategias nacionales de inteligencia artificial, pero los debates sobre gobernanza tecnológica recién comienzan. La experiencia internacional muestra que estas discusiones no pueden postergarse hasta que la tecnología ya esté completamente integrada en las estructuras del Estado. Así, pareciera que la próxima gran discusión sobre inteligencia artificial probablemente no será tecnológica, sino institucional: quién tiene la autoridad para decidir cómo y para qué se utilizan las tecnologías más poderosas de nuestra era.

También te puede interesar

actividades

jurisprudencia