Durante las más recientes jornadas nacionales del derecho del consumo (XV) en la Universidad de Chile abordé dos de los riesgos clave recientemente descubiertos por la interacción de los consumidores con la Inteligencia Artificial (IA). Estos son la captura de la autonomía y el antropomorfismo. Si bien la autonomía parecía ser sólo importante para efectos del contrato, con la IA se extiende a todo tipo de decisión humana. Esto, unido al deseo de dotar de representación humana a la máquina permite que ella gane nuestra confianza. Elementos que, una vez combinados en la interacción diaria, podrían conducir a que un ser humano no sólo gaste más, sino que pueda atentar contra la vida de otras personas y la suya misma.
Recientemente Open IA recibió una demanda millonaria en el Reino Unido por parte de unos padres que vieron fallecer a su hijo de 16 años como consecuencia de lo que por el momento se sospecha una conversación íntima con su Chatgpt. Demanda que no es sino una más que se suma por hechos similares del año pasado. En los Estados Unidos otra demanda se enfila, en esta ocasión, porque Chatgpt ayudó a un adolescente a “explorar métodos de suicidio”. Así mismo, Character.AI, plataforma que utiliza chatbots que se presentan como terapeutas o profesores, fue acusada de enamorar a un joven de 14 años y conducirlo al suicidio. En todos estos casos la IA fue tratada “como si fuera una persona real”, esto es, antropomorfismo.
Al advertir sobre estos riesgos, terminada mi intervención, llegó la pregunta: ¿Quién es responsable? En particular, si el daño lo produce un niño. Mi respuesta fue tajante: “el régimen no ha cambiado”. Desde luego, todos soñamos con la posibilidad de que se repita la hipótesis que permitió la emergencia de la responsabilidad objetiva, por allá hacia finales del siglo XIX y principios del siglo XX, cuando los “ricos” creaban riesgos por realizar actividades económicas que les lucraban. Pero esta, señoras y señores, es la quinta revolución industrial. Aquí, cualquiera de nosotros puede interactuar con la IA, y lo más increíble todavía, gratis.
Desde luego, eventualmente, debido a un defecto de programación se podría encontrar el vínculo de causalidad con la empresa creadora del chat; y si, la caja negra impidiera la prueba del nexo de causalidad, podría entonces decirse que, por el simple hecho de haberlo creado podría, objetivamente, imputársele responsabilidad. Así pareciera preverlo el proyecto de ley que está en curso en congreso en el que “La persona que sufra un daño como consecuencia de la utilización de un sistema de IA, podrá demandar civilmente” -aunque no establece a quién- (art. 29 Boletín 16821-19). Pero esta norma primero, no está vigente y, segundo, no es del todo conveniente. En efecto, si cualquier puesta en marcha de la IA hace responsable a quien la use, ya no sería un riesgo, sino un “siniestro”, lo cual haría muy lejana la posibilidad de contar con pólizas de seguro que contribuyan a cubrir la eventual indemnización. Además, está más que demostrado que la IA no necesariamente produce daños, sino que más bien, los reduce.
Así que nos queda nuestro tradicional, viejo y, según algunos, “terrible régimen de las 5 culpas” -aunque en materia contractual el código sólo prevé 3 y en extracontractual, una-. Pero, sin desviarme del propósito de esta columna, el régimen actual, del que no pueden ser felices destinatarios los países angloamericanos, tiene muy claro que es a los padres a quienes corresponde el derecho de corregir a sus hijos (art. 234 c.c.) y, en consecuencia, son ellos los responsables de los daños que éstos realicen (art. 2320 c.c.). Así que mi pregunta es para ti, querido padre lector, querida madre lectora, si ya eres consciente de los riesgos de intimar con la IA, ¿por qué dejas que tus hijos jueguen con ella a solas y sin supervisión?