Un reciente conflicto en Estados Unidos abre una pregunta incómoda para el futuro de la inteligencia artificial: ¿quién decide sus límites éticos? La empresa Anthropic, desarrolladora del modelo Claude, demandó al gobierno estadounidense luego de que el Pentágono la excluyera de ciertos contratos de defensa tras negarse a flexibilizar las restricciones éticas de su sistema para usos militares.
El máximo tribunal rechazó un recurso de casación en el fondo y validó la restitución de un inmueble, al estimar que la ocupación actual carece de título y se explica solo por tolerancia del dueño.
La Corte de Apelaciones descartó ilegalidad u omisión de autoridades frente a denuncias por contaminación acústica, destacando fiscalización en curso y ausencia de infracciones acreditadas.