Publicación:
Cuando hablamos de Inteligencia Artificial en el sector público, la conversación suele desviarse hacia los algoritmos. Pero en Datamorfosis sabemos que la IA no es un problema de software, es un reto de atribuciones, procesos y personas.
Recientemente, facilitamos un taller para el Consejo Nuevo León, un organismo que opera bajo un fideicomiso y cuya misión es asesorar a la administración pública estatal. A través de un programa con Cívica Digital, nos encomendaron guiar la creación de un borrador para su Política Interna de Uso Responsable de IA. Nuestra postura fue clara: para que una institución sea AI-ready, primero debe ser Data-ready.
El reto: No digitalizar la burocracia Un error común es intentar que la IA replique procesos ineficientes. Nuestro objetivo no era un taller técnico de programación, sino uno de Gobernanza e Inteligencia de Procesos. Queríamos reducir la brecha entre la creación y la validación, evitando llevar procesos burocráticos sin sentido al terreno de la IA.
1. Sensibilización y el riesgo de la “Shadow IA” Comenzamos confrontando la realidad del Shadow AI: el uso de herramientas de IA sin protocolos institucionales claros. Establecimos que una política no es un manual de software, sino un marco de reglas, ética y acuerdos de interoperabilidad para proteger la soberanía del dato.
2. El “Prompt Maestro” y la importancia de los insumos Dividimos al Consejo en dos equipos: Alfa (ChatGPT) y Beta (Gemini). Ambos trabajaron con un mismo “Prompt Maestro”. Este fue el primer gran reto: darnos cuenta de que la calidad de lo que la IA entrega depende totalmente de la precisión de nuestras instrucciones y del contexto institucional que somos capaces de proveer.
3. El Índice: De lo abstracto a lo operativo Para que la política fuera útil, no podíamos quedarnos en la teoría. Enlistamos las preguntas reales que un colaborador se haría en su día a día:
• Privacidad: ¿Puedo usar una base con datos personales en Gemini para analizar tendencias?.
• Responsabilidad: ¿Qué pasa si una decisión basada en IA causa un daño o error administrativo?.
• Ética: ¿Cómo validamos que el resultado no tenga sesgos?.
4. Triangulación de Inteligencia Cada equipo generó un índice y un borrador. El resultado inicial no fue perfecto, y eso fue parte del aprendizaje: siempre se debe validar y refinar. Realizamos sesiones de triangulación donde contrastábamos cómo cada modelo resolvía los mismos problemas de gobernanza, manteniendo siempre al humano en el centro del flujo de decisión (Human-in-the-loop).
El Resultado: Una Política Viva Al final de la jornada, el Consejo no solo obtuvo dos outlines sólidos de política interna. Lograron:
• Flexibilidad: Decidieron mantener el documento abierto a ajustes según evolucione el contexto.
• Comité de Ética: Crearon un grupo interdisciplinario para dar continuidad al trabajo de manera justa y responsable.
En Datamorfosis, nuestra misión es limpiar la arquitectura institucional para que la tecnología sea un motor de eficiencia y no una traba administrativa.
Data-ready before AI-ready.
