Escucha este artículo:
0:00
0:00
Los chatbots de campaña LATAM están a un paso del modo asesor 24/7. La tecnología llegó antes que la decisión política. En septiembre de 2024, dos estudiantes del Tecnológico de Monterrey lanzaron ClaudIA, un agente conversacional construido sobre GPT-4 y entrenado con 48 artículos científicos, tesis y los tres debates presidenciales mexicanos de Claudia Sheinbaum.
Por ahora, la iniciativa fue académica. Sin embargo, abrió una pregunta operativa para los equipos de campaña: si un par de estudiantes pudo hacerlo en una universidad, ¿qué pasa cuando una campaña presidencial decide hacerlo en serio?
El caso ClaudIA muestra que la tecnología ya está lista

ClaudIA fue desarrollado por Natalia Meza y Mikel Lugo, estudiantes de la Escuela de Gobierno y Transformación Pública del Tec de Monterrey. El equipo entrenó el modelo de OpenAI sobre un corpus específico: 48 artículos científicos de Sheinbaum listados en Scopus, cuatro adicionales encontrados en Google Scholar, sus tesis de licenciatura, maestría y doctorado, y las transcripciones de los tres debates presidenciales del proceso 2024. Además, los autores declararon como propósito traducir la producción académica de Sheinbaum a un lenguaje accesible para la ciudadanía.
El sistema incluía guardarraíles explícitos. Cuando la consulta caía fuera de las áreas de especialidad de Sheinbaum (energía, sostenibilidad, políticas ambientales), el chatbot respondía indicando esa limitación y sugería reformular la pregunta. Por lo tanto, ese diseño autodeclarado del límite importa: ClaudIA probó que es posible construir un agente conversacional con voz académica de un candidato sin perder control sobre los temas del intercambio.
Lo importante para el oficio de campaña es la lección que dejó el experimento. La tecnología necesaria para un chatbot de campaña LATAM con voz del candidato ya existe, accesible, en plataformas comerciales. Asimismo, la complejidad técnica dejó de ser el obstáculo. Lo que define el siguiente paso es la decisión estratégica del equipo: para qué se usa el agente, con qué corpus se entrena, y bajo qué reglas opera.
El salto del FAQ al agente conversacional
Los primeros chatbots políticos LATAM eran FAQ disfrazados. El usuario llegaba con una pregunta predefinida —¿qué propone el candidato sobre seguridad?— y recibía un texto enlatado. La conversación se cerraba ahí. En cambio, el agente conversacional moderno opera de otra manera: mantiene contexto a lo largo del intercambio, recuerda lo que el usuario dijo dos preguntas antes, ajusta el tono al perfil emocional del interlocutor y puede razonar sobre temas que el corpus original no cubre explícitamente.
Esa diferencia técnica tiene consecuencias políticas concretas. Un FAQ es controlable: el equipo de campaña sabe qué dice el bot porque lo escribió a mano. Un agente, por su parte, puede generar respuestas que el equipo no anticipó. Por consiguiente, el riesgo reputacional sube. La compensación es que la conversación se siente humana y el votante interactúa con algo que se adapta a su pregunta, no con un menú de opciones precargadas.
Sumado a eso, los datos sobre la confianza Gen Z en la inteligencia artificial] muestran que el segmento al que apuntan estos agentes desconfía de la IA cuando percibe manipulación. Por lo tanto, la mecánica del agente conversacional opera mejor cuando se declara desde el primer mensaje. Los chatbots que se presentan como personas, en cambio, activan rechazo inmediato cuando el usuario descubre el truco.
Sheinbaum propuso regular la IA electoral y la región todavía no respondió
El 11 de marzo de 2026, la presidenta Claudia Sheinbaum incluyó la regulación de IA en su propuesta de reforma electoral. El proyecto plantea que cualquier contenido generado o manipulado con IA dentro de propaganda política debe identificarse de forma explícita ante el votante. Cubre deepfakes en video, imagen y audio, bots automatizados y contenido sintético hiperrealista. Es la primera propuesta presidencial LATAM que aborda el problema desde el ángulo de la transparencia hacia el ciudadano.
Sin embargo, la reforma todavía no se aprobó en el Congreso mexicano. El propio gobierno reconoce que la iniciativa es solo un primer laboratorio regulatorio y que requerirá complementarse con educación tecnológica para que funcione. Por consiguiente, el marco operativo concreto está pendiente, incluso en el país que más avanzó en la discusión pública.
El resto de la región opera en vacío. Argentina, Colombia, Chile y Perú no tienen regulación vigente sobre agentes conversacionales en campaña. En cambio, los equipos que se preparen para diseñar chatbots con voz del candidato en estos países lo van a hacer sin un marco que los proteja de errores técnicos ni de manipulación adversaria. El caso Doppelganger en América Latina demostró que la región ya es objetivo activo de operaciones de desinformación a escala. Por su parte, agregar agentes conversacionales sin marco multiplica la superficie de exposición y deja al equipo de campaña expuesto a una crisis reputacional sin barandas legales que la contengan.
Las decisiones que definen un chatbot de campaña LATAM efectivo
Diseñar un agente conversacional de campaña deja de ser una decisión técnica y pasa a ser una decisión política. Cuatro definiciones marcan la diferencia entre una herramienta que aporta y una que produce escándalo.
Perfil del agente y autodeclaración
Lo primero es definir cómo se presenta el agente al usuario. Un agente que se autodeclara como IA desde el primer mensaje conserva confianza y cumple con la lógica de transparencia que la propuesta mexicana plantea como mínimo regulatorio. Por otro lado, un agente que finge ser persona viola ese principio y activa rechazo cuando el votante descubre la naturaleza del intercambio. Asimismo, la autodeclaración define expectativas: el usuario sabe con qué está conversando.
Corpus de entrenamiento auditado
El segundo punto es la calidad del corpus. ClaudIA usó 48 artículos académicos, cuatro adicionales, tesis y debates: un corpus auditado, verificable, con autoridad pública. Por consiguiente, las respuestas del agente reflejaban posiciones documentadas del candidato, no inferencias del modelo. En cambio, un equipo que entrene un agente con discursos no verificados, posts de redes o material no curado expone al candidato a respuestas que nunca dijo y a contradicciones con su propio historial.
Tono y tema
ClaudIA declaraba cuándo una pregunta caía fuera de su especialidad. Asimismo, un chatbot de campaña debería tener guardarraíles definidos sobre qué temas responde, qué tono usa y cuándo deriva a un humano del equipo. Sumado a esto, los guardarraíles deben actualizarse según evolucione la coyuntura: una pregunta inocua antes del debate puede volverse políticamente cargada después.
Régimen regulatorio explícito
Aunque el país del equipo no tenga regulación específica, el estándar emergente en la región es la transparencia hacia el votante. La propuesta de reforma electoral mexicana marca esa pauta: identificación obligatoria del contenido generado por IA, declaración explícita del uso del agente, documentación del corpus y topes de uso. Un equipo serio define estas piezas antes del despliegue, no después de la primera crisis. En la práctica, el cruce con sistemas de Big Data electoral aplicado a la región facilita la trazabilidad y la auditoría de las conversaciones para uso interno del equipo.
El experimento ClaudIA dejó la lección sobre la mesa. La tecnología para construir un chatbot de campaña LATAM con voz del candidato ya está disponible y accesible. Lo que falta es la decisión política sobre para qué se usa, con qué corpus, bajo qué reglas. Por lo tanto, los equipos que se preparen ahora, con guardarraíles claros y autodeclaración explícita, van a tener ventaja sobre los que esperen a la primera crisis para empezar a pensarlo.
¿Quieres análisis como este cada semana?
