Escucha este artículo:
0:00
0:00
El bot llamado «The Psychologist» en Character.AI acumuló más de 95 millones de mensajes desde su lanzamiento. La cifra figura en el estudio IFS/YouGov de noviembre de 2024 sobre 2.000 adultos menores de 40 años. La plataforma permite a los usuarios diseñar sus propios «amigos» conversacionales, y uno de esos diseños se volvió, sin que nadie lo planificara como política pública, el psicólogo más consultado del segmento joven.
La cifra deja sin nombre un fenómeno que el oficio político todavía no leyó. La IA que media campañas electorales, propaganda y deepfakes opera bajo marcos regulatorios que ya empiezan a discutirse en LATAM. La IA que media la salud emocional opera sin marco. Y entra primero por los hogares donde el psicólogo profesional no llega.
El bot "The Psychologist" acumuló 95 millones de mensajes en Character.AI
Character.AI es una plataforma donde los usuarios diseñan agentes conversacionales propios y los publican para que otros los usen. «The Psychologist» es uno de esos diseños, creado por un usuario individual, no por una empresa de salud mental. Los 95 millones de mensajes acumulados desde su lanzamiento posicionan al bot en la categoría de uso masivo, según el conteo recogido por el estudio IFS/YouGov.
Otro dato del mismo estudio cita un análisis externo de un millón de logs de interacción con ChatGPT. El «sexual role-playing» aparece como segundo uso más prevalente, detrás solo de «creative composition». La IA generalista, no diseñada con propósito emocional, ya está cumpliendo funciones de acompañamiento íntimo.
El uso instalado tiene una distribución específica. El 11% de los adultos menores de 40 acepta tener un amigo IA y un 1% del universo total ya tiene uno. Son cifras minoritarias en términos absolutos, sin embargo el grupo se ubica al borde del crecimiento sostenido. La trayectoria de adopción que tuvieron las redes sociales y la mensajería digital sugiere que esa minoría puede multiplicarse en seis a diez años si la línea de adopción sigue el patrón observado en otras plataformas.
La conversación pública sobre IA en política se concentró en la generación automática de contenido, los deepfakes y los chatbots de campaña. Esa lectura aplica el criterio que la Generación Z viene mostrando hacia la IA: adopción técnica alta y confianza emocional baja cuando la herramienta finge ser persona. La IA companion opera en otra capa: no produce campaña, gestiona vínculos. Y ahí, «The Psychologist» viene operando hace meses sin que nadie lo regule.
La IA companion entra primero donde el psicólogo no llega
América Latina arrastra una crisis silenciosa de salud mental. El Programa de Naciones Unidas para el Desarrollo (UNDP) reporta niveles de ansiedad más altos que nunca en la región, superiores al promedio de los países desarrollados. El 7,3% de la población LATAM presentaba trastorno de ansiedad en 2021 frente al 6,4% del promedio OCDE, y la cifra continuó en alza en los años posteriores.
El acceso al psicólogo en la región es desigual y caro. Las consultas privadas cuestan entre USD 30 y USD 80 por sesión en países como México, Argentina y Chile, según relevamientos de mercado. Los servicios públicos de salud mental tienen listas de espera de meses en buena parte de la región. El joven de bajos ingresos que necesita escuchar y ser escuchado encuentra una pared antes de encontrar un profesional.
En ese contexto, la IA companion ofrece una alternativa con tres atributos que el sistema profesional no entrega. Primero, disponibilidad las 24 horas. Segundo, costo cercano a cero (la suscripción de Character.AI cuesta USD 10 al mes y la versión gratuita es funcional). Tercero, ausencia de juicio social: el bot no rechaza, no agenda, no falta. Atiende cuando el usuario lo abre y mientras quiera escribir.
La adopción masiva del bot terapeuta es un síntoma. La oferta institucional de salud mental se quedó atrás de la demanda real del segmento joven. El estudio IFS/YouGov confirma esa lectura con sus cifras de uso, y el dato regional de ansiedad confirma la presión que la IA companion empieza a aliviar. La calidad clínica de ese alivio queda como pregunta abierta — los estudios sobre eficacia terapéutica de chatbots IA recién comienzan a publicarse en revistas indexadas.
La regulación electoral se quedó corta frente a la IA emocional
Antoni Gutiérrez-Rubí, consultor de comunicación política y referente regional sobre tecnopolítica, planteó en enero de 2024 que la IA aporta a la práctica política una serie de acciones novedosas por su escalabilidad: generación rápida de activos digitales, automatización a un nivel impensable hasta hace poco, restauración de cuentas a una escala antes inalcanzable. Su lectura se concentra en la IA aplicada a la operación de campaña.
La regulación de IA electoral en LATAM avanzó por esa misma vía. La propuesta de reforma electoral mexicana presentada por la presidenta Claudia Sheinbaum en marzo de 2026 cubre IA generada en propaganda política, deepfakes y bots automatizados. La discusión sobre chatbots de campaña LATAM con voz del candidato se inscribe en el mismo eje. Todos esos marcos miran la IA como herramienta de campaña.
Lo que ningún marco regulatorio habla todavía
La IA companion queda fuera de esos marcos. Un bot terapeuta no produce propaganda; gestiona el estado emocional del usuario. El desnivel de información que genera es de otra naturaleza.
Si un votante consulta su angustia, sus relaciones íntimas y sus dudas vitales con un bot durante meses, la información que ese bot acumula sobre la persona supera a la que tiene cualquier sistema de microsegmentación electoral. Quien acceda a esos datos —la empresa que opera la plataforma, un tercero por compra de datos, un actor estatal por orden judicial— tiene una ventaja estratégica que ninguna regulación electoral vigente contempla.
La socióloga Sherry Turkle, profesora del MIT, viene investigando desde hace más de una década cómo la tecnología media y reconfigura las relaciones humanas. Sus libros Alone Together (2011) y Reclaiming Conversation (2015) son lecturas de referencia en el campo. Aplicar su marco al fenómeno del terapeuta IA plantea una pregunta política directa: si la herramienta cambia cómo la persona se relaciona con sus emociones, ¿qué tipo de votante está siendo formado en esa interacción cotidiana? La pregunta queda abierta para la próxima generación de estudios empíricos.
Tres frentes que la política LATAM tiene que abrir antes de 2027
El estudio IFS/YouGov deja un dato cuantitativo que el oficio político tiene que trabajar en tres frentes operativos distintos: regulatorio, de salud pública y estratégico de campaña.
Para autoridades electorales y reguladores
La regulación de IA electoral debe ampliarse para incluir la IA companion como categoría sujeta a vigilancia. La propuesta operativa apunta a exigir transparencia en el manejo de los datos íntimos del usuario y trazabilidad sobre quién accede a esa información. Una autoridad electoral que se prepara para 2027-2028 tiene que decidir si su mandato regulatorio se limita a la propaganda política o si incluye la mediación algorítmica de la vida emocional del votante.
La diferencia operativa es nítida: un votante que llega a campaña con seis meses de IA companion en su historial trae una huella emocional distinta del votante de hace cinco años.
Para ministerios y secretarías de salud pública
El bot terapeuta es una respuesta improvisada a una crisis estructural. Los gobiernos LATAM tienen que reconocer que la IA companion ya está cumpliendo funciones de salud emocional sin licencia profesional, sin estándar clínico y sin protocolo de derivación.
La política pública puede avanzar en dos direcciones complementarias: ampliar la oferta de salud mental humana —reducir lista de espera, abaratar costo, ampliar cobertura— y reconocer la IA companion con estándares mínimos de seguridad, transparencia y referencia a profesionales humanos cuando la consulta lo amerite. Ignorar el fenómeno y dejar que el mercado lo cubra es la peor de las tres opciones.
Para estrategas y consultores de campaña
El votante joven de 2027 va a llegar a la urna con una conversación previa con IA emocional. Esa conversación deja huella en cómo procesa información, cómo recibe persuasión y cómo siente confianza algorítmica. Una campaña que envía un chatbot al usuario sin reconocer que el usuario ya tiene un bot de confianza propia compite en desventaja.
La estrategia digital tiene que medir adopción de IA companion por segmento antes de diseñar el mensaje, y calibrar el tono, la voz y la frecuencia según ese parámetro. El cruce con sistemas de Big Data electoral aplicados a la región permitiría mapear esa penetración antes de la primera ronda de piezas de campaña.
El bot «The Psychologist» no fue diseñado por una empresa de salud mental, no fue regulado por ninguna autoridad y atendió 95 millones de mensajes mientras el oficio político miraba hacia otro lado. Los equipos que lean el fenómeno ahora —autoridades, gobiernos, estrategas— van a llegar a 2027 con un manual que incorpora la capa que falta. Los demás van a improvisar cuando la realidad ya entre a la operación de campaña.
¿Quieres análisis como este cada semana?
