¿Será la IA el futuro de la confianza?

Por qué estamos delegando criterio, calma y claridad en sistemas que no sienten lo que sentimos

La pregunta ya no es si usamos IA. La pregunta real es en qué aspectos de nuestra vida la estamos dejando entrar sin darnos cuenta. En los últimos meses he visto un patrón que se repite en conversaciones, noticias y comportamientos: la gente confía en la IA incluso cuando no confía en su médico, en su banco, en su jefe o en su propio criterio.

No hablo de ciencia ficción. Hablo de lo que ya pasa en 2025: diagnósticos hechos a partir de “Dr. ChatGPT”, decisiones de crianza tomadas con asistentes virtuales, personas que planifican su día según lo que les sugiere un algoritmo y equipos que consultan a un modelo antes que a su líder directo.

Este artículo intenta responder una pregunta incómoda pero inevitable: ¿estamos trasladando nuestra confianza desde instituciones y personas hacia máquinas? Y, sobre todo, ¿qué significa eso para nosotros, como individuos y como líderes?

La confianza es uno de los recursos más escasos de este año

Vivimos un momento extraño: nunca habíamos tenido tanta información, pero nunca habíamos confiado tan poco. En las últimas encuestas globales, la confianza en gobiernos, medios, empresas y hasta el sistema sanitario sigue en caída. La gente cree menos en todo. Pero confía más en algo: la tecnología.

¿Por qué? Porque la IA responde rápido, no juzga, no se cansa, no improvisa. Y, a diferencia de muchas personas, no proyecta sus inseguridades en ti. Es eficiencia emocional al instante.

Cuando un sistema humano está saturado —médicos sin tiempo, profesores agotados, administraciones colapsadas— la IA aparece como una alternativa “neutra”. Pero esa neutralidad es una ilusión. Los modelos aprenden de nosotros, de nuestros sesgos y de nuestros vacíos. Aun así, prefieren ese espejismo a un sistema en el que ya no confían.

Por qué la gente confía más en una IA que en un experto

Lo veo por todos lados:
ya no delegamos solo tareas, delegamos criterio.

Las razones son más psicológicas que tecnológicas:

  1. La IA siempre contesta. Un médico no. Un jefe no. Un profesor no.

  2. No sentimos que nos juzga. La conversación es segura. Controlada. Previsible.

  3. La IA tiene tiempo ilimitado. Los humanos no.

  4. La velocidad se confunde con autoridad. Si responde rápido, parece que sabe.

  5. El sesgo de automatización hace el resto. Cuando algo viene de una máquina, tendemos a asumir que “debe estar bien”.

Hay otro punto importante: los expertos están agotados. Los sistemas que antes daban seguridad hoy están saturados, burocratizados o invisibilizados. El espacio emocional que dejan vacío lo ocupa la tecnología.

Señales débiles que ya anuncian este cambio

Las señales están por todas partes. Algunas son pequeñas, otras ya son parte de nuestra rutina:

· Dr. ChatGPT
Millones de personas preguntan síntomas antes que pedir cita. No porque quieran reemplazar al médico, sino porque el sistema no les da espacio.

· Crianza asistida por IA
Apps que sugieren rutinas, analizan llantos, recomiendan decisiones difíciles. ¿Cuántos padres están utilizando esto sin admitirlo?

· Chats colaborativos
Decisiones de grupos, equipos o proyectos mediadas por un modelo. La IA se convierte en el “adulto imparcial” en la sala.

· Usuarios que dicen “me siento más comprendido por una máquina que por mi entorno”.
Esto ya no es anécdota. Es síntoma.

¿Y dónde está el riesgo? En la delegación sin criterio

Aquí es donde tengo la alerta encendida.
Que usemos IA no es un problema.
Que dejemos de pensar, sí lo es.

He aprendido algo importante estos meses trabajando con equipos grandes: la IA amplifica lo que ya tienes. Si tienes claridad, te hace más claro. Si tienes dudas, te las maquilla. Si estás cansado, decide por ti.

La IA no tiene contexto vital, no entiende tus valores, no sabe lo que te duele, ni lo que no estás dispuesto a sacrificar. Y ahí está el límite.

La confianza ciega en estos sistemas crea una paradoja peligrosa: cuanto menos criterio usamos, más dependientes nos volvemos. Y cuanto más dependientes somos, menos capaces somos de cuestionar la respuesta que nos da.

Mi visión: la confianza no puede mudarse dos veces sin que pase factura

Primero pasamos de confiar en instituciones a confiar en personas. Ahora estamos pasando de confiar en personas a confiar en máquinas.

La pregunta es:
¿qué pasa cuando la confianza abandona los espacios donde debería estar (comunidad, familia, sistemas humanos) y se instala en modelos diseñados para optimizar, no para sostener?

La confianza que delegamos nunca vuelve igual. Se transforma. Cambia nuestras decisiones. Modifica nuestras relaciones. Y, si no la cuidamos, puede diluir nuestra capacidad de leer la realidad con nuestros propios ojos.

Un marco simple para navegar esta transición

Lo uso conmigo, con mi equipo y con las empresas con las que trabajo:

1. Decide tú. Valida la IA, pero no le entregues el volante.

La IA es copiloto, no capitán.

2. Identifica qué tipo de decisiones NO vas a delegar jamás.

Las que afectan tus valores, tu dinero, tu salud y tus relaciones.

3. Pregunta siempre: “¿qué información no está viendo la IA?”

Esta pregunta abre claridad instantánea.

4. Y sobre todo: haz pausas.

La IA va rápido.
Eso no significa que tú tengas que hacerlo.

Si la confianza se está redistribuyendo, aprendamos a sostenerla

No creo que la IA sea el enemigo. Pero tampoco creo que pueda ocupar los espacios que pertenecen a los humanos: el cuidado, la empatía, el conflicto, la incertidumbre, el vínculo emocional.

La confianza es un mecanismo delicado. Cambia de forma cada vez que cambia de manos. Y ahora mismo estamos en un proceso sin precedentes: estamos empezando a confiar en algo que no siente, no vive y no pierde el sueño por nosotros.

Quizás la pregunta no sea “¿será la IA el futuro de la confianza?”, sino:
¿qué partes de nuestra humanidad queremos proteger mientras avanzamos hacia ese futuro?

Ahí empieza la conversación real.

De instituciones, a personas, a… ia? ¿será ese el futuro de la confianza????

un abrazo,

Dani

Algunas fuentes consultadas:

  1. https://www.edelman.com/trust

  1. https://www.pewresearch.org/politics/2024/06/24/public-trust-in-government-1958-2024

  2. https://news.gallup.com/poll/1597/confidence-institutions.aspx

  3. https://jamanetwork.com/journals/jamainternalmedicine/fullarticle/2804309

  4. https://ccpp.ku.edu/news/article/study-chatgpt-needs-expert-supervision-to-help-parents-with-childrens-healthcare-information

  5. https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4635674

  6. https://www.pewresearch.org/short-reads/2025/06/25/34-of-us-adults-have-used-chatgpt-about-double-the-share-in-2023

  7. https://www.cbsnews.com/news/ai-digital-friendship-with-teens-common-sense-media-study

  8. https://www.businessinsider.com/chatgpt-diagnose-child-disease-tethered-cord-syndrome-doctors-2023-9

  9. https://futurism.com/artificial-intelligence/parents-chatgpt-rear-children

  10. https://www.ndtv.com/offbeat/chatgpt-saved-our-relationship-us-couple-reveals-how-ai-helped-solve-fights-7854592

  11. https://www.techpolicy.press/ai-trustwashing-changes-how-consumers-judge-credibility

  12. https://www.theguardian.com/technology/2024/apr/26/tesla-autopilot-fatal-crash

Siguiente
Siguiente

La nostalgia como refugio: qué dice de nosotros el revival permanente