In Algorithm we Trust(?)

During one of my class discussion on AI at Duke, one of the students shared that his grandmother calls AI her “most trusted friend.” He added he’s planning to send her a daily reminder telling her not to trust AI too much. Not sure he is going to use AI for the reminder. It’s most likely. But it also says something about the role AI is starting to play in our lives. We’re not just treating it like a tool anymore. More and more, people are treating AI like an analyst—someone who explains the world, not just reports on it.

Not so long ago, AI assistants mostly did simple tasks: telling you the weather, setting alarms, playing songs. Today, people ask them to interpret things. Should I cancel my plans because of the weather? What does this symptom mean? How should I invest my money? What’s really happening in the news? These aren’t just factual questions; they’re the kinds of things we usually ask people we trust to think things through. In these moments, AI stops acting like a helper and starts sounding like a voice of authority.

That trust has grown quickly. A recent global survey covering 47 countries and more than 48,000 people found that while two-thirds of respondents said they regularly use AI tools, less than half said they actually trust them. Even more striking, about two-thirds admitted they rely on AI outputs without really checking their accuracy. In other words, plenty of people treat AI’s interpretations as solid, even when they’re not sure how it got there.

Phycologist Albert Mehrabian’s It matters how you say it, not what you say makes AI sounds confident. Even when it’s unsure, it often phrases things in a way that sounds convincing. Research backs this up. One recent study showed that when AI gives overconfident answers, people are more likely to accept them uncritically, even if they’re wrong. If the system admits uncertainty, people tend to trust it less—even when it’s actually more accurate.

And because AI is so easy to use, it slips into daily routines. For older adults, talking to an assistant can be simpler than clicking through endless websites. Over time, the relationship starts to feel familiar. A device that’s always polite, always available, and always quick to respond begins to feel like a trusted voice.

That trust isn’t all bad. For many people, AI genuinely makes life easier. It helps them stay organized, understand new topics, and even feel less lonely. But once we start treating AI as an analyst, that trust carries more weight. Analysts are supposed to be reliable. When AI gets it wrong—and it does—it can mislead people in subtle ways.

Studies also show that people are more likely to trust AI over time if they see that its past answers were right, not necessarily if they understand how it works. That’s why explanations alone often aren’t enough to build healthy skepticism. The problem is that most users don’t get that kind of feedback. They just hear a confident voice and take it at face value.

That’s why my student’s daily reminder idea, makes a good point. We don’t need to distrust AI completely, but we do need to stay alert. Just like we’ve learned to question news sources, advertising, and human experts, we should learn to question AI too. Digital literacy today isn’t just about knowing how to use technology. It’s about knowing how to think alongside it—recognizing when we’re getting information and when we’re getting interpretation, and treating AI’s analysis with the same scrutiny we’d give a human commentator.

Regulation will matter, but ethics also live in everyday conversations. They live in that moment when a grandmother trusts an assistant, or when a student jokes about reminding her to be skeptical. AI has started to act like a trusted analyst in many homes. That means we need to build systems that deserve that trust—and teach people how to keep their own judgment sharp.

AI isn’t just answering our questions anymore. It’s helping shape how we see the world, if we allow for it. How we respond to that—whether we lean in blindly, push it away, or engage thoughtfully—will determine what kind of relationship we build with it. And that decision starts not in some distant future, but in the small moments of everyday life. As my student scheduled a daily reminder to his grandmother, I did scheduled one to myself.

En el Algoritmo Confiamos (¿o no?)

Durante una de mis clases sobre IA en Duke, uno de los estudiantes compartió que su abuela llama a la IA su “amiga más confiable”. Añadió que está planeando enviarle un recordatorio diario para decirle que no confíe demasiado en la IA. No está claro si usará IA para enviarle el recordatorio. Es muy probable que sí. Pero esto también dice algo sobre el papel que la IA está empezando a jugar en nuestras vidas. Ya no la tratamos simplemente como una herramienta. Cada vez más, las personas tratan a la IA como a un analista: alguien que explica el mundo, no solo que informa sobre él.

No hace mucho tiempo, los asistentes de IA realizaban principalmente tareas simples: decirte el clima, configurar alarmas, reproducir música. Hoy en día, la gente les pide que interpreten cosas. ¿Debería cancelar mis planes por el clima? ¿Qué significa este síntoma? ¿Cómo debería invertir mi dinero? ¿Qué está pasando realmente en las noticias? Estas no son preguntas meramente fácticas; son el tipo de preguntas que normalmente le hacemos a alguien en quien confiamos para pensar las cosas con detenimiento. En esos momentos, la IA deja de actuar como una simple ayudante y empieza a sonar como una voz de autoridad.

Esa confianza ha crecido rápidamente. Una encuesta global reciente, que abarcó 47 países y más de 48,000 personas, reveló que aunque dos tercios de los encuestados dijeron usar herramientas de IA regularmente, menos de la mitad dijo realmente confiar en ellas. Aún más sorprendente: alrededor de dos tercios admitieron que confían en los resultados de la IA sin verificar realmente su exactitud. En otras palabras, muchas personas tratan las interpretaciones de la IA como sólidas, incluso cuando no están seguras de cómo llegó a ellas.

El psicólogo Albert Mehrabian decía: “Importa cómo lo dices, no lo que dices”. Esto hace que la IA suene segura. Incluso cuando no está segura, suele formular las cosas de una manera que resulta convincente. La investigación respalda esto. Un estudio reciente mostró que cuando la IA da respuestas demasiado confiadas, las personas son más propensas a aceptarlas sin cuestionarlas, incluso si son incorrectas. Si el sistema admite incertidumbre, la gente tiende a confiar menos en él, aunque en realidad sea más preciso.

Y como la IA es tan fácil de usar, se integra con naturalidad en las rutinas diarias. Para los adultos mayores, hablar con un asistente puede ser más sencillo que navegar por interminables sitios web. Con el tiempo, la relación empieza a sentirse familiar. Un dispositivo que siempre es cortés, siempre está disponible y siempre responde rápidamente comienza a parecer una voz de confianza.

Esa confianza no es del todo mala. Para muchas personas, la IA realmente hace la vida más fácil. Les ayuda a mantenerse organizados, a comprender nuevos temas e incluso a sentirse menos solos. Pero una vez que empezamos a tratar a la IA como a un analista, esa confianza adquiere más peso. Se supone que los analistas deben ser confiables. Cuando la IA se equivoca —y lo hace— puede engañar a las personas de maneras sutiles.

Los estudios también muestran que las personas son más propensas a confiar en la IA con el tiempo si ven que sus respuestas pasadas fueron correctas, no necesariamente si entienden cómo funciona. Por eso las explicaciones por sí solas a menudo no son suficientes para fomentar un escepticismo saludable. El problema es que la mayoría de los usuarios no reciben ese tipo de retroalimentación. Simplemente escuchan una voz segura y la aceptan tal cual.

Por eso la idea del recordatorio diario de mi estudiante tiene mucho sentido. No necesitamos desconfiar completamente de la IA, pero sí debemos mantenernos alerta. Así como hemos aprendido a cuestionar las fuentes de noticias, la publicidad y a los expertos humanos, también debemos aprender a cuestionar la IA. La alfabetización digital hoy no trata solo de saber usar la tecnología. Se trata de saber pensar junto a ella: reconocer cuándo estamos recibiendo información y cuándo estamos recibiendo interpretación, y tratar el análisis de la IA con el mismo escrutinio que le daríamos a un comentarista humano.

La regulación será importante, pero la ética también vive en las conversaciones cotidianas. Vive en ese momento en que una abuela confía en un asistente, o cuando un estudiante bromea sobre recordarle que sea escéptica. La IA ha empezado a actuar como un analista de confianza en muchos hogares. Eso significa que necesitamos construir sistemas que merezcan esa confianza, y enseñar a las personas a mantener su propio juicio afilado.

La IA ya no solo responde a nuestras preguntas. Está ayudando a moldear cómo vemos el mundo, si se lo permitimos. Cómo respondamos a eso —si nos entregamos ciegamente, la rechazamos o nos relacionamos con ella de manera reflexiva— determinará el tipo de relación que construiremos con esta tecnología. Y esa decisión no comienza en un futuro lejano, sino en los pequeños momentos de la vida diaria. Así como mi estudiante programó un recordatorio diario para su abuela, yo también programé uno para mí mismo.

Comparte la publicación:

Artículos relacionados