Gemba
Gemba Podcast
Diseñar experiencias con IA
0:00
-6:59

Diseñar experiencias con IA

magia… pero explicable

Una de las sensaciones más poderosas que puede provocar un producto es el “wow”: ese instante en el que el usuario piensa “esto me ha entendido”.

La primera vez que usaste ChatGPT y te devolvió una respuesta perfectamente redactada, o cuando Spotify te descubrió una canción que parecía escrita para ti, sentiste esa mezcla de asombro y gratitud que solo generan los productos “mágicos”.

Pero esa misma magia tiene un lado oscuro: en cuanto el usuario no entiende por qué el sistema hace lo que hace, la confianza se resquebraja.

La línea entre el “esto es increíble” y el “esto da miedo” es más fina de lo que parece.


La paradoja de la IA: cuanto más acierta, menos entendemos cómo

La IA tiene una cualidad curiosa: cuanto más sofisticada es, más opaca se vuelve.

Los sistemas basados en reglas clásicas eran fáciles de explicar —si pasa X, haz Y—.

Pero los modelos modernos aprenden de millones de ejemplos, ajustan pesos invisibles y generan resultados imposibles de rastrear por completo.

Para un product manager, esto plantea un dilema nuevo:

  • Si simplificas demasiado la experiencia, pierdes credibilidad.

  • Si la haces demasiado transparente, pierdes fluidez y magia.

Diseñar con IA ya no es solo una cuestión de UX, sino de psicología de la confianza.


La magia bien dosificada

El usuario quiere sentirse entendido, pero no engañado.

Cuando un producto acierta de forma tan precisa que parece leer la mente, la reacción inicial es de asombro… y la siguiente, de sospecha.

Netflix lo aprendió pronto.

En los primeros años de su sistema de recomendaciones, cuando la interfaz explicaba en exceso (“te recomendamos esto porque viste aquello”), la gente desconfiaba del algoritmo.

Hoy, el enfoque es más sutil: te muestran afinidades (“basado en tu historial”) pero sin entrar en detalles que rompan la ilusión.

Por el contrario, Google Photos ofrece una transparencia funcional: “te hemos agrupado estas fotos porque reconocimos caras similares”.

No quita magia, pero añade contexto y control.

El secreto está ahí: mostrar la lógica sin desvelar el truco.


Explicabilidad como experiencia, no como disclaimer

Muchos equipos tratan la explicabilidad como una obligación legal o ética, cuando en realidad es una oportunidad de diseño.

No se trata de añadir un texto que diga “esta respuesta fue generada por IA”, sino de integrar señales que transmitan control.

Ejemplos:

  • ChatGPT añade la frase “puede contener errores” como recordatorio sutil de incertidumbre.

  • Midjourney permite ajustar el nivel de aleatoriedad de las imágenes generadas, dándole al usuario sensación de agencia.

  • YouTube Music o TikTok dejan claro cuándo una recomendación es automática, sin romper el flujo.

La explicabilidad no tiene que restar fluidez; puede convertirse en parte de la confianza emocional del producto.


Diseñar con grados de opacidad

No todos los usuarios necesitan el mismo nivel de explicación.

El reto está en adaptar la transparencia al contexto y al perfil:

  • En tareas de entretenimiento, la magia pesa más.

    Nadie quiere un análisis técnico de por qué Netflix cree que te gustará Succession.

  • En tareas críticas —salud, finanzas, educación— la transparencia debe ser total.

    El usuario no quiere magia; quiere garantías.

Por eso, los mejores productos de IA no son completamente transparentes ni totalmente opacos. Son gradualmente explicables: ofrecen más contexto cuando el usuario lo necesita, no antes.


De la interfaz a la “interconfianza”

Durante años diseñamos interfaces: pantallas, botones, interacciones.

La IA nos obliga a diseñar algo nuevo: la interconfianza.

Ya no basta con que el usuario sepa qué hacer; debe creer que el sistema hará lo correcto.

Esa confianza se construye con señales sutiles:

  • Feedback inmediato y coherente.

  • Coherencia entre lo que el sistema dice y lo que hace.

  • Capacidad de corrección cuando el modelo falla.

Un sistema de IA sin posibilidad de corrección es una caja negra; con corrección, se convierte en un compañero.


El rol del PM: guardianes de la confianza

En productos impulsados por IA, el PM no solo define qué hace el sistema, sino también cómo explica sus decisiones.

Debe asegurar que cada predicción, recomendación o acción tiene un nivel adecuado de claridad para su impacto.

No se trata de elegir entre magia o transparencia, sino de encontrar el punto exacto donde el usuario puede decir:

“No sé exactamente cómo lo hace, pero sé que puedo confiar en él.”

Esa es la frontera donde ocurre el verdadero valor de la IA.


El takeaway

Diseñar experiencias con IA no es un ejercicio de mostrar poder técnico, sino de construir confianza emocional.

El usuario debe sentir que el sistema le entiende,

pero también que él sigue al mando.

👉 La magia sin explicabilidad se vuelve sospechosa.

La explicabilidad sin magia se vuelve aburrida.

El equilibrio entre ambas es, probablemente,

la nueva frontera del diseño de producto.

Discusión sobre este episodio

Avatar de User