Gemba
Gemba Podcast
El desafío del “control humano”en productos con IA
0:00
-15:45

El desafío del “control humano”en productos con IA

diseñar con la IA, no contra ella

Cada vez que interactuamos con un producto impulsado por inteligencia artificial, hay una pregunta que flota en el aire, aunque no la formulemos:

¿quién está realmente al mando?

Cuando un algoritmo sugiere una canción, completa una frase o elige qué noticia aparece primero en nuestro feed, parece que seguimos decidiendo nosotros.

Pero la realidad es más ambigua: la IA ya está influyendo —sutilmente— en nuestras decisiones, preferencias y hábitos.

Y a medida que los modelos se vuelven más sofisticados, el equilibrio entre asistencia y autonomía se vuelve más frágil.

El gran reto del diseño de producto en esta era no es crear sistemas que piensen por nosotros, sino diseñar formas de colaboración donde humanos e inteligencia artificial trabajen juntos sin que uno borre al otro.


De la automatización al acompañamiento

Durante mucho tiempo, la tecnología se diseñó con un objetivo claro: automatizar tareas repetitivas.

Hacer las cosas más rápido, con menos intervención humana. Pero la IA moderna no se limita a ejecutar; interpreta. Analiza contexto, anticipa intenciones, sugiere caminos. Y eso cambia por completo la naturaleza del producto.

Un ejemplo claro es el salto entre los pilotos automáticos de los aviones y los sistemas de conducción asistida de Tesla. El piloto automático sigue reglas claras; el sistema de Tesla “aprende” de la experiencia colectiva.

Ya no obedece, colabora.

Y ese pequeño matiz —colaborar— es el que marca el inicio de una nueva era de diseño de producto: la era del human-in-the-loop.


Qué significa realmente

human-in-the-loop

El término nació en entornos industriales y militares, pero hoy es fundamental para diseñar experiencias con IA.

Un sistema human-in-the-loop es aquel donde el humano sigue en el circuito de decisión.

Supervisa, corrige, enseña. Y, sobre todo, puede intervenir antes de que algo salga mal.

En otras palabras: no se trata de evitar la automatización, sino de asegurarse de que la responsabilidad última sigue siendo humana.


Tres niveles de intervención humana

Podemos pensar en tres niveles donde el usuario participa en un sistema con IA:

1. Antes de la decisión (human-in-command)

El usuario establece los límites, los objetivos o las reglas del sistema.

Por ejemplo, al configurar ChatGPT para responder con un tono profesional o educativo.

2. Durante la decisión (human-in-the-loop)

El usuario colabora en tiempo real con la IA.

Un diseñador revisando las propuestas que genera Figma, o un médico validando un diagnóstico sugerido por un modelo.

3. Después de la decisión (human-on-the-loop)

El humano no participa directamente, pero supervisa el rendimiento y los resultados del sistema, interviniendo cuando detecta errores o sesgos.

El desafío está en elegir el nivel adecuado para cada contexto: más automatización no siempre significa más valor.


Ejemplo: el caso de Duolingo Max

Cuando Duolingo introdujo su versión con IA generativa —Duolingo Max—, la empresa tuvo claro que el sistema debía ayudar al usuario a aprender, no solo a acertar.

Por eso, en lugar de mostrar simplemente si una respuesta era correcta o no, la IA explica por qué está bien o mal.

El usuario puede pedir una aclaración, repetir la frase, o incluso “hablar” con el personaje que la corrigió.

Esa interacción —guiada pero abierta— es human-in-the-loop en estado puro:

el sistema automatiza la práctica, pero mantiene al humano en el centro del aprendizaje. La magia está en que la IA no sustituye al profesor, sino que amplifica su presencia.


Patrones de diseño para mantener el control humano

Diseñar productos que equilibren autonomía y supervisión no es fácil, pero hay patrones que están demostrando funcionar:

1. El modelo propone, el usuario decide

La IA nunca ejecuta sin aprobación.

Ejemplo: Gmail sugiere respuestas rápidas, pero tú eliges si las envías o no.

2. Transparencia contextual

El usuario debe saber cuándo está interactuando con una IA y cómo esa intervención afecta el resultado.

Ejemplo: Photoshop ahora etiqueta automáticamente las imágenes generadas con IA generativa.

3. Corrección reversible

Todo sistema inteligente debe permitir deshacer y enseñar.

Cuando corriges una recomendación de Spotify o rechazas una sugerencia de Copilot, no solo ajustas tu experiencia; ayudas al modelo a mejorar.

4. Confianza ganada, no asumida

La autonomía no se concede por defecto, se gana con el tiempo.

Tesla, por ejemplo, exige al conductor mantener las manos en el volante: la automatización se amplía solo si el sistema demuestra fiabilidad.

5. Explicabilidad sin fricción

Los mejores sistemas comunican sus límites sin romper la experiencia.

Un mensaje como “esta respuesta puede contener errores” puede parecer trivial, pero genera un efecto psicológico de control y honestidad.


Cuando la IA se pasa de lista

Hay un momento peligroso en todo producto con IA: cuando intenta anticipar demasiado. Piénsalo: cuando tu teléfono corrige una palabra que no querías cambiar, cuando un recomendador insiste en ofrecerte algo que ya has rechazado, cuando un sistema “decide” por ti con exceso de confianza.

Ese tipo de automatismo rompe la sensación de control, y lo que era mágico se convierte en frustrante.

Uno de los mejores ejemplos fue Microsoft Tay, el chatbot lanzado en Twitter en 2016.

Aprendía de las conversaciones con los usuarios, pero sin filtros ni supervisión humana.

En menos de 24 horas, el sistema empezó a emitir mensajes ofensivos y racistas.

El experimento fue un fracaso técnico, pero una lección de diseño: sin control humano, los sistemas aprenden lo peor de nosotros.


Ética, responsabilidad y producto

El human-in-the-loop no es solo una decisión de diseño; es una posición ética.

Porque toda automatización lleva implícita una transferencia de poder.

Y cada vez que un producto decide por nosotros, le estamos delegando una parte de nuestro juicio.

El trabajo del PM es asegurarse de que esa delegación sea consciente, reversible y explicable.

No se trata de desconfiar de la IA, sino de diseñar los límites de su autonomía con criterio y propósito.


El takeaway

El futuro del diseño de producto no será 100% automatizado, ni 100% humano.

Será colaborativo.

El desafío del control humano consiste en construir tecnología que amplifique nuestras capacidades sin apropiarse de ellas.

👉 Diseñar human-in-the-loop no es frenar la innovación; es darle dirección.

Porque si los humanos salimos del circuito, la inteligencia deja de ser realmente inteligente.

Discusión sobre este episodio

Avatar de User