Back to blog

Cuando la IA no conecta: lo que sentimos aunque no sepamos explicarlo

By Jazmin Bartra
clock icon 4 min read 15 Feb 2026

Camino por la calle y veo un cartel publicitario.
Lo miro unos segundos. Entiendo el mensaje. Reconozco la idea. Pero algo no encaja.

Las personas que aparecen en la imagen tienen rostros inexpresivos, poses poco naturales, miradas que no dicen nada. Los elementos están bien… pero no del todo. 

No es un error evidente. De hecho, si no prestas atención, podrías no notarlo.

Sin embargo, algo dentro de mí se incomoda.
No sé explicarlo con palabras, pero lo siento.

Lo que nuestros ojos no ven, pero nuestro inconsciente sí

Muchas veces creemos que si no detectamos un error de forma consciente, entonces no existe. Pero no funciona así. Nuestro cerebro es increíblemente sensible a los detalles humanos: gestos, proporciones, expresiones, imperfecciones reales.

Este fenómeno se parece mucho a lo que se conoce como el “valle inquietante” (uncanny valley), un concepto propuesto en 1970 por el ingeniero y robotista japonés Masahiro Mori.

 Él explicaba que, cuando algo se parece demasiado a un humano pero no lo es del todo, provoca una sensación de rechazo o incomodidad. No miedo. No rechazo explícito. Incomodidad.

Eso es exactamente lo que ocurre con muchas imágenes creadas 100% con IA hoy en día.

La IA entiende la forma, pero no la experiencia

La inteligencia artificial puede replicar estructuras, colores, estilos y composiciones. Pero no vive, no siente, no observa el mundo como lo hacemos nosotros.

Cuando se utiliza sin criterio humano:

  • Las emociones se ven vacías
  • Las escenas se sienten artificiales
  • La creatividad pierde intención

El resultado puede “funcionar” visualmente, pero no conecta emocionalmente. Y en un mundo saturado de estímulos, conectar lo es todo.

El verdadero problema: el mal uso de la IA

La indignación y el rechazo hacia la IA no vienen de la herramienta en sí, sino de cómo se está usando.

Hoy nos enfrentamos a problemáticas reales:

  • Contenidos generados sin transparencia
  • Imágenes que parecen reales pero no lo son
  • Desinformación cada vez más difícil de detectar
  • Pérdida de confianza en lo que vemos

Si ya no sabemos distinguir qué es real y qué no, ¿cómo afecta eso a nuestra percepción del mundo, de las marcas y de las personas?

La confianza visual está cambiando (y no para bien)

La imagen siempre fue una fuente de verdad. Hoy, esa verdad se vuelve difusa. Y aunque conscientemente no lo notemos, nuestro cerebro empieza a desconfiar.

Esto no solo afecta al marketing o a la publicidad. Afecta a la cultura, a la creatividad y a la forma en la que interpretamos la realidad.

Conclusión: la IA no es el enemigo

La inteligencia artificial no es mala. Es poderosa. Es útil. Es inevitable.

El problema es que no está siendo regulada ni utilizada de forma responsable. Falta criterio humano, ética y dirección creativa. La IA necesita contexto, intención y supervisión. Necesita personas detrás.

Porque al final, la tecnología puede acelerar procesos, pero solo los humanos pueden crear conexión real

Empower your growth with a partner who understands your vision. From top-tier talent to cutting-edge solutions, we're here to help you achieve more— faster, smarter, and seamlessly.