Puentes entre la pragmática de la comunicación humana y la teoría de la información: Hacia un enfoque heurístico integrador

Diseño: Fabián Robledo/Grok.

Puentes entre la pragmática de la comunicación humana y la teoría de la información: Hacia un enfoque heurístico integrador

Fabián Robledo¹.

¹Departamento de Señales y Sistemas. Escuela de Ingeniería de Telecomunicaciones. Facultad de Ingeniería. Universidad de Carabobo.

Resumen

La teoría de los cinco axiomas de la comunicación humana, formulada por Paul Watzlawick y sus colaboradores en el contexto de la Escuela de Palo Alto, ha sido fundamental para comprender la comunicación como un fenómeno relacional, contextual e inevitable. Paralelamente, la teoría matemática de la información desarrollada por Claude Shannon y sus sucesores ha proporcionado herramientas formales para cuantificar la transmisión de señales en canales ruidosos. A pesar de sus diferencias epistemológicas y metodológicas, ambas teorías comparten el mismo objeto de estudio: la comunicación. Este artículo propone un conjunto de puentes heurísticos entre ambos marcos, examinando cada axioma de Watzlawick a la luz de conceptos como entropía, redundancia, información mutua y capacidad de canal. Se presentan ejemplos concretos, analogías y propuestas de estudios empíricos y computacionales que podrían validar dichos puentes. El objetivo es ofrecer una semilla conceptual para investigaciones futuras que integren, de manera rigurosa y creativa, la psicología relacional y la teoría de la información.

Palabras clave: Comunicación humana. Axiomas de Watzlawick. Teoría de la información. Información mutua. Heurística integradora

1. Introducción

La comunicación humana ha sido abordada desde perspectivas tan diversas como la psicología clínica, la sociología, la lingüística y la ingeniería de telecomunicaciones. Sin embargo, rara vez estos dominios dialogan de manera sustantiva. Por un lado, Paul Watzlawick, Janet Beavin y Don Jackson, en su obra clásica Pragmática de la comunicación humana (1967), propusieron cinco axiomas que describen propiedades inevitables de toda interacción humana: la imposibilidad de no comunicar, los niveles de contenido y relación, la puntuación de la secuencia de hechos, la comunicación digital y analógica, y los intercambios simétricos o complementarios. Por otro lado, Claude Shannon (1948) concibió la comunicación como un problema de transmisión fiel de señales desde una fuente hasta un destino, introduciendo conceptos como entropía, redundancia y capacidad de canal. Posteriormente, desarrollos como la información mutua (Cover & Thomas, 2006) han permitido analizar la dependencia entre variables aleatorias, abriendo la puerta al estudio de sistemas comunicativos más complejos.

El presente artículo no pretende reducir los axiomas de Watzlawick a ecuaciones de Shannon, ni forzar una matematización innecesaria de la interacción humana. Más bien, busca identificar analogías estructurales y puntos de contacto heurísticos que permitan inspirar nuevas preguntas de investigación, diseñar experimentos novedosos y, eventualmente, construir modelos mixtos. El nivel de integración es deliberadamente heurístico: se privilegia la claridad conceptual sobre el formalismo matemático, y se proponen estudios que podrían realizarse sin necesidad de equipos sofisticados o modelos estadísticos avanzados.

Diseño: Fabián Robledo/Gemini.

2. Los cinco axiomas de Watzlawick revisados desde la teoría de la información

2.1. Primer axioma: “No es posible no comunicar” y la entropía del silencio

El primer axioma establece que toda conducta en un contexto de interacción comunica algo. Incluso el silencio, la inmovilidad o la ausencia intencional de respuesta transmiten información significativa. Desde la teoría de la información, este axioma puede reinterpretarse señalando que el silencio no es ausencia de señal, sino una señal con entropía condicional al contexto. En otras palabras, la incertidumbre sobre el significado del silencio disminuye drásticamente cuando conocemos la historia relacional entre los interlocutores, sus roles y las normas implícitas de la situación.

Ejemplo: En una conversación terapéutica, el silencio del paciente puede significar reflexión, resistencia, miedo o cansancio. Un observador externo (que desconoce la relación) tiene alta incertidumbre; el terapeuta, que conoce el contexto, tiene baja incertidumbre. La entropía condicional  H(silencio|contexto) es pequeña.

Estudio propuesto: Se podría diseñar un experimento en el que participantes vean videoclips de silencios en conversaciones reales (con distintos niveles de confianza interpersonal) y deban adivinar la emoción o intención del silencioso. La precisión de las respuestas (inversamente relacionada con la entropía subjetiva) se compararía entre condiciones de contexto presente vs. ausente.

2.2. Segundo axioma: Contenido y relación como canales acoplados

Este axioma distingue entre el contenido (los datos, lo que se dice explícitamente) y la relación (cómo debe entenderse ese contenido, qué tipo de vínculo define). En términos de Shannon, podríamos pensar que todo mensaje viaja simultáneamente por dos canales: un canal digital (palabras, números) y un canal analógico (gestos, tono, mirada). El primero es de alta capacidad pero bajo contexto; el segundo es de baja capacidad pero alto contexto. La información mutua entre ambos canales indica cuán coherente es la comunicación: cuando el contenido y la relación se contradicen (por ejemplo, decir “te quiero” con un tono agresivo), la información mutua es baja o negativa en términos pragmáticos.

Analogía: El mensaje de texto y el tono de voz. Imagínrse que se recibe un mensaje de texto que dice literalmente: "Eres muy inteligente". El contenido, o nivel digital, son las palabras escritas. Ese contenido, aislado, parece un halago. Sin embargo, la relación, o nivel analógico, no está en el texto, sino en el cómo se habría dicho si fuera una conversación cara a cara: el tono de voz, la mirada, la postura corporal. El mismo mensaje escrito puede ir acompañado de contextos analógicos muy distintos. Si se dice con tono cálido y sonrisa, el significado relacional es de aprecio genuino y simetría amistosa. Si se dice con tono sarcástico y ceja levantada, el significado relacional es de descalificación encubierta y complementariedad hostil. Si se dice con tono neutro y sin gestos, el significado relacional es de cortesía vacía o evasión. En términos de teoría de la información, el contenido viaja por un canal digital (palabras, números) mientras que la relación viaja por un canal analógico (gestos, prosodia, mirada). La información mutua entre ambos canales mide cuánto se parecen estadísticamente. Cuando es alta, el oyente puede predecir la relación a partir del contenido y viceversa, y la comunicación fluye sin esfuerzo. Cuando es baja, como en el sarcasmo o la incongruencia, el oyente debe hacer un esfuerzo extra para decidir qué mensaje "vale" más, generando incertidumbre y potencial conflicto relacional.

Estudio propuesto: Grabar interacciones en las que se induzcan incongruencias (por ejemplo, instrucción de elogiar con tono hostil). Luego, calcular mediante codificación conductual la correlación (análoga a información mutua) entre el contenido verbal y los marcadores prosódicos/faciales. Se hipotetiza que las interacciones con baja información mutua entre canales se asociarán con menor satisfacción comunicativa y mayor percepción de conflicto.

2.3. Tercer axioma: Puntuación de secuencias e información mutua temporal

El tercer axioma señala que los participantes en una interacción organizan la secuencia de eventos de manera subjetiva: cada uno cree que su conducta es una respuesta a la conducta del otro, generando disputas sobre quién “empezó”. Desde la teoría de la información, esto puede reformularse como una asimetría en la información mutua temporal. Si dos interlocutores tuvieran una puntuación perfectamente compartida, la información mutua entre sus conductas en el tiempo sería simétrica y predecible. Pero cuando hay desacuerdo, la información mutua calculada desde la perspectiva de A (considerando sus propias conductas como respuestas a B) difiere de la calculada desde la perspectiva de B.

Ejemplo: Una pareja discute. Ella dice: “Me retiro porque tú gritas”. Él responde: “Grito porque tú te retiras”. No hay manera empírica de decidir quién tiene razón; la puntuación es arbitraria. Sin embargo, un análisis de información mutua podría mostrar que, estadísticamente, el grito de él predice mejor el retiro de ella que viceversa, o al revés.

Estudio propuesto: Registrar interacciones diádicas en laboratorio con temporización fina (video y audio sincronizados). Codificar conductas específicas (ej. retirar la mirada, elevar la voz). Calcular la información mutua cruzada con diferentes intervalos temporales. Si la información mutua es máxima cuando la conducta de A precede a la de B, eso sugiere una dirección causal. Comparar estas direcciones con los relatos subjetivos de los participantes sobre quién empezó. Se esperaría encontrar discrepancias sistemáticas que revelen sesgos de puntuación.

2.4. Cuarto axioma: Comunicación digital y analógica como códigos diferentes

Este axioma distingue entre la comunicación digital (simbólica, arbitraria, sintáctica: las palabras) y la analógica (icónica, continua, analógica: gestos, posturas, entonación). En teoría de la información, cada código tiene una redundancia característica y una sensibilidad al ruido. El código digital es más robusto para transmitir información fáctica (baja redundancia necesaria) pero frágil para transmitir matices relacionales. El código analógico, en cambio, es altamente redundante (muchas señales covariantes) pero más ambiguo.

Puente por explorar: Se propone que la redundancia no es solo un mecanismo de corrección de errores técnicos, sino también un regulador relacional. En las interacciones humanas, repetir un mensaje en ambos códigos (decir “estoy bien” con sonrisa y tono tranquilo) incrementa la redundancia y refuerza la confianza. En cambio, cuando los códigos entran en conflicto (baja redundancia inter-código), se genera incertidumbre y se activan mecanismos de monitoreo metacomunicativo.

Ejemplo clínico: Un paciente dice “no estoy enojado” mientras aprieta los puños y eleva la voz. La redundancia entre canales es baja. Un terapeuta entrenado podría responder: “Noto que tus palabras dicen una cosa, pero tu cuerpo dice otra”. Esa es una intervención sobre la redundancia.

Estudio propuesto: Crear estímulos videograbados con tres condiciones: alta redundancia (verbal y no verbal coincidentes), baja redundancia por omisión (verbal sin gestos) y baja redundancia por conflicto (verbal y no verbal opuestos). Medir la reacción de espectadores (tiempo de reacción, precisión en inferir la emoción verdadera, confianza en el emisor). Se predice que la condición de conflicto generará mayor activación fisiológica (respuesta galvánica) y menor confianza.

2.5. Quinto axioma: Simetría, complementariedad y capacidad de canal

El quinto axioma describe dos tipos de patrones relacionales: simétricos (los participantes se igualan en su conducta, como en la competencia o la cooperación) y complementarios (uno ocupa una posición superior y otro inferior, como en la relación padre-hijo, jefe-subalterno o médico-paciente). Desde la teoría de la información, estos patrones pueden entenderse como diferentes distribuciones de entropía entre los participantes. En una relación simétrica, la entropía de las conductas de A y B son similares y la información mutua es alta (lo que hace uno predice lo que hace el otro). En una relación complementaria, la entropía de la conducta del que está en posición superior suele ser menor (es más predecible, pues sigue un guion de autoridad), mientras que la entropía del subordinado es mayor (debe adaptarse continuamente). La capacidad de canal de la relación podría definirse como la máxima tasa de información significativa que puede intercambiarse sin generar patología.

Analogía: En una simetría, el canal es como una autopista de dos sentidos con igual número de carriles. En una complementariedad, es como una vía de un solo sentido con un carril ancho para el superior y uno angosto para el inferior. Si se fuerza una comunicación simétrica en un canal diseñado para complementariedad (o viceversa), se produce sobrecarga o ruido relacional.

Estudio propuesto: Analizar transcripciones de interacciones en entornos naturalistas (aula, consultorio médico, reunión familiar). Codificar turnos de habla, duración, interrupciones y uso de preguntas vs. órdenes. Calcular la entropía de cada participante en términos de diversidad de actos de habla. Comparar diadas simétricas vs. complementarias. Se hipotetiza que en las complementarias funcionales (ej. médico experimentado - paciente) la entropía del superior es baja y la del inferior alta, mientras que en las complementarias disfuncionales (ej. líder autoritario - subordinado pasivo-agresivo) ambas entropías son altas pero con baja información mutua.

Diseño: Fabián Robledo/Grok.

3. Propuesta integradora: hacia una pragmática informacional

Más allá del análisis axioma por axioma, es posible esbozar un marco general que pudiera denominarse provisionalmente como Pragmática Informacional. Sus postulados serían:

1. Toda interacción humana genera flujos de información en múltiples canales acoplados (digital, analógico, contextual).

2. La redundancia entre canales es un indicador de salud relacional: alta redundancia predice confianza y eficacia comunicativa; baja redundancia predice conflicto y malentendidos.

3. La información mutua entre conductas de los participantes revela la puntuación subjetiva y puede detectar patrones circulares patogénicos.

4. Las relaciones simétricas y complementarias tienen firmas entrópicas características que pueden medirse sin necesidad de reducir la riqueza cualitativa.

5. El silencio y la no-conducta no son vacíos informativos, sino señales con entropía condicional al contexto relacional.

Este marco no pretende reemplazar la teoría de Watzlawick, sino extenderla operativamente para diseñar estudios observacionales, experimentales y computacionales. Además, ofrece un lenguaje común para que psicólogos e ingenieros colaboren en problemas como la detección temprana de patrones disfuncionales en terapia, el diseño de interfaces humano-máquina más naturales o la mejora de la comunicación en equipos remotos.

Diseño: Fabián Robledo/Grok.

4. Conclusiones: estudios futuros y un desafío interdisciplinario

El recorrido realizado muestra que los cinco axiomas de Watzlawick pueden ser reinterpretados, sin violencia conceptual, mediante nociones de la teoría de la información como entropía, redundancia, información mutua y capacidad de canal. La integración propuesta es heurística, pero sugiere múltiples líneas de investigación empírica y formal. A continuación, se enumeran estudios concretos que podrían desarrollarse en el futuro:

1. Estudio observacional con codificación conductual: Grabar 50 conversaciones diádicas (amigos, desconocidos, terapeuta-paciente). Codificar conductas verbales y no verbales en intervalos de 1 segundo. Calcular entropías por participante, información mutua entre participantes y redundancia entre canales. Correlacionar estas métricas con escalas validadas de satisfacción comunicativa y alianza terapéutica.

2. Experimento de laboratorio con manipulación de redundancia: Diseñar tareas colaborativas (ej. armar una figura) en tres condiciones: comunicación libre (alta redundancia natural), comunicación solo verbal (redundancia artificialmente baja) y comunicación con feedback forzado (redundancia aumentada por instrucción). Medir tiempo de tarea, errores y autopercepción de la relación. Hipótesis: la condición de alta redundancia produce mejor desempeño y mayor percepción de simetría.

3. Modelado computacional basado en agentes: Simular díadas virtuales con reglas de interacción basadas en los axiomas. Manipular parámetros como la entropía basal de cada agente, la información mutua entre sus conductas y la capacidad del canal relacional. Observar qué configuraciones generan patrones similares a relaciones patológicas (doble vínculo, escalada simétrica). Este modelo podría generar predicciones contrastables en humanos.

4. Estudio clínico longitudinal: Registrar sesiones de terapia de pareja en múltiples momentos (inicio, mitad, final). Calcular la información mutua entre conductas de cada miembro y entre ellos y el terapeuta. Evaluar si los cambios en estas métricas predicen el éxito terapéutico (reducción de síntomas, mejora de la satisfacción). Se espera que el éxito se asocie con un aumento de la redundancia inter-canal y una estabilización de la entropía relativa.

A los psicólogos se les desafía a tomar en serio la posibilidad de cuantificar aspectos relacionales sin caer en el reduccionismo. La entropía y la información mutua no son enemigas de la riqueza clínica, sino aliadas para detectar patrones que el ojo entrenado puede pasar por alto. A los ingenieros de telecomunicaciones se les desafía a considerar que el ruido y la capacidad de canal no son solo propiedades físicas, sino también relacionales: un canal puede tener alta capacidad técnica pero ser funcionalmente pobre si no se respetan los códigos analógicos y la puntuación de los interlocutores. El verdadero avance vendrá cuando se construyan juntos modelos donde la señal y la relación sean dos caras de la misma moneda comunicativa.

Diseño: Fabián Robledo/Grok.

5. Referencias

Cover, T. M., & Thomas, J. A. (2006). Elements of information theory (2nd ed.). Wiley-Interscience.

Shannon, C. E. (1948). A mathematical theory of communication. The Bell System Technical Journal, 27(3), 379–423.

Watzlawick, P., Beavin, J. H., & Jackson, D. D. (1967). Pragmatics of human communication: A study of interactional patterns, pathologies, and paradoxes. W. W. Norton & Company.

Wiener, N. (1948). Cybernetics: Or control and communication in the animal and the machine. MIT Press.


Abril, 2026.

Comentarios

Entradas populares de este blog

Hiroshima: ¿La Bomba Atómica salvó vidas?

Venezuela libre: El nacimiento turbulento de una identidad que desafió a la Gran Colombia

Esculturas al viento: Redescubriendo el Museo al Aire Libre Andrés Pérez Mujica de Valencia