¿Cuál es la principal diferencia entre “información” y “teoría”?

Esta es una pregunta esencial de muchas maneras. Creo que el interrogador tiene algunos buenos conocimientos sobre el área del problema, pero las preguntas necesitan ser afiladas. Espero que el interrogador no lo tome personalmente si comienzo por examinar la pregunta y sus suposiciones, porque representan bastante bien la confusión inherente en la “noción estándar” actual de la información.

Para empezar, recomiendo hacer una copia de seguridad y reconocer que la confusión y la ambigüedad están garantizadas y generalizadas. Hay literalmente docenas de definiciones diferentes e incompatibles (teorías, si no te importa) para “información” y “teoría”. La teoría de Shannon / Weaver es esencialmente poco más que un análisis técnico de la transmisión y codificación de datos.

Los datos pueden transmitirse, siempre que exista una convención ya acordada para construir las máquinas que codifican y descodifican esos datos. El modelo de Shannon se olvida de las máquinas de código y otros elementos del mundo compartido del remitente y el receptor. Y como sabemos, esos – el contexto – son los aspectos esenciales del conocimiento y el significado, a “escala humana”.

La información es un efecto, un proceso, no algo que puede enviarse y recibirse; si alguien dice que puede, está usando la palabra para referirse a “datos”. Una de las mejores encuestas de varios modelos (tanto de “información” como de “teoría”) se encuentra en el libro Buscando información, de Donald Case.

Así que la pregunta enmarcada tiene premisas ambiguas. Por un lado, comienza con una definición de información similar a una máquina (o más bien, similar a una computadora). Más específicamente, la definición implica un modelo informático de tipo von-Neuman en el que el cálculo se separa de los datos: el fantasma de la Máquina de Turing, donde la información es lo que se puede codificar en la cinta; hay una unidad de procesamiento separada que, por sí misma, no tiene contenidos de datos incrustados y es completamente “genérica”.

Luego hay un gran salto (o desconexión) a las preguntas de la escala humana con respecto al conocimiento, estar informado, actuar socialmente, etc. La teoría de la máquina de Turing y sus teorías adyacentes de la información se encuentran súbitamente poco poderosas (o simplificadas) para modelar lo que sucede en ese dominio.

Asumiendo que los modelos de computación y codificación de la máquina se aplican al conocimiento del mundo real y al comportamiento de la información, se trata de conectar dos puntos que están demasiado separados. Uno podría intentar una discusión por principio, pero este es el equivalente de la Era de la Información de la visión triunfante de Archimede sobre el poder de la palanca: “¡Dame una palanca y un lugar para pararme, y moveré el mundo!”

Lo siento si esto no “resuelve la ambigüedad”, pero ayuda a encuadrar la pregunta.
En su forma actual, la lógica de la máquina y las definiciones a escala humana de la información y la teoría no se pueden salvar directamente. ¿Qué tal indirectamente ? Creo que ahí es donde las cosas se ponen interesantes.

Preguntas de seguimiento

  • Si transmitimos “información” como si fueran datos, ¿dónde está el “libro de códigos” que define su significado e interpretación?
  • ¿Podemos tratar las teorías como datos? ¿Podemos representar teorías explícitamente? ¿Se necesita eso para comunicarlas?
  • ¿Qué más necesita un sistema para que el fenómeno de la “información” esté presente en él?
  • ¿Qué es la hipótesis de la mente extendida?
  • ¿Pueden los humanos mejorar en la meta-cognición, y si es así, cómo?

Solo una forma simple de verlo,
1) Desde la perspectiva de mayor-menor.
Conjunto de información> Conjunto de teorías (todas las teorías se basan en cierta información), pero no al revés.
2) Desde la perspectiva de la secuencia.
La información llega justo después de la “observación” y es inmediata antes de que “formemos” las teorías sobre ellos.
Realidad -> Observación -> Información -> Teoría -> percepción, etc., etc.