2.2.4.
Apertura y teoría de la información
La apertura es, entonces, la condición de todo goce estético y a la vez, toda forma susceptible de
goce. En cuanto dotada de valor estético, la obra es abierta «aún cuando el artista tienda a una
comunicación unívoca, y no ambigua.» (OA, p. 126)
Pero hay, además, una apertura que se basa en los elementos que componen el resultado estético
y no sólo en el resultado. Estas formas abiertas, son, digamos, más abiertas, o más
específicamente abiertas, y aunque en unas y otras, la apertura es explícita. Esta última es una
apertura superior que aumenta el nivel de información.
Para Eco, la poética contemporánea refleja una tendencia general de nuestra cultura hacia
procesos en los que se establece, como un campo de probabilidad, una ambigüedad que estimula
actitudes de acción o de interpretación siempre distintas.
De esta manera, y como ya habíamos apuntado, la dinamicidad de la obra artística se entiende
mejor si se explica como un proceso de comunicación, y en consecuencia, de paso de
información. Tal vez ésta sea una de las principales aportaciones de la Obra Abierta; el uso, en un
texto de estética, de nociones provenientes de campos del conocimiento tradicionalmente
extraños al filosófico, como la teoría de la información y, como veremos después, la teoría de
la comunicación de masas.
Para Eco, pues, se puede considerar cómo un cierto tipo de poética refleja la misma situación
cultural en la que se originaron las investigaciones sobre la información. Esta poética es, por
supuesto, la de la obra abierta, pero cómo la apertura y la ambigüedad de la obra de arte tienen
que ver con una teoría de la información se explica enseguida.
La teoría de la información tiende a cuantificar la cantidad de información contenida en
determinado mensaje, información que está delimitada por una serie de ideas acerca de la
fiabilidad de la fuente. Por ejemplo, la afirmación «mañana no lloverá» dicha un día de marzo, no
aporta una cantidad de información que deba considerarse; es más, no ofrece ninguna
información, ni poca ni mucha, ya que normalmente nunca llueve en marzo, en cambio, la
afirmación «mañana, 12 de marzo, lloverá» sí ofrece una cantidad de información nueva, y no
porque en realidad llueva o no ese día, sino, al contrario, por la imposibilidad de que suceda. La
información, dice Eco, «es una cantidad sumada a lo que ya sé.» (OA, p. 136)
Pero aclaremos: la información debe estar definida en el ámbito de las situaciones más simples
en que la cantidad de información pueda ser medida. La Obra Abierta inaugura uno de los
problemas que Eco desarrollará posteriormente en su semiótica, que es el del cálculo binario de la
información, según el cual, para calcular la cantidad de información habría que tomar en cuenta
que el máximo de probabilidad de que ocurra un acontecimiento como 1 y el mínimo 0, de esta
manera, la relación entre una serie de acontecimientos verificables, y la serie de probabilidades de
ella, se establece como la relación entre una progresión aritmética y geométrica.
La teoría de la información procede entonces por elecciones binarias, utilizando unidades bit
(binary digit, o señal binaria); Eco subraya que: la cantidad de información transmitida por un
mensaje es el logaritmo binario del número de alternativas susceptibles de definir el mensaje
sin ambigüedad. (OA, p. 138)
Ahora bien, para medir la disminución o aumento de la cantidad de información, Eco se sirve
del concepto de entropía. El punto de partida, otro elemento aparentemente extraño en
la consideración de Eco, es el segundo principio de la termodinámica de Clausius, según el cual,
no es posible un proceso cuyo único resultado sea la transferencia de calor, ya que, además, habrá
una pérdida en el procedimiento. Recordemos, según el primer principio, punto de partida de
Clausius, obtengo una transformación de trabajo en calor, pero la cuestión es que cuando
transformo este calor, nuevamente, en trabajo (y éste es el segundo principio), no obtengo la
cantidad de trabajo inicial. Ha habido, pues, una degradación o un consumo.
Esto quiere decir que hay procesos reversibles en los que, sin embargo, la energía se consume.
Hay, también, procesos naturales de dirección única, pero el punto es, que si se quiere encontrar
una medida general de la irreversibilidad, es preciso pensar que la naturaleza demuestra una
especie de preferencia por ciertos estados más que por otros, para esto será necesario encontrar
una magnitud física que mida la preferencia de la naturaleza por cierto estado. Esta magnitud
crece en los procesos irreversibles.
Esto es la entropía, y según el principio, se asocia a la idea de consumo, aunque habría que
apuntar que mientras que en termodinámica se define un consumo, la entropía, en realidad,
es una medida estadística, es decir, un instrumento matemáticamente neutro que nos dice que la
naturaleza prefiere un estado más uniforme a uno menos uniforme; la naturaleza tiende a un
desorden elemental del que es medida la entropía. Esta es la manera en que lo toma Eco.
En el mismo orden de ideas, nuestro autor dice que un aumento de entropía (física) no impide
que puedan realizarse unos procesos en los que se verifican hechos de organización, o sea, una
organización de acontecimientos según cierta improbabilidad, y de esta manera pueda darse una
entropía decreciente.
En otro sentido, volveremos a este concepto de entropía en el punto 3. de la tercera parte cuando
veamos que un lector modelo participa en la configuración del texto estético dotándolo de orden.
Pero a esto iremos mucho más adelante.
Para Eco, la existencia de relaciones de causa y efecto de entropía decreciente establecen la
existencia del recuerdo. (OA, p. 142) El recuerdo, así entendido, no es más que un
almacenamiento de información, de ahí que Eco encuentre una relación tan estrecha entre
entropía e información. Esto nos ayudará a entender que medir la cantidad de información
significa medir un orden o un desorden según el cual un mensaje dado está organizado.
Abreviando: siguiendo el concepto de información de Wiener, Eco piensa que el contenido
informativo de un mensaje está dado por su grado de organización, como medida de un orden, y
en consecuencia, de un desorden, de manera que la entropía será lo opuesto a la información, lo
que quiere decir que en la información de un mensaje viene dada su capacidad de organizarse
según un orden particular.
Es así que, en cuanto información, la lengua se convierte en un hecho improbable con respecto a
la entropía por la cantidad de orden probable. Eco establece la entropía como una medida del
significado de un mensaje en forma negativa, es decir, una medida negativa, ya que la lengua
funda su propia cadena de probabilidades y el mensaje, para salvaguardar el mensaje, se llenará
de reiteraciones, a las que Eco llama redundancia. (OA, p. 144)
Ahora bien, si sólo el cincuenta por ciento de lo que se dice se debe a lo que se quiere
comunicar, el cincuenta por ciento restante estará dominado por la estructura de la lengua y la
comprensibilidad de un mensaje estará regulado por el orden, fundamentando su previsibilidad,
es decir, su trivialidad. En otras palabras: en cuanto más ordenado y comprensible es un mensaje,
tanto más previsible resulta.
Por lo anterior, resulta insatisfactoria para nuestro autor la opinión de que el significado y la
información sean sinónimos, y que se puedan relacionar orden y sistema de probabilidades como
opuestos a entropía y desorden. La información, como añadidura a lo sabido, está vinculada a la
originalidad, a la no probabilidad, por eso Eco reconoce de Wiener que Un fragmento de
información, para contribuir a la información general de la comunidad, debe decir algo
sustancialmente distinto del patrimonio de información ya a disposición de la comunidad. (OA, p.
147)
El desorden en una lengua, aumenta pues, la información de un mensaje.