Sobre el porqué
Un ensayo sobre la conducta
Prólogo
“La prueba
que uno sabe una cosa perfectamente es que puede dar una explicación lo
bastante corta, general i nítida.”
R.
Descartes (Fragmento, AT, IV, 689 – 690)
Este ensayo cumpliría su objetivo
si al leerlo pudiera ser, también, comprendido. Así se hallaría uno con sus
límites y su profundidad, podría tocar el techo. Aunque lo aquí expresado es
una disertación, una opinión si se quiere, de por qué hacemos lo que hacemos,
del porqué de nuestra conducta, esta opinión no es una revelación o un fruto de
mi imaginación sino más bien un retrato que muestra lo que yo he percibido
claramente, lo que para mí es evidente. Y todo esto lo vemos en el lenguaje, en
nuestro lenguaje ordinario, y en nuestro lenguaje académico. Veamos los
términos; desorden, caos, oscuridad, problema, pregunta, acertijo, cuestión,
dilema, incógnita, duda,… y los adjetivos; desconocido, nuevo, raro,
incompleto, inconcluso, inexplorado, indefinido, indeciso, desubicado,... ¿Acaso
alguien no puede apreciar algo extraño en todos ellos, acaso no se advierte que
todos emanan una misma señal que desequilibra nuestra mente, una misma
percepción que nos indica “incertidumbre”?
Dada mi limitada, pero diversa,
formación en ciencias he elaborado un retrato que es más bien una imagen física
de la realidad, una explicación física del porqué. Esta explicación se muestra
evidente cuando se alcanzan los conocimientos recogidos en la primera parte.
Entonces, se presenta en la segunda, y así, se explica en la tercera. Aquí
intentaré mostrar cómo nosotros, seres vivos, somos estructuras disipativas de
entropía, seres que consumen energía ordenada y que disipan energía desordenada.
Con el trabajo de Norwich veremos que nuestro sistema nervioso es, también, una
estructura disipativa de entropía, en este caso, entropía de la información,
incertidumbre. Así alcanzaremos una grata satisfacción al encontrar una
respuesta a nuestras acciones; buscamos comida y buscamos información, en
cualquier caso, buscamos orden y nada más.
Primera parte
“Indudablemente, somos parte de la naturaleza, que ha
producido nuestros deseos, nuestras esperanzas y nuestros miedos, de acuerdo,
con leyes que los físicos comienzan a descubrir. En este sentido, somos parte
de la naturaleza, somos el resultado de las leyes naturales y también sus
víctimas a la larga.”
Bertrand Russell, “Por
qué no soy cristiano”
¿Qué es la vida?
A partir de la intuición de
Schrödinger al publicar su ya famoso “What
is life?” apareció la que hasta ahora ha sido la definición más certera de
la vida. En su libro intentó describir la vida como un fenómeno físico, como un
sistema comprensible a partir de las leyes físicas. Schrödinger anticipó la
idea de considerar a los seres vivos como estructuras disipativas de entropía,
es decir, como sistemas termodinámicos que consumen <<energía
útil>> y liberan calor.
Los seres vivos somos materia que
no se encuentra en equilibrio térmico con el entorno, materia energizada,
organizada, es decir, materia ordenada termodinámicamente. Cuando comparamos la
complejidad de cualquier ser vivo, por pequeño e insignificante que sea, con
una piedra, una máquina u otro cuerpo inerte, nos damos cuenta de que cualquier
forma de vida es muchísimo más compleja que algo inerte. Los cuerpos vivos son
sistemas termodinámicos que no están en equilibrio, o prácticamente en
equilibrio, sino que están muy ordenados, es decir, que están muy lejos de su
estado de máxima entropía.
“A diferencia de la máquina de vapor de Watt, por ejemplo, el
cuerpo concentra orden. Se autorrepara continuamente. El epitelio intestinal se
renueva cada cinco días. El hígado cada dos meses. La piel cada seis semanas.
Cada año se reemplaza el 98% de los átomos de nuestro cuerpo. Este incesante
reemplazamiento químico, el metabolismo, es un signo inequívoco de vida. Esta
<<máquina>> exige una entrada continua de energía y productos
químicos (alimento).”1
Tal y como dice F. J. Dyson, las
teorías de Eigen y Orgel (1981) no son teorías acerca del origen de la vida,
sino más bien acerca del origen de la replicación.2 El metabolismo
es el signo inequívoco de vida, todo lo vivo metaboliza. Uno puede escoger no
reproducirse y no por ello dejará de estar vivo. Pero no podemos escoger dejar
de metabolizar, no podemos decir a nuestras células, ¡dejad de replicaros! No
funciona, nuestro cuerpo constantemente se regenera, se autorepara, metaboliza.
“Enfrentada a la disolución y a la destrucción, la vida sufre
una permanente amenaza de muerte. La vida no es sólo materia, es materia
energizada, organizada, materia con una gloriosa y peculiar historia. […] Desde
una perspectiva termodinámica y autopoyética, el más bajo acto reproductivo y
la más elegante apreciación estética derivan de una misma fuente y en última
instancia sirven al mismo propósito: preservar la materia viviente frente a la
adversidad y la tendencia universal hacia el desorden.”3
A partir de la interpretación de
Boltzmann sabemos que la entropía expresa la probabilidad de aparición de un
suceso determinado, y nosotros los seres vivos somos cuerpos con muy poca
entropía, improbabilísimos dentro del universo, seres que fácilmente se
desordenan y desaparecen. “Un organismo vivo produce entropía positiva y por
esto tiende a aproximarse al peligroso estado de la máxima entropía: la
muerte.”4 A medida que nuestro sistema se desordena, la vida decrece
y se acerca fatalmente al estado de máxima entropía, la muerte.
Desde el organismo más simple que
nos podamos imaginar hasta el más complejo, todos ellos están sujetos a las
leyes de la física, son cuerpos físicos que se comportan según las leyes
naturales que también guían el designio de las tormentas o los astros. Todos
los seres vivos, desde la bacteria o la célula, hasta el chimpancé o la mosca,
se comportan como estructuras disipativas de entropía termodinámica que están
en un desequilibro constante con el entorno, alejados del equilibrio térmico.
Físicamente debemos considerar que un organismo “solo puede mantenerse alejado,
es decir, vivo, extrayendo continuamente entropía negativa de su medio.”5
Para conseguir evitar la muerte, el equilibrio, los seres vivos actúan
constantemente, reaccionan al entorno; acumulan orden y se deshacen de la entropía,
metabolizan. Pues en realidad, “las plantas consumen orden” y no energía, y
“los animales consumen orden”6 y no alimentos.
“De acuerdo con la segunda ley,
el mantenimiento autopoyético preserva o incrementa el orden interno a base de
desordenar el mundo exterior excretando desechos y disipando calor. Todo ser
vivo tiene que metabolizar, y por lo tanto, crear desorden local: calor inútil,
ruido e incertidumbre.”7 Cuando metabolizamos, estamos manteniendo
nuestro estado de extraordinario orden lejos del equilibro termodinámico.
Comemos y bebemos para absorber el orden, la entropía negativa, o energía útil;
y sudamos, orinamos y defecamos para deshacernos de la entropía, los deshechos,
el desorden.
De este modo, nos podemos
plantear qué es la vida, y lograr comprender la idea de Schrödinger según la
cual, la vida, “parece ser el comportamiento ordenado y reglamentado de la
materia, que no está asentado exclusivamente en su tendencia a pasar del orden
al desorden, sino basado en parte en un orden existente que es mantenido.”8
Con esta definición podría
parecer que los seres vivos no cumplen con el segundo principio de la
termodinámica, pero en cualquier sistema aislado la entropía siempre aumenta,
“lo que implica que aumentan el calor, el ruido, la incertidumbre y demás
formas de energía no útiles. A medida que los sistemas locales pierden calor,
el conjunto del universo lo gana. […] la segunda ley se cumple siempre que se
considera el sistema (la vida) más su entorno.”9 La acción de los
seres vivos en su entorno, o la acción de la vida en el universo, genera un
mayor incremento de la entropía, pues no podemos considerar a los seres vivos
como sistemas aislados.
“Para el premio Nobel belga Ilya Prigogine, la vida pertenece
a una clase más amplia de <<estructuras disipativas>>, que incluye
también centros de actividad no vivos, tales como remolinos, tornados y llamas.
Una estructura disipativa […] se mantiene a sí misma (o incluso crece) importando
formas <<útiles>> de energía y exportando, o disipando, formas
menos útiles –fundamentalmente calor–. […] Cuanta más vida haya en el universo
más deprisa se degradarán las diversas formas de energía en calor.”10
¿Pero entonces, qué significa la
entropía para los seres vivos? El desorden termodinámico, o la entropía, es la
magnitud física de la que huyen los seres vivos, por ser aquella que les lleva
al equilibrio y a la muerte. La entropía es la magnitud física que los seres
vivos identificamos con el peligro y que nos permite encontrar el orden “La
vida tiene que mantenerse contra la tendencia universal del calor a disiparse
con el tiempo. Este enfoque termodinámico explica, en cierto modo, la
determinación, la intencionalidad de la vida, pues durante miles de millones de
años ha seguido la estrategia, irrenunciable, de jugársela a medida que
avanza.”11
Información, sensación
y percepción
Cada cual nace donde y cuando le
toca, sin poder replicar nada a nadie, y empieza así su aventura en esta vida.
Cada individuo nace dentro de un espacio y tiempos determinados, vive en un
entorno y absorbe de este la información que puede. Así es lógico entender que
cada uno tiene una memoria distinta, vive una experiencia diferente, y por lo
tanto, almacena distinta información.
Puesto que tenemos experiencias
distintas, distinta información, cada uno de nosotros percibe una incertidumbre
diferente ante un mismo estímulo, pues esta incertidumbre depende de la
información que poseemos del estímulo. Cuanta más información tenemos de un
suceso, menos incertidumbre percibimos, y al revés, a menos información que
tenemos de un estímulo más incertidumbre percibimos de él.
Cuando vemos que un suceso tiene
varias respuestas posibles, todas ellas equiprobables, percibimos la máxima
entropía. Es decir, si vemos que un evento puede llevar a otros tres, todos
ellos con probabilidad igual, percibimos la máxima entropía ante ese evento,
porque lo desconocemos por completo y no podemos hacer predicción alguna sobre
su final. La incertidumbre y la información están íntimamente relacionadas tal
y como lo mostró Claude Elwood Shannon en su ya famosa “Teoría Matemática de la Comunicación” (1948).
Ha sido otro físico, este
dedicado al campo de la neurología teórica, el que ha elaborado “recientemente”
una muy interesante teoría de la percepción que ha sido capaz de unir bajo una
fórmula a todas las anteriores leyes de la percepción. En 1993 Kennet H.
Norwich publicó su desconocido libro “Information,
sensation, and perception” donde explica que nuestras células sensoriales,
aquellas que envían las señales electroquímicas que acaban excitando a nuestros
músculos o ganglios, perciben y reaccionan a la incertidumbre (entropía) de
cada estímulo, esto es, al peligro de cada estímulo.
Las antiguas fórmulas de
Weber-Fechner o de Stevens consideraban la sensación como un producto de la
función (I) de la intensidad del estímulo. Norwich consigue mostrar que ambas
formulaciones son correctas en distintas situaciones, bajo condiciones diferentes.
Pues Norwich ha descubierto que todas las señales, que las células sensoriales
envían a sus receptores más cercanos, se dirigen hacia ellos con una velocidad
(F) proporcional a la función de incertidumbre (H) que sustituye a la antigua
fórmula de Stevens o de Weber-Fechner. “El cerebro y las neuronas responden <<en proporción a>> la entropía de los
estímulos.”12
Según explica Norwich, la
percepción sensorial consiste en un “escoger entre” alternativas; cuando vemos
una casa roja, estamos no viendo una casa azul, una casa verde o una casa
blanca. Al mirar el reloj y ver las agujas marcando las doce en punto, vemos
que no son las diez, que no son las nueve, ni las ocho, ni las siete. Norwich
encuentra que cuando vemos, ya estamos distinguiendo, ya estamos reduciendo la
incertidumbre, escogiendo entre alternativas, eliminando opciones, recibiendo
información. Primero establecemos una incertidumbre (de qué color es la casa?)
y después buscamos la respuesta con nuestros actos (blanca). Cuando leemos “hace
Sol” en realidad leemos “no es de noche, no llueve, no hay nubes”. En este
sentido, se aplican los conocimientos de la teoría de la información de Shannon
dónde la información es definida como la reducción de incertidumbre.
“<<Ver>> significa conjeturar algo <<ahí
fuera>>, lo que Ames llama la <<experiencia del eso – ahí>>.
Todo pensar es distinguir, clasificar. Todo percibir se refiere a expectativas,
y por consiguiente a comparaciones. Cuando decimos que desde el aire las casas
nos parecen de juguete, y las personas hormigas, queremos decir, supongo, que
nos sobresalta la desacostumbrada visión de una casa que se parece al juguete
con que el niño juega en el suelo de su cartón.”13
“F = kH implica que nosotros sólo percibimos aquellos aspectos del mundo exterior
que no conforman con nuestras expectativas, y, por lo tanto, que nos son
inciertos.”14 Así que cuando un estímulo es totalmente conocido, no tiene incertidumbre, nuestras células
sensoriales no lo perciben y no envían ninguna señal al sistema nervioso.
Cuando, por ejemplo, llevamos un tiempo cociendo verduras o entramos en una
habitación recién pintada, percibimos primero un fuerte olor que se irá
disipando con el tiempo, hasta que finalmente será imperceptible. Vamos
conociendo el olor, hasta que llegamos a conocerlo del todo y a no percibirlo.
Pero constantemente estamos
percibiendo y actuando, nuestras células sensoriales están trabajando, y cada
señal que sale de un sensor es enviada con una intensidad proporcional a la
incertidumbre que percibe el sensor. Ahora ya no existe la idea de la
intensidad del estímulo como algo exterior, ahora sabemos que la intensidad de
un estímulo es proporcional a la incertidumbre que percibimos de este, es
decir, a la información que de él tenemos. “Siguiendo el trabajo de Shannon
(1948) y Wiener (1948), la información es definida como la reducción de
incertidumbre. Supongamos que un evento puede ocurrir en uno de varios caminos;
esto es, tiene varias salidas distintas. Si, por ejemplo, lanzamos una moneda,
ésta puede salir cara o cruz, [y cuando la moneda está en el aire] sentimos una
incertidumbre momentánea sobre el suceso. Después el evento es conocido, la
incertidumbre es reducida, o resuelta, y quien percibe el evento recibe una
cantidad de información igual a la incertidumbre reducida.”15 Pero si
yo lanzo la moneda sabiendo que en ambos lados hay una cara, no percibiré la
misma incertidumbre, y no recibiré la misma cantidad de información cuando
caiga la moneda, porqué ya sabía lo que iba a suceder.
Si por ejemplo, sabemos que es de
día pero no sabemos qué hora es y nos decidimos a preguntarlo, es que hemos establecido
una incertidumbre, con una matriz de alternativas con las horas de día (aproximadamente
doce). Cuando nos dicen la hora, cuando nos dan la respuesta, nosotros
recibimos una cantidad de información igual a la incertidumbre reducida, y por
tanto, si no supiéramos que es de día o de noche, recibiríamos el doble de
información al saber la hora, porque reduciríamos el doble de incertidumbre, eliminaríamos
el doble de alternativas. De este modo vemos que la incertidumbre que
percibimos, y por ende la información que recibimos, viene determinada por
nuestra memoria, por la información que previamente almacenamos y que determina
los valores de las probabilidades a priori. Al saber que es de día o de noche
se valoran nulas (0) las probabilidades de la mitad del día que sabemos que no
es. Si no tenemos información al respecto no podemos anular estas opciones, y
por tanto, percibimos más incertidumbre y recibimos más información cuando
obtenemos la respuesta. “Nuestras respectivas experiencias anteriores han determinado los
valores de las probabilidades a priori y, por ende, de la información recibida.
La información recibida es, en este sentido, una cantidad no absoluta.”17
Para el sistema nervioso no importa cuál es la intensidad del estímulo,
su velocidad, su masa o su energía, lo que le interesa es su incertidumbre, su
desorden. La entropía es una característica más para cualquier suceso, es una
magnitud física. “Hay que tener cuidado de no confundir este tipo de entropía,
que es la entropía de la información teórica, con la entropía física o
termodinámica, una cantidad usada extensamente en física y química.”16
Kenneth Norwich ha aportado recientemente
estas nociones de la relación entre la percepción y la incertidumbre, que nos
ayudarán a entender la conducta humana. Ahora sabemos que cada individuo
percibe el entorno subjetivamente, encerrado en la información que posee. Esta
percepción de la incertidumbre, relativa a la información sensorial que
tenemos, determina las señales electroquímicas que corren por nuestro sistema
nervioso, y por ende, nuestra conducta. Todos percibimos los mismos estímulos
subjetivamente, según sea la información que guardamos de cada estímulo. La
percepción del entorno es relativa al sujeto que siente y almacena una determinada
información del mundo.
El papel de la
evolución
Durante miles de años nuestra especie
ha creído en mitos y leyendas; en almas, fantasmas, espíritus, ángeles,
demonios y dioses. Hasta el siglo XX no se reconoció a la vida como un proceso
natural sujeto a las leyes de la física. Hoy aceptamos que la vida está formada
de partículas físicas que, como los cuerpos inertes, son hijas del polvo estelar.
“Nosotros hemos trastocado lo aprendido. Nos hemos vuelto más modestos en todo.
Al hombre ya no lo derivamos del espíritu, de la divinidad, hemos vuelto a
colocarlo entre los animales”18
“El
hombre es parte de la naturaleza, no algo en contradicción con ella. Sus
pensamientos y movimientos corporales siguen las mismas leyes que describen el
movimiento de los astros y los átomos. […]Su cuerpo, como toda materia, está
compuesto de electrones y protones, que, por lo que sabemos, obedecen a las
mismas leyes a las que obedecen también los que no forman parte de los animales
o plantas.”19
Nosotros, los humanos, somos
descendientes de animales muy variados, hasta de bacterias diminutas. Todas las
especies del planeta estamos emparentadas genéticamente entre nosotras, todos
somos parientes. Y nuestra conducta, aunque pueda parecer de otro mundo, no es
sino de lo más corriente dentro de la vida terrestre.
Para que nuestros músculos se
contraigan, esto es, moverse, debe llegar una señal electroquímica hasta las células
musculares. Ésta es la misma señal electroquímica de la que hablamos antes, la
que generan las células sensoriales cuando perciben un estímulo. Otro tipo de
reacciones al entorno son aquellas causadas por las hormonas que las glándulas
segregan en la sangre y alteran la conducta. Pero sea por “A” o por “B”,
cualquier acción es generada por la percepción del entorno, es decir, por las
señales que los sensores generan y acaban llegando al músculo o al ganglio.
Cuando, por ejemplo, pintamos un
cuadro, saltamos una cerca o preguntamos algo a un amigo lo que hacemos es
reaccionar a nuestro entorno. En neurología se acepta que nuestra conducta
corresponde a un determinado estado de excitación del sistema nervioso, es
decir, que la excitación del sistema nervioso determina nuestra conducta. A
partir del descubrimiento de Norwich sabemos que “el cerebro y las neuronas
responden <<en proporción a>> la entropía de los estímulos.”20
Es momento para comprender aquello que
adelantamos en el primer capítulo cuando decíamos que la entropía es peligro
para la vida. La entropía, decíamos, es peligro para la vida porqué lleva a la
muerte térmica. Pero fíjense que ahora estamos hablando de la entropía de la
información, es decir, la incertidumbre. Norwich dice que el cerebro y las
neuronas responden en proporción a la incertidumbre de los estímulos, es decir,
a la entropía de la información que percibimos de cada estímulo. Esto nos lleva
a pensar, lógicamente, que la incertidumbre percibida en el entorno es lo que
genera el movimiento corporal de los animales. Así que son varios los caminos
que nos llevan a Roma; podemos ver, como lo hizo Schrödinger, que la entropía
termodinámica es peligrosa para la vida, pues ésta consiste en mantenerse
ordenado, en mantenerse sin demasiada entropía. Y por otro lado podemos ver,
como lo hizo Norwich, que la entropía informacional altera el sistema nervioso
y es por tanto el motor de nuestros movimientos. Una entropía informacional que
señala el peligro al organismo, que indica cuándo es el momento de escapar y
salvar la vida.
Segunda parte
“¿Cómo
las preguntas que se hace la razón pura a sí misma y a las que se siente
impulsada, por propia necesidad, a contestar de la mejor manera que pueda,
surgen de la naturaleza de la razón humana universal?”
I. Kant, “Crítica de la razón pura”
Para responder a la pregunta de
Kant debemos comprender, qué es, físicamente, el cerebro, cómo funciona nuestro
sistema nervioso. Gracias al trabajo de Norwich hoy sabemos que nuestro sistema
nervioso responde a los estímulos en proporción a la incertidumbre que percibe.
Por lo tanto, nuestro cuerpo reacciona al entorno en función de la
incertidumbre que percibe en el entorno. Esto también nos enseña que el sistema
nervioso se alimenta de energía útil, y además, de información.
Si tenemos esto claro, podemos
volver al primer capítulo y recordar que Schrödinger descubrió que todos los
seres vivos son estructuras disipativas de entropía termodinámica. Es decir,
que todo lo vivo es como una estructura disipativa de entropía. Así que también
el cerebro o el sistema nervioso son estructuras vivas, sistemas vivos, que
consumen energía útil y disipan entropía.
Mi hipótesis, en adelante H1,
es que el sistema nervioso es una
estructura disipativa de entropía informacional (incertidumbre). Así que
mientras todo el cuerpo y el sistema metabólico funcionan como una estructura
disipativa de entropía termodinámica que consume energía útil y disipa entropía
termodinámica, el sistema nervioso se alimenta de la energía útil que
metaboliza el cuerpo y trabaja como una estructura disipativa de entropía
informacional que consume información y disipa incertidumbre.
Por tanto, el comportamiento del
ser humano consiste en mantener el orden termodinámico del cuerpo, y a la vez,
el orden informacional de la mente. Nuestros sensores establecen las
incertidumbres que percibimos, y nuestras acciones tienden a resolverlas. Esta
hipótesis explica porqué el sistema nervioso reacciona a las pérdidas de
información percibida con la agitación nerviosa y el movimiento corporal, mientras
que el sistema nervioso se relaja y reduce la cantidad de movimiento corporal
con el incremento de información recibida, es decir, cuando resuelve
incertidumbres. Desde esta perspectiva comprendemos que el sistema nervioso
trabaja, y hace trabajar al cuerpo constantemente, para resolver las
incertidumbres que establece de forma automática con la percepción.
Tercera parte
“Si yo quisiera sacudir este árbol con mis
manos, no podría. Pero el viento, que no vemos lo atormenta y lo dobla como
quiere. A nosotros nos doblan y atormentan duramente manos invisibles”
“¿Por qué te asustas? Lo mismo le pasa al
hombre que al árbol.”
F.
Nietzsche, “Así hablaba Zaratrustra”
Malestar
[Si H1 es (V) à] El sistema nervioso tiene
que responder negativamente a un incremento de la incertidumbre percibida en el
entorno. Esto es, el cerebro aumenta su
actividad electroquímica y por tanto, la actividad motora, cuando pierde información
del entorno, es decir, cuando aumenta la incertidumbre que percibe en el
entorno.
Veamos esto con más detenimiento.
Si el sistema nervioso es una estructura disipativa de incertidumbre tiene que
responder negativamente al entorno cuando crece la incertidumbre que percibe,
es decir, cuando pierde información del entorno, cuando pierde orden. Nuestra
mente responde negativamente al entorno cuando crece la incertidumbre porque está
perdiendo información del entorno, porque se está desordenando. H1 implica
que nuestra mente trabaja constantemente para mantenerse ordenada, informada,
alejada de la incertidumbre, y por tanto, nuestra reacción a un incremento de
la incertidumbre en el entorno (o perdida de información) debe ser
negativa.
Vemos, por ejemplo, el miedo que
sienten los jóvenes a la muerte de sus padres, a un mundo sin sus padres, a un
mundo desconocido. La mayoría de los jóvenes sienten miedo a perder a sus
padres, a vivir sin sus padres, a no
saber qué hacer sin mamá y papá, a no
saber cómo vivir entonces. O el
miedo a la propia muerte que muchas personas desarrollan, es el miedo a un
mundo desconocido, a un mundo del que no podemos volver, que no podemos
conocer. Ese miedo a qué será de nosotros cuando llegue la muerte, a qué será
de nuestro cuerpo, de nuestra alma, de nuestra mente, a qué pasará con todo
esto. El miedo que, por ejemplo, sienten los allegados del desaparecido, su
familia y amigos. La desesperación, el nerviosismo o la tensión por no saber dónde está, dónde se
encuentra o si sigue con vida. Esta tensión por un incremento general de la
incertidumbre en el entorno, es una pérdida de información.
Sentimos repulsión, miedo, odio,
recelo, desconfianza, tensión o nerviosismo, cuando percibimos que ha aumentado
la incertidumbre en el entorno, que ha aparecido algo terriblemente nuevo,
extraño, fuera de lugar, desconocido, contradictorio. El miedo a perder el
trabajo, a no saber cómo vivir sin ese trabajo, a no saber cómo alimentar a la
familia sin nuestro trabajo. Ese miedo a no saber qué hacer sin el trabajo que
ahora tenemos es el miedo a la incertidumbre, a lo desconocido. O el miedo que los
niños sienten a la oscuridad, es decir, a no poder ver su entorno, a no poder
distinguir su entorno. Los niños sienten miedo a la oscuridad porque aumenta la
incertidumbre del entorno, es decir, porque perciben con mayor dificultad el
entorno, porque reciben menos información del entorno cuando crece la oscuridad.
Hemos visto pues varios ejemplos
en los que se advierte que reaccionamos negativamente al entorno cuando
perdemos información de este, es decir, cuando crece la incertidumbre que
percibimos en el entorno. Esto sucede porque nuestra mente es una estructura
disipativa que se mantiene en un equilibrio dinámico mientras actuamos para
reducir las incertidumbres que hemos establecido a partir de la percepción, y
por tanto, reaccionamos negativamente cuando no conseguimos reducir esas
incertidumbres, es decir, cuando perdemos información del entorno. Podemos pues
predecir que todos los animales con sistema nervioso van a reaccionar
negativamente al entorno cuando perciban que la incertidumbre está aumentando y
no logran reducirla, es decir, cuando perciben que han perdido información.
Veamos ahora un experimento que
puede ser llevado a cabo con facilidad para demostrar nuestra hipótesis. Si
consideramos una partida de póker con varios jugadores, por ejemplo, seis, y
examinamos la tensión o el nerviosismo de cualquiera de ellos, veremos que
todos reaccionan negativamente cuando otro jugador que anteriormente no jugaba
decide jugar (apostar). En este caso las probabilidades de victoria se han
redistribuido al aumentar las alternativas (número de jugadores). Cuando
aparece un nuevo jugador las probabilidades de victoria se redistribuyen, es
decir, aumenta la incertidumbre que perciben los jugadores que ya jugaban. Al
contrario, se podrá demostrar que todos los jugadores se sentirán aliviados
cuando un jugador deje de jugar, es decir, cuando se reduzcan las alternativas
y adquieran información.
Bienestar
[Si H1 es (V) à] El sistema nervioso
tiene que responder positivamente a un incremento de la información percibida
en el entorno. Esto es, el cerebro reduce
su actividad electroquímica y por tanto, la actividad motora, cuando obtiene información
del entorno, es decir, cuando resuelve, total o parcialmente alguna
incertidumbre establecida.
Esto es simple y llanamente lo
opuesto a lo anterior. Pues cuando sí que conseguimos resolver total o
parcialmente una incertidumbre que habíamos establecido, reaccionamos
positivamente, relajándonos, reduciendo nuestra tensión y nuestros nervios.
Nuestras sensaciones de alegría se producen cuando hemos obtenido la cantidad
de información necesaria para resolver una o varias incertidumbres que habíamos
establecido. Sentimos alegría cuando resolvemos un puzle, un enigma, una duda,
un dilema, una pregunta, un problema, un acertijo, un juego, una incertidumbre.
Nos alegramos cuando, después de un vuelo en avión, hemos llegado sanos y
salvos a nuestro destino, nos alegramos pues de que se haya resuelto la
incertidumbre que habíamos establecido (caerá el avión?, aterrizará sin
problemas?...) Cuando recibimos la información necesaria para resolver las
incertidumbres que establecemos nos alegramos y nos tranquilizamos. Al resolver
una incertidumbre nos tranquilizamos, volvemos a un estado de equilibrio
sensorial y se elimina el efecto del estímulo inicial que nos transmitió la incertidumbre.
[Si H1 es (V) à] El sistema nervioso tiene
que responder más positivamente a un estímulo cuanta más información recibe de
este. Esto es, el cerebro reduce más su
actividad electroquímica y por tanto, la actividad motora, cuanta más
información obtiene del entorno, es decir, cuanto más decrezca la incertidumbre
que percibe.
Hay muchas ocasiones en las que
esperamos la respuesta a una incertidumbre que hemos establecido y pese a
obtener dicha respuesta no nos quedamos satisfechos. ¿Qué sucede aquí, porqué
no nos relajamos pese a obtener certeza? Si,
por ejemplo, esperamos la respuesta a una entrevista de trabajo es que
ya hemos establecido una incertidumbre del tipo (¿me darán trabajo los de …?).
La respuesta a esta incertidumbre será del tipo S/N, y aunque en ambos casos
obtenemos la respuesta a esta incertidumbre es evidente que no reaccionamos
igual ante ambas. Aunque ambos mensajes (S/N) contienen un bit de información,
cuando recibimos el Sí obtenemos la respuesta a esta primera incertidumbre y
también a otras tantas (cómo me comprare el coche?, con qué dinero pagaré el
alquiler?, con qué dinero pagaré la pensión a mi ex-mujer?,…) y por tanto,
percibimos una cantidad de información mayor a un bit. Por contra, cuando nos
dicen que No sólo obtenemos la certeza acerca de la primera incertidumbre (¿me
darán trabajo los de …?) mientras que las demás siguen presentes, y tal vez se
incrementen, (cómo me comprare el coche?, con qué dinero pagaré el alquiler?,
con qué dinero pagaré la pensión a mi ex-mujer?,…). Con este ejemplo vemos que
dos mensajes S/N contienen, para nosotros, distintas cantidades de información,
pues el Si resuelve más incertidumbres y contiene por tanto más información que
el No. Vemos también con claridad que nosotros valoramos más positivamente el
mensaje que contiene más información, es decir, el que resuelve más
incertidumbres y nos aporta un mayor orden mental (Sí).
Una búsqueda sin fin
[Si H1 es (V) à] El sistema nervioso,
y por ende, el cuerpo, trabaja constantemente para obtener información y reducir
las incertidumbres que vamos percibiendo. Constantemente
estamos actuando a fin de resolver las distintas incertidumbres que vamos
estableciendo, esto es, una búsqueda sin fin.
¿Qué dices, qué haces, qué comes,
qué hora es, quién viene, dónde están los demás,…? Preguntas. Hacer una
pregunta es, por definición, un intento de obtener información para resolver
una incertidumbre establecida. Durante todo el día nos estamos moviendo para
resolver las incertidumbres que hemos establecido con la percepción. Cuando
percibimos ya estamos resolviendo la incertidumbre ya estamos buscando
información sobre (qué color es? qué es? de qué está hecho?...) y cuando
llegamos a establecer una incertidumbre (de quién es?) que no logramos resolver
de entrada, actuamos para resolverla, es decir, actuamos para obtener la
información necesaria para resolver la pregunta (de quién es?).
Cuando, por ejemplo, andamos por
la calle y establecemos la duda (viene algún coche?), giramos la cabeza para
ver si vienen coches. Cuando, por ejemplo, oímos un zumbido en el aire
establecemos una incertidumbre (qué es ese zumbido?) y rápidamente giramos la
cabeza para obtener la información necesaria y resolver la incertidumbre. Al
oír la melodía de nuestro móvil establecemos una duda (quién es? será Manolo?,...).
Rápidamente buscamos el móvil e intentamos ver quién nos llama o si es la
llamada que estamos esperando. Es decir, reaccionamos a las incertidumbres que
establece nuestro sistema nervioso buscando información para resolverlas.
Cuando, por ejemplo, estamos en una sala con más gente y oímos la melodía de un
teléfono ajeno nos preguntamos (de quién es? de quién será? porqué no lo apaga?...)
y buscamos con la mirada quién es el propietario. Etc. Etc.
Vayamos ahora a otro mundo,
vayamos a los orígenes de la filosofía. Aquí encontramos, por ejemplo, a los
diálogos de Platón, un constante ir y venir de preguntas y soluciones diversas.
El único objetivo de los diálogos de Platón es acertar soluciones para sus
contemporáneos, encontrar las respuestas a las preguntas de su tiempo. Lo mismo
hicieron los Kant, Hume, Schopenhauer, Hegel, Marx, Frege, Russell, Habermas,
Rawls,… Pues el objetivo de la philo-sophya
[pasión-sabiduría] en cualquiera de sus ramas y en cualquiera de sus
épocas, es siempre el de encontrar soluciones, respuestas o explicaciones a las
preguntas de su época.
La búsqueda de respuestas, de
soluciones, de certidumbres, ¡de la verdad!; la búsqueda de la academia.
¿Cuántos millones de hombres y mujeres se dedicaron a dar respuesta a sus
preguntas en relación al arte, a la naturaleza, al hombre, a la moral, a la
máquina, a la vida…? Miles de filósofos han dado sus respuestas al mundo,
trataron de explicar la experiencia estética, “¿Qué es el arte?”21,
“El problema de la culpa”22, “Los problemas de la filosofía”23,
“El problema del hombre”24, “El problema de Sócrates”25,
“Kant y el problema de la metafísica”26, “el problema de la forma”27,
“el enigma del estilo”28…
Pero otros miles de personas se
dedicaron a encontrar orden en la
naturaleza, ¡toda la ciencia se basa en esa idea! La ciencia nace de la
necesidad de resolver problemas, la ciencia nace de los problemas o incógnitas
que percibimos, la ciencia es un conjunto de
intentos de solución.29 Thomas Kuhn30 en su famoso
libro sobre las revoluciones científicas, ya dijo que la “ciencia normal”
consiste en “resolver rompecabezas”, es decir, que una teoría, una hipótesis,
una tesis o un sistema científicos son intentos de solución, respuestas,
explicaciones a ciertos problemas.
“Los sistemas de Ptolomeo y Copérnico intentaban dar cuenta de los movimientos observados,
<<aparentes>>, de los cuerpos celestes por medio de supuestos
apropiados acerca de la estructura del universo astronómico y los movimientos
reales de los objetos celestes. Las teorías corpuscular y ondulatoria de la luz
daban cuenta de la naturaleza de ésta
en términos de ciertos procesos subyacentes […] Así, la refracción de un rayo
de luz que pasa del aire al vidrio se
explicaba, en la teoría ondulatoria de Huygens, como resultado del hecho de
que las ondas de luz se hacían más lentas en un medio más denso.” 31
Hoy el tiempo ha quedado
ordenado. Hemos encontrado la
“Historia del Tiempo Geológico” terrestre, desde el eón Fanerozoico hasta el
Hadeico, pasando por todas las eras, los períodos y las épocas… Hemos creado el
calendario solar y lunar, tuvimos que ordenar el tiempo de cada día. Los años,
las estaciones, los meses, o los días son una medida de tiempo, pero también
las horas, los minutos y los segundos nos sirven para ordenar el tiempo, para
comprender el tiempo. Calendarios, agendas, horarios, relojes y rutinas dejan
al tiempo ordenado, han despejado enormemente nuestra percepción de
incertidumbre en el tiempo.
La gente lee los periódicos
porque nos cuentan cada día dónde, cuándo, cómo, quién y por qué sucedió qué,
es decir, los periódicos nos dan respuestas, los compramos para obtener
información, respuestas, un descenso de la incertidumbre. Vamos en busca de
orden, de respuestas, de soluciones.
La religión no es algo muy
distinto, la religión son respuestas, soluciones fáciles, soluciones
milenarias. Dios ha sido la respuesta más usada por la humanidad, la solución
más recurrente desde el origen de los tiempos. Dice el Génesis, en el capítulo
primero:
“En el principio creó Dios los cielos y la tierra.”, “después
dijo Dios: Produzca la tierra hierba verde, hierba que dé semilla”, “E hizo
Dios las dos grandes lumbreras; la lumbrera mayor para que señorease en el día,
y la lumbrera menor para que señorease en la noche; hizo también las
estrellas.”, etc. Etc.
Y así queda explicado todo, aquí
están las respuestas, la incertidumbre queda resuelta; Dios creó los cielos,
los mares, la tierra, las plantas, los peces, las aves, los animales terrestres
y finalmente el hombre. La tradición China explica también todos los fenómenos
que observamos:
“Cuando murió P’an-Ku, su cabeza <<se convirtió en un pico sagrado, sus ojos pasaron a
ser el Sol y la Luna; la grasa, los ríos y los mares; sus cabellos y sus pelos,
los árboles y los vegetales>>.” 33
“En tiempos del Emperador (mítico) Yao, <<el mundo todavía no estaba ordenado, las vastas aguas
corrían de manera desordenada, inundaban el mundo>>. Contrariamente a lo que había hecho su padre, que construyó
diques para dominar las aguas, Yu<<cavó la tierra e hizo fluir (las aguas) hacia los mares, expulsó las
serpientes y los dragones y los confinó en las marismas>>” […]“Yu desempeña las funciones de un
demiurgo y un héroe civilizador” 34
Las creencias o los mitos, son
sencillas explicaciones para preguntas complejas. Cualquier mitología de las
culturas del planeta es una gran cantidad de diferentes respuestas a similares
preguntas. Como dice Mircea Eliade, el mito “se refiere siempre a una creación,
cuenta cómo algo ha llegado a la existencia o cómo un comportamiento, una
institución, una manera de trabajar, se han fundado.”35
“Todo mito de origen narra y justifica una situación nueva
–nueva en el sentido de que no estaba desde el principio del Mundo–. Los mitos
de origen prologan y completan el mito cosmogónico: cuentan cómo el Mundo ha
sido modificado, enriquecido o empobrecido.”36
La gran mayoría de nuestras acciones son para obtener la información
necesaria para resolver las preguntas que establecemos, como lo son las
religiones, los mitos, las creencias o la ciencia que dan respuesta a los
enigmas que encontramos en nuestra vida, su función es la de dar respuesta,
explicar, en definitiva, ordenar nuestra mente, ordenar nuestras percepciones,
nuestra memoria, nuestras ideas. Lo mismo sucede pues con los calendarios, las
agendas, los horarios o los relojes. Que el sistema nervioso sea una
estructura disipativa de incertidumbre implica que este está constantemente
guiando al cuerpo para resolver las incertidumbres que establece. Nuestras
acciones, nuestra conducta, están dirigidas hacia resolver las incertidumbres
que establece el sistema nervioso. El fin, el telos, el objetivo de nuestras
acciones es resolver las incertidumbres que establece nuestro sistema
perceptivo. La búsqueda de “la felicidad”, de “la paz interior”, de “la
tranquilidad”, la búsqueda sin fin.
Conclusión
“Cuando no sabemos la verdad de una cosa, es bueno que
haya un error común que fije el espíritu de los hombres, […] porque la
enfermedad principal del hombre es la curiosidad inquieta por las cosas que no
puede saber, y no le resulta tan perjudicial estar en el error como en esa
curiosidad inútil.”
Pascal, “Pensamientos”
[Si H1 es (V) à] El comportamiento
humano no es otra cosa que consumir orden en diferentes formas, y a la vez,
disipar entropía en sus distintas formas.
El ser humano es una estructura
disipativa de entropía. Una estructura, un sistema, un cuerpo que consume
energía útil (ATP) e información, y que disipa entropía e incertidumbre. Dado
que el sistema nervioso es una estructura disipativa de incertidumbre, todas
nuestras acciones son o bien para resolver las incertidumbres establecidas por
este o bien para mantener el orden termodinámico de nuestro cuerpo. Vivir
consiste en trabajar para mantenerse ordenado. Vivir es consumir energía útil para
salvar el orden termodinámico, e información para mantener el equilibrio del
sistema nervioso. De hecho, de forma subyacente, estas ideas ya han
sido publicadas por Norwich en su reciente artículo sobre la aplicación del
principio de Le Chatellier-Braun en la percepción36.
En conclusión: podemos decir que
se puede, desde una perspectiva física, comprender la conducta de los seres
humanos y predecirla. Siendo pues los seres humanos estructuras físicas que se
comportan como estructuras disipativas de entropía. Comprender que el sistema
nervioso es una estructura disipativa de entropía de la información, es
fundamental para entender nuestra conducta. La vida del ser humano no es otra
cosa que la vida de una estructura disipativa de entropía informacional (el
sistema nervioso) y la vida de una estructura disipativa de entropía
termodinámica (el sistema metabólico). Nuestra vida es la unión de estas dos
formas de vida, de estas dos naturalezas, de la vida del alma y de la vida del
cuerpo.
Agradecimientos
Le agradezco al universo la
suerte que me ha dado de vivir en este mundo, y más en este tiempo y en este
lugar, rodeado de un buen entorno social y económico que me ha permitido
estudiar y desarrollar mis ideas a mi antojo. Pero el presente texto no hubiera
sido posible sin el trabajo de mi padre y del profesor K.H. Norwich, que se
pasaron un largo período de tiempo discutiendo las consecuencias más profundas
de los recientes descubrimientos hechos por Norwich. De esta forma las ideas
llegaron a mí, y así es como empecé a entenderlas, a interpretarlas, y a
escribirlas. Sin ellos nada de esto sería posible, y en este sentido se puede
decir que ninguna de estas ideas es mía, y puede existir quién ya las haya
pensado, dicho o predicado. Pero a fin de cuentas todas ellas han sido mías si
se entiende que todas pasaron en algún momento por mi cabeza, y de ella fueron
formuladas al papel que hoy leen.
Febrero de 2012, Sabadell.
Elià Barrull Prat.
Referencias Bibliográficas
1. Margulis y
Sagan, 1996, pág. 23
2. Dyson, F.J.
(1999). “Los orígenes de la vida”.
(Trad. Ana Grandal). Madrid: Cambridge University Press.
3. Margulis y Sagan, 1996, pág. 41
4. Schrödinger, 1984, pág. 105
5. Ibíd., pág. 105
6. Philip Nelson, 2005, pág. 559
7. Margulis y
Sagan, 1996, pág. 26
8.
Schrödinger, 1984, pág. 102
9. Margulis y Sagan, 1996, pág. 22
10. Ibíd., pp. 22-23
11. Ibíd., pág. 67
12. Norwich, 1993, pág. 18
13. Gombrich, 1982, pág. 262
14. Norwich, 1993, pág. 19
15. Ibíd., pág. 13
16. Ibíd., pág. 13
17. Ibíd., pág. 15
18. Nietzsche, 1979, pág. 38
19. Russell,
2010, pág. 70
20. Tolstoi, N. (1982). “¿Qué es el arte?”. Barcelona: Ediciones
Mascarón.
21. Jaspers, K. (2011). “El problema de la
culpa”. Madrid: Espasa Libros.
22. Russell, B. (1983). “Los problemas
de la filosofía”. Barcelona: Editorial Labor.
23. Gevaert, J. (1976). “El problema del hombre. Introducción a la
antropología filosófica”. Salamanca: Ediciones Sígueme.
24. Strauss, L. (2006). “El problema de Sòcrates”. Enciclopedia
Catalana, SAU.
25. Heidegger, M. (1954). “Kant y el problema de la metafísica”.
México: Fondo de cultura económica.
30. Hempel, 1976, pág. 108
33. Ibíd., pág. 29
36. Norwich, K.H., (2010). “Le Chatelier’s principle in sensation and perception: fractal-like enfolding at different scales”. Frontiers in Physiology (Original Research Article)
Bibliografía
- Dostoievsky, F. (1969). “El jugador”. (Trad. José Laín
Entralgo). Navarra: Salvat Editores y Alianza Editorial.
- Eliade, M. (1979). “Historia de las creencias y de las ideas
religiosas II”, (Trad. J. Valiente Malla). Madrid: Ediciones Cristiandad;
(1983). “Mito y Realidad”. (5ª ed.)
(Trad. Luis Gil). Barcelona: Editorial
Labor.
- Elwood Shannon, C. (1949). “A Mathematical Theory of Communication”. Urbana,
Illinois: University of Illinois. (Republished in
paperback 1963)
- Gevaert, J. (1976). “El problema del hombre. Introducción a la antropología
filosófica”. Salamanca: Ediciones Sígueme.
- G. Hempel,
C. (1976). “Filosofia
de la Ciencia Natural”. (2ª ed.) (Trad.
Alfredo Deaño). Madrid: Alianza Universidad.
- Heidegger, M. (1954). “Kant y el problema de la metafísica”.
(Trad. Gred Ibscher Roth). México: Fondo
de
- H. Gombrich,
E. (1982). “Arte e ilusión”. (2ª
ed.) (Trad. Gabriel Ferrater). Barcelona:
Editorial Gustavo Gili
- H. Norwich, K. (1993). “Information, sensation and perception”. California: Academic Press,
Inc.
- Jaspers, K. (2010). “El problema de
la culpa”. (2ª Impresión) (Trad. Román Gutiérrez Cuartango). Madrid: Espasa
Libros.
- J. Dyson, F. (1999). “Los orígenes de la vida”. (Trad. Ana
Grandal). Madrid: Cambridge University Press.
- Kuhn, T. (2006). “La estructura de las revoluciones
científicas”. (3ª ed.) (Trad. Carlos Solís). México: Fondo de Cultura
Económica.
- Margulis, L y Dorion, S. (1996). “¿Qué es la vida?”. (Trad. Ambrosio
Garcia Leal). Barcelona: Tusquets Editores.
- Nelson, P. et.al. (2005). “Física Biológica. Energía, Información,
vida.”. (Trad. Dr. David Jou Mirabent). Barcelona: Editorial Reverté.
- Nietzsche, F. (1976). “Así hablaba Zaratrustra”. (Trad. Juan
Fernandez). Buenos Aires: Ediciones Siglo XX
- P.
Cardinali, D. (1992). “Manual de
Neurofisiología”. Madrid: Ediciones Díaz de Santos.
- Russell, B. (1983). “Los problemas de la filosofía”. (8ª
ed.) (Trad. Agustín Arrieta). Barcelona: Editorial Labor; (2010). “Por
qué no soy cristiano”. (Trad. Josefina Martínez Alinani). España: Diario
público.
- R. Popper, K. (1995). “La responsabilidad de vivir”. (Trad.
Concha Roldán). Buenos Aires: Ediciones
Paidós Ibérica.
-
Schrödinger, E. (1984). “Què és la vida?”.
(Trad. Núria Roig). Barcelona: Edicions 62.
- Strauss, L. (2006). “El problema de Sòcrates”. Barcelona:
Enciclopedia Catalana, SAU.
- Tolstoi, L. (1982). “¿Qué es el arte?”. (Trad. Carlos Velilla).
Barcelona: Ediciones Mascarón.
Cultura Económica.