domingo, 20 de mayo de 2012

Sobre el porqué

Sobre el porqué
Un ensayo sobre la conducta


Prólogo                                       
“La prueba que uno sabe una cosa perfectamente es que puede dar una explicación lo bastante corta, general i nítida.”
R. Descartes (Fragmento, AT, IV, 689 – 690)


Este ensayo cumpliría su objetivo si al leerlo pudiera ser, también, comprendido. Así se hallaría uno con sus límites y su profundidad, podría tocar el techo. Aunque lo aquí expresado es una disertación, una opinión si se quiere, de por qué hacemos lo que hacemos, del porqué de nuestra conducta, esta opinión no es una revelación o un fruto de mi imaginación sino más bien un retrato que muestra lo que yo he percibido claramente, lo que para mí es evidente. Y todo esto lo vemos en el lenguaje, en nuestro lenguaje ordinario, y en nuestro lenguaje académico. Veamos los términos; desorden, caos, oscuridad, problema, pregunta, acertijo, cuestión, dilema, incógnita, duda,… y los adjetivos; desconocido, nuevo, raro, incompleto, inconcluso, inexplorado, indefinido, indeciso, desubicado,... ¿Acaso alguien no puede apreciar algo extraño en todos ellos, acaso no se advierte que todos emanan una misma señal que desequilibra nuestra mente, una misma percepción que nos indica “incertidumbre”?
Dada mi limitada, pero diversa, formación en ciencias he elaborado un retrato que es más bien una imagen física de la realidad, una explicación física del porqué. Esta explicación se muestra evidente cuando se alcanzan los conocimientos recogidos en la primera parte. Entonces, se presenta en la segunda, y así, se explica en la tercera. Aquí intentaré mostrar cómo nosotros, seres vivos, somos estructuras disipativas de entropía, seres que consumen energía ordenada y que disipan energía desordenada. Con el trabajo de Norwich veremos que nuestro sistema nervioso es, también, una estructura disipativa de entropía, en este caso, entropía de la información, incertidumbre. Así alcanzaremos una grata satisfacción al encontrar una respuesta a nuestras acciones; buscamos comida y buscamos información, en cualquier caso, buscamos orden y nada más.







Primera parte


“Indudablemente, somos parte de la naturaleza, que ha producido nuestros deseos, nuestras esperanzas y nuestros miedos, de acuerdo, con leyes que los físicos comienzan a descubrir. En este sentido, somos parte de la naturaleza, somos el resultado de las leyes naturales y también sus víctimas a la larga.”
Bertrand Russell, “Por qué no soy cristiano”




¿Qué es la vida?

A partir de la intuición de Schrödinger al publicar su ya famoso “What is life?” apareció la que hasta ahora ha sido la definición más certera de la vida. En su libro intentó describir la vida como un fenómeno físico, como un sistema comprensible a partir de las leyes físicas. Schrödinger anticipó la idea de considerar a los seres vivos como estructuras disipativas de entropía, es decir, como sistemas termodinámicos que consumen <<energía útil>> y liberan calor.
Los seres vivos somos materia que no se encuentra en equilibrio térmico con el entorno, materia energizada, organizada, es decir, materia ordenada termodinámicamente. Cuando comparamos la complejidad de cualquier ser vivo, por pequeño e insignificante que sea, con una piedra, una máquina u otro cuerpo inerte, nos damos cuenta de que cualquier forma de vida es muchísimo más compleja que algo inerte. Los cuerpos vivos son sistemas termodinámicos que no están en equilibrio, o prácticamente en equilibrio, sino que están muy ordenados, es decir, que están muy lejos de su estado de máxima entropía.
“A diferencia de la máquina de vapor de Watt, por ejemplo, el cuerpo concentra orden. Se autorrepara continuamente. El epitelio intestinal se renueva cada cinco días. El hígado cada dos meses. La piel cada seis semanas. Cada año se reemplaza el 98% de los átomos de nuestro cuerpo. Este incesante reemplazamiento químico, el metabolismo, es un signo inequívoco de vida. Esta <<máquina>> exige una entrada continua de energía y productos químicos (alimento).”1

Tal y como dice F. J. Dyson, las teorías de Eigen y Orgel (1981) no son teorías acerca del origen de la vida, sino más bien acerca del origen de la replicación.2 El metabolismo es el signo inequívoco de vida, todo lo vivo metaboliza. Uno puede escoger no reproducirse y no por ello dejará de estar vivo. Pero no podemos escoger dejar de metabolizar, no podemos decir a nuestras células, ¡dejad de replicaros! No funciona, nuestro cuerpo constantemente se regenera, se autorepara, metaboliza.
“Enfrentada a la disolución y a la destrucción, la vida sufre una permanente amenaza de muerte. La vida no es sólo materia, es materia energizada, organizada, materia con una gloriosa y peculiar historia. […] Desde una perspectiva termodinámica y autopoyética, el más bajo acto reproductivo y la más elegante apreciación estética derivan de una misma fuente y en última instancia sirven al mismo propósito: preservar la materia viviente frente a la adversidad y la tendencia universal hacia el desorden.”3
A partir de la interpretación de Boltzmann sabemos que la entropía expresa la probabilidad de aparición de un suceso determinado, y nosotros los seres vivos somos cuerpos con muy poca entropía, improbabilísimos dentro del universo, seres que fácilmente se desordenan y desaparecen. “Un organismo vivo produce entropía positiva y por esto tiende a aproximarse al peligroso estado de la máxima entropía: la muerte.”4 A medida que nuestro sistema se desordena, la vida decrece y se acerca fatalmente al estado de máxima entropía, la muerte.
Desde el organismo más simple que nos podamos imaginar hasta el más complejo, todos ellos están sujetos a las leyes de la física, son cuerpos físicos que se comportan según las leyes naturales que también guían el designio de las tormentas o los astros. Todos los seres vivos, desde la bacteria o la célula, hasta el chimpancé o la mosca, se comportan como estructuras disipativas de entropía termodinámica que están en un desequilibro constante con el entorno, alejados del equilibrio térmico. Físicamente debemos considerar que un organismo “solo puede mantenerse alejado, es decir, vivo, extrayendo continuamente entropía negativa de su medio.”5 Para conseguir evitar la muerte, el equilibrio, los seres vivos actúan constantemente, reaccionan al entorno; acumulan orden y se deshacen de la entropía, metabolizan. Pues en realidad, “las plantas consumen orden” y no energía, y “los animales consumen orden”6 y no alimentos.
“De acuerdo con la segunda ley, el mantenimiento autopoyético preserva o incrementa el orden interno a base de desordenar el mundo exterior excretando desechos y disipando calor. Todo ser vivo tiene que metabolizar, y por lo tanto, crear desorden local: calor inútil, ruido e incertidumbre.”7 Cuando metabolizamos, estamos manteniendo nuestro estado de extraordinario orden lejos del equilibro termodinámico. Comemos y bebemos para absorber el orden, la entropía negativa, o energía útil; y sudamos, orinamos y defecamos para deshacernos de la entropía, los deshechos, el desorden.
De este modo, nos podemos plantear qué es la vida, y lograr comprender la idea de Schrödinger según la cual, la vida, “parece ser el comportamiento ordenado y reglamentado de la materia, que no está asentado exclusivamente en su tendencia a pasar del orden al desorden, sino basado en parte en un orden existente que es mantenido.”8
Con esta definición podría parecer que los seres vivos no cumplen con el segundo principio de la termodinámica, pero en cualquier sistema aislado la entropía siempre aumenta, “lo que implica que aumentan el calor, el ruido, la incertidumbre y demás formas de energía no útiles. A medida que los sistemas locales pierden calor, el conjunto del universo lo gana. […] la segunda ley se cumple siempre que se considera el sistema (la vida) más su entorno.”9 La acción de los seres vivos en su entorno, o la acción de la vida en el universo, genera un mayor incremento de la entropía, pues no podemos considerar a los seres vivos como sistemas aislados.
“Para el premio Nobel belga Ilya Prigogine, la vida pertenece a una clase más amplia de <<estructuras disipativas>>, que incluye también centros de actividad no vivos, tales como remolinos, tornados y llamas. Una estructura disipativa […] se mantiene a sí misma (o incluso crece) importando formas <<útiles>> de energía y exportando, o disipando, formas menos útiles –fundamentalmente calor–. […] Cuanta más vida haya en el universo más deprisa se degradarán las diversas formas de energía en calor.”10
¿Pero entonces, qué significa la entropía para los seres vivos? El desorden termodinámico, o la entropía, es la magnitud física de la que huyen los seres vivos, por ser aquella que les lleva al equilibrio y a la muerte. La entropía es la magnitud física que los seres vivos identificamos con el peligro y que nos permite encontrar el orden “La vida tiene que mantenerse contra la tendencia universal del calor a disiparse con el tiempo. Este enfoque termodinámico explica, en cierto modo, la determinación, la intencionalidad de la vida, pues durante miles de millones de años ha seguido la estrategia, irrenunciable, de jugársela a medida que avanza.”11




Información, sensación y percepción

Cada cual nace donde y cuando le toca, sin poder replicar nada a nadie, y empieza así su aventura en esta vida. Cada individuo nace dentro de un espacio y tiempos determinados, vive en un entorno y absorbe de este la información que puede. Así es lógico entender que cada uno tiene una memoria distinta, vive una experiencia diferente, y por lo tanto, almacena distinta información.
Puesto que tenemos experiencias distintas, distinta información, cada uno de nosotros percibe una incertidumbre diferente ante un mismo estímulo, pues esta incertidumbre depende de la información que poseemos del estímulo. Cuanta más información tenemos de un suceso, menos incertidumbre percibimos, y al revés, a menos información que tenemos de un estímulo más incertidumbre percibimos de él.
Cuando vemos que un suceso tiene varias respuestas posibles, todas ellas equiprobables, percibimos la máxima entropía. Es decir, si vemos que un evento puede llevar a otros tres, todos ellos con probabilidad igual, percibimos la máxima entropía ante ese evento, porque lo desconocemos por completo y no podemos hacer predicción alguna sobre su final. La incertidumbre y la información están íntimamente relacionadas tal y como lo mostró Claude Elwood Shannon en su ya famosa “Teoría Matemática de la Comunicación” (1948).

Ha sido otro físico, este dedicado al campo de la neurología teórica, el que ha elaborado “recientemente” una muy interesante teoría de la percepción que ha sido capaz de unir bajo una fórmula a todas las anteriores leyes de la percepción. En 1993 Kennet H. Norwich publicó su desconocido libro “Information, sensation, and perception” donde explica que nuestras células sensoriales, aquellas que envían las señales electroquímicas que acaban excitando a nuestros músculos o ganglios, perciben y reaccionan a la incertidumbre (entropía) de cada estímulo, esto es, al peligro de cada estímulo.
Las antiguas fórmulas de Weber-Fechner o de Stevens consideraban la sensación como un producto de la función (I) de la intensidad del estímulo. Norwich consigue mostrar que ambas formulaciones son correctas en distintas situaciones, bajo condiciones diferentes. Pues Norwich ha descubierto que todas las señales, que las células sensoriales envían a sus receptores más cercanos, se dirigen hacia ellos con una velocidad (F) proporcional a la función de incertidumbre (H) que sustituye a la antigua fórmula de Stevens o de Weber-Fechner. “El cerebro y las neuronas responden <<en proporción a>> la entropía de los estímulos.”12
Según explica Norwich, la percepción sensorial consiste en un “escoger entre” alternativas; cuando vemos una casa roja, estamos no viendo una casa azul, una casa verde o una casa blanca. Al mirar el reloj y ver las agujas marcando las doce en punto, vemos que no son las diez, que no son las nueve, ni las ocho, ni las siete. Norwich encuentra que cuando vemos, ya estamos distinguiendo, ya estamos reduciendo la incertidumbre, escogiendo entre alternativas, eliminando opciones, recibiendo información. Primero establecemos una incertidumbre (de qué color es la casa?) y después buscamos la respuesta con nuestros actos (blanca). Cuando leemos “hace Sol” en realidad leemos “no es de noche, no llueve, no hay nubes”. En este sentido, se aplican los conocimientos de la teoría de la información de Shannon dónde la información es definida como la reducción de incertidumbre.
“<<Ver>> significa conjeturar algo <<ahí fuera>>, lo que Ames llama la <<experiencia del eso – ahí>>. Todo pensar es distinguir, clasificar. Todo percibir se refiere a expectativas, y por consiguiente a comparaciones. Cuando decimos que desde el aire las casas nos parecen de juguete, y las personas hormigas, queremos decir, supongo, que nos sobresalta la desacostumbrada visión de una casa que se parece al juguete con que el niño juega en el suelo de su cartón.”13
“F = kH implica que nosotros sólo percibimos aquellos aspectos del mundo exterior que no conforman con nuestras expectativas, y, por lo tanto, que nos son inciertos.”14 Así que cuando un estímulo es totalmente conocido, no tiene incertidumbre, nuestras células sensoriales no lo perciben y no envían ninguna señal al sistema nervioso. Cuando, por ejemplo, llevamos un tiempo cociendo verduras o entramos en una habitación recién pintada, percibimos primero un fuerte olor que se irá disipando con el tiempo, hasta que finalmente será imperceptible. Vamos conociendo el olor, hasta que llegamos a conocerlo del todo y a no percibirlo.
Pero constantemente estamos percibiendo y actuando, nuestras células sensoriales están trabajando, y cada señal que sale de un sensor es enviada con una intensidad proporcional a la incertidumbre que percibe el sensor. Ahora ya no existe la idea de la intensidad del estímulo como algo exterior, ahora sabemos que la intensidad de un estímulo es proporcional a la incertidumbre que percibimos de este, es decir, a la información que de él tenemos. “Siguiendo el trabajo de Shannon (1948) y Wiener (1948), la información es definida como la reducción de incertidumbre. Supongamos que un evento puede ocurrir en uno de varios caminos; esto es, tiene varias salidas distintas. Si, por ejemplo, lanzamos una moneda, ésta puede salir cara o cruz, [y cuando la moneda está en el aire] sentimos una incertidumbre momentánea sobre el suceso. Después el evento es conocido, la incertidumbre es reducida, o resuelta, y quien percibe el evento recibe una cantidad de información igual a la incertidumbre reducida.”15 Pero si yo lanzo la moneda sabiendo que en ambos lados hay una cara, no percibiré la misma incertidumbre, y no recibiré la misma cantidad de información cuando caiga la moneda, porqué ya sabía lo que iba a suceder.
Si por ejemplo, sabemos que es de día pero no sabemos qué hora es y nos decidimos a preguntarlo, es que hemos establecido una incertidumbre, con una matriz de alternativas con las horas de día (aproximadamente doce). Cuando nos dicen la hora, cuando nos dan la respuesta, nosotros recibimos una cantidad de información igual a la incertidumbre reducida, y por tanto, si no supiéramos que es de día o de noche, recibiríamos el doble de información al saber la hora, porque reduciríamos el doble de incertidumbre, eliminaríamos el doble de alternativas. De este modo vemos que la incertidumbre que percibimos, y por ende la información que recibimos, viene determinada por nuestra memoria, por la información que previamente almacenamos y que determina los valores de las probabilidades a priori. Al saber que es de día o de noche se valoran nulas (0) las probabilidades de la mitad del día que sabemos que no es. Si no tenemos información al respecto no podemos anular estas opciones, y por tanto, percibimos más incertidumbre y recibimos más información cuando obtenemos la respuesta. “Nuestras respectivas experiencias anteriores han determinado los valores de las probabilidades a priori y, por ende, de la información recibida. La información recibida es, en este sentido, una cantidad no absoluta.”17 Para el sistema nervioso no importa cuál es la intensidad del estímulo, su velocidad, su masa o su energía, lo que le interesa es su incertidumbre, su desorden. La entropía es una característica más para cualquier suceso, es una magnitud física. “Hay que tener cuidado de no confundir este tipo de entropía, que es la entropía de la información teórica, con la entropía física o termodinámica, una cantidad usada extensamente en física y química.”16

Kenneth Norwich ha aportado recientemente estas nociones de la relación entre la percepción y la incertidumbre, que nos ayudarán a entender la conducta humana. Ahora sabemos que cada individuo percibe el entorno subjetivamente, encerrado en la información que posee. Esta percepción de la incertidumbre, relativa a la información sensorial que tenemos, determina las señales electroquímicas que corren por nuestro sistema nervioso, y por ende, nuestra conducta. Todos percibimos los mismos estímulos subjetivamente, según sea la información que guardamos de cada estímulo. La percepción del entorno es relativa al sujeto que siente y almacena una determinada información del mundo.




El papel de la evolución

Durante miles de años nuestra especie ha creído en mitos y leyendas; en almas, fantasmas, espíritus, ángeles, demonios y dioses. Hasta el siglo XX no se reconoció a la vida como un proceso natural sujeto a las leyes de la física. Hoy aceptamos que la vida está formada de partículas físicas que, como los cuerpos inertes, son hijas del polvo estelar. “Nosotros hemos trastocado lo aprendido. Nos hemos vuelto más modestos en todo. Al hombre ya no lo derivamos del espíritu, de la divinidad, hemos vuelto a colocarlo entre los animales”18
“El hombre es parte de la naturaleza, no algo en contradicción con ella. Sus pensamientos y movimientos corporales siguen las mismas leyes que describen el movimiento de los astros y los átomos. […]Su cuerpo, como toda materia, está compuesto de electrones y protones, que, por lo que sabemos, obedecen a las mismas leyes a las que obedecen también los que no forman parte de los animales o plantas.”19

Nosotros, los humanos, somos descendientes de animales muy variados, hasta de bacterias diminutas. Todas las especies del planeta estamos emparentadas genéticamente entre nosotras, todos somos parientes. Y nuestra conducta, aunque pueda parecer de otro mundo, no es sino de lo más corriente dentro de la vida terrestre.
Para que nuestros músculos se contraigan, esto es, moverse, debe llegar una señal electroquímica hasta las células musculares. Ésta es la misma señal electroquímica de la que hablamos antes, la que generan las células sensoriales cuando perciben un estímulo. Otro tipo de reacciones al entorno son aquellas causadas por las hormonas que las glándulas segregan en la sangre y alteran la conducta. Pero sea por “A” o por “B”, cualquier acción es generada por la percepción del entorno, es decir, por las señales que los sensores generan y acaban llegando al músculo o al ganglio.
Cuando, por ejemplo, pintamos un cuadro, saltamos una cerca o preguntamos algo a un amigo lo que hacemos es reaccionar a nuestro entorno. En neurología se acepta que nuestra conducta corresponde a un determinado estado de excitación del sistema nervioso, es decir, que la excitación del sistema nervioso determina nuestra conducta. A partir del descubrimiento de Norwich sabemos que “el cerebro y las neuronas responden <<en proporción a>> la entropía de los estímulos.”20
Es momento para comprender aquello que adelantamos en el primer capítulo cuando decíamos que la entropía es peligro para la vida. La entropía, decíamos, es peligro para la vida porqué lleva a la muerte térmica. Pero fíjense que ahora estamos hablando de la entropía de la información, es decir, la incertidumbre. Norwich dice que el cerebro y las neuronas responden en proporción a la incertidumbre de los estímulos, es decir, a la entropía de la información que percibimos de cada estímulo. Esto nos lleva a pensar, lógicamente, que la incertidumbre percibida en el entorno es lo que genera el movimiento corporal de los animales. Así que son varios los caminos que nos llevan a Roma; podemos ver, como lo hizo Schrödinger, que la entropía termodinámica es peligrosa para la vida, pues ésta consiste en mantenerse ordenado, en mantenerse sin demasiada entropía. Y por otro lado podemos ver, como lo hizo Norwich, que la entropía informacional altera el sistema nervioso y es por tanto el motor de nuestros movimientos. Una entropía informacional que señala el peligro al organismo, que indica cuándo es el momento de escapar y salvar la vida.  




Segunda parte


“¿Cómo las preguntas que se hace la razón pura a sí misma y a las que se siente impulsada, por propia necesidad, a contestar de la mejor manera que pueda, surgen de la naturaleza de la razón humana universal?”
I. Kant, “Crítica de la razón pura”

Para responder a la pregunta de Kant debemos comprender, qué es, físicamente, el cerebro, cómo funciona nuestro sistema nervioso. Gracias al trabajo de Norwich hoy sabemos que nuestro sistema nervioso responde a los estímulos en proporción a la incertidumbre que percibe. Por lo tanto, nuestro cuerpo reacciona al entorno en función de la incertidumbre que percibe en el entorno. Esto también nos enseña que el sistema nervioso se alimenta de energía útil, y además, de información.
Si tenemos esto claro, podemos volver al primer capítulo y recordar que Schrödinger descubrió que todos los seres vivos son estructuras disipativas de entropía termodinámica. Es decir, que todo lo vivo es como una estructura disipativa de entropía. Así que también el cerebro o el sistema nervioso son estructuras vivas, sistemas vivos, que consumen energía útil y disipan entropía.
Mi hipótesis, en adelante H1, es que el sistema nervioso es una estructura disipativa de entropía informacional (incertidumbre). Así que mientras todo el cuerpo y el sistema metabólico funcionan como una estructura disipativa de entropía termodinámica que consume energía útil y disipa entropía termodinámica, el sistema nervioso se alimenta de la energía útil que metaboliza el cuerpo y trabaja como una estructura disipativa de entropía informacional que consume información y disipa incertidumbre.  
Por tanto, el comportamiento del ser humano consiste en mantener el orden termodinámico del cuerpo, y a la vez, el orden informacional de la mente. Nuestros sensores establecen las incertidumbres que percibimos, y nuestras acciones tienden a resolverlas. Esta hipótesis explica porqué el sistema nervioso reacciona a las pérdidas de información percibida con la agitación nerviosa y el movimiento corporal, mientras que el sistema nervioso se relaja y reduce la cantidad de movimiento corporal con el incremento de información recibida, es decir, cuando resuelve incertidumbres. Desde esta perspectiva comprendemos que el sistema nervioso trabaja, y hace trabajar al cuerpo constantemente, para resolver las incertidumbres que establece de forma automática con la percepción.




Tercera parte

“Si yo quisiera sacudir este árbol con mis manos, no podría. Pero el viento, que no vemos lo atormenta y lo dobla como quiere. A nosotros nos doblan y atormentan duramente manos invisibles”
“¿Por qué te asustas? Lo mismo le pasa al hombre que al árbol.”
F. Nietzsche, “Así hablaba Zaratrustra”


Malestar

[Si H1 es (V) à] El sistema nervioso tiene que responder negativamente a un incremento de la incertidumbre percibida en el entorno. Esto es, el cerebro aumenta su actividad electroquímica y por tanto, la actividad motora, cuando pierde información del entorno, es decir, cuando aumenta la incertidumbre que percibe en el entorno.

Veamos esto con más detenimiento. Si el sistema nervioso es una estructura disipativa de incertidumbre tiene que responder negativamente al entorno cuando crece la incertidumbre que percibe, es decir, cuando pierde información del entorno, cuando pierde orden. Nuestra mente responde negativamente al entorno cuando crece la incertidumbre porque está perdiendo información del entorno, porque se está desordenando. H1 implica que nuestra mente trabaja constantemente para mantenerse ordenada, informada, alejada de la incertidumbre, y por tanto, nuestra reacción a un incremento de la incertidumbre en el entorno (o perdida de información) debe ser negativa.    
Vemos, por ejemplo, el miedo que sienten los jóvenes a la muerte de sus padres, a un mundo sin sus padres, a un mundo desconocido. La mayoría de los jóvenes sienten miedo a perder a sus padres, a vivir sin sus padres, a no saber qué hacer sin mamá y papá, a no saber cómo vivir entonces. O el miedo a la propia muerte que muchas personas desarrollan, es el miedo a un mundo desconocido, a un mundo del que no podemos volver, que no podemos conocer. Ese miedo a qué será de nosotros cuando llegue la muerte, a qué será de nuestro cuerpo, de nuestra alma, de nuestra mente, a qué pasará con todo esto. El miedo que, por ejemplo, sienten los allegados del desaparecido, su familia y amigos. La desesperación, el nerviosismo o la tensión por no saber dónde está, dónde se encuentra o si sigue con vida. Esta tensión por un incremento general de la incertidumbre en el entorno, es una pérdida de información.
Sentimos repulsión, miedo, odio, recelo, desconfianza, tensión o nerviosismo, cuando percibimos que ha aumentado la incertidumbre en el entorno, que ha aparecido algo terriblemente nuevo, extraño, fuera de lugar, desconocido, contradictorio. El miedo a perder el trabajo, a no saber cómo vivir sin ese trabajo, a no saber cómo alimentar a la familia sin nuestro trabajo. Ese miedo a no saber qué hacer sin el trabajo que ahora tenemos es el miedo a la incertidumbre, a lo desconocido. O el miedo que los niños sienten a la oscuridad, es decir, a no poder ver su entorno, a no poder distinguir su entorno. Los niños sienten miedo a la oscuridad porque aumenta la incertidumbre del entorno, es decir, porque perciben con mayor dificultad el entorno, porque reciben menos información del entorno cuando crece la oscuridad.
Hemos visto pues varios ejemplos en los que se advierte que reaccionamos negativamente al entorno cuando perdemos información de este, es decir, cuando crece la incertidumbre que percibimos en el entorno. Esto sucede porque nuestra mente es una estructura disipativa que se mantiene en un equilibrio dinámico mientras actuamos para reducir las incertidumbres que hemos establecido a partir de la percepción, y por tanto, reaccionamos negativamente cuando no conseguimos reducir esas incertidumbres, es decir, cuando perdemos información del entorno. Podemos pues predecir que todos los animales con sistema nervioso van a reaccionar negativamente al entorno cuando perciban que la incertidumbre está aumentando y no logran reducirla, es decir, cuando perciben que han perdido información.

Veamos ahora un experimento que puede ser llevado a cabo con facilidad para demostrar nuestra hipótesis. Si consideramos una partida de póker con varios jugadores, por ejemplo, seis, y examinamos la tensión o el nerviosismo de cualquiera de ellos, veremos que todos reaccionan negativamente cuando otro jugador que anteriormente no jugaba decide jugar (apostar). En este caso las probabilidades de victoria se han redistribuido al aumentar las alternativas (número de jugadores). Cuando aparece un nuevo jugador las probabilidades de victoria se redistribuyen, es decir, aumenta la incertidumbre que perciben los jugadores que ya jugaban. Al contrario, se podrá demostrar que todos los jugadores se sentirán aliviados cuando un jugador deje de jugar, es decir, cuando se reduzcan las alternativas y adquieran información.



Bienestar

[Si H1 es (V) à] El sistema nervioso tiene que responder positivamente a un incremento de la información percibida en el entorno. Esto es, el cerebro reduce su actividad electroquímica y por tanto, la actividad motora, cuando obtiene información del entorno, es decir, cuando resuelve, total o parcialmente alguna incertidumbre establecida.

Esto es simple y llanamente lo opuesto a lo anterior. Pues cuando sí que conseguimos resolver total o parcialmente una incertidumbre que habíamos establecido, reaccionamos positivamente, relajándonos, reduciendo nuestra tensión y nuestros nervios. Nuestras sensaciones de alegría se producen cuando hemos obtenido la cantidad de información necesaria para resolver una o varias incertidumbres que habíamos establecido. Sentimos alegría cuando resolvemos un puzle, un enigma, una duda, un dilema, una pregunta, un problema, un acertijo, un juego, una incertidumbre. Nos alegramos cuando, después de un vuelo en avión, hemos llegado sanos y salvos a nuestro destino, nos alegramos pues de que se haya resuelto la incertidumbre que habíamos establecido (caerá el avión?, aterrizará sin problemas?...) Cuando recibimos la información necesaria para resolver las incertidumbres que establecemos nos alegramos y nos tranquilizamos. Al resolver una incertidumbre nos tranquilizamos, volvemos a un estado de equilibrio sensorial y se elimina el efecto del estímulo inicial que nos transmitió la incertidumbre.

 [Si H1 es (V) à] El sistema nervioso tiene que responder más positivamente a un estímulo cuanta más información recibe de este. Esto es, el cerebro reduce más su actividad electroquímica y por tanto, la actividad motora, cuanta más información obtiene del entorno, es decir, cuanto más decrezca la incertidumbre que percibe.

Hay muchas ocasiones en las que esperamos la respuesta a una incertidumbre que hemos establecido y pese a obtener dicha respuesta no nos quedamos satisfechos. ¿Qué sucede aquí, porqué no nos relajamos pese a obtener certeza? Si,  por ejemplo, esperamos la respuesta a una entrevista de trabajo es que ya hemos establecido una incertidumbre del tipo (¿me darán trabajo los de …?). La respuesta a esta incertidumbre será del tipo S/N, y aunque en ambos casos obtenemos la respuesta a esta incertidumbre es evidente que no reaccionamos igual ante ambas. Aunque ambos mensajes (S/N) contienen un bit de información, cuando recibimos el Sí obtenemos la respuesta a esta primera incertidumbre y también a otras tantas (cómo me comprare el coche?, con qué dinero pagaré el alquiler?, con qué dinero pagaré la pensión a mi ex-mujer?,…) y por tanto, percibimos una cantidad de información mayor a un bit. Por contra, cuando nos dicen que No sólo obtenemos la certeza acerca de la primera incertidumbre (¿me darán trabajo los de …?) mientras que las demás siguen presentes, y tal vez se incrementen, (cómo me comprare el coche?, con qué dinero pagaré el alquiler?, con qué dinero pagaré la pensión a mi ex-mujer?,…). Con este ejemplo vemos que dos mensajes S/N contienen, para nosotros, distintas cantidades de información, pues el Si resuelve más incertidumbres y contiene por tanto más información que el No. Vemos también con claridad que nosotros valoramos más positivamente el mensaje que contiene más información, es decir, el que resuelve más incertidumbres y nos aporta un mayor orden mental (Sí).





Una búsqueda sin fin

[Si H1 es (V) à] El sistema nervioso, y por ende, el cuerpo, trabaja constantemente para obtener información y reducir las incertidumbres que vamos percibiendo. Constantemente estamos actuando a fin de resolver las distintas incertidumbres que vamos estableciendo, esto es, una búsqueda sin fin.

¿Qué dices, qué haces, qué comes, qué hora es, quién viene, dónde están los demás,…? Preguntas. Hacer una pregunta es, por definición, un intento de obtener información para resolver una incertidumbre establecida. Durante todo el día nos estamos moviendo para resolver las incertidumbres que hemos establecido con la percepción. Cuando percibimos ya estamos resolviendo la incertidumbre ya estamos buscando información sobre (qué color es? qué es? de qué está hecho?...) y cuando llegamos a establecer una incertidumbre (de quién es?) que no logramos resolver de entrada, actuamos para resolverla, es decir, actuamos para obtener la información necesaria para resolver la pregunta (de quién es?).
Cuando, por ejemplo, andamos por la calle y establecemos la duda (viene algún coche?), giramos la cabeza para ver si vienen coches. Cuando, por ejemplo, oímos un zumbido en el aire establecemos una incertidumbre (qué es ese zumbido?) y rápidamente giramos la cabeza para obtener la información necesaria y resolver la incertidumbre. Al oír la melodía de nuestro móvil establecemos una duda (quién es? será Manolo?,...). Rápidamente buscamos el móvil e intentamos ver quién nos llama o si es la llamada que estamos esperando. Es decir, reaccionamos a las incertidumbres que establece nuestro sistema nervioso buscando información para resolverlas. Cuando, por ejemplo, estamos en una sala con más gente y oímos la melodía de un teléfono ajeno nos preguntamos (de quién es? de quién será? porqué no lo apaga?...) y buscamos con la mirada quién es el propietario. Etc. Etc.  
Vayamos ahora a otro mundo, vayamos a los orígenes de la filosofía. Aquí encontramos, por ejemplo, a los diálogos de Platón, un constante ir y venir de preguntas y soluciones diversas. El único objetivo de los diálogos de Platón es acertar soluciones para sus contemporáneos, encontrar las respuestas a las preguntas de su tiempo. Lo mismo hicieron los Kant, Hume, Schopenhauer, Hegel, Marx, Frege, Russell, Habermas, Rawls,… Pues el objetivo de la philo-sophya [pasión-sabiduría] en cualquiera de sus ramas y en cualquiera de sus épocas, es siempre el de encontrar soluciones, respuestas o explicaciones a las preguntas de su época.

La búsqueda de respuestas, de soluciones, de certidumbres, ¡de la verdad!; la búsqueda de la academia. ¿Cuántos millones de hombres y mujeres se dedicaron a dar respuesta a sus preguntas en relación al arte, a la naturaleza, al hombre, a la moral, a la máquina, a la vida…? Miles de filósofos han dado sus respuestas al mundo, trataron de explicar la experiencia estética, “¿Qué es el arte?”21, “El problema de la culpa”22, “Los problemas de la filosofía”23, “El problema del hombre”24, “El problema de Sócrates”25, “Kant y el problema de la metafísica”26, “el problema de la forma”27, “el enigma del estilo”28
Pero otros miles de personas se dedicaron a encontrar orden en la naturaleza, ¡toda la ciencia se basa en esa idea! La ciencia nace de la necesidad de resolver problemas, la ciencia nace de los problemas o incógnitas que percibimos, la ciencia es un conjunto de  intentos de solución.29 Thomas Kuhn30 en su famoso libro sobre las revoluciones científicas, ya dijo que la “ciencia normal” consiste en “resolver rompecabezas”, es decir, que una teoría, una hipótesis, una tesis o un sistema científicos son intentos de solución, respuestas, explicaciones a ciertos problemas.

“Los sistemas de Ptolomeo y Copérnico intentaban dar cuenta de los movimientos observados, <<aparentes>>, de los cuerpos celestes por medio de supuestos apropiados acerca de la estructura del universo astronómico y los movimientos reales de los objetos celestes. Las teorías corpuscular y ondulatoria de la luz daban cuenta de la naturaleza de ésta en términos de ciertos procesos subyacentes […] Así, la refracción de un rayo de luz que pasa del aire al vidrio se explicaba, en la teoría ondulatoria de Huygens, como resultado del hecho de que las ondas de luz se hacían más lentas en un medio más denso.” 31

Hoy el tiempo ha quedado ordenado. Hemos encontrado la “Historia del Tiempo Geológico” terrestre, desde el eón Fanerozoico hasta el Hadeico, pasando por todas las eras, los períodos y las épocas… Hemos creado el calendario solar y lunar, tuvimos que ordenar el tiempo de cada día. Los años, las estaciones, los meses, o los días son una medida de tiempo, pero también las horas, los minutos y los segundos nos sirven para ordenar el tiempo, para comprender el tiempo. Calendarios, agendas, horarios, relojes y rutinas dejan al tiempo ordenado, han despejado enormemente nuestra percepción de incertidumbre en el tiempo.
La gente lee los periódicos porque nos cuentan cada día dónde, cuándo, cómo, quién y por qué sucedió qué, es decir, los periódicos nos dan respuestas, los compramos para obtener información, respuestas, un descenso de la incertidumbre. Vamos en busca de orden, de respuestas, de soluciones.
La religión no es algo muy distinto, la religión son respuestas, soluciones fáciles, soluciones milenarias. Dios ha sido la respuesta más usada por la humanidad, la solución más recurrente desde el origen de los tiempos. Dice el Génesis, en el capítulo primero:
“En el principio creó Dios los cielos y la tierra.”, “después dijo Dios: Produzca la tierra hierba verde, hierba que dé semilla”, “E hizo Dios las dos grandes lumbreras; la lumbrera mayor para que señorease en el día, y la lumbrera menor para que señorease en la noche; hizo también las estrellas.”, etc. Etc.

Y así queda explicado todo, aquí están las respuestas, la incertidumbre queda resuelta; Dios creó los cielos, los mares, la tierra, las plantas, los peces, las aves, los animales terrestres y finalmente el hombre. La tradición China explica también todos los fenómenos que observamos:

“Cuando murió P’an-Ku, su cabeza <<se convirtió en un pico sagrado, sus ojos pasaron a ser el Sol y la Luna; la grasa, los ríos y los mares; sus cabellos y sus pelos, los árboles y los vegetales>>.33
“En tiempos del Emperador (mítico) Yao, <<el mundo todavía no estaba ordenado, las vastas aguas corrían de manera desordenada, inundaban el mundo>>. Contrariamente a lo que había hecho su padre, que construyó diques para dominar las aguas, Yu<<cavó la tierra e hizo fluir (las aguas) hacia los mares, expulsó las serpientes y los dragones y los confinó en las marismas>>” […]“Yu desempeña las funciones de un demiurgo y un héroe civilizador” 34

Las creencias o los mitos, son sencillas explicaciones para preguntas complejas. Cualquier mitología de las culturas del planeta es una gran cantidad de diferentes respuestas a similares preguntas. Como dice Mircea Eliade, el mito “se refiere siempre a una creación, cuenta cómo algo ha llegado a la existencia o cómo un comportamiento, una institución, una manera de trabajar, se han fundado.”35

“Todo mito de origen narra y justifica una situación nueva –nueva en el sentido de que no estaba desde el principio del Mundo–. Los mitos de origen prologan y completan el mito cosmogónico: cuentan cómo el Mundo ha sido modificado, enriquecido o empobrecido.”36 

La gran mayoría de nuestras acciones son para obtener la información necesaria para resolver las preguntas que establecemos, como lo son las religiones, los mitos, las creencias o la ciencia que dan respuesta a los enigmas que encontramos en nuestra vida, su función es la de dar respuesta, explicar, en definitiva, ordenar nuestra mente, ordenar nuestras percepciones, nuestra memoria, nuestras ideas. Lo mismo sucede pues con los calendarios, las agendas, los horarios o los relojes. Que el sistema nervioso sea una estructura disipativa de incertidumbre implica que este está constantemente guiando al cuerpo para resolver las incertidumbres que establece. Nuestras acciones, nuestra conducta, están dirigidas hacia resolver las incertidumbres que establece el sistema nervioso. El fin, el telos, el objetivo de nuestras acciones es resolver las incertidumbres que establece nuestro sistema perceptivo. La búsqueda de “la felicidad”, de “la paz interior”, de “la tranquilidad”, la búsqueda sin fin.




Conclusión

“Cuando no sabemos la verdad de una cosa, es bueno que haya un error común que fije el espíritu de los hombres, […] porque la enfermedad principal del hombre es la curiosidad inquieta por las cosas que no puede saber, y no le resulta tan perjudicial estar en el error como en esa curiosidad inútil.”
Pascal, “Pensamientos”

[Si H1 es (V) à] El comportamiento humano no es otra cosa que consumir orden en diferentes formas, y a la vez, disipar entropía en sus distintas formas.

El ser humano es una estructura disipativa de entropía. Una estructura, un sistema, un cuerpo que consume energía útil (ATP) e información, y que disipa entropía e incertidumbre. Dado que el sistema nervioso es una estructura disipativa de incertidumbre, todas nuestras acciones son o bien para resolver las incertidumbres establecidas por este o bien para mantener el orden termodinámico de nuestro cuerpo. Vivir consiste en trabajar para mantenerse ordenado. Vivir es consumir energía útil para salvar el orden termodinámico, e información para mantener el equilibrio del sistema nervioso. De hecho, de forma subyacente, estas ideas ya han sido publicadas por Norwich en su reciente artículo sobre la aplicación del principio de Le Chatellier-Braun en la percepción36.
En conclusión: podemos decir que se puede, desde una perspectiva física, comprender la conducta de los seres humanos y predecirla. Siendo pues los seres humanos estructuras físicas que se comportan como estructuras disipativas de entropía. Comprender que el sistema nervioso es una estructura disipativa de entropía de la información, es fundamental para entender nuestra conducta. La vida del ser humano no es otra cosa que la vida de una estructura disipativa de entropía informacional (el sistema nervioso) y la vida de una estructura disipativa de entropía termodinámica (el sistema metabólico). Nuestra vida es la unión de estas dos formas de vida, de estas dos naturalezas, de la vida del alma y de la vida del cuerpo.




Agradecimientos

Le agradezco al universo la suerte que me ha dado de vivir en este mundo, y más en este tiempo y en este lugar, rodeado de un buen entorno social y económico que me ha permitido estudiar y desarrollar mis ideas a mi antojo. Pero el presente texto no hubiera sido posible sin el trabajo de mi padre y del profesor K.H. Norwich, que se pasaron un largo período de tiempo discutiendo las consecuencias más profundas de los recientes descubrimientos hechos por Norwich. De esta forma las ideas llegaron a mí, y así es como empecé a entenderlas, a interpretarlas, y a escribirlas. Sin ellos nada de esto sería posible, y en este sentido se puede decir que ninguna de estas ideas es mía, y puede existir quién ya las haya pensado, dicho o predicado. Pero a fin de cuentas todas ellas han sido mías si se entiende que todas pasaron en algún momento por mi cabeza, y de ella fueron formuladas al papel que hoy leen.

                               Febrero de 2012, Sabadell.
Elià Barrull Prat.


Referencias Bibliográficas


1. Margulis y Sagan, 1996, pág. 23
2. Dyson, F.J. (1999). “Los orígenes de la vida”. (Trad. Ana Grandal). Madrid: Cambridge University Press.
3. Margulis y Sagan, 1996, pág. 41
4. Schrödinger, 1984, pág. 105
5. Ibíd., pág. 105
6. Philip Nelson, 2005, pág. 559
7. Margulis y Sagan, 1996, pág. 26 
8. Schrödinger, 1984, pág. 102
9. Margulis y Sagan, 1996, pág. 22
10. Ibíd., pp. 22-23
11. Ibíd., pág. 67
12. Norwich, 1993, pág. 18
13. Gombrich, 1982, pág. 262
14. Norwich, 1993, pág. 19
15. Ibíd., pág. 13
16. Ibíd., pág. 13
17. Ibíd., pág. 15
18. Nietzsche, 1979, pág. 38
19. Russell, 2010, pág. 70
20. Tolstoi, N. (1982). “¿Qué es el arte?”. Barcelona: Ediciones Mascarón.
21. Jaspers, K. (2011). “El problema de la culpa”. Madrid: Espasa Libros.
22. Russell, B. (1983). “Los problemas de la filosofía”. Barcelona: Editorial Labor.
23. Gevaert, J. (1976). “El problema del hombre. Introducción a la antropología filosófica”. Salamanca: Ediciones Sígueme.
24. Strauss, L. (2006). “El problema de Sòcrates”. Enciclopedia Catalana, SAU.
25. Heidegger, M. (1954). “Kant y el problema de la metafísica”. México: Fondo de cultura económica.
26. Gombrich, 1982, pág. 28
27. Ibíd., pág. 19
28. Popper, K. (1995). “La responsabilidad de vivir”. (Trad. Concha Roldán). Ediciones Paidós Ibérica, S.A.,
29. Kuhn, 2006, pág. 105
30. Hempel, 1976, pág. 108
31. Génesis, Capítulo 1.
32. Eliade, 1979, pág. 28
33. Ibíd., pág. 29
34. Eliade, 1983, pág. 25
35. Ibíd., pág. 28
36. Norwich, K.H., (2010). “Le Chatelier’s principle in sensation and perception: fractal-like enfolding at different scales”. Frontiers in Physiology (Original Research Article)




Bibliografía


- Dostoievsky, F. (1969). “El jugador”. (Trad. José Laín Entralgo). Navarra: Salvat Editores y Alianza Editorial.
- Eliade, M. (1979). “Historia de las creencias y de las ideas religiosas II”, (Trad. J. Valiente Malla). Madrid: Ediciones Cristiandad; (1983). “Mito y Realidad”. (5ª ed.) (Trad. Luis Gil). Barcelona: Editorial Labor.
- Elwood Shannon, C. (1949). “A Mathematical Theory of Communication”. Urbana, Illinois: University of Illinois. (Republished in paperback 1963)
- Gevaert, J. (1976). “El problema del hombre. Introducción a la antropología filosófica”. Salamanca: Ediciones Sígueme.
- G. Hempel, C. (1976). “Filosofia de la Ciencia Natural”. (2ª ed.) (Trad. Alfredo Deaño). Madrid: Alianza Universidad.
- Heidegger, M. (1954). “Kant y el problema de la metafísica”. (Trad. Gred Ibscher Roth).  México: Fondo de
- H. Gombrich, E. (1982). “Arte e ilusión”. (2ª ed.) (Trad. Gabriel Ferrater). Barcelona: Editorial Gustavo Gili
- H. Norwich, K. (1993). “Information, sensation and perception”. California: Academic Press, Inc.
- Jaspers, K. (2010). “El problema de la culpa”. (2ª Impresión) (Trad. Román Gutiérrez Cuartango). Madrid: Espasa Libros.
- J. Dyson, F. (1999). “Los orígenes de la vida”. (Trad. Ana Grandal). Madrid: Cambridge University Press.
- Kuhn, T. (2006). “La estructura de las revoluciones científicas”. (3ª ed.) (Trad. Carlos Solís). México: Fondo de Cultura Económica.
- Margulis, L y Dorion, S. (1996). “¿Qué es la vida?”. (Trad. Ambrosio Garcia Leal). Barcelona: Tusquets Editores.
- Nelson, P. et.al. (2005). “Física Biológica. Energía, Información, vida.”. (Trad. Dr. David Jou Mirabent). Barcelona: Editorial Reverté.
- Nietzsche, F. (1976). “Así hablaba Zaratrustra”. (Trad. Juan Fernandez). Buenos Aires: Ediciones Siglo XX
- P. Cardinali, D. (1992). “Manual de Neurofisiología”. Madrid: Ediciones Díaz de Santos.
- Russell, B. (1983). “Los problemas de la filosofía”. (8ª ed.) (Trad. Agustín Arrieta). Barcelona: Editorial Labor;  (2010). “Por qué no soy cristiano”. (Trad. Josefina Martínez Alinani). España: Diario público.
- R. Popper, K. (1995). “La responsabilidad de vivir”. (Trad. Concha Roldán). Buenos Aires: Ediciones Paidós Ibérica.
- Schrödinger, E. (1984). “Què és la vida?”. (Trad. Núria Roig). Barcelona: Edicions 62.
- Strauss, L. (2006). “El problema de Sòcrates”. Barcelona: Enciclopedia Catalana, SAU.
- Tolstoi, L. (1982). “¿Qué es el arte?”. (Trad. Carlos Velilla). Barcelona: Ediciones Mascarón.
Cultura Económica.