El conformismo español. O sobre como creer que se puede vivir bien con salarios bajos

El panorama vivido en España desde 2007 ha hecho que muchas personas se acostumbren a (mal)vivir con salarios muy bajos y condiciones pésimas. Ya al principio de la crisis se decia «pero los bares están llenos» para negar la evidencia de la dureza del ajuste. Desde entonces la mala situación económica y social se ha hecho crónica. Se repite como un mantra «luego se vienen a veranear aquí», «tan mal no se vive», «en esos países no hay marcha». Al final desde muchos sectores en España se resisten a pensar que las cosas se pueden hacer de manera diferente, y que el país podría ir mucho mejor de lo que va. España tiene muchos retos pendientes. Hay gente ganando en 2023 lo mismo o menos que en 2007. Con el efecto de la inflación durante esos 16 años se han empobrecido mucho. Las condiciones laborales son muy precarias en muchos sectores económicos y en ciertos grupos de edad. Los jóvenes no pueden independizarse en España y se resignan a vivir en habitaciones en pisos compartidos. Cuando alguien se va al extranjero viene siempre la misma cantinela: «pero alli cuesta la cerveza 7 euros», «se gana más pero los gastos son mucho mayores y muchos más los impuestos». Es una especie de «Síndrome de Estocolmo» o resignación española.

Durante muchos años se hizo al español sumiso y vivió en condiciones de «mano dura» en las que la ley del silencio era la ley que imperaba. Cuando uno viaja ya puede comprobar de primera mano como se vive en otros países de Europa y es cuando se deben de precisar muchas cosas. España es un buen país. Lo que es cierto es que forma parte de los países más desarrollados del mundo. Pero esto no debe de hacer un «orgullo patrio» férreo y cerrado. Vienen muchos turistas porque es un destino muy barato respecto a las condiciones económicas de los turistas. Por muy caro que sea el turismo en España le sigue resultando más barato que veranear en su país de origen. La climatología acompaña mucho en España, pero también lo hace en otras zonas del mediterráneo. Vienen para veranear, pero no vienen a quedarse en España. Las condiciones de muchos países de Europa hacen que estos turistas consideraran indecentes las jornadas laborales de España o los salarios. Verían una aberración que alguien tuviera que mantenerse con 426 euros. Existen muchos bares en España pero la economía de los hogares españoles no puede pagar la cerveza o las tapas al precio necesario para que los sueldos de la hostelería sean dignos. Es un quiero y no puedo.

Las jornadas laborales en España son mucho más largas que en la mayoría de países europeos. Se necesitaría que la pausa del almuerzo sea más corta para así poder acabar antes la jornada laboral en España. En los países del norte de Europa el transporte público es más eficiente y más usado que en España. Se encuentra además mucho mejor gestionado. También es un mito que la sanidad española es la mejor del mundo. Durante la crisis del coronavirus ha quedado más que patente que el sistema de atención primaria de España se quedó obsoleto y muy precario después de la crisis económica del 2007, y la crisis del corona solo hizo mostrar esa debilidad. Los médicos se consideraban como héroes solo por la lucha que tenían que hacer con tan pocos medios. Pero algunos españoles asumen esos mantras para hacer pensar que España es el mejor país.

También hay que asumir que España tiene unos permisos de paternidad y maternidad más bajos de la UE, además de la natalidad más baja. Eso es debido al bajo sistema de bienestar que existe desde siempre. La educación española está igualmente muy politizada y con unos recursos muy por debajo de la inversión de la media de la UE. En muchos países europeos se invierte más que en España en educación, e incluso es la educación universitaria gratuita. La justicia es gratuita pero muy lenta. Procesos judiciales que se alargan durante años. Como ejemplo el caso de Aznalcollar que ha salido la sentencia 25 años después del accidente. Justicia además «en papel» y en la que casi nada se encuentra digitalizado.

La gota que colma el vaso es que una de cada cuatro personas en 2023 está en riesgo de pobreza y exclusión social en España. Cuando uno viaja por la UE y visita otros países o vive en ellos se da cuenta de que se puede vivir muy diferente. En los debates electorales no se ofrecieron casi propuestas ni soluciones a estos problemas. Parece que la resignación es lo único que queda….

La cuántica y el misticismo

Es una cuestión sabida por mucha gente que el misticismo ha intentado apropiarse de la cuántica, sin ni siquiera partir de ninguno de sus postulados. Pero siempre me he preguntado el porqué se ha apropiado de la cuántica y no de la relatividad, que en parte es igual o más enigmática que la cuántica. La respuesta que he obtenido por mi parte es que alguna interpretación de la mecánica cuántica requiere de un «observador consciente». En algún momento el físico Eugene Paul Wigner se acercó un poco a estos postulados. Ya fue en 1970 cuando el pensamiento New Age se hace poderoso, sobre todo en EEUU. El físico Fritjof Capra escribe un libro llamado «El tao de la física», y en el se enmarcan las principales ideas de los propulsores de la unión entre mecánica cuántica y misticismo. Empezaron a suponer que todos los fenómenos paranormales podrían ser explicados dentro del marco de la mecánica cuántica. A finales de los años 70 Wigner cambió de opinión y reconoció haberse equivocado cuando pensaba que la conciencia humana jugaba un papel decisivo en la mecánica cuántica. Pero ya era tarde. Sus ideas se habían propagado en la sociedad.

En 1979 Gary Zukav «La danza de los maestros de Wu Li», un libro que él mismo define como «la NUEVA FÍSICA, sin matemáticas ni tecnicismos, para los amantes de la Filosofía y de la Sabiduría Oriental». Aquí viene el gran problema. Se intenta «vulgarizar» (acercar al vulgo) unas ideas que requieren de una comprensión de razonamiento simbólico para poder ser entendidas. Capra era al menos físico pero Zukav sólo era un escritor de espiritualidad. Él decía que iba a conferencias de mecánica cuántica sin saber de eso, pero que conseguía entender todo. Zukav ha vendido muchos libros en todo el mundo. La gente se siente atraída por estas cosas en unos momentos muy necesitados de bienestar emocional. Pero la cuántica no es la solución de eso. La pseudociencia siempre ha hablado de energías y ondas, y eso encaja muy bien la con la mecánica cuántica, y no con la relatividad de Einstein.

Pero debo aclarar varias cosas. Cuando hablamos de mecánica cuántica no hablamos de ondas. Una partícula cuántica no puede ser descrita como partícula clásica material ni como una onda. Es su comportamiento el que se «asemeja» en unos casos al que exhibiría una partícula clásica y en algunos casos al que exhibiría una onda. Unas de las teorías que hoy día más se acercan para unificar la mecánica cuántica con la relatividad son las teorías cuánticas de campos, comúnmente llamadas TCC (QFT en inglés). En estas teorías se supone que existe un campo cuántico por cada interacción existente en la naturaleza y por cada partícula cuántica. Estos campos «vibran» en algunas direcciones del espacio, y esta vibración conlleva la tranmisión de energía. La partícula real serían las vibraciones del campo «on-shell», es decir, las que cumplen las ecuaciones clásicas del movimiento (relatividad)

E^2 - |\vec{p} \,|^2 c^2 = m^2 c^4

En cambio, las vibraciones del campo «off-shell», es decir, aquellas que no lo cumplen serían denominadas partículas virtuales. Los campos cuánticos, a diferencia de los campos clásicos «impregnan» todo el espaciotiempo (el universo). Las partículas cuánticas son cierto tipo de excitaciones del campo cuántico que colapsan. Existiría un campo electrónico para el electrón, un campo protónico para el protón, un campo de Higgs para el bosón de Higgs, etc. Un mismo punto del espacio tendría ahí todos los campos cuánticos que podrían estar oscilando de diferente manera. Si nos centramos en el electrón, no sería una partícula puntual, ni tiene radio cero. El electrón si tiene una masa en reposo, y su espín intrínseco es 1/2, descrito por la estadística de Fermi, es decir, es un fermión. El electrón no tiene radio, pues no es posible definir este concepto, ya que no posee estructura interna. Según las teorías cuánticas de campos las partículas no son fundamentales, y si los propios campos. Las partículas cuánticas derivan de los campos cuánticos, al ser estas unas fluctuaciones localizadas. En este contexto un electrón sería la fluctuación localizada (colapsada) del campo cuántico electrónico que impregna el espaciotiempo. La pregunta de más difícil respuesta es la de qué es un campo cuántico. Tenemos entonces que recurrir sólo a que tenemos una idea intuitiva que es difícil de explicar. Para poder entender lo que es un campo cuántico podemos recurrir a la noción clásica de campo, como por ejemplo el campo electromagnético o el campo gravitatorio. Son zonas del espacio donde algunas magnitudes (escalares o vectoriales) toman diferentes valores.

Si por ejemplo introducimos un imán en el espacio vacío, según la electrodinámica clásica se generan en el espacio unas líneas de campo (es decir de fuerza) que hacen que al introducir una carga puntual se vea sometida a este campo. Igualmente pasa lo mismo si en el espacio vacío aceleramos una carga eléctrica puntual. En ambos casos se crea un campo. El problema es que la descripción que hago aquí es la de un campo clásico. No vibra la partícula cuántica, vibra el campo. Algunas de estas oscilaciones del campo cuántico, como dije, producen que una zona del campo tenga un comportamiento de partícula, siendo difícil definir que es realmente la partícula, incluso si esta tiene una localización exacta.

La pregunta que siempre me he hecho es la relativa a que los místicos se apoderan de la cuántica, pero no de la relatividad. La relatividad implica suponer comportamientos del universo incluso más extraños, como que exista un límite máximo a la velocidad de un objeto (velocidad de la luz en el vacío), o que todos los objetos tienen una velocidad relativa al observador excepto la luz, que en cualquier caso es la misma «c». La relatividad supone en la práctica que el tiempo observado por diferentes observadores es relativo a su velocidad y al sistema de referencia. Igualmente debemos de explicar que una de sus consecuencias es que la masa del objeto no lo es absoluta sino igualmente al sistema de referencia. De ello se deduce que los objetos del universo masivos pueden acercarse a la velocidad de la luz, pero nunca igualarla y menos superarla. Los objetos con masa cero en reposo, al igual que el fotón, si podrán alcanzar esa velocidad, pero nunca superarla.

Por último decir que la relatividad supone la aparición de objetos «indeseables» en el universo, como el caso de las singularidades espaciotemporales. Ya hablé en una entrada de mi blog de esto. Pero si debo de recalcar que la aparición de la relatividad y los agujeros negros lleva asociada igualmente la aparición de ciertas paradojas, como es la paradoja de los gemelos. También se especula con ello sobre la posibilidad de los viajes en el tiempo. Algunas personalidades del campo piensan que si fuera posible viajar al pasado ya lo habría hecho a nuestro tiempo algún viajero del futuro muy lejano.

Para solucionar este problema Stephen Hawking teorizó en 1992 la «Conjetura de Protección de la Cronología». Según esta conjetura los viajes en el tiempo hacia atrás sólo son posibles a escala submicroscópica. Hawking expresó esto siendo consciente de que una «curva cerrada tipo tiempo» no permitiría viajar a un tiempo anterior al de su creación. Las curvas cerradas de tipo tiempo permitirían una violación de la causalidad. Según algunos autores se podría construir una máquina del tiempo de este tipo que utilizara las curvas cerradas de tipo tiempo. Según Hawking sólo se podría viajar asi hasta atrás en el tiempo hasta el momento de la creación de la máquina. Es como si algo impidiera que pudiéramos cambiar la causalidad del universo. Cuando intentáramos viajar más atrás en el tiempo unas fluctuaciones electromagnéticas del vacío destruirían el agujero de gusano (wormhole). Kip S. Thorne ha puesto en duda esto y afirma que podría ser posible que el agujero de gusano no se desintegrara. También se ha propuesto que una configuración de anillos de gusano, llamada «anillo romano» pudiera hacer posible este viaje hacia atrás en el tiempo que rompa la «protección cronológica». No existen aún pruebas definitivas de la existencia de los «agujeros de gusano», que son hasta ahora solución especial de las ecuaciones de campo de Einstein de la Relatividad General.

También sería necesario hablar que Roger Penrose teorizó sobre la «hipótesis de la censura cósmica«. Es una conjetura matemática que aún no ha podido ser probada ni refutada. Esta dice que las singularidades espaciotemporales que provienen de un colapso gravitatorio tienen un horizonte de sucesos, y por tanto son de género espacio. El universo hace que las singularidades espaciotemporales están ocultas por el famoso horizonte de sucesos. Este horizonte de sucesos hace que lo que ocurre en el interior de las singularidades no pueda ser visto desde el exterior en el infinito. Las singularidades no protegidas se llaman singularidades «desnudas«. Estas serían de «género tiempo«. Según la hipótesis de Penrose sólo el Big Bang es una singularidad desnuda (de tipo agujero blanco). En ausencia de singularidades desnudas el universo es determinista. Se podría entonces predecir la evolución del universo conociendo las condiciones en un momento dado, en todos los lugares del universo excepto en las regiones dentro del horizonte de sucesos de las singularidades. El horizonte de sucesos es una región del exterior del agujero negro en la cual la gravedad es tan intensa que los rayos de luz no pueden escapar, y entonces no es observable por un observador exterior lo que ocurre en el interior. Como analogía pensemos la zona de una catarata donde la velocidad del agua es tan intensa que ningún nadador podría escapar. Si un observador exterior se introduce en el horizonte de sucesos no observaría ningún cambio en su observación. Observaría sin problema a un observador situado en el exterior del horizonte de sucesos, pero el que se encuentra fuera dejaría de observar al de dentro. Para el de fuera el de dentro ha desaparecido, ha dejado de existir. Para el dentro él mismo sigue existiendo. Debería de acercarse más al interior del agujero negro para que el campo gravitatorio de haga tan intenso que se produzca la llamada «espaguetización«. Es entonces cuando no se sabe lo que ocurre realmente y se hace infinita la curvatura del espaciotiempo, y por tanto, la densidad de materia. Las actuales leyes que conocemos de la física nos impiden entender lo que ocurre dentro por tanto.

Explicando estas cosas me sorprende que los místicos no se haya apropiado de lo relativista. Pero también entiendo que se requieren de imágenes poco intuitivas de la naturaleza y quizás un conocimiento matemático algo más refinado. Espero os haya gustado la entrada y os animo a hacer algún comentario. Saludos

Sobre la Teoría del Todo

Esta entrada del blog tenía ya pensado realizarla desde hace tiempo. Es acerca de un asunto tanto científico como filosófico (en este caso metafísico). Es sobre la Teoría del Todo (Theory of Everything – ToE). El asunto trata sobre si es posible unificar en una única teoría física todas las interacciones físicas fundamentales. En caso de que sea posible eso, construir una teoría que consiga estos requisitos. Hasta hoy no se ha conseguido lograr, ni siquiera saber si es posible que exista esa teoría. En el siglo XX numerosos científicos lucharon con ahinco para poder determinar esta teoría. Einstein fue unos de los principales científicos que intentó unificar la teoría de la relatividad con mecánica cuántica. No lo consiguió aunque fue su sueño durante toda su vida. El problema para conseguirlo radica en lo diferentes que son los planteamientos de la relatividad y de la mecánica cuántica entre si. Para mí el gran problema es que hoy día seguimos realmente desconociendo como funciona realmente la gravedad. A día de hoy incluso se desconoce si esta fuerza está mediada por un bosón (el hipotético gravitón) o no, como ocurre con todas las fuerzas conocidas.

Lo que se persigue aquí es unificar la gravedad, el electromagnetismo, la fuerza débil y la fuerza fuerte. Hasta hoy hemos conseguido unificar varias de las interacciones fundamentales de la naturaleza. Primero se unificaron el electromagnetismo y la fuerza débil, dando lugar al concepto de fuerza electrodébil. Esto ocurrió en 1968 con la participación de Glashow, Weinberg y Salam. Las fuerzas fuerte y débil también están unificadas dentro del marco del modelo estándar de partículas. La teoría que describe la fuerza fuerte es la cromodinámica cuántica (QCD) y la que describe la unión de la fuerza débil y el electromagnetismo es la electrodinámica cuántica (QED). La unión de ambas supone un tratamiento de las interacciones dentro del modelo estándar. Según el modelo estándar existe la esperanza de que tengamos una Teoría de la Gran Unificación (GTU) que integre todas ellas a altas energías. Entiendo aquí que hay varios problemas para saber si el modelo estándar es una GTU o no. Entre los motivos puedo citar que se rompe la simetría en el modelo electrodébil. El fotón (bosón encargado de trasmitir la fuerza electromagnética) no tiene masa en reposo, mientras que los bosones W y Z (bosones que trasmiten la fuerza débil) tienen unas altas masas en reposo. Este panorama es a «bajas energías». Se cree que a «altas energías», como podría ocurrir en futuros aceleradores de partículas, se puede producir la unificación y se podría observar la simetría entre estos bosones. Aún no tenemos tecnología necesaria para producir estas altas energías. Quizás nunca podamos conseguirlo. El problema es que se supone que la unificación ocurriría a energías próximas a la energía de Planck.

Sería una pérdida de tiempo estar buscando una teoria del todo (ToE = GTU + gravedad) cuando aún no sabemos si el modelo estándar supone realmente que nos encontramos ante una GTU. Hasta ahora todas las GTUs propuestas son «teorías cuánticas de campos» (TCC). Estas teorías tienen un gran problema. A altas energías sus ecuaciones conducen a «infinitos» produciendo las conocidas «divergencias». Aplicando la teoría matemática de series divergentes (estudiadas entre otros por Ramanujan) se ha conseguido «renormalizar» las teorías. Lo que pasa es que no se sabe si esto es sólo un «truco matemático»o si realmente esto se produce en la naturaleza. El gran problema se produce cuando queremos intentar «cuantizar» la gravedad. Las diferencias insalvables entre la Relatividad y la Mecánica Cuántica hacen necesario que se reformule alguna de las dos para poder incluir dentro de su marco a la «gravedad cuántica». Las dos grandes propuestas serían por ahora las «supercuerdas» y la teoría cuántica de bucles. En esta entrada ya hablé de esto: https://filosofiaycuanticaydemas.wordpress.com/2015/10/25/gravedad-cuantica-de-bucles-lqg-vs-teorias-de-cuerdas-st/

El problema de las teorías de cuerdas, resumiendo, es que debemos de suponer que el universo tiene una dimensionalidad superior a la observada. Hablamos que las teorías de cuerdas suponen 1 dimensión temporal y 25 dimensiones espaciales (sólo «observamos» 3 dimensiones espaciales). Al incluir la «supersimetría», reducimos la dimensionalidad a 11 (1 dimensión temporal y 10 dimensiones espaciales). Es un gran problema. Según los teóricos de supercuerdas estas dimensiones están «enrrolladas» entre sí, y no son observadas. Sus efectos podrían hacerse patentes a energías próximas a la de Planck, con lo cual estamos de nuevo en el mismo problema antes planteado. En cambio la Gravedad cuántica de bucles sólo requiere de un universo 4-dimensional como el observado y conocido. Según esta teoría el espaciotiempo estaría cuantizado.

Se busca una teoría del todo (ToE) porque lo descubierto hasta ahora plantea numerosos problemas e incógnitas. Resumo los 2 principales:

  • El modelo estándar tiene numerosos parámetros «ad hoc» que no se sabe explicar de donde vienen. Una teoría del todo debería explicarlos.
  • La teoría del todo debería explicar tanto el Big Bang como todas las singularidades espaciotemporales teorizadas. Ni la teoría de la relatividad general ni la mecánica cuántica pueden explicarlas.

Existen además argumentos filosóficos que argumentan que si que debe de existir una teoría del todo. Entre ellos se pueden destacar algunos argumentos de físicos y matemáticos platónicos, según los cuales la naturaleza se puede describir de manera «simple» y «bella». Este argumento se postula dentro de «la navaja de Ockham» según la cual cuando se proponen diferentes teorías para describir un mismo fenómeno suele ser cierta la solución más simple y más bella. También esto está apoyado en el Principio Antrópico que algún día trataré en una entrada de este blog.

Entre los que postulan que NO debe de existir una teoría del todo nos encontramos los que defienden los teoremas de incompletitud de Gödel. La idea principal del teorema de Gödel se resume en que cualquier teoría matemática suficientemente compleja es o bien inconsistente o incompleta. Con lo cual nunca sería un sistema completo que pueda definir todas sus partes. Penrose es uno de los defensores de este argumento.

Por último debo de citar el Gran Problema. Una teoría del todo ha de incluir la explicación de la consciencia humana. Pero es que ni sabemos que es realmente esta consciencia, ni podemos tampoco explicar como surge una mente del cerebro. El problema de la emergencia de la consciencia es difícil de solucionar. El gran debate siempre es si se debe de modificar la teoría de la relatividad o la mecánica cuántica es incompleta. La única aproximación a unificar ambas teorías la hicieron Hawking y Bekenstein cuando introdujeron la famosa fórmula de la temperatura de un agujero negro. Esta es la que yace en la tumba de Hawking en la Abadía de Westminster.

Espero que os haya gustado esta entrada y espero vuestros comentarios.

Arte, filosofía y ciencia: sobre la búsqueda de la verdad

Me adentro en este post con la difícil misión de hablar sobre unos términos un poco difusos y que no son fáciles de definir. Hablaré sobre la búsqueda de la verdad, y me centraré en cual de las tres disciplinas se interesa en esta búsqueda. El concepto de verdad aparece ya en los albores de la humanidad. La primera disciplina interesada en ella es la filosofía. Entiéndase la verdad como la coincidencia entre las proposiciones expresadas y la realidad objetiva exterior. Ahora pues cabe preguntarse si la verdad existe o no (entiéndase esto como verdad absoluta). Evidentemente la búsqueda de la verdad se centraría en cuestiones ontológicas, y esto solo puede hacerse a mi entender desde los propios sistemas usados por la filosofía. A mi modo de entender la ciencia se basa en la búsqueda de una verdad más relativa, de topología epistemológica, limitada por la naturaleza humana, o por las propias características de las leyes fundamentales del universo. Como limitante expreso podría citar la propia formulación de la mecánica cuántica y de las teorías de la relatividad, tanto en su formulación especial como general. La filosofía y la ciencia convergen en una disciplina llamada «filosofía de la ciencia», que es la parte que diría yo aborda ciertas cuestiones metafísicas de la ciencia, como por ejemplo, algunas cuestiones cosmológicas esenciales, como el Big Bang, o si era necesario que hubiera un Universo antes que la Nada (entendida la Nada como la ausencia total de algo y no el vacío cuántico).

A raíz de algún post anterior, cabría igualmente si es cierto que existe una realidad objetiva independiente o no. Es un tema de bastante complejidad y alcance que no me puedo ocupar ahora de él. Pero tendríamos que ver también la cuestión de «qué es lo que existe». Desde la reformulación de las teorías cuánticas de campos (TCC) sabemos que las partículas elementales no existen en el universo, sino unos campos cuánticos que vibran en diferentes modos de vibración, y algunas de esas vibraciones «colapsan» en un modo que podría llamarse partícula, siempre y cuando se encuentre «on shell». En caso contrario, que la partícula no se encuentre cumpliendo las ecuaciones relativistas, estaría «off shell» y podríamos hablar de partículas virtuales. Las partículas virtuales tendrían solo una existencia temporal muy limitada. Pero en ninguno de los casos tendría la partícula una existencia real. Lo que serían reales serían los campos cuánticos asociados a cada partícula. También habría campos que transportarian a lo largo del espaciotiempo la energía. Así pues la existencia de una realidad objetiva se complica. Quizás podríamos hablar de una realidad emergente, la cual no tiene una configuración ontológica, sino epistemológica para el ser humano.

Lo importante de la ciencia no es la búsqueda de la verdad, sino una adecuación de la verdad a lo observado y a la vida humana, siempre dentro de una versión utilitarista, pero que igualmente no le resta valor. La ciencia no busca entonces la verdad absoluta, sino que se centra en intentar explicar mecanismos de funcionamiento del universo, siendo consciente de que existen aspectos de la realidad alejados de poder ser conocidos. Sabemos que existe una parte del universo que NO es observable, pues la expansión acelerada del universo al poco del Big Bang fue tan brutal (inflación) que se expandió el universo más rápido de lo que podían viajar los fotones que fueron emitidos después del periodo de recombinación (aproximadamente 300000 años después del Big Bang). Tampoco sabemos si existen más universos aparte del nuestro, y en este caso no gozarían de conexión causal y quedarían fuera de nuestro objeto de alcance.

Por otra parte existe el arte. El arte no busca ningún tipo de verdad. No existe mejor ni peor arte. Las obras no son bonitas «per se», sino que evocan una sensación en la persona que disfruta de la obra. El insight es el que se encarga de decodificar el arte y lo hace subjetivo para las personas. El arte no tiene un valor propio, sino un valor relativo dentro de cada uno de nosotros, imprimando unas experiencias vitales diferentes. Deduzco entonces el arte como una disciplina relativa. El arte se centra en lo bello. Lo bello depende también de la característica intrínseca y de la evocación interior. No podemos hablar de algo bello en lo «absoluto» sino de una belleza creada desde la vivencia interior. Lo artístico estaría relacionado con la mente, lo psicodinámico. Uno de los momentos históricos más importantes para el arte fue la coincidencia de las teorías del inconsciente, lo onírico y lo psicodinámico con la aparición del surrealismo. Se produce una ruptura entre lo externo y objetivo y el arte representado. Se busco lo bello, y no lo interior, pero siempre representando imágenes mentales que se alejan de lo inamovible. Esto no quiere decir que pueda ser cualquier cosa arte, sino que el arte puede evocar diferentes sensaciones a quien lo «siente». Además no existen obras que puedan ser consideradas las mejores con carácter absoluto.

El arte expresa un movimiento. Vemos una obra y nos evoca una cosa, pero otro día nos evoca una cosa diferente. Leemos un libro y la sensación producida cambia dependiendo de la emoción despertada. Somos diferentes y el arte evoca sensaciones diferentes. La pintura es la cristalización de la literatura, y la música es la literatura en movimiento.

La interrelación que existe entre arte, ciencia y filosofía es el disfrute que experimenta el alma cuando nos aproximamos a cada una de estas disciplinas. El problema es que no encuentro delimitación clara entre todas ellas, y esas fronteras borrosas y difuminadas me hacen cada vez más pensar que son conceptos que dependen de cada experiencia humana. Este disfrute hace que algunas personas se esfuercen por desarrollar alguna de estas disciplinas por separado, mientras que el polímata entiende que todas ellas son disciplinas del intelecto. Entendemos el lenguaje de manera diferente. Es la cuestión de los «qualia» que quizás me dedique a explicar en el siguiente post.

Todas estas disciplinas las consideramos creación humana, y como tal deben de ser consideradas dentro de diferentes marcos. La ciencia se marca por un discurso objetivo y matemático, siempre dentro del método científico. La filosofía se rige principalmente por la lógica formal, aunque su parte metafísica queda un poco al margen de la rigurosidad y entra más en el pensamiento abstracto. Por otro lado el arte no sigue la lógica formal ni el método científico. Espero haber sido claro en mis descripciones

¿Es posible el realismo científico en mecánica cuántica? Ontología y epistemología (II)

He recibido algunos comentarios de diferentes personas acerca de mi último post. Me han agradado mucho, y por ello quisiera ampliar este post, siguiendo las recomendaciones propuestas. Entre las propuestas se me ha sugerido hablar de la interpretación de múltiples mundos de Everett y la ecuación de ondas relativista de Dirac.

Al final del post yo hablaba de: «Algunos científicos buscan todavía una solución alternativa. Renunciar al principio de localidad, sin renunciar al realismo. Serían necesarias propuestos un tanto extrañas para explicar esta posibilidad». Tenía en mente, por ejemplo, la «teoría de los múltiples mundos» formulada por Hugh Everett III. Según esta teoría no es necesario que se produzca el colapso de la función de onda. Es una interpretación que se acoge al realismo científico, pero que muestra una realidad bastante desconcertante. Según la interpretación de Everett los estados del sistema cuántico en superposición existen y se encuentran en «mundos parelelos«. Cada posible estado existiría en un «mundo» diferente. El «observador» tendría copias de su yo en diferentes mundos y no sería consciente de esto. Estos modos de existencia múltiple tampoco tendrían forma de interaccionar entre sí. El gato no podría estar en estado muerto y en estado vivo a la vez en el mismo mundo. Cada estado existiría en un mundo diferente. La idea de Everett asume que en ciertos momentos el universo se «divide«dando lugar a ramificaciones.

Lo que esta interpretación supone es que tenemos una función de onda del universo en su conjunto. Dicha función evoluciona siguiendo la ecuación de Schrödinger. Tendríamos así una descripción física del mundo a nivel global; a nivel local tendríamos los Muchos Mundos ya mencionados, entre los cuales en principio no puede haber interacción. Así, para describir completamente la realidad no basta con la función de onda; dicha función se descompondría en vectores ortogonales, identificándose cada uno de ellos con un mundo y habiendo en cada uno de ellos un registro determinado de toda medida.

La diferencia principal entre la interpretación de los Muchos Mundos y la de Copenhague queda muy bien ilustrada en un experimento mental conocido como el suicidio cuántico, propuesto por Max Tegmark en 1998. Dicho experimento funciona de manera muy similar al del gato de Schrödinger. La diferencia es que aquí el observador asume el papel del gato. El experimento es de la siguiente manera: supongamos que tenemos una pistola con la que nos apuntamos a la cabeza, tal que dicha pistola está conectada a una máquina que mide la rotación de una partícula subatómica. Cada vez que apretamos el gatillo, el arma sólo se dispara si la partícula rota en sentido horario (la otra opción es que la partícula gire en sentido contrario, en cuyo caso la pistola no se dispara). La interpretación de Copenhague, que entiende la ecuación de Schrödinger en sentido probabilístico, entenderá que cada vez que disparamos tenemos un 50% de probabilidades de sobrevivir, y un 50% de hacer el suicidio efectivo (se colapsa una opción o bien la otra). Acabaríamos siempre al final muriendo.

En la interpretación de los Muchos Mundos sin embargo, siempre sobreviviríamos, pues cada vez que disparamos el mundo se divide en dos y siempre hay uno de los dos mundos en el que sobrevivimos. Estrictamente hablando, podríamos decir que también morimos siempre, pero puesto que en los mundos en los que morimos para nosotros nuestra historia se acaba, nuestra percepción será siempre la de haber sobrevivido. Es decir, si la interpretación de los Muchos Mundos es válida, el sujeto en este experimento podría apretar el gatillo infinitas veces, nunca moriría. Esto es lo que se conoce como inmortalidad cuántica, aunque no hemos de olvidar que se trata tan sólo de un experimento mental. Si tratáramos de hacer el experimento de manera efectiva y la interpretación de los Muchos Mundos fuera cierta, efectivamente no moriríamos nunca a causa de nuestros propios disparos. Sin embargo, la muerte natural no es un acontecimiento cuántico como lo es apretar el gatillo conectado a la máquina medidora de rotación. Se trata más bien de un proceso gradual, en el que no hay dos posibilidades que se sigan de una superposición, por lo que antes o después, acabaríamos muriéndonos naturalmente igual que lo hacemos en el mundo clásico.

Una de las cosas más criticadas de la interpretación de Everett es que no es una interpretación falsable. Sin tener que recurrir a la interpretación de «muchos mundos» existe una versión algo más simplificada denominada de «muchas mentes» propuesta por Wallace. A cada observador le corresponde un conjunto de estados mentales en superposición en un único mundo, cada uno de los cuales estaría asociado a una experiencia definida. Cada observador tendría una base de consciencia. El problema surgiría cuando intentamos explicar que si cada observador tiene varias mentes que se corresponden con percepciones distintas de la realidad, ¿cómo encaja esto con las percepciones del resto de observadores? ¿cómo no nos hemos dado cuenta de que nuestro enfoque del mundo no coincide con los enfoques ajenos? Esto se intenta responder mediante el fenómeno de entrelazamiento.

Otro aspecto que quería comentar en esta ampliación del anterior post es el tema de la ecuación de Dirac. Definí en el anterior lo que es la ecuación de Schrödinger. Es la ecuación que define la evolución de un sistema cuántico mientras no se realiza ninguna medición. Es una ecuación determinista. Con ella Dirac intentó complementar la teoría cuántica introduciendo fenómenos relativistas, es decir, cuando las partículas se mueven a velocidades cercanas a las de la luz. Para ello formuló la ecuación de Dirac en 1928. Es una ecuación de ondas, pero con carácter relativista. Describe las partículas con masa que tienen spin 1/2 (como es el caso del electrón) y es consistente con todos los aspectos de la mecánica cuántica y de la realitividad especial. Esta ecuación explica de forma natural y clara lo que es el spin y anticipó el concepto de antiparticula. Lo que aún no se ha conseguido es integrar la gravedad con la mecánica cuántica.

¿Es posible el realismo científico en mecánica cuántica? Ontología y epistemología (I)

Desde el nacimiento de la ciencia se ha planteado en numerosas ocasiones la existencia o no de una realidad objetiva subyacente a nuestro universo. El realismo científico es la visión filosófica de que el universo puede ser descrito por la ciencia y que es real independientemente de cómo se pueda interpretar. Sostiene la idea de que existe una realidad objetiva, y que el objetivo primordial de la ciencia es describir y explicar los hechos de la realidad. Durante el periodo positivista de la ciencia se llegó a la conclusión sin fisuras de que existía esa realidad. Ya en el siglo XIX se había llegado a la conclusión fundamental de la existencia del átomo, y empezó a abrirse una discusión más profunda (diría yo metafísica) sobre la realidad última de nuestro universo. La aparición de la teoría cuántica volvió a abrir el debate de si la ciencia debía o no contener una visión filosófica en sus planteamientos. La física empezó a albergar en su interior una inspiración metafísica que alcanzó su máximo punto entre los años 1925 y 1935, cuando Einstein y Bohr tuvieron unas polémicas discusiones sobre temas totalmente ontológicos. Entendemos la ontología como la rama de la metafísica que aborda las cuestiones del ser, de la «existencia real» de las cosas. Cuando empezó a conocerse de la existencia de los átomos, estos eran realidades incuestionables, a pesar de no haber sido nunca observados. Lo que empezó a cuestionarse con la aparición de la nueva teoría cuántica es la realidad a nivel microfísico. Empezó a tratarse el problema del significado de «existencia real» de las cosas.

Cuando aparece la mecánica cuántica lo que empezó a haber (y sigue habiéndolo hoy en día) es un desacuerdo de la ciencia sobre la interpretación o significado de la teoría, pero nunca ha habido desacuerdo en su formulación matemática. Todas las ecuaciones de la cuántica son aceptadas sin fisura, pero se discrepa acerca de la estructura física que subyace a esa teorización matemática. El problema radica en la ontología. En mecánica cuántica los valores de los estados observables (posición, momento, spin…) de un sistema cuántico (ya sea este un electrón o fotón, por ejemplo) vienen representados por la función de onda, que se designa con la letra griega Ψ. Esta función de onda puede tomar valores complejos, en los cuales aparece el número imaginario (la raíz cuadrada de -1). Como sabemos la evolución del sistema cuántico siempre es descrita de manera determinista por la ecuación de Schrödinger formulada en 1926. Esta escuación es llamada «ecuación de onda» porque en su estructura formal vienen recogidos aspectos ondulatorios manifestados por los sistemas cuánticos (existiendo una analogía con las ondas en la física clásica). Schrödinger pensó al principio que la función de onda se asociaba a un proceso vibratorio interior en el átomo. Pero pronto se vio que esto no podía ocurrir así. Se dificultaba creer que Ψ era una onda real, porque en ella aparecían números imaginarios. Incluso cuando aparecen varias partículas, la función de onda es función en un espacio de más de 3 dimensiones. Aparece la duda de que es realmente la función de onda Ψ. El enigma central es que Ψ muestra su doble aspecto, ondulatorio y corpuscular.

Durante la historia ha habido diferentes propuestas acerca de la interpretación de la función de onda Ψ. Resumo las principales:

  1. Representa algo real, ciertas propiedades objetivas de la naturaleza.
  2. No representa nada real. Es un instrumento matemático para calcular las probabilidades de obtener ciertos resultados en mediciones efectuadas sobre sistemas microfísicos individuales.
  3. Describe nuestro estado de conocimiento del sistema microfísico.
  4. No representa una realidad actual, sino más bien un conjunto de potencialidades que podrían ser actualizadas de acuerdo con las condiciones experimentales.
  5. Describe el comportamiento de un conjunto de sistemas, nunca de un único sistema.

La primera interpretación ha sido defendida por Einstein, de Broglie, Schrödinger, Bohm, Bell, etc. Afirma la existencia de una realidad objetiva (realismo científico). La segunda forma parte de la llamada «Interpretación de Copenhague», que no deja de ser un conjunto de interpretaciones similares. Fue defendida por Bohr y es la más aceptada actualmente. La tercera es una variante de esta segunda interpretación y fue defendida por Born, Heisenberg e incluso Schrödinger. La cuarta fue formulada por Heisenberg al final de sus días. La quinta constituye la «interpretación estadística», defendida por Einstein, Popper, Landé, …

Aparece más adelante una dificultad conceptual que agrava el problema de la existencia de una realidad objetiva. Este problema sigue sin respuesta ni consenso en la actualidad y es el famoso «problema de la medida» o «colapso de la función de onda«. Cuando no se realice ninguna medición sobre el sistema microfísico, la evolución del sistema es determinista según la ecuación de onda de Schrödinger. Según esta ecuación el sistema evoluciona como una superposición de todos los estados posibles del sistema. En el caso del spin del electrón, que solo puede tomar los valores +1/2 y -1/2, antes de ser éste medido, el sistema muestra una superposición (como una mezcla) de los dos estados posibles. Cuando se efectúa un medición el resultado que se obtiene es siempre uno sólo de los dos estados posibles y no una superposición de estados. Tal y como sugirió en su día von Neumann se produce en el acto de medir un cambio discontinuo de la función de onda que no está regido por la ecuación de Schrödinger, y que adquiere un carácter indeterminista. La duda y disputa de los teóricos es que ocurre antes de medir. Si existe realmente un electrón con spin +1/2 y -1/2 a la vez. Si no existe ningún spin antes de medir y aparece +1/2 o -1/2 sólo al medir (con 50% de probabilidad). Si solo existe una realidad matemática no objetiva a ese nivel fundamental. Todo un enigma. Ese cambio instantáneo se llama «colapso de la función de onda«. No se sabe nada de como y por qué ocurre ese extraño salto. Se teoriza sobre si es un cambio que solo afecta a nuestro conocimiento del sistema o de si es una transformación física que la medición introduce de algún modo en el sistema medido. Es como si el proceso de medición altera la realidad objetiva.

Según la segunda interpretación que expuse, la de Copenhague, la función de onda no representa nada real. No es una doctrina única, sino que es un conjunto de puntos de vista que guardan cierta relación. Fue defendida principalmente por Bohr y Heisenberg, que no guardaron las mismas tesis sobre los sistemas cuánticos fundamentales. Heisenberg defendia una visión más instrumentalista de la física. Aún así, ambos variaron sus posiciones a lo largo de su vida. Para complicar la situación von Neumann, que era otro de los promotores de esta interpretación, tuvo unas ideas bastante diferentes a las de estos dos últimos, y dio un papel principal a la conciencia en el acto de medición. Algo que Bohr nunca hizo, y que incluso se pronunció abiertamente frente a esta idea. Dentro de esta interpretación podemos encontrar ideas algo diferentes, e incluso contradictorias. Aparecían cuestiones epistemológicas (sobre lo que realmente se puede conocer de la realidad) y ontológicas (sobre la existencia objetiva de la realidad). ‘

Aún así esta interpretación se basa en la idea principal de Bohr de que siguen siendo necesarios los conceptos clásicos para describir el mundo cuando queremos estudiar los sistemas cuánticos tal y como nuestros instrumentos los detectan y miden, no siendo aplicables a los sistemas cuánticos en si mismos. Esto es asi ya que para determinadas características que se obtienen en la medición sobre sistemas cuánticos, sólo se puede decir que adquieren «realidad» en el conjunto del dispositivo experimental. No debemos confundir esto con la falsa creencia de que los objetos no tienen color, sabor, olor, etc, si nadie los percibe. Lo que Bohr sostiene es que algunas de las propiedades que atribuimos a las cosas hacen referencia inevitable a un observador con un sistema sensorial determinado. Aquí es cuando aparece lo más «místico» y «metafísico». No hay nada objetivo, definido e independiente tras determinados atributos de los sistemas microfísicos cuando éstos no están siendo observados. Lo que no son «objetivos» y sin existencia real son algunos atributos del sistema microfísico, no el sistema en sí. Para estas características que cambian en diferentes observaciones su «ser» consiste en «ser percibido», o como diría Heisenberg, su «suceder» está restringido a su observación. Estas características no las tendría el sistema en si mismo, sino que surgen en el contexto experimental. El fenómeno observado no podría ser descrito como el comportamiento del objeto en si mismo. Es resultado de la interacción dentro de la situación experimental, en la que se incluye el instrumento de observación.

Según teoriza Bohr la teoría cuántica no versa directamente sobre la realidad, sino sobre los fenómenos y sobre nuestro conocimiento del sistema. Aquí se huye del realismo científico y se abraza una visión más epistemológica e instrumentalista. Heisenberg llegaría a la conclusión más metafísica dentro de esta interpretación. Según su postura las leyes naturales formuladas dentro de la teoría cuántica no se refieren a las partículas elementales en sí, sino a nuestro conocimiento sobre dichas partículas. Aún las diferencias entre Bohr, Heisenberg y von Neumann, ninguno de ellos negó la existencia de una realidad independiente del sujeto cognoscente, incluso tampoco a nivel cuántico. Según ellos las partículas elementales tenían existencia propia. Lo que se subraya es el carácter instrumentalista de esta interpretación. Según esta visión instrumentalista si la teoría cuántica sólo es útil para conocer ciertos datos empíricos, entonces no podremos extraer información sobre la estructura objetiva de la realidad. El concepto de realidad independiente debe de ser abandonado. Heisenberg, asustado con esta idea tuvo que defender diferenes posturas acerca de esto a lo largo de su vida.

Existen dos ingredientes básicos de la teoría cuántica que nos hacen alejarnos del realismo científico: la interpretación probabilistica de la función de onda y el principio de complementariedad de Bohr. En 1926 Born hizo una crítica a la interpretación realista de Schrödinger que había dado de Ψ y ofreció una interpretación que se consideró como la interpretación ortodoxa. Born pensó que debido a que Ψ era un espacio de múltiples dimensiones (incluso infinitas) y que tenía valor complejo (uso de números complejos) era imposible que tuviera una «interpretación real», tal y como pretendía Schrödinger. Lo que si era real es el cuadrado del valor absoluto de Ψ, que será siempre un número real no negativo. Born defendía que ese cuadrado representaba la posibilidad de encontrar esa partícula en un volumen determinado infinitesimal. Born siguió sosteniendo que las partículas cuánticas, al igual que las clásicas, tenían una posición y momento lineal definidos en cada instante, y reducia los aspectos ondulatorios a una parte de nuestro conocimiento del sistema. Por ello esa probabilidad real sería el resultado de un proceso de medida y no una realidad objetiva. Se trata de la probabilidad de que un observador encuentre la partícula allí si se efectúa una medición, no la probabilidad de que esté allí sin más. Con esto podría darse por solucionado el problema del colapso de la función de onda. No habría ningún colapso de ninguna onda real provocado por nuestra medición, sino un cambio en nuestro conocimiento del estado del sistema.

Sin embargo, el principio de indeterminación de Heisenberg descartó por completo esta idea de Born de la imagen corpuscular. Ya en el congreso de Solvay de 1927 la mayor parte de personas presentes admitieron que la función de onda era una expresión de nuestro estado de conocimiento del sistema y no la representación del objeto en si mismo. Al proponerse los «experimentos de doble rendija» y comprobar que existían fenómenos ondulatorios en éstos, se puso de nuevo en duda si realmente «la función de onda Ψ tenía que ser algo real o era meramente una representación de nuestro conocimiento del sistema».

En lo que se refiere al principio de complementaridad se habla de que es posible determinar el comportamiento de un sistema cuántico atendiendo a su aspecto corpuscular, o bien a su aspecto ondulatorio, puesto que un sistema cuántico muestra ambos aspectos, pero no puede hacerse simultáneamente en un experimento. Bohr llamaria a estas alternativas «descripciones complementarias» del sistema. Según Bohr estas descripciones no lo serían del sistema observado, sino del conjunto del sistema observado y el instrumento de observación. Las descripciones clásicas en términos de ondas y en términos de partículas no son aplicables a una realidad exterior, sino al modo en que la realidad se nos aparece en condiciones experimentales.

Ya en 1927 Heisenberg formula el principio de indeterminación. Es una de las ecuaciones fundamentales de la mecánica cuántica, y se deriva de otras ecuaciones fundamentales de esta teoría. Según este principio existen una magnitudes canónicamente conjugadas como son la posición y la velocidad, o la energía y el tiempo. No podrían ser medidas simultáneamente estas magnitudes conjugadas, por ejemplo la posición y la momento lineal. Cuanta más precisión se consiga en el valor de una de ellas, más indeterminación existe en el conocimiento del valor de su correspondiente conjugada. Al principio Heisenberg pensaba que esta limitación en el conocimiento se producía por una limitación de tipo práctico. Se producía según él una perturbación inevitable en el acto de observación que producen los instrumentos de medida sobre el sistema microfísico, y esa perturbación impediría aumentar la precisión llegado a un límite. Según esta explicación el sistema microfísico posee antes de la observación unos valores determinados y esos valores son levemente modificados por la acción de nuestros instrumentos en el acto de la observación, no llegando nunca a poder conocer el valor exacto. La indeterminación no sería una característica del sistema, sino una incapacidad de poder conocerlo en exactitud. Pero Heisenberg tuvo que abandonar esta idea, y llegó a ponerse de acuerdo con Bohr en que la indeterminación se basa en una tesis propuesta por Bohr. Esta consiste en que el sistema microfísico no posee ciertos atributos de forma definida. Sólo después de una medición (dentro de una situación experimental) el sistema adquiere una valor definido para esos atributos. Dicho de un modo más directo, el electrón no tiene una posición o una velocidad concretos en si mismo. Cuando alguien mide su posición o velocidad, el mismo proceso de medición hace que adquiera una posición o velocidad determinadas, pero si conseguimos medir su posición con mucha exactitud la situación experimental excluye hacer lo mismo con la velocidad (o al contrario), ya que en cada caso necesitariamos diferentes interacciones con el microsistema.

Si la interpretación «perturbacionista» fuese correcta entonces si que habría que pensar (como si que hizo Einstein) que la teoría cuántica no estaba completa. Para Bohr los conceptos que utiliza la física no se refieren a una realidad exterior objetiva, sino que se refiere al resultado de la conjunción de dos sistemas físicos dependientes entre sí: el instrumento de medida y el sistema observado. Finalmente para Heisenberg, Bohr y Born la función de onda Ψ sería un procedimiento de cálculo que delimita la probabilidad de obtener ciertos resultados experimentales, quedando asumido que no existe realidad objetiva ni determinismo científico. Estas ideas aterraban a Einstein.

Este escenario se complica sobre manera cuando von Neumann introduce un ingrediente nuevo en la teoría cuántica: el papel de la conciencia en el acto de medición. Intentó probar que Einstein se equivocaba cuando afirmaba que la teoría cuántica era incompleta, y que se debían de introducir unas variables ocultas para poder superar los problemas que introdujo el entrelazamiento cuántico. Esto lo denominó Einstein «acción fantasmal a distancia» (spooky action at a distance). Más adelante von Neumann intentó desacreditar esta posición de Einstein, demostrando que no se podia completar la teoría mediante variables ocultas con el fin de convertirla en una teoría determinista. Según von Neumann no se podía establecer una frontera entre el objeto observado y el instrumento de medida, con lo cual, a diferencia de lo que Bohr pensaba, el instrumento también puede ser tratado como un sistema cuántico representado por la función de onda. Esto significa que no es en el instrumento donde la función de onda Ψ colapsa. Según von Neumann es la conciencia del observador la que en el momento de la medición hace que el sistema colapse, pasando de estar en una superposición de estados a estar en uno solo de esos estados. La conciencia del observador es el «lugar» donde colapsa la función de onda.

Ya no es sólo que la mecánica cuántica no se refiera a una realidad exterior objetiva, ni sólo a lo fenoménico, ni a la totalidad del sistema observado-observador, sino que todo lo que cualquier persona ha de llamar «realidad» es determinado por la conciencia humana.

Para intentar de nuevo acercarse al realismo, Einstein y sus dos asistentes Podolsky y Rosen publicaron el artículo famoso acerca del «experimento de Einstein-Podolski- Rosen (conocido como experimento EPR). No entraré a explicarlo, pero suponia que la teoría cuántica era incompleta debido a un experimento mental propuesto, y debía de considerarse que el universo tenía propiedades fijadas, y entonces debía de haber unas variables locales ocultas que si que podían explicar, por ejemplo, el entrelazamiento cuántico. Este experimento se basa entre una situación experimental en dos partículas cuánticas entrelazadas.

Bohr y Heisenberg entendieron que Einstein no quería desprenderse de la postura filosófica del realismo científico, y lo acusaron de volverse demasiado conservador en sus ideas intelectuales, y de no querer abrir su mente a la nueva teoría cuántica. Más adelante, los experimentos de Bell y los experimentos de Aspect, mostraron que el realismo de Einstein se hacia insostenible y que la interpretación de Copenhague salía reforzada. Aún asi las esperanzas del realismo científico siguen en marcha. Hoy día muchos científicos siguen considerándose «realistas».

Para explicar el experimento mental de EPR, proponen la siguiente explicación. Cuando no realizamos ninguna medición sobre el sistema este evoluciona según la ecuación de Schrödinger, y no toma valores definidos para los atributos. Se aplica al sistema como un todo, aún cuando sus partes, las dos partículas del experimento EPR se encuentren muy alejadas y hayan dejado de interactuar. Sólo cuando se mide sobre una de las partículas adquiere «realidad» el valor medido sobre una de ellas, pero al ser el sistema de ambas partículas un todo, el resultado de una partícula es algo que «afecta» a ese todo. Se correlaciona el valor de lo medido en una partícula con el valor de la otra. La actualización de las potencialidades provocadas cuando se mide sobre una partícula provocan la actualización sobre las potencialidades en la segunda partícula. No existe una influencia instantánea que se «transmite» entre las dos partículas (cosa que podría incluso violar la teoría de la relatividad) sino que se considera el sistema de dos partículas como un «todo», es decir, un sistema «no-separable».

Algunos científicos buscan todavía una solución alternativa. Renunciar al principio de localidad, sin renunciar al realismo. Serían necesarias propuestos un tanto extrañas para explicar esta posibilidad.

Todo está en Internet

Frases como «Todo está en Internet» y «la escuela mata la creatividad» (Ken Robinson) son repetidas continuamente en todos los ambientes educativos. En esta entrada intentaré desgranar varios aspectos que muestran mi total oposición a esto, incluso señalando que pueden esconder «ideas» muy perjudiciales para la educación y la sociedad en general. Con respecto a la frase «todo está en internet» es cierta, pues muchas cosas podemos encontrarlas ahí en Internet, pero no es cierto que entonces no se tenga que enseñar conocimientos y conceptos en las escuelas y solo enseñar competencias. Para desarrollar las capacidades se necesita la base de matemáticas, razonamiento, conocimiento del lenguaje, gramática, etc. Si no se tiene eso no se puede llegar a alcanzar profundidad en el conocimiento.

Entonces se debe de volver, en cierto sentido, a las lecciones magistrales acompañadas de un ambiente de cambio y adaptadas a las sociedades que vivimos, introduciendo el factor tecnológico en las lecciones. Hoy día se puede apreciar carencia de conocimientos básicos en alumnos. En internet está todo, pero se requiere de ciertas capacidades entrenadas y de conocimientos básicos para poder entender lo que se encuentra en Internet. Niños que no están acostumbrados a leer, y no tienen un conocimiento del lenguaje, no tendrán la suficiente capacidad de comprensión lectora para poder entender los textos de internet. Cuando son textos científicos necesitarán de los conocimientos básicos lógico-matemáticos para poder enfrentarse a estos textos. Eso de que entrenando 10.000 horas se domina una disciplina es una auténtica farsa. Por mucho que se entrene uno en una disciplina necesitará de un «maestro» que posea suficientes conocimientos y el acompañe el el proceso del aprendizaje.

Sin base no existe profundidad de conocimiento, aunque esté todo en Internet. Por otro lado nos encontramos con la famosa frase de la creatividad, en la que además se afirma que «todos los niños son buenos en algo»o que «todos tienen un alto nivel de creatividad». Solo con creatividad no han conseguido las grandes mentes de la humanidad tener sus descubrimientos. Es falso, y los gurús nos intentan meter eso en la mente. Einstein tuvo que formarse mucho en matemáticas y asesorarse por grandes científicos antes de poder formular la teoria de la relatividad. Además la creatividad nos viene dada de nacimiento, al igual que la capacidad intelectual.

La creatividad es una condición «necesaria pero no suficiente» para el avance social. La creatividad «emerge» del conocimiento y de la capacidad intelectual. Decían antiguamente que «Quod natura non dat, Salmantica non præstat» (Lo que la naturaleza no da, Salamanca no lo otorga). La creatividad es correlativa a la capacidad intelectual (innata), y aunque trabajable en cierto sentido, no es algo que todos los niños tengan y la escuela la mate.

El postmodernismo imperante pretende alejarnos de los «grandes relatos» y sumirnos en la más mortífera depresión intelectual. Hay que volver a los grandes relatos. Eso es lo que buscó y ocurrió en el Renacimiento y en la Ilustración. Hay que volver a un saber universal, basado en la mezcla de diferentes disciplinas, y con predominancia del uso del método científico y de disciplinas como la filosofía, el arte o la música. Si hay saberes que deben de ser conocidos y explicados, y sobre los cuales deben de sustentarse las sociedad modernas. Las sociedades deben ser democráticas, y siempre basadas en los grandes avances ocurridos en la humanidad, pues esto nos hará seguir prosperando como sociedad.

El postmodernismo es el que favorece que existan tantas personas hoy día que cuestionan los avances científicos, y que se ponen de lado de las pseudociencias y de las «fake news». Todo está en internet, pero lo que no se tiene es la capacidad ni el conocimiento suficiente para poder separar la paja del grano, lo importante de lo inane.

En condiciones sociales tan complejas como hoy día es cuando se debe volver al humanismo y huir de la especialización en diferentes áreas. Los grandes problemas de hoy día deben de ser abordados por «polímatas» que dominen amplios temas de conocimiento y diferentes disciplinas, pues para problemas tan complejos necesitamos soluciones mucho más complejas que las soluciones a los problemas del siglo XX. Que todo esté en Internet no sirve para nada si no se tiene un elemento de «razón» y de «crítica» para poner orden a todo el caos en el que nos ha sumido el postmodernismo. Que tengamos creatividad sin tener esa capacidad innata y esa base amplia de conocimiento, tampoco sirve para mucho que digamos. Es la creatividad una propiedad emergente de las mentes más capacitadas.

Y no todos los niños son buenos en algo. Depende de tantos factores, que no es adecuado decir esa frase sin matizar mucho. Pero si debemos de sacar lo mejor de cada niño. Este aprendizaje requiere siempre constancia, esfuerzo, lectura, conocimientos previos y dedicación. La motivación intrínseca es dificilmente enseñable por un profesor, al ser siempre una característica intrínseca del individuo, motivada mucho también por su capacidad intelectual.

Tampoco se puede «aprender jugando». Si es cierto que para que se produzca el aprendizaje se debe de buscar la manera más motivadora y lúdica posible, sobre todo en la que el alumno vea la parte práctica de ciertos conocimientos, pero nunca se puede aprender jugando. Jugar es puramente ocio, y el aprendizaje, aunque produce placer para muchas personas, no es realmente una actividad eminentemente lúdica, sino de focalización y dedicación. Las personas con más «locus de control interno», son las que también tienen mayor capacidad intelectual y a la postre mayor motivación interna y placer experimentan al aprender (por ejemplo en el caso de los superdotados intelectuales). Los superdotados intelectuales tienen un alto grado de locus de control interno a la par que un alto desarrollo de las funciones ejecutivas mentales.

Espero haberme explicado lo mejor posible.

Introversión NO es timidez

Aunque son términos que a menudo para algunas personas parecen intercambiables, entiendo que no tienen nada que ver realmente el uno con el otro. La timidez es la incapacidad que sienten algunas personas para hablar cuando hay un gran grupo de personas delante, experimentando a menudo autocrítica negativa, miedo y ansiedad. Se quiere pero no se puede. Jung fue la primera persona en trabajar sobre los conceptos introversión/extraversión. La introversión se ajusta a las personas que se enfocan hacia sus pensamientos y sentimientos inferiores, procesando asi de manera más profunda los pensamientos y emociones. Se prefieren así los lugares tranquilos, con bajos niveles de estimulación, y a menudo con poca afluencia de personas. El introvertido puede hablar sin problema ante un gran grupo de personas, pero por elección propia prefiere otra forma de actuar, y no siente ansiedad ni temor a estar ante grandes grupos.

La sociedad tiende a estigmatizar a las personas introvertidas, pensando que son personas carentes de habilidades sociales, cuando no es cierto. Tienen mejores habilidades sociales que los extrovertidos, los cuales a veces compulsivamente necesitan estar ante grandes grupos para sentir la atención continua. Pero esto realmente lo que esconde es una gran inseguridad interior y una gran falta de autoestima. En algunos casos los extrovertidos pueden ser personas que además tengan asociado un trastorno bipolar o ser personas narcisistas/psicópatas. Hoy día ante la gran cantidad de estímulos que ofrecen las redes sociales e internet, quizás se hace más necesario que nunca ser introvertido. La introversión invita a la reflexión tranquila, a apreciar la buena música y la literatura, a tener conversación con alguna persona a nivel profundo. El introvertido disfruta siempre con una lectura a solas, reflexiva, en la cual el tiempo se detiene totalmente, entrando en «flow».

Fisiológicamente, debemos saber que la red de neuronas localizadas en el tronco encefálico y conocida como sistema de activación reticular (SAR) es la responsable de regular nuestros niveles de excitación, incluyendo la vigilia y la transición entre el sueño y la vigilia.

El SAR también juega un rol en el control de cuánta información absorbemos mientras estamos despiertos. Cuando nos enfrentamos a amenazas potenciales en el medio ambiente, el SAR aumentará sus niveles de activación para que estemos alerta y listos para enfrentar el peligro. Cada persona tiene un punto de referencia básico en términos de nivel de excitación. Algunas tienden a tener de forma natural un punto de activación mucho más alto, mientras que otras lo tienen mucho más bajo.

El psicólogo Hans Eysenck sugirió que estos niveles de excitación podrían considerarse un continuo. De acuerdo con su teoría de la excitación de la personalidad podemos encontrar que los introvertidos son aquellos que tienen más altos niveles de excitación. Debido a sus altos niveles de activación natural, están más alerta y reciben más información del entorno. Como experimentan estos niveles de excitación altos de forma crónica o habitual (lo cual puede ser agotador), tienden a buscar actividades y entornos donde puedan huir de la sobreestimulación. Este comportamiento les permite disponer de tiempo para recargarse y les ofrece la oportunidad de procesar y reflexionar sobre lo que han experimentado. Este sistema de activación se puede dividir en 2 partes según Broadment: que actúan de manera distinta:

  • Arousal inferior, que correspondería al arousal cortical y al que le afectarían variables de estado como el ruido y la privación de sueño.
  • Arousal superior, que sería un tipo de activación cognitiva y facilitaría las operaciones estratégicas encaminadas a corregir los niveles de arousal inferior.

En muchas ocasiones se ha asociado la introversión con las personas de una inteligencia superior. Según estas teorías las personas con un mayor CI corresponderían con las personas que más activado y sensible tienen su arousal superior. A su vez la introversión ha sido asociada comúnmente con la creatividad, pero quizás sea una correlación con la propia inteligencia. Son importantes los momentos de tranquilidad para poder tener una sensación de bienestar. Lo que se hace siempre debe de tener significado. Es una gran deleite el poder encontrarse a solas para poder conocerse mejor por dentro. Como he comentado ser introvertido no supone no tener personas con las que relacionarse, sino que se es más selectivo a la hora de hacerlo. Suele ser buen oyente, con lo cual es una compañía que hace sentir a los demás importantes. Es una comunicación de tipo más sincero y muy necesaria en los tiempos superficiales que vivimos.

No participan en charlas innecesarias, y se prefiere con el tiempo tener conversación solo con personas con las que se siente uno agusto. Otro aspecto importante es que no se cae en la presión de grupo, sino que se actúa y piensa de manera independiente de los dogmas sociales y la opinión mayoritaria. Se analiza en cada momento si las modas y comportamientos pasajeros tienen utilidad y sentido. Si no se le encuentra sentido no se participa de esa moda y punto.

Realmente son personas fuertes interiormente, porque saben como mantenerse fuertes y confían de sus propias capacidades, No necesitan tanto la aprobación de los demás porque van a actuar conforme le dicten sus pensamientos cuando así pueden hacerlo. Son excelentes observadores de su entorno, y con tendencia al análisis de las situaciones de forma interna y profunda, debido a los altos niveles de activación neural que les hace estar siempre alerta frente a todos los estímulos. Cualquier mínimo detalle o cambio de comportamiento de alguien, ya sea en su elección de comida,etc, es computado por su hipersensible mente.

Por último decir que muchos de los librepensadores, intelectuales, artistas y personas que han luchado por los grandes cambios sociales han sido introvertidos. Ser introvertido no va asociado tampoco a tener propensión a enfermedades mentales de ningún tipo. Es el momento en el que vivimos el mejor para empezar a apreciar a estas personas y este tipo de comportamiento.

¿De ciencias o de letras?….

Esta es una pregunta que en muchas ocasiones se me ha hecho y que realmente nunca he sabido responder. Es una pregunta estulta, como cuando preguntan si estudias o trabajas, como si ambas cosas fueran incompatibles. En primer lugar habria que definir lo que son las ciencias y lo que son las letras. El ser humano ha tratado siempre de encajar el conocimiento en cajas como si fueran cajones estancos y no tuvieran relación unos con otros. Independientemente de la tonta tarea de ver si la economía es ciencia o no, o por ejemplo las ciencias sociales (como la psicología), he de decir que todo el conocimiento está relacionado. Siempre he tenido una gran pasión por todo lo relacionado con el conocimiento, pero sobre todo con la curiosidad. Mi condición humana me hace interesarme por aspectos del conocimiento, el arte, la música… ¿Es la cocina ciencia y/o arte? Para mi lo es ambas. En si todo el conocimiento es alimento para el espíritu, llegando a saciar todas las pasiones internas de lo interno.

Para mi no hay asignaturas (matemáticas, física, química) sino diferentes ramas del conocimiento con una delimitación difusa, borrosa e incluso incorpórea dependiendo del carácter subjetivo de la definición. Me he interesado por la metafísica, la ética, la ontología de la mecánica cuántica y la epistemología. Por la cosmología he mostrado interés, pero siempre presuponiendo la parte metafísica como resorte de la curiosidad latente. A menudo se acusa a algunos matemáticos y físicos en la actualidad de «caer» en las garras de la metafísica y la filosofía, como si fueran enemigos del conocimiento experimental. Como si Galileo, Descartes o Leonardo, no fueran antes filósofos que científicos, pues es esa cuestión el eterno motor del conocimiento y del cuestionamiento humano.

De pequeño entendí que son las causas filosóficas las que movían mi yo interior, pero para poder desarrollarme tenía que ampliar mi cuestionamiento y conocimiento sobre el mundo de la química, la física , y doctrinas que cuando te sumerges en ellas ves que tienen aspectos muy pero que muy alejados del método científico. Por ejemplo la cosmología o las diferentes teorías de cuerdas que intentan conjugar en una «teoria de todo» la mecánica cuántica y la relatividad general de Einstein, carecen de posible demostración y son sólo física pura alejada de la física aplicada. Numerosos filósofos como Juan Arana han trabajado sobre el problema del colapso de la función de onda, entendiendo que éste no se circunscribe únicamente al campo de la física, ni mucho menos de la ciencia, sino que entra dentro de la ontología y la metafísica, al intentar profundizar en lo más hondo de la propia naturaleza del universo. Penrose, en alguno de sus libros, desgrana argumentos platónicos y supone la existencia de diferentes mundos donde se encaja la matemática, la física y la actividad mental.

Las grandes mentes de la humanidad son auténticos polímatas. En ellos no hay cajones, sino interconexiones. Las modernas teorías del conocimiento a menudo se centran únicamente en aspectos biologicistas o únicamente en aspectos mentales. La mente, como afirman diferentes autores, cabría dentro de los fenómenos emergentistas, y su estudio sería posible únicamente desde la conjugación de diferentes disciplinas. Sin yo querer caer en el reduccionismo, he de decir que una teoría que contenga el funcionamiento mental y de la consciencia ha de incluir a la física (quizás a la mecánica cuántica). Pero una nueva física que aún no conocemos. Bajo mi gran premisa principal sería una física que no sería cognoscible ni aprehensible por la mente humana. Me baso para afirmar esto en el primer teorema de incompletitud de Gödel. No voy a entrar en detallar este aspecto, pero un sistema formal y axiomática nunca podrá demostrar todas las verdades matemáticas y ninguna falsedad. Por esto Roger Penrose afirma que existe diferencia entre «lo que se puede probar mecánicamente» y «lo que los humanos pueden ver como cierto» muestra que la inteligencia humana no es mecánica en su naturaleza.

Algunos reduccionistas piensan que todo el universo y todas las disciplinas se pueden reducir a la física, pero quizás no es del todo completa esa visión. Si es cierto que una teoría de la mente debe de incluir a la física, pues el «observador» en cuántica es parte del universo y de su propia función de onda, y no una parte «aislada» del sistema de estudio, ergo el cerebro también es parte del universo, y se debe de regir por las mismas leyes que se rige el espacio y el tiempo (mejor dicho espaciotiempo).

Negar que el arte, la música o la cocina son conocimiento es una inopia brutal. Todas ellas son también cualidades y condiciones del «insight» humano, pero sobre todo, atizadores de la curiosidad vital y dinámica de la persona. Son quizás consustanciales al elemento humano, siempre en mayor o menor medida.

Volviendo al argumento de partida no podria afirmar que nada es de ciencias o de letras. Esto son sólo calificaciones en bruto para que los niños o los no doctos puedan diferenciar aspectos a «grosso modo», pero no aportando ningún debate de calidad al conocimiento del cosmos que nos rodea. Esa pregunta no se la hacían al principio de la humanidad, sino que se limitaban a intentar hacerse preguntas que pudieran dar lugar a respuestas adecuadas sobre los aspectos fundamentales de la existencia. El gran Descartes llegó a ser incluso «jurista», aparte de filósofo, matemático y hombre de ciencia. Querer desentrañar los enigmas de la mente y del universo no es cosa de ciencias ni de letras, sino «conditio sine qua non» de las mentes más brillantes que han existido durante la humanidad y alguna que existe en la actualidad.

Sobre agujeros negros….Y de como Penrose consiguió el Nobel

En esta entrada quiero aclarar algo que se ha producido estos días con la reciente obtención del Nobel de Física por el matemático británico Roger Penrose. En muchos periódicos se ha leido que Penrose habia «descubierto» los agujeros negros, y por este motivo se le había dado el premio Nobel de Física. Penrose nunca ha descubierto la existencia de los agujeros negros, y de hecho, nadie en concreto los ha descubierto. De hecho hay varios precursores de la idea de agujero negro, que por cierto el público general no conoce. Haré un pequeño repaso histórico. En 1915 es cuando Einstein desarrolla la Teoría de la Relatividad General (TGR), y teoriza sobre que «la luz es influida por la interacción gravitatoria». Meses después de este hecho, el alemán Karl Schwarzschild sugiere que existe un radio a partir del cual un cuerpo pesado que colapsa impediría que escapara la luz. De hecho a este tamaño se le conoce como «radio de Schwarzschild», y es el radio del horizonte de sucesos de un agujero negro que no gira. En ese momento aún no se entendía bien que era un agujero negro, y tampoco se había acuñado ese término aún. En 1930 el hindú Subrahmanyan Chandrasekhar demostró que un cuerpo con una masa crítica y que no emitiese radiación, colapsaría por su propia gravedad porque no habría nada que pudiera frenarla. Ese límite hoy es conocido como «límite de Chandrasekhar».

Varios años después en 1930 Robert Oppenheimer predijo que una estrella muy masiva podría sufrir un colapso gravitatorio y, por tanto, los agujeros negros podrían ser formados en la naturaleza. Pero esa idea era considerada muy extraña en esos momentos. En esa época estaba siendo muy estudiada la mecánica cuántica, y poca gente prestaba atención a la cosmología. Es a partir de los años 60 cuando Stephen Hawking y Roger Penrose, en colaboración mútua teorizan sobre las singularidades espaciotemporales, y en concreto, sobre su relación con las soluciones a las ecuaciones de Einstein dentro de la Teoria de la Relatividad General. Esto consiguieron probarlo en el año 1967. Ya en el año 1969 el cosmólogo John Wheeler decide nombrarlos como «agujeros negros», pues hasta entonces solo eran considerados como «estrella en colapso gravitatorio completo». Previamente, en 1963, Roy Kerr había demostrado que en un espacio-tiempo de cuatro dimensiones los agujeros negros debían tener una geometría cuasiesférica determinada por tres parámetros: su masa M, su carga eléctrica total e y su momento angular L (Teorema de No pelo).

Llevo pensando varios años que el premio Nobel podrían haberselo dado a Hawking y Penrose hace muchos años. No entiendo mucho el porqué de darselo ahora. Y pienso sobre porque no lo ha obtenido Hawking nunca.