La acción providente de Dios en el mundo ¿requiere una naturaleza indeterminada?

July 24, 2017 | Autor: Alejandro Clausse | Categoría: Apophaticism, Epistemología, Apophatic theology
Share Embed


Descripción

Capítulo 6 La acción providente de Dios en el mundo ¿requiere una naturaleza indeterminada? Por Alejandro Clausse1 e Ignacio Silva2 En los últimos veinticinco años el tema de la acción de la providencia divina ha sido motivo de algunas interpretaciones que han visto con entusiasmo el alejamiento de la física de los viejos determinismos, interpretando la nueva física indeterminista como un espacio propicio para el obrar de Dios en la naturaleza. Una de las propuestas más importantes dentro de este marco fue el proyecto liderado por la Universidad de California (Berkeley) y el Observatorio Vaticano, que reunió a un grupo interdisciplinario de académicos entre 1990 y 2009, con el objetivo de ofrecer modelos que reflejen posibilidades para que Dios actúe en el mundo, de manera de guiar la historia según sus designios sin violentar las leyes de la naturaleza. La propuesta metodológica del proyecto se resumía en la llamada ‘acción divina objetiva no-intrusiva’ – o ‘non-interventionist objective divine action’, NIODA a partir de ahora – la cual interpreta que para que la acción divina no violente las leyes naturales éstas deben tener cierto grado de apertura, no determinado, que la providencia podría aprovechar en su actuar. El entusiasmo de estas propuestas surge a partir de los avances en la física y la matemática del siglo veinte, principalmente con la mecánica cuántica y el descubrimiento de sistemas caóticos, el cual amplió el alcance de la mecánica estadística. El debate que suscitó este proyecto puede resumirse en la pregunta del título de este capítulo, a saber, la acción providente de Dios en el mundo ¿requiere una naturaleza indeterminada? En el capítulo, en primer lugar se describirá la manera en que la indeterminación aparece en la física y su relación con las propuestas de NIODA. En segundo lugar se analizarán estas propuestas dentro del marco de la de Santo Tomás de Aquino sobre la acción divina y la analogía. Posteriormente se analizarán las implicancias

1 2

CONICET – CNEA – Universidad Nacional del Centro de la Provincia de Buenos Aires, Argentina. University of Oxford, Reino Unido.

de la antinomia univocidad-analogía en la física, y finalmente se ofrecerán posibles líneas de trabajo para investigaciones futuras. 1.- El indeterminismo en la física Podría decirse que la mecánica estadística es el primer intento de tratar matemáticamente la indeterminación en física mediante la aplicación de la teoría de probabilidades. El objeto de la mecánica estadística son los sistemas constituidos por grandes cantidades de partículas cuyo movimiento individual obedece a las leyes deterministas de la mecánica. De esta manera los promedios de las variables físicas del conjunto –que se denominan propiedades macroscópicas– se relacionan con las características de las interacciones entre partículas –que se denominan propiedades microscópicas. La mecánica estadística hace entonces las veces de un tamiz matemático que permite identificar lo predecible a nivel macroscópico que emerge de la mezcla de muchísimas variables microscópicas. La impredictibilidad de las variables microscópicas es por lo tanto gnoseológica, es decir proviene del desconocimiento del estado inicial exacto de cada partícula. La mecánica estadística tiene su origen en el siglo diecinueve, con los trabajos de Helmholtz, Gibbs, Boltzmann, entre otros. En el siglo veinte se descubre que también hay sistemas de ecuaciones de pocas variables que presentan indeterminación gnoseológica debido a su alta sensibilidad a las condiciones iniciales. En estos sistemas, denominados ‘caóticos’, si bien el presente determina exactamente el futuro, el presente aproximado no determina aproximadamente el futuro. Como desde el punto de vista experimental sólo se puede conocer las condiciones iniciales dentro de cierto rango de incertidumbre, si el sistema es caótico el futuro nos es desconocido de antemano. Para hacerse una idea de lo que ocurre puede ayudar considerar los algoritmos iterativos. Una iteración es un modelo determinista sencillo; por ejemplo, tomemos la función: 𝑦 =𝑥+2 En esta función, se dice que el valor de 𝑦 está determinado por el valor de 𝑥. Una iteración es simplemente un procedimiento por el cual, partiendo de un valor inicial de 𝑥 , el valor de 𝑦 resultante se usa como valor siguiente de 𝑥, lo cual genera una sucesión

numérica automática, que se interpreta como una ‘historia’. Es claro que para cada primer valor de 𝑥 hay una historia diferente, lo cual muestra la importancia de la condición inicial. En el caso de la función 𝑦 = 𝑥 + 2 , si partimos del valor inicial x = 1 la secuencia es: 𝟏 1+2=𝟑 3+2=𝟓 5+2=𝟕 7+2=𝟗 y así siguiendo … Esto es lo que se entiende por una ley determinista: conocido el valor inicial, la historia está determinada. Si se cumple esa ley, no puede haber otra historia. Consideremos ahora una función más interesante: 𝑦 = 𝑃𝑎𝑟𝑡𝑒 𝑑𝑒𝑐𝑖𝑚𝑎𝑙 𝑑𝑒 (10𝑥) Es decir, multiplicamos el valor de 𝑥 por 10 y reemplazamos lo que queda delante de la coma por cero. Para hacerlo más interesante supongamos que el valor inicial es el famoso número , o sea el cociente entre la circunferencia y el diámetro de cualquier círculo, cuyo valor con es 3.14159265358979323846264… . La secuencia que se obtiene es la siguiente: 3,14159265358979323846264 … 0,41592653589793238462643 … 0,15926535897932384626433 … 0,59265358979323846264338 … y así siguiendo … O sea que en la ‘historia’ determinada por esta iteración se van corriendo los dígitos desde la derecha hacia la izquierda. La información ‘microscópica’ de los lugares decimales más alejados de la coma se va amplificando al mismo tiempo que la información ‘macroscópica’ de los lugares decimales cercanos a la coma se va destruyendo. Pero eso significa que para conocer toda la historia no alcanza con empezar con un valor aproximado de  expresado en un número más o menos grande de decimales, ya que tarde o temprano estos decimales irán desapareciendo y de ahí en más la historia quedará indeterminada. Hay muchas otras funciones que tienen propiedades parecidas. La única manera de que un

sistema caótico sea determinista es que las condiciones iniciales sean conocidas con una precisión infinita, por ejemplo, con infinitos decimales. A este extremo de precisión, es cuestionable si es correcto usar el adjetivo gnoseológico para la indeterminación. John Polkinghorne ha sugerido que Dios interactuaría con el mundo material como fuente de información en el límite infinitamente pequeño de los sistemas caóticos, y por medio de este flujo de información actuaría providencialmente (Polkinghorne 1995). Por otro lado, la mecánica cuántica introduce un enfoque bastante diferente en varios aspectos. El aspecto distintivo más importante es el concepto de observabilidad. En la representación matemática del movimiento de objetos cuánticos – por ejemplo, la descripción microscópica de la electricidad – aparecen variables observables y variables no observables, las primeras se pueden medir mientras que las segundas no se pueden medir. El objeto no observable más importante es la famosa función de onda, que se usa para representar matemáticamente un sistema cuántico. Todavía está en debate si la noobservabilidad se debe a que la teoría es incompleta –y por ende eventualmente se podría observar lo que hoy no se puede, con lo cual sería una característica gnoseológica– o si los no observables nunca se podrán medir –con lo cual sería una característica ontológica. Actualmente los partidarios de la segunda alternativa son mayoría (Penrose 2004, Jaeger 2009). El otro aspecto importante que introduce la mecánica cuántica es una posible indeterminación ontológica, al menos en las interpretaciones más aceptadas. Esto significa que las variables observables no tienen un valor determinado mientras no son observadas. Es decir, dado un valor 𝑥 de la función de onda, la ‘iteración’ de la mecánica cuántica no permite decir cuánto es 𝑦. Pero esto no significa que 𝑦 sea completamente impredecible. La mecánica cuántica permite calcular, mediante la función de onda, un menú de opciones de los valores de y que podremos observar al medir, e incluso permite calcular con qué probabilidad se medirá cada alternativa. Cuando se produce la medición, se dice que la función de onda ‘colapsa’; y este colapso es ontológicamente indeterminado, en el sentido de que no es posible atribuirlo a la existencia de variables desconocidas, denominadas en la jerga ‘variables ocultas’. Una descripción y discusión más precisa de las diversas interpretaciones del indeterminismo cuántico se puede encontrar en el capítulo cuarto de este volumen. La propuesta de ‘providencia cuántica’, ofrecida por ejemplo por Robert

Russell, afirma que Dios actúa en cada colapso de una función de onda determinando cuál será la alternativa que se va a medir, y de esa manera puede influir providencialmente en la naturaleza (Russell 2001). 2.- Doctrina de Santo Tomás de Aquino sobre la acción divina Las propuestas de Polkinghorne y Russell han entusiasmado a muchos que ven en ellas una vía de armonización entre la ciencia y la religión. Sin embargo, un análisis más profundo lleva a algunos problemas de difícil resolución. Un escollo complicado es que la hipótesis de base, la suposición de que Dios sólo puede obrar en los espacios donde no hay causas naturales, lleva a una oposición entre Dios y la naturaleza. En cierta manera se coloca la noción de Dios en conflicto con las leyes naturales, y esto no parece razonable. Hay una alternativa a este conflicto de acciones, propuesta por Tomás de Aquino: la noción análoga de causalidad. Santo Tomás empieza definiendo una acción providente como una acción ordenada a un fin, lo cual es aceptado por los autores contemporáneos. Seguidamente, Santo Tomás observa que dado que Dios es la fuente de todo lo que existe, la causalidad de Dios se extiende a cada agente natural particular y a los modos en los que los agentes naturales causan. Cada agente natural en particular es, por lo tanto, ordenado por tal causalidad divina providente. Esta doctrina de la providencia se sigue directamente de la doctrina de la creación que Tomás enseña en su obra. De acuerdo con tal doctrina, Dios causa el ente mismo en su totalidad universal y particular constantemente. De este modo, al crear el ente en su existencia, Dios crea también su obrar, por lo que se puede decir que Dios actúa providencialmente a través de la causalidad de los entes creados. A partir de aquí, queda por resolver la cuestión de cómo obra Dios providencialmente en cada acción de cada agente natural, dado que no es evidente ni aparente que esto suceda. Santo Tomás explica esto distinguiendo entre causalidad primera y segunda, refiriéndose a Dios como la causa primera del efecto y a los agentes naturales como causas segundas del mismo efecto. Tomás distingue distintos modos en que Dios causa sobre la naturaleza. En primer lugar, dado que Dios es la fuente de todo lo que existe, es causa de que los agentes naturales tengan poderes causales. En segundo lugar, como Dios mantiene la existencia de todo lo que existe, es soporte de los poderes causales de los agentes naturales. Estos dos modos son como momentos fundantes de la causalidad

primera, y corresponden a lo que hoy en día se conoce como providencia general (Silva 2013). Los otros modos en que Dios actúa en la naturaleza se basan en la noción de causalidad instrumental. Por ejemplo, cuando un comensal corta pan con un cuchillo la causa instrumental del corte es el cuchillo. Pero el poder cortante efectivo del cuchillo es causado por la persona, porque no basta que el cuchillo esté afilado sino que debe moverse de una manera específica para que el corte ocurra. Tomás distingue entonces dos acciones diferentes en un instrumento: una propia de su naturaleza y otra que trasciende su naturaleza. En su acción natural el cortar es propio de un cuchillo porque su esencia es tener filo. La segunda acción, en cambio, va más allá de su naturaleza, ya que no podría realizar dicha acción a no ser que el agente principal actúe adecuadamente, como lo hace el comensal al cortar el pan con el cuchillo. La diferencia fundamental de esta forma de ver la causalidad es que para Tomás ambas acciones son atribuidas completa y absolutamente tanto al instrumento como al agente principal. No hay oposición, dado que la ausencia de cualquiera de ellas impediría el efecto. Estas acciones instrumentales son como momentos dinámicos de la causalidad primera. Lo que hay que entender de este planteo de Santo Tomás es que Dios y los agentes naturales obran en dos niveles diferentes. Por eso es que el mismo efecto puede ser atribuido al agente natural y a Dios. Hay concurrencia, pero no en el sentido de que una parte del efecto es producto del obrar de Dios y otra parte del efecto es producto del obrar del agente natural: el efecto en su totalidad es producto de ambos y de cada uno, aunque en modos distintos. Esta concurrencia de causas debe ser interpretada dentro de la doctrina tomista de la analogía. Si la sacamos de este contexto desembocamos en contradicciones y paradojas causales, porque se estaría pidiendo a la analogía más de lo que ésta puede dar (Silva 2014). 3.- Unívocos, equívocos y análogos Para enfocar simplificadamente el asunto que estamos tratando podríamos decir que el centro de la cuestión es la clasificación de conceptos en unívocos, equívocos y análogos. Por ello no viene mal un repaso rápido del tema para establecer un léxico común. La Fig. 1 muestra un diagrama simplificado de una ilustración geométrica del proceso denominado

conceptualización en el lenguaje moderno. El proceso responde a la pregunta ‘¿qué es esto?’ Esa es la pregunta central de la ciencia: ¿Qué son las cosas? ¿Cómo son? ¿Por qué son como son? (Sanguineti 1977). En particular la física considera qué son las cosas desde el punto de vista material. La manera de responder a esta pregunta en última instancia es refiriéndose a otro concepto más conocido. O sea, relacionar el concepto por el que se pregunta qué es, con otro concepto que ya sabemos qué es. Dos conceptos son equívocos cuando no tienen aspectos esenciales en común, aunque ambos conceptos compartan aspectos accesorios (Fig. 1a). Lo opuesto de la equivocación es la univocación. Dos conceptos son unívocos cuando comparten todos los aspectos esenciales, pudiendo diferir sólo en aspectos accesorios, como por ejemplo la ubicación espacial (Fig. 1b). Por último, dos conceptos son análogos cuando comparten algunos aspectos esenciales pero difieren en otros aspectos también esenciales (Fig. 1c).

Figura 1. Imaginar los óvalos como una representación de conceptos y los círculos interiores como aspectos. Los círculos llenos son aspectos esenciales y los círculos vacíos son aspectos que no son esenciales. a) Equivocación: no hay nada esencial en común (son esencialmente dos cosas distintas), b) Univocación: todo lo esencial es común (esencialmente son lo mismo) aunque se pueda diferir en lo accesorio (lo diferente son detalles accesorios), c) Analogía: hay cosas esenciales comunes, pero también hay cosas esenciales no comunes.

Las analogías más comunes son las metáforas. Cuando decimos que estamos ante una encrucijada (i.e., un cruce de caminos) refiriéndonos a un momento de indecisión, estamos asociando tácitamente la vida con un viaje. Ciertamente la vida tiene aspectos esenciales en común con los viajes: la secuencia de eventos, lo ya recorrido y lo ya vivido, el final del viaje y la muerte. Pero hay aspectos esenciales en los cuales la vida y los viajes difieren; por ejemplo, la vida no necesariamente implica un traslado espacial mientras que un viaje sí. La asociación no es isomorfa en todo aspecto esencial, pero tampoco es equívoca; es metafórica. Pero eso no significa que no contenga ninguna información; por el contrario, la metáfora es una manera muy efectiva y muy elegante de transmitir información. Hay una escuela epistemológica que sostiene que un término se usa unívocamente si y sólo si afirmarlo y negarlo respecto del mismo sujeto es contradictorio. Duns Scotto fue uno de los miembros de esta escuela en el ambiente teológico. Para esta posición, si esto no ocurriera, no se podría hacer ciencia, porque no habría lógica, ya que podríamos afirmar y negar algo al mismo tiempo; es decir, no podrían aplicarse las reglas de la deducción. A primera vista, esta posición parece razonable. Sin embargo, otros filósofos han mostrado que esto no es así. Según esta otra escuela, la afirmación y negación de algo respecto de dos cosas relacionadas analógicamente entre sí también puede ser contradictoria y, por ende, se puede hacer ciencia (i.e., decir qué son las cosas) aunque no haya univocidad (Turner 2004b). En otras palabras, no es cierto que dos enunciados sólo puedan ser contradictorios si y sólo si contienen términos que comparten el mismo significado; puede haber ciencia también si se usan términos relacionados analógicamente. Si así no fuera, una metáfora no transmitiría ninguna información, lo cual es demasiado difícil de sostener, entre otras cosas porque las mejores obras de la literatura universal están llenas de metáforas. Por tanto, el hecho de que los enunciados encadenados por una demostración están relacionados por analogía no invalida las conclusiones. La diferencia con los enunciados unívocos es que en el caso analógico hay que tener cuidado de hablar en el mismo sentido, para evitar la equivocación. En esta perspectiva, la noción misma de ‘ciencia’ se expande. Pasa de ser un término que refiere a la ciencia empírica moderna a ser un término que refiere al conocimiento de la realidad en cuanto tal, lo que abre la posibilidad de modificar también la

actividad misma de la ciencia empírica moderna, proponiendo la utilización de la analogía y la metáfora dentro de su propio método. La analogía, sin embargo, es una molestia para el físico y una pesadilla para el matemático. La dificultad se puede entender en este párrafo de Quine: “Todo nuestro conocimiento es lo que un taoísta llamaría conocimiento convencional, porque nosotros no sentimos que conocemos algo a no ser que lo representemos con palabras o en algún sistema convencional de signos como la notación matemática” (Quine 1953, 24). Esta especie de astigmatismo intelectual se debe a que la representación simbólica reduce todo a la univocidad. La analogía o la metáfora solamente se entiende como un isomorfismo, o sea como una univocidad que difiere sólo en la convención de símbolos nada más, pero conserva idéntica la estructura esencial subyacente. Este conflicto se puede entender mejor recordando los elementos básicos de la lógica de Aristóteles, según los cuales la explicación lógica no puede saltar de un género a otro. Es decir, si la conclusión es de un género distinto de las premisas, está equivocada. Por lo tanto, se concluye, hablar de la causa del universo a partir de causas encontradas dentro el universo sería o bien un equívoco (porque el género de aquella es distinto de éstas) o válido pero idolátrico (porque Dios es reducido a una causa más dentro del universo). Sin embargo, si consideramos nuestro razonar de la vida diaria veremos muchos ejemplos de conclusiones válidas que sacamos partiendo de premisas que no están conectadas unívocamente. Por ejemplo, si se junta el concepto ‘más pequeño que’ con el concepto ‘visible’ se puede construir el adjetivo compuesto ‘más pequeño que cualquier cosa visible’ (Quine 1960, 109). Y es claro que no hay ningún inconveniente en sacar conclusiones sin equivocarse sobre algo que es ‘más pequeño que cualquier cosa visible’ a partir de premisas formadas por cosas ‘visibles’ y cosas ‘más pequeñas que’ otras. Sin embargo, hay que poner atención en algo importante: los términos de las conclusiones que se saquen no estarán relacionados unívocamente con las premisas, sino analógicamente. En el ejemplo mencionado, el tipo de analogía que se usó es la extrapolación, que es típica en teología y, sugestivamente, también en el tratamiento matemático de los conjuntos infinitos. En el asunto que nos interesa en este trabajo construimos premisas con las nociones de ‘causa’ y de ‘cosas que cambian’. Ambas premisas son unívocas dentro de su propio dominio, pero se puede concluir sin problemas a partir de ellas sobre la ‘causa de todas las

cosas que cambian’, al igual que lo hacíamos sobre las cosas más pequeñas que cualquier cosa visible. Sin embargo, hay que tener cuidado, porque ‘causa de’ no tiene el mismo sentido en las conclusiones que en las premisas, porque eso sería reducir la causa de todo a una mera causa más (Turner 2002). Lo que ocurre es que la concepción análoga de las causas no nos lleva a una noción de Dios describible en términos finitos que nos haga sentir el control total sobre la cuestión; como por ejemplo en función de un conjunto de N cosas, donde N es algún número natural, eventualmente muy grande si se quiere. Esto no se puede, entre otras razones, porque en ese caso Dios sería la cosa N+1. Pero Dios no es una cosa más. La noción de causa análoga exige llevar nuestro conocimiento hasta el límite de sus capacidades, para finalmente abrir una brecha en ese mundo finito que se expande a un territorio que está más allá, que trasciende. Es como si al describir la acción divina en forma análoga en última instancia llegáramos a la conclusión de que en realidad no sabemos bien qué quiere decir ‘existir’ cuando aplicamos este verbo a Dios usando como referencia a las cosas del mundo. Si buscamos un lugar para Dios en las ecuaciones que describen el mundo material, entonces inevitablemente la acción de Dios requerirá expulsar algo fuera del mundo. El problema recurrente de este tipo de posiciones es suponer que si Dios existe, entonces debe ocupar algún lugar en el mundo. 4.- Caminos analógicos para la física En última instancia tanto la mecánica cuántica como la mecánica estadística son una manera de aplicar la teoría de probabilidades para separar tantos; como una suerte de tamiz con el que se aísla lo indeterminado para asociarlo a lo impredecible y lo contingente, y viceversa con la parte determinista que se asocia a lo predecible y lo necesario. A su vez, lo indeterminado se clasifica en lo que es indeterminado sólo por falta de conocimiento –y que por ende es eventualmente determinable– y lo ontológicamente indeterminable –es decir, lo indeterminado independientemente de nuestro conocimiento. Podría plantearse la existencia de una indeterminación gnoseológica de fondo que el ser humano nunca podría revertir; en ese caso, para los fines de nuestro análisis y para no perdernos en sutilezas, dejamos a criterio del lector dónde ubicar esta indeterminación en nuestra clasificación. Lo indeterminado independientemente de nuestro conocimiento es lo que, según las nuevas

interpretaciones, dejaría un lugar para la acción especial de Dios, mientras que la parte ontológicamente determinista de las teorías se asociaría a la acción general de Dios. De esta manera, todo quedaría clasificado unívocamente, sin lugar para las ambigüedades y equivocaciones que tanto afligen a las ciencias exactas. Además de los inconvenientes ya mencionados que tiene esta posición, la adjudicación de la parte indeterminista ontológica a la acción divina especial lleva a otra dificultad. Si se acepta que la acción divina especial tiene un propósito, aunque sea inescrutable, eventualmente podría manifestarse en alguna tendencia que debería ser detectable estadísticamente. Puede objetarse que la característica ‘especial’ haría eso imposible, ya que para poder ser detectado por la estadística debe haber una generalidad, la cual es propia de lo general por definición, no de lo especial. Pero de ser así estaríamos definiendo la acción divina especial como algo absolutamente arbitrario. En otras palabras, si por especial se entiende lo opuesto a lo general, entonces por definición no puede haber ni el más mínimo resabio de generalidad. En su acción especial, Dios debería actuar ‘escondiendo’ totalmente sus propósitos al punto de no trasuntar ninguna tendencia destilable matemáticamente; porque una tendencia es una dirección ‘general’ y, como tal, podríamos detectarla. Parecería ser que no es tan fácil distinguir entre providencia especial y general. Este inconveniente de distinguir lo general de lo especial ya fue considerado en el marco de la matemática y la física por Leibniz en 1686, y desde la década de 1960 a partir de los trabajos de Kolmogorov y Chaitin se viene tratando en el marco de la computación. Leibniz plantea que la acción de Dios maximiza la variedad y diversidad del mundo y simultáneamente minimiza la complejidad de las teorías que describen el mundo (Leibniz 1686). En nuestro contexto podríamos, por ejemplo, asociar la acción divina general al objetivo que Leibniz dice minimizarse y la acción divina especial al objetivo que se maximiza. Seguidamente, Leibniz hace notar que dado un conjunto finito de puntos siempre existe una función matemática que los une, la cual por lo tanto determina la posición de los puntos; en otras palabras, es una descripción de dónde están los puntos, lo cual en mecánica equivale a decir ‘qué es lo que son’ o, al menos mecánicamente hablando es la parte principal de la respuesta. Sin embargo, continúa Leibniz, si los puntos están muy desordenados la ecuación de la función que los describe será muy complicada. Kolmogorov

y Chatin continúan esta idea proponiendo una definición de azar (randomness): un conjunto es azaroso (random) si la descripción más corta que podemos dar de ello es tan larga como la lista de las coordenadas de los puntos (Kolmogorov 1965, Chaitin 1987). Leibniz incluso llegó a conjeturar en esta línea de pensamiento que lo necesario es lo que se puede deducir en un número finito de pasos, mientras que lo contingente es lo que requiere un número infinito de pasos. De esta manera, su mente de matemático recobra la armonía de la univocidad, porque no existiría el azar, todo sería reducible a una ley general; sólo que habría cosas que para nosotros parecen no seguir una ley porque nuestra vida es finita, pero que en la mente eterna de Dios tendrían ley. Sin embargo, quizás haya otras alternativas para la armonización de la acción divina con la física. Una perspectiva interesante fue aportada por Juan José Sanguineti en su libro El Origen del Universo (Sanguineti 1994, p. 357): “En las ciencias, en general, un evento físico temporal es determinado (“causado”) por condiciones precedentes que evolucionan según determinadas reglas o leyes, formuladas en ecuaciones. Las condiciones precedentes y las leyes son realmente dos tipos de causa, si entendemos por causa lo que determina de alguna manera, aunque sea parcial, la producción de un evento (por ej. posibilitándolo). En la terminología aristotélica, las condiciones precedentes podrían asimilarse a las “causas materiales” y las leyes, en parte, a las “causas formales”.” Algunas posiciones reduccionistas en física pueden caer en la tentación llevar esto hasta el extremo de abarcar todo proceso causal, llegando a una suerte de reduccionismo hilemórfico (hile = materia, morfo = forma). Las causas eficientes en ese extremo vendrían representadas por las fuerzas externas, que en el marco de una teoría general unificada deberían eventualmente disolverse expresadas como manifestaciones de singularidades de las mismas ecuaciones. Y la causa final no tendría cabida. Esta perspectiva tiene algún punto de contacto con la posición de Gianfranco Basti, el cual hace notar que en física la causa final y la causa formal son indistinguibles (Basti 2010, p. 441); aunque este filósofo no asocia las ecuaciones a la causa formal sino a la descripción del cambio, identificando la forma con los estados asintóticos a los que tienden las soluciones, conocidos en la jerga como atractores. Otro filósofo que en su Curso de Teoría del Conocimiento elaboró una comprensión de la naturaleza basada en las causas aristotélicas fue Leonardo Polo. Respecto a nuestro

tema de interés consideremos el siguiente pasaje: “Hay determinaciones que son fines. Los fines no determinan la materia, sino formas. Ello implica que la noción de indeterminación no se confunde con la noción de materia. La materia es indeterminada en tanto que su determinante es la forma. Pero es preciso admitir formas indeterminadas cuya indeterminación no es material, y cuya determinación es la posesión operativa de un fin. Esto amplía de modo extraordinario la capacidad de enfoque para la temática de la ontología. Asimismo, tal ampliación es imprescindible para la teoría del conocimiento, porque el conocimiento no puede ser hilemórfico” (Polo 1984, p. 262). Estas observaciones dejan vislumbrar un posible camino para la armonización de la acción divina especial: si la acción divina especial está asociada a un fin o plan trascendente, y aceptamos la propuesta de Polo acerca de que el fin determina las formas, así como las formas determinan la materia, y las formas son las ecuaciones al menos en alguna medida, entonces haría falta un marco matemático que permitiese determinar las ecuaciones de la física análogamente a como uno hace planes para lograr un objetivo. Pero el marco debe ser analógico, no unívoco, ya que de lo contrario sólo re-editaríamos una versión más de lo mismo, es decir, la acción divina terminaría siendo una causa más entre otras. De hecho, existe un marco conceptual que permite la determinación de las ecuaciones de la física, tanto clásica como cuántica, a partir de principios que trascienden el escenario hilemórfico de una manera parecida a la propuesta de Polo: la formulación variacional. Los primeros problemas variacionales aparecieron en la geometría. El más antiguo es el problema de Dido, una princesa fenicia que escapando de una revuelta pidió a los habitantes de Libia un pedazo de tierra para instalarse con su séquito. El rey del lugar le ofreció la tierra que ella pudiera abarcar con una piel de buey. Dido hizo entonces cortar la piel en lonjas y uniéndolas en una tira larga circunscribió un perímetro en el que fundó la ciudad de Cartago. El problema variacional consiste en averiguar qué forma debía haber tenido el perímetro para abarcar la mayor superficie posible. Es decir, en general, de todas las posibles curvas cerradas de igual longitud ¿cuál es aquella que encierra mayor superficie? La respuesta es el círculo. Ahora bien, notemos que la trayectoria recorrida por una partícula se puede representar matemáticamente como una curva en cuatro dimensiones –las tres dimensiones

espaciales y el tiempo. Surge entonces naturalmente la pregunta de si la trayectoria determinada por las ecuaciones de la física se destaca de entre todas las otras curvas imaginables en cuatro dimensiones, de manera análoga a como el círculo se destaca singularmente en el problema de Dido. Notablemente, la respuesta no sólo es afirmativa sino que además lleva a una formulación muy elegante. En física la magnitud que juega el papel de la superficie del terreno de Dido se llama acción, y se calcula sumando a lo largo de cada posible trayectoria otra magnitud llamada lagrangiano, el cual se calcula con la velocidad y la posición en cada punto. La diferencia es que en vez de destacarse por el máximo, como en el caso de la superficie de Cartago, la trayectoria de una partícula corresponde al mínimo de la acción. La formulación variacional mostró ser además muy rica, permitiendo descubrir elementos subyacentes en la física que permanecían escondidos. Entre estos últimos los más interesantes son los teoremas de simetría, que demuestran que cada magnitud que permanece constante durante el movimiento tiene asociada una simetría del lagrangiano. Así, las cantidades de movimiento lineal y angular permanecen constantes cuando el lagrangiano es simétrico ante traslaciones y rotaciones espaciales respectivamente. Y más aún, toda rotura de simetría del lagrangiano es una señal de que el movimiento no se puede explicar con las variables propias de las partículas en juego, y que sólo puede describirse introduciendo fuerzas externas a ellas. Es interesante también la manera en que se extiende la formulación variacional a la teoría de la relatividad y la mecánica cuántica. En relatividad la acción es reemplazada por la longitud de las trayectorias en un espacio-tiempo curvo cuya curvatura queda definida por la posición de las masas. En mecánica cuántica la acción sirve para calcular un número complejo, con parte real y parte imaginaria. La suma de los números complejos de todas las trayectorias posibles que unen dos puntos del espacio-tiempo determina la probabilidad de que la partícula pase por ambos puntos. Sin profundizar en la matemática de cada caso, las dos generalizaciones son ejemplos de las posibilidades que brinda la analogía. En el primer caso, aparece una interpretación mucho más amplia del espacio y del tiempo, y da lugar a la astrofísica y a nuevos fenómenos, como el big bang y los agujeros negros. En el segundo caso, la indeterminación cuántica encuentra un nuevo marco metodológico que todavía sigue siendo misterioso y difícil de interpretar, que ha facilitado el desarrollo de los

recientes intentos por unificar toda la física en un solo cuerpo teórico, como la teoría de supercuerdas. El marco conceptual que ofrece la formulación variacional es muy amplio y muy flexible para buscar la armonización de las causas segundas con la causa primera. Sin embargo, es bueno insistir en que es incorrecto buscar un ‘lugar’ dentro de este marco para la acción divina. En todo caso lo que se podría esperar es encontrar una analogía que permita aproximarnos a una categorización más precisa de la acción divina, quizás por niveles jerárquicos de los efectos. Conclusiones Podemos volver ahora a la pregunta del título de este trabajo: ¿Hace falta que la naturaleza esté indeterminada para que Dios actúe en forma especial en el mundo? O bien, poniéndonos en una posición un poco menos arrogante que esta última, la cual parecería intentar decirle a Dios lo que puede o no puede hacer: ¿Cómo podemos conciliar nuestro entendimiento de las teorías físicas con nuestro entendimiento de la acción de Dios en el mundo? Por un lado hemos visto que el requisito liso y llano de una indeterminación ontológica en la naturaleza para dejar un espacio a la providencia lleva a una visión de Dios como una cosa más entre tantas otras cosas en el universo, porque en cierto sentido este camino es una variación más de los intentos por definir a Dios unívocamente, lo cual es una labor imposible, tal como lo atestigua la concordancia desde las más diversas tradiciones filosóficas y teológicas. Por otro lado hemos intentado mostrar que hay formulaciones en la física que tienen fundamento en analogías, y que por tanto proveen un marco conceptual flexible para desarrollar aproximaciones consistentes para describir la acción providencial. Es relevante también mencionar que cualquiera de los caminos que se exploren para acercarse a una mejor comprensión de la acción de la providencia desde la naturaleza debería tener en cuenta los desarrollos de la teología apofática, recientemente revitalizada por ciertos teólogos (Turner 2004a,b), y cuya metodología incluso ha comenzado a aplicarse en física (Bengtsson et al. 2013). La teología apofática puede resumirse en la famosa observación de Tomás de Aquino acerca de que es más claro saber qué es lo que Dios no es que lo que Dios es. En esta vía negativa se van puliendo con sucesivas

negaciones los modelos que hacemos sobre Dios. Esto se puede hacer precisamente porque los modelos consistentes de Dios son básicamente metáforas, y la esencia de las metáforas es transmitir conocimiento bajo la condición estricta de que son falsedades literales. La esencia del significado metafórico es ser falso en sentido literal. La negación literal de las metáforas sobre la acción divina lleva a agnosticismos simplistas, porque una metáfora sólo se puede negar con otra metáfora (Turner 1995, p. 37). Por ello, las aproximaciones a Dios que vayamos haciendo deben ser metáforas de lo trascendente, de los límites de lo autosuficiente. La situación no es muy distinta a la que se encuentra la física al tratar de describir el espacio o el tiempo, a los cuales nos aproximamos matemáticamente, pero quedándonos con una sensación de que algo todavía nos falta entender. El obstáculo más importante es que la diferencia entre Dios y el mundo es imposible de explicar en términos del mundo, porque lo que sabemos es que no hay nada que se le parezca totalmente. En términos matemáticos podríamos decir que no hay manera de definir una ‘distancia’ entre Dios y la creación. Dios está más allá de lo que entendemos por similar y diferente. En este punto viene a la memoria el planteo de San Agustín en Confesiones: ¿cómo puede ser que una persona esté buscando algo y al mismo tiempo no saber qué es lo que busca? Y sin embargo, esto no es algo sin sentido, ya que es la posición en la que se encuentra cada instante cualquier investigador. Bibliografía Basti, G. 2010. Filosofía della Natura e della Scienza I. Roma: Lateran University Press. Bengtsson, I., S. Weis y K. Zyczkowski. 2013. “Geometry of the Set of Mixed Quantum States: An Apophatic Approach”, Geometric Methods in Physics 175-197. Chaitin, G. 1987. Algorithmic Information Theory. Cambridge: Cambridge University Press. Jaeger, G. 2009. Entanglement, Information, and the Interpretation of Quantum Mechanics. Berlin: Springer. Kolmogorov, A. 1965. “Three approaches to the quantitative definition of information”, Problems of Information Transmission 1 (1), 1–7.

Leibniz, W. 1686. Discourse on Metaphysics and Other Essays, 1991, Indiana, USA: Hackett Publishing Company. Penrose, R., 2004. The Road to Reality. New York: Knopf. Polkinghorne, J. 1995. “The Metaphysics of Divine Action”. En Chaos and Complexity. Scientific Perspectives on Divine Action, editado por Russell, Murphy y Peacocke, 147-156. Vatican City – Berkeley: Vatican Observatory – CTNS. Polo, L. 1984. Curso de Teoría del Conocimiento I. Pamplona: EUNSA. Quine W. 1953. From a Logical Point of View. Massachusetts: Harvard University Press. Quine W. 1960. World and object. Cambridge, MA: MIT Press. Russell R. J. 2001. “Divine Action and Quantum Mechanics: a Fresh Assessment”. En Quantum Mechanics. Scientific Perspectives on Divine Action, editado por Russell, Clayton, Wegter-McNelly and Polkinghorne, 293-328. Vatican City – Berkeley: Vatican Observatory – CTNS. Sanguineti, J.J. 1977. La filosofía de la ciencia según Santo Tomás. Pamplona: EUNSA. Sanguineti, J.J. 1994. El origen del universo, La cosmología en busca de la filosofía. Buenos Aires: EDUCA. Silva I. 2013. “Thomas Aquinas holds fast: objections to Aquinas within today’s debate on divine action”, The Heythrop Journal 54 (4):658-667. Silva, I. 2014. “Revisiting Aquinas on Providence and Rising to the Challenge of Divine Action”, The Journal of Religion 94 (3):277-291. Turner, D. 1995. The Darkness of God, Negativity in Christian Mysticism, Cambridge: Cambridge University Press. Turner, D. 2002. “How to be an atheist”. En Faith Seeking. Londres: SCM Press. Turner, D. 2004a. “On denying the right god: Aquinas on atheism and idolatry”, Modern Theology 20, 141-161. Turner, D. 2004b. Faith, Reason and the Existence of God. Cambridge: Cambridge University Press.

Lihat lebih banyak...

Comentarios

Copyright © 2017 DATOSPDF Inc.