Reconceptualizando la experiencia

marzo 3, 2011

Prueba

Filed under: Uncategorized — Aleix Mercadé @ 2:53 pm

Vodpod videos no longer available.

Prueba, posted with vodpod

febrero 2, 2011

¿Es posible el diálogo entre Occidente y el Islam?

Filed under: Uncategorized — Aleix Mercadé @ 11:46 am

Hoy en día es difícil pensar un país sin pensar en todos los países del mundo. Es el efecto de la globalización o, mejor dicho, una de las consecuencias de que el mundo esté interconectado por las revoluciones de la comunicación como la televisión, el avión o internet.

En la actualidad, y siempre, es imposible pensar la política sin pensar en dominar[1]. Es decir, un poder político, que ya no se identifica con un país, sino con un conjunto, como la OTAN, debe garantizar, previo reconocimiento de su legitimidad, ser el más fuerte, el Leviatán, y con diferencia. De lo contrario, no puede garantizar la seguridad y la paz de sus habitantes, lo cual sería faltar a su obligación primordial.

También, y ya en la segunda década del siglo XXI, parece ridículo creer que este dominio supremo lo ejerza una cúpula de líderes públicos. El poder de algunas empresas, aunque sin ejército ni territorio soberano, suele ser suficiente como para influir en decisiones políticas de gran trascendencia.

Lo que sí cuesta mucho pensar, por el hecho de estar nosotros sumergidos en ello, es que todo lo anterior configura el mundo occidental, tradicionalmente judeo-cristiano, culturalmente europeo, políticamente democrático liberal. Creemos que el mundo es esto y sólo esto pero nos equivocamos… hay otros mundos como por ejemplo el que conforma el conjunto de países islámicos. Son otra cultura, otros territorios, otra forma de entender y relacionarse con el mundo.

A causa de que el mundo occidental se siente el rey del mundo ocurren cosas como la guerra de Irak o Afganistán. Es totalmente lógico, pero profundamente injusto, querer someter al mundo islámico evitando así su desarrollo armamentístico. Y esto por el motivo que comentábamos: el mundo occidental debe garantizar su primacía, de lo contrario acecharía en el futuro próximo un poder que podría poner en peligro a los individuos occidentales (y sus bienes). Soy consciente de que todo esto es muy fuerte pero lamentablemente explica la eterna continua expansión de los poderes. No puede concebirse, siendo realistas, un poder supremo que se contentara con lo que tiene sabiendo que su poder pudiese expandirse y, a la vez, asegurarse.

A día de hoy, el conflicto intercultural (o intermundial, pues se da entre diferentes mundos), en mi opinión, surge de la dificultad para acercar las visiones entre el mundo occidental y el mundo islámico[2]. Incluso con “buena voluntad”[3], el esfuerzo que supone comprender al otro mundo es uno de los caminos más angostos que la humanidad haya vivido.

 

Política y religión

Sabemos que el mundo islámico está gobernado tanto por leyes civiles como por leyes religiosas. De hecho, está castigado con la muerte el hablar irrespetuosamente de Dios y su profeta. Nada que ver con occidente donde el cristianismo, y otras opciones religiosas, pueden ser objeto de mofa hasta el punto de que hemos dejado de ser cristianos para pasar a ser un mundo ateo. Occidente ha perdido gran parte de su espiritualidad y ello le ha llevado a pagar un alto precio como es su terrible crisis de valores (y que Nietzsche fue el primero en advertir). Sería precipitado decir que entonces los occidentales vivimos sin valores pero eso es imposible. Sin embargo, sí hemos perdido pilares éticos que facilitaban el éxito de una vida moral, como es el propio respeto reverente por los mismos valores. Así pues, a la espera de una revolución espiritual, la crisis ha facilitado y facilita el dominio moral de valores como el relativismo, el individualismo y el materialismo que afectan a la mayoría de la población, y ello en detrimento de otros valores. No obstante, y aquí podría abrirse un debate de gran tradición filosófica, esto parece que ha ocurrido gracias a que la libertad y la razón se han acentuado.[4]

Por parte del mundo islámico ocurre algo muy diferente y es que ellos mantienen la mayoría de los valores que nosotros hemos perdido. No sufren ninguna crisis de valores pues todavía la libertad y la razón se hallan confundidas en la fe (y debilitadas por ella). Por ello, el tipo de crisis que están sufriendo tiene que ver con la forma de fundamentar, racionalizar y hacer efectivo en la población la adopción de los valores “oficiales”[5].

En el mundo islámico ocurre algo muy preocupante y es que se identifica la patria con la religión musulmana, es decir, no se separa política de religión. Es más, casi nada se separa de la religión[6]. Así, los musulmanes tienen un estilo muy propio a la hora de entablar relaciones y/o reaccionar a los movimientos políticos de los occidentales. Estilo que nosotros juzgamos apasionadamente como radical ignorando sin embargo en qué sistema de convicciones se basa, por qué y para qué.

Los miembros del mundo islámico sienten que cuando los occidentales intentan controlar el poder militar de una nación musulmana (como en Irán) o tienen intereses político-económicos (como en Pakistán o Irak), entonces, en vez de sólo sentir su país atacado, sienten que también su Dios está siendo puesto en peligro. Y ello por lo dicho anteriormente, y es que identifican nación con religión.

En consecuencia, los países musulmanes no comprenden que el mundo occidental no tiene ningún problema con su religión, que “sólo” quiere, aunque lo tergiverse diciendo que quiere otras cosas[7], la primacía militar, el control de recursos y/o incrementar el PIB ante crisis económicas venideras o presentes.

 

Espíritu crítico VS dogmatismo

Por otra parte, los miembros del mundo islámico se sienten ofendidos cuando nosotros, que interiorizamos desde Descartes la duda metódica, criticamos y ponemos en duda cualquier cosa que pueda ser verbalizada, esto es, descrita mediante lenguaje. Y digo cualquier cosa, incluida la propia religión musulmana. Y esto lo hacemos también en clave de humor, inocente u hostilmente, faltando al respeto y desfigurando la realidad en aras de los gustos de la mayor cantidad de consumidores.

Tanto este sentimiento de profunda ofensa, como el complejo y extenso dogmatismo que supone, y el intenso sentimiento de pertenencia que hace que se tomen como personal algo transpersonal, es algo que yo mismo me esfuerzo en comprender pues para mí está más que evidentemente justificado que cuando se utiliza el lenguaje para hablar de algo, sea lo que sea, uno se arriesga a equivocarse por lo que será sano mantener una actitud, por un lado, abierta a la revisión crítica de lo pensado y, por otro lado, resistente a todo tipo de falacias, como la inevitable ad verecundiam. Y es que el lenguaje, y la mente humana en general, suponen los mil y un riesgos a la hora de pretender decir con seguridad cómo es el mundo. Y sobretodo, en el caso de lo supermundano, cuando de unos principios teológicos y morales se deriva una superestructura de “verdades” que se aprenden como dogmas, como fueron los sistemas juridicorreligiosos elaborados durante el califato abbasí, cuando, por el contrario, están bajo el alcance de la falibilidad humana. Esto, que también ocurre en el resto de religiones, es especialmente un problema cuando se identifica religión con nación de una forma tan íntima, pues relaciones diplomáticas entre naciones implican relaciones diplomáticas entre religiones o cosmologías, es decir, entre convicciones mucho más rígidas, casi inamovibles. Además, esto no sólo lastima la actividad política sino que también la religiosa. Es decir, cuando la espiritualidad o el sentimiento religioso se politiza y se institucionaliza, la derivación de “verdades”, a partir de estos pocos principios verdaderamente profundos y veraces, restringe y censura el pensamiento teológico libre y racional, y que Europa experimentó, irónicamente, con el luteranismo o el calvinismo. Una disidencia similar, en el mundo islámico, o bien está oculta a nuestros ojos o bien es tabú. No obstante debo autocriticarme pues esto no es del todo cierto. Así pues, sobre esto último, quédese el lector con la idea de que institucionalizando lo espiritual se resta libertad a su variabilidad de formas.

Por lo tanto, careciendo de una actitud epistemológica crítica, base para la democracia deliberativa, base que el mundo islámico no parece querer asumir, se dificulta que valores fundamentales como la razón y la libertad entren en juego en ciertos diálogos no necesariamente religiosos. De hecho, el mundo musulmán llega a pensar que no pueden asumir entrar en ciertos debates porque perderían su identidad actual. Dicho de otra forma, la sacralización de la política supone un contratiempo para según qué discusiones. Es el amor a la tradición, sustentado solamente por el odio al enemigo, al conquistador ilegítimo, y el orgullo de su propia espiritualidad, lo que parece impedir el cambio de las condiciones que empezarían a posibilitar el diálogo y la negociación entre ambos mundos. Y es que para que haya negociación se debe estar dispuesto a ceder, tanto por un lado como por el otro, pero esto, a día de hoy, parece ser el sueño de un inquieto y rebelde adolescente idealista. Ambos mundos, uno más que otro, están lejos de presentarse en un diálogo entre agentes iguales, libres y racionales (¡y no porque no los hayan en ambos bandos!).

Ya es demasiado tarde para que cada mundo gobierne separadamente del otro. Estamos completamente fundidos. Estamos relacionándonos continuamente; la mayoría de veces felizmente y en paz. Y el hecho de que los musulmanes estén tan bien integrados en nuestro mundo y nosotros no en ellos me hace intuir que toda esta historia tendrá un final feliz para ambos. En cualquier caso, ya veremos qué ocurrirá.


[1] Y estoy pensando en Hobbes cuando concibe el contrato social como una forma de anticiparse al estado de naturaleza donde todos los hombres están en disputa entre sí. Así pues, Hobbes habla de dominio en términos de poder supremo: “Dominar, por fuerza o astucia, a tantos hombres como pueda hasta el punto de no ver otro poder lo bastante grande como para ponerle en peligro”.

[2] El mundo Latinoamericano sería otro. Yo me centraré en la principal oposición.

[3] Lo de “buena voluntad” lo pongo en entrecomillado porque las continuas incursiones militares del mundo occidental en territorio del mundo musulmán no hacen sino provocar y agitar los nervios de estos últimos. Desde el esquema conceptual de Rousseau, Occidente hace mal al quererse imponer por la fuerza (sin derecho) sabiendo que jamás obtendrá obediencia por deber. A no ser que entendamos que occidente tiene alguna estrategia para introducirse políticamente desde dentro (p.e. escogiendo a determinados líderes), temo que cuanto más tiempo hagan uso de la fuerza, y obligando a obedecer, más crispada será  la situación. Pero parece una situación inevitable dado que una relación de subyugación entre diferentes mundos siempre implicará problemas de legitimidad.

[4] En mi opinión, para que la razón y el conocimiento se desarrollen es necesaria una etapa de exceso de libertad, es decir, de libertinaje. Poniéndome quizá un tanto esotérico, confío que con el tiempo este daño colateral (e inevitable) del desarrollo de la razón y el conocimiento sea resuelto por el lógico transcurso del desarrollo espiritual de la humanidad.

[5] Por supuesto, el mal acecha al mundo islámico como en cualquier sitio y en cualquier época. La corrupción, así como manipulación mental de la población a base de mantener niveles educativos y culturales bajos, conlleva grandes contradicciones entre lo que la religión musulmana enseña y la práctica real de sus ciudadanos.

[6] Cabe recordar que Occidente también se identificó profundamente con el cristianismo.

[7] Lamento que nos engañen nuestros propios gobiernos diciendo que los conflictos armados se justifican, por ejemplo, con el fin de liberar a un país de la miseria. ¡Somalia sí que necesitaría ayuda internacional! ¿¡Y dónde están las ayudas?!


septiembre 29, 2010

Dios como fenómeno emergente

Filed under: Uncategorized — Aleix Mercadé @ 9:53 pm

0. Introducción

Este ensayo es un intento de demostración de la existencia de Dios[1]. Sin embargo, su demostración implica premisas diferentes a las utilizadas tradicionalmente en el campo de la filosofía griega y la teología natural. Esto tendrá sus ventajas pero también sus inconvenientes. La ventaja principal será tener menos problemas explicativos con algunas cuestiones como la materia y la creación. No obstante, sus desventajas empiezan por una inevitable transformación[2] de la concepción de Dios y sus propiedades.

Como podrá comprobarse, encontraremos nuevos problemas lo cual creo que es tan estimulante como una nueva teoría.

La novedad principal de mi argumentación estriba en la inclusión del concepto moderno de emergencia.

Formalmente, la emergencia es el proceso en el cual un conjunto de propiedades A genera imprevisiblemente otro conjunto de propiedades B. La peculiaridad está en que el conjunto B depende del conjunto A, sin embargo, no puede ser explicado por el conjunto A.

Concretamente, es el proceso que se ha postulado en el caso de la mente. Así pues, la mente sería un conjunto de propiedades que emergería de las conexiones neuronales del cerebro, sin embargo, aunque sin cerebro no habría mente, la mente jamás podría estudiarse sólo a partir los procesos fisiológicos del cerebro.[3]

Desde este marco conceptual mi tesis a demostrar es que Dios es, en un sentido fuerte y ontológico, un fenómeno emergente.

Así pues, pienso que la materia del universo se organizó de forma que hizo emerger una especie de mente cósmica que llamo Dios. Es decir, Dios sería lo resultante de la organización total de la materia del universo.

1. El fenómeno de la emergencia

En el siglo XIX, George Henry Lewis, alumno de John Stuart Mill, acuñó el concepto de emergencia para referirse a la idea de su maestro de las leyes heteropáticas. Estas leyes se caracterizan por no seguir el principio de Composición de Causas que dice que el efecto de varias causas es igual a la suma de sus efectos por separado.

Antes de seguir, dadas las polémicas que históricamente se han dado entorno a todo esto, quiero insistir que mi propuesta, aunque cueste creerlo a primera vista, es compatible con el mecanicismo más materialista.

A continuación quiero presentar diferentes casos de emergentismo en el campo de la biología para aclarar un poco más este fenómeno. Ahora bien, para ello abordaré la cuestión desde la disciplina de la Vida Artificial. Me interesa que el lector esté especialmente atento a las relaciones que se irán estableciendo entre el concepto de vida y conceptos como forma, organización, configuración, estructura o información, puesto que serán fundamentales para el entendimiento de mi exposición:

“Todos los intentos de definir la vida tienen excepciones que hacen incompleta la definición. Entonces, más que buscar una definición de vida basada en una sola propiedad que incluya la totalidad de sistemas que podemos considerar “vivos” y excluir el resto, actualmente puede ser más eficaz acercarnos a una posible definición a partir de las principales propiedades que observamos en los sistemas que cualificamos de “vivos”. Observando el único ejemplo de vida que conocemos (el de la Tierra), e intentando abstraer al máximo sus componentes accidentales, Farmer y Belin (1992) indicaron que la vida podría caracterizarse por los ocho siguientes puntos:

–          La vida es una configuración en el espacio y el tiempo, y no un objeto material. Es decir, la vida es una forma de organización y, por tanto, no reside en un tipo concreto de molécula.

–          La vida tiene tendencia a la autoreproducción.

–          Los sistemas vivos contienen información sobre ellos mismos, lo que podemos llamar autorepresentación.

–          La vida prospera según el metabolismo.

–          Los sistemas vivos tienen la capacidad de responder a estímulos externos, adaptándose y controlando su entorno.

–          Las partes que forman los sistemas vivos dependen críticamente de las otras partes, por eso si faltan ciertas partes críticas el sistema puede morir.

–          Los sitemas vivos se mantienen estables a las perturbaciones, es decir, pueden mantener la forma y organización dentro de unos límites.

–          Las poblaciones de sistemas vivos tienen capacidad de evolucionar[4]

La Vida Artificial (VA) es una disciplina que está dentro de las ciencias de la complejidad y pretende llegar a comprender los procesos de los seres vivos recreando estos procesos artificialmente (por ordenador, lo que implica abstraer las propiedades de la vida). La estrategia utilizada es sintética, es decir, no coge el objeto de estudio (un ser vivo) y lo analiza, sino que coge las partes de la vida y las junta para ver qué necesitamos para obtener vida.

“(…) <<la vida es una propiedad de un conjunto de unidades que comparten información codificada en un sustrato físico, la cual en presencia de ruido mantiene la entropía significativamente más baja que la entropía máxima del conjunto, en escalas de tiempo que superan la escala de tiempo natural de descomposición del substrato (como transportador de información) en diferentes órdenes de magnitud.>> (Adami, 1998, página 6).

Esta definición hace énfasis a algunas tesis importantes de la VA, entre otras, que la vida deja de ser una propiedad de un sólo objeto y se convierte en un proceso emergente, o que es necesario disponer de una base física en la cual representar la información y un proceso para preservarla, proceso que en la vida que conocemos en la Tierra se basa en la autoreproducción. Finalmente, si la vida es una resistencia al ruido, que permite el mantenimiento de la información, es posible beneficiarnos de los formalismos de la información (…).

En términos generales, podemos decir que la VA estudia sistemas creados por los humanos que exhiben comportamientos característicos de los sistemas vivos naturales con el objetivo general de comprender su funcionamiento y la organización, como también los principios generales que definen la vida (Langton, 1988). Por la VA los organismos vivos son máquinas bioquímicas complejas constituidas por grandes poblaciones de máquinas relativamente simples. La complejidad que observamos globalmente en los organismos se produce por la naturaleza fuertemente no lineal de las interacciones entre las máquinas simples. Entonces, para crear sistemas que puedan generar propiedades parecidas a las de los organismos vivos hará falta (…) organizar una población de máquinas simples de manera que su dinámica interactiva sea compleja y emergente”[5]

Así pues, y esto es muy interesante, la complejidad que encontramos en lo emergente (p.e.: la mente) responde a la aplicación de reglas por parte de sus constituyentes simples (p.e.: las neuronas). Estas reglas se caracterizan por su simplicidad, su aplicación masiva en paralelo (a la vez), su localidad (cada regla hace referencia al entorno espacio-temporal inmediato) y su autonomía (cada constituyente aplica la regla sin consultar con otros constituyentes). A la interacción total de estos constituyentes, que han aplicado la regla, le sigue una no linealidad, es decir, un efecto inexplicable por sus causas. Ninguna regla predecía la conducta del sistema emergente en el cual se observa el fenómeno de la autoorganización, es decir, un comportamiento global del sistema en el que no hay elementos directores de la misma (por ej.: no hay ninguna neurona que “mande” a las otras o que sea la responsable de la conciencia).

Para desarrollar efectivamente estos experimentos están los autómatas celulares. Los autómatas celulares (AC) son máquinas constituidas por casillas que pueden encontrarse en varios estados según reglas aplicadas masivamente y paralelamente. La máquina de Turing fue el precedente más claro de los AC. Luego se han desarrollado simuladores de vida artificial más sofisticados como el CA, el Life 32 o el Starlogo. A continuación presento, mediante capturas de pantalla, algunas muestras de estos autómatas. En todas estas muestras de AC hubo una aplicación masiva y paralela de reglas sorprendentemente sencillas y, en ningún caso, los resultados obtenidos podían predecirse a partir de la definición de reglas tan simples:

Como ya he dicho antes, los AC han sido ampliamente utilizados para el estudio de la vida. No obstante, las capturas anteriores no pretenden reproducir ningún fenómeno concreto de la vida. Veamos, pues, simulaciones de AC que sí pretendan reproducir ciertos fenómenos biológicos. Por ejemplo, los termiteros suelen ser un ejemplo paradigmático para defender el emergentismo. No hay ninguna termita que planifique la construcción del complejo termitero (sus salas especializadas, sus sistemas de refrigeración, etc.).

Veamos concretamente cómo diseñar una simulación de esta conducta mediante AC:

Pongamos a 100 termitas en un espacio discreto (en casillas) y toroidal. Luego pongamos 500 trozos de madera repartidos aleatoriamente sobre este espacio. Ahora hagamos que las termitas sigan las siguientes reglas:

1- Si no has cogido un pedazo de madera, avanza con rumbo aleatorio hasta que encuentres uno.

2- Si encuentras un pedazo de madera (porque estás en una casilla que contiene uno), entonces:

2.1. Si estabas transportando un pedazo de madera, deposítalo en la casilla y avanza con rumbo aleatorio. Luego, repite el paso 2.

2.2. Si no estabas transportando un trozo de madera, coge el que hay en la casilla y avanza con rumbo aleatorio. Luego, repite el paso 2.

Así, al aplicar la regla, progresivamente nos encontramos con algo inesperado:

Este es uno de los muchos ejemplos que encontramos en Vida Artificial. Con AC también ha sido posible simular el vuelo de una bandada de pájaros, el nado de un banco de peces, etc.:

2. Niveles de organización

El concepto de organización lo identifico con el concepto metafísico de “forma” porque creo que tienen exactamente las mismas propiedades. Así pues, en adelante, utilizaré la fórmula “forma / organización”.

En este apartado quiero describir cómo las formas / organizaciones se combinan con la materia a diferentes niveles.

Tomemos como ejemplo la forma / organización del hexágono y exploremos algunas manifestaciones materiales de ésta:

Cuando hablo de niveles de organización me refiero a que una forma / organización determinada se encuentra en un contexto organizativo. Es decir, que una forma / organización se encuentra dentro de otra (una macro-organización) y que, además, está “formada” de formas / organizaciones (micro-organizaciones). Esto quedaría representado, muy simplificadamente, por los siguientes ejemplos:

Lo curioso es que una misma forma / organización podrá formar parte (será micro-organización) de formas / organizaciones diferentes lo cual implicará resultados diferentes. Por ejemplo, según cuál es la estructura cristalina del carbono resultan dos minerales radicalmente diferentes: si el sistema cristalino es hexagonal resulta el grafito, si es cúbico, el diamante. Otro ejemplo: el agua, según se encuentre a una temperatura u otra se encuentra en estados diferentes (sólido, líquido o gaseoso) y por ello, según la teoría cinética, tiene propiedades muy diferentes a pesar de estar formada por los mismos componentes (micro-organizaciones[6]).

Vemos, pues, cómo la forma / organización puede implicar unas propiedades no reductibles a las propiedades de sus componentes. Nótese también que utilizo principalmente ejemplos de estados sólidos de la materia, sin embargo cuando hablo de formas no me refiero sólo a formas estáticas sino que considero que una organización puede estar más o menos organizada. Así, considero que, por una parte, los estados sólido y líquido son los más organizados y, por otra parte, el gaseoso y plasma (fuego) los más caóticos. No obstante, los fenómenos emergentes más interesantes requieren organizaciones ordenadas y caóticas a la vez, puesto que las organizaciones donde coexisten diferentes tipos de estados son más complejos que organizaciones donde no ocurra esto[7].

Concebir las formas / organizaciones estáticamente, al modo de formas geométricas, está siendo una forma ilustrativa de exponer mi pensamiento, sin embargo es insuficiente para dar cuenta de la realidad[8].

Con todo lo expuesto hasta ahora, creo que podrá entreverse el tipo de razonamiento que me gustaría elaborar:

Tomando cualquier forma / organización podemos ir en dos direcciones: 1) hacia un nivel macro y 2) hacia un nivel micro.

El ejemplo de la adenina y sus relaciones macro-micro es un buen punto de partida:

Así, si fuéramos sucesivamente en dirección macro finalmente llegaríamos a un forma / organización que lo abarcaría todo y del cual emergería Dios. A la inversa, en dirección micro, finalmente llegaríamos a la materia prima del universo, la cual pienso que tendría que ser un cúmulo de partículas elementales en movimiento (energía).

3. El movimiento de la materia y las leyes físicas. La creación de formas / organizaciones por el desarrollo necesario.

La novedad de este enfoque teológico está en su planteamiento mecanicista[9] y en su primer principio absoluto: el movimiento eterno de las partículas elementales[10]. Estas partículas son actualmente un absoluto misterio y quién sabe si algún día podremos llegar a encontrar una partícula primigenia. En cualquier caso, para mi exposición necesito ciertos postulados y el principio eterno de la materia en movimiento es uno de ellos[11].

Otro postulado sería que el movimiento sigue ciclos sincrónicamente y diacrónicamente, es decir, sigue diferentes procesos a la vez y a lo largo del tiempo, procesos que al culminar se renuevan[12]. Es más, estos procesos siguen una dialéctica en el sentido que el paso de un momento a otro implica una relación de opuestos. Así pues, el movimiento exige una estructura interna basada en la dialéctica, en la capacidad de contradicción en un marco de adición, de suma de momentos que, contrariándose, mantienen, más allá del instante, una coherencia racional.

De este modo, dentro de la eternidad, la materia del universo no dejaría de moverse y seguir cíclicamente dos procesos principales de expansión y contracción. Es lo que algunos físicos han llamado el Big Bang y el Big Crunch, respectivamente. Así, el momento de máximo colapso sería el momento previo a la expansión de un nuevo universo ordenado[13]. Y es en los primeros momentos de la expansión donde presento lo que yo llamo el “desarrollo necesario”.

El desarrollo necesario, una teoría de índole mecanicista, sería el responsable del surgimiento de las formas / organizaciones.

El desarrollo necesario hace referencia a un desarrollo primigenio, dialéctico[14] y lógico que despliega momentos cualitativamente diferentes hasta su culminación. Cuando hablo de desarrollo necesario me refiero al proceso de génesis que sufre cíclicamente la materia y que se rige por la estructura dialéctica del movimiento[15]. Así, al principio hubo un punto o una esfera (1)[16], que luego, al moverse[17] (siempre dialécticamente), se desdobló y formó la línea (2). De la línea pasó al triángulo (3) y de éste al cuadrado (4). Y más tarde, lógicamente, se llegó al pentágono (5)[18]. Y así el proceso iría siguiendo. En conclusión, el desarrollo necesario supondría la formación de formas / organizaciones elementales[19] en los primeros instantes de la expansión del universo.

Decir que este desarrollo es necesario quiere decir que es imposible pasar del punto al triangulo sin pasar por la creación de una línea. Lo mismo ocurre con la creación de un cuadrado: no podemos llegar al cuadrado sin antes haber estabilizado formas anteriores. Sin embargo, el desarrollo necesario no es un proceso limpio y exacto en el sentido de que se descubre en el medio de un océano de azar, violencia y caos[20]. Por lo tanto, lo que quiere decir que sea necesario es que dentro de esta tempestad habrá un orden necesario de surgimiento de las primeras formas / organizaciones y que serán siempre la base lógica de todo universo.

Luego, con el tiempo, habría un periodo en el que la materia iría adoptando formas / organizaciones cada vez más complejas y en un número cada vez más elevado[21]. Así hasta llegar a una masa crítica, es decir, a un punto culminante en cantidad y calidad de formas / organizaciones que permitiera la emergencia de leyes físicas más complejas y, con ello, formas / organizaciones revolucionarias como las estrellas, los planetas, la vida y, finalmente, el fenómeno emergente más maravilloso: Dios.

4. El resultado de la organización total: Dios

Dicho intuitivamente, las conexiones neuronales, de naturaleza eléctrico-química, presentan una forma / organización similar al universo conocido, el cual también está interconectado aunque a través de la gravedad, los rayos cósmicos y otras fuerzas. Esta supuesta misma forma / organización[22] se situaría claramente en niveles diferentes, en contextos muy diferentes, sin embargo esta forma / organización podría ser una de las condiciones indispensables para que las relaciones entre estos diversos elementos siderales formaran unidad y así emergiera una mente y una conciencia, “la sensación de penetración unitaria e integración de la totalidad del organismo[23].

Supongamos que podemos concluir satisfactoriamente que Dios es un fenómeno emergente ¿Qué consecuencias tendría desde un punto de vista teológico?

En mi opinión, lo más sorprendente sería hablar de un Dios no creador del universo[24]. Un fenómeno emergente surge en un momento posterior a la base desde la cual ha emergido; así, Dios habría emergido cuando el universo se hubiera configurado debidamente. Hasta entonces el universo habría funcionado mediante leyes sencillas. Con el tiempo, y al poner masivamente en interacción compleja[25] a trillones de formas / organizaciones, un nuevo ser emergería en el gran cosmos: Dios.

Luego, una vez emergido, sería planteable que Él pudiese influir en el cosmos del mismo modo que la mente emergida (o supervenida) influye en el cerebro (causalidad descendente) lo cual es constatable, por ejemplo, en las enfermedades psico-somáticas.

Es interesante constatar que la propuesta de esta exposición sería congruente con el estatuto ontológico del demiurgo de Platón en El Timeo. Igual que el Dios que concibo, el demiurgo tenía poder sobre la materia aunque no era creador de ésta. Además, el demiurgo se retiraba cíclicamente[26] a su atalaya. De la misma manera, por el proceso cíclico de expansión y contracción del universo, Dios nacería y moriría cíclicamente. No obstante, a diferencia del demiurgo, la dependencia de lo emergido respecto a su base material implicaría que Dios, en la etapa joven del universo, fuera un Dios joven. Así, Dios no sería perfectamente omnisapiente (igual que considero que no sería completamente omnipotente) e iría madurando con el tiempo.

Por último, de esta concepción de Dios quería hacer un reflexión ética. El modelo ético que sigo parte de la idea más o menos estoica y darwinista de aceptación y adaptación total a la realidad, la cual considero que, en un último término, implica un proceso interno de “liberación”: de autorealización, autoconsciencia, autocontrol, etc. Es decir, a la vez que la adaptación al entorno supone un proceso externo -experimentar y conocer este entorno- también es necesario experimentarse y conocerse, puesto que uno mismo, por un lado, supone la esfera más íntima y subjetiva del mundo objetivo y, por otro lado, es el instrumento de medición de dicho mundo objetivo.

Y es que gracias a la evolución, después de millones de años, el ser humano ha desarrollado ciertas capacidades como la razón y la intuición que, susceptibles de aprovechamiento mediante un adecuado aprendizaje, supondrían la posibilidad de absoluta concienciación con el entorno y que sería algo así como la experiencia mística del nirvana, algo así como sintonizar con la naturaleza emergente de Dios y, a la vez, con su base material organizada. De esta manera, supuestamente, estaríamos siguiendo la voluntad mejor posible en el estado de cosas actual, lo cual, como he escrito antes, no significa que con el tiempo no pudiese mejorar o, al menos, cambiar.

¿Y cuál sería este adecuado aprendizaje que hacía referencia en el párrafo anterior? Es curioso observar que aquellas tradiciones que han perseguido estados de trascendencia siempre han tenido como conocimiento último un tipo de conocimiento que para la mente científica resulta vaga: los símbolos (y con ellos, el pensamiento analógico). Sin embargo, las formas / organizaciones, de existir como defiendo, jamás podrían ser definidas y comprendidas sino al modo de símbolos. Dicho de otro modo, cuando hablo de símbolos lo contrapongo a cuando hablo de conceptos. Un concepto sí se puede definir con certeza, sin embargo los símbolos, por hacer referencia a entidades como las formas / organizaciones realizables en pluralidad de contextos, no pueden definirse de forma concisa. En su lugar, el estudio de las formas / organizaciones es triple: por un lado, listando cada forma / organización en su pluralidad de realizaciones; por otra,  definiendo las propiedades geométricas y aritméticas de tales; y por último, haciendo un trabajo personal de integración e interiorización de la información obtenida.


[1] Soy consciente de que estoy siendo exagerado al hablar de “demostración” y ello por mucho que diga que es un “intento”. Los problemas demostrativos se cuentan por decenas, no obstante, intentaré construir un discurso coherente a partir de conocimientos, conceptos y teorías que hoy en día cuentan con cierto reconocimiento. Así pues, véase mi exposición como una gran hipótesis que quizás jamás pueda ser contrastada. No obstante quiero acogerme al principio precautorio que dice que la ausencia de evidencias no es evidencia de ausencia. A falta de evidencias presentaré diferentes postulados que me servirán para ir erigiendo mi razonamiento. En cualquier caso, me parece que dichos postulados no son insensateces. Además, parece razonable pensar, al menos desde mi posición epistemológica, que es imposible llegar a la total certeza de un ser tan sublime como Dios sin antes haber llegado a la total certeza de la naturaleza humana, la vida y la física en general. Y quién sabe si precisamente por ello jamás tendremos un conocimiento certero de Dios.

[2] Supone reconceptualizar el pensamiento tradicional y actualizarlo con los conceptos más modernos en el campo de la epistemología y, en general, de la filosofía y la ciencia.

[3] Así, según la teoría del emergentismo, lo emergido es una nueva organización de la materia. Es decir, surge una nueva estructura, una nueva disposición de las partes que genera un nuevo todo.

[4] Quera, V., Salvador, F. i Miñano, M. (2005). “Fonaments de vida artificial”. Palma de Mallorca: FUNTAP [Se puede encontrar una versión inicial en formato de libro electrónico en: http://www.afuntap.com/fva/index.html%5D

[5] Íbid.

[6] Aclarar que los conceptos “micro-organización” y “macro-organización” son relativos. Es decir, una forma / organización A es “micro-organización” en cuanto que forma parte o es constituyente de una forma / organización B. Al mismo tiempo, esta misma organización A es “macro-organización” en relación a sus constituyentes (y que serán, pues, “micro-organizaciones” respecto a él).

[7] Y ya hemos visto que la complejidad es uno de los factores que posibilita la emergencia.

[8] Para empezar, ya he mencionado que hay otros estados de la materia además del sólido. Además, las formas / organizaciones, sobretodo las más macro (las más complejas), llevan consigo diferentes patrones de procesamiento de información. Una de las claves de las formas / organizaciones es que pueden mover y/o procesar micro-organizaciones. Dos ejemplos: por un lado, el agua o la plata, por sus propiedades, son buenos conductores de electricidad; y, por otro lado, los sólidos son buenos conductores de vibraciones sonoras.

[9] Nótese las semejanzas de esta teoría con la de Demócrito.

[10] Así, al ser el movimiento eterno, no habría una causa primera que lo generara.

[11] El inicio de todo es incognoscible, no es posible concebir la necesidad del ser o el principio de éste a partir de la nada. Sólo cabe la eternidad del movimiento y de la materia prima.

[12] El ciclo conforma así la esencia necesaria para que el movimiento no deje de cambiar de un momento a otro.

[13] En el momento de máximo colapso, la ingente cantidad de energía imposibilitaría el orden.

[14] Considero muy sugerentes las aportaciones del epistémologo Gregory Bateson, quien, desde la perspectiva de la cibernética, identifica el proceso de diferenciación como la ley que rige los procesos mentales (“la esfera gobernada por distinciones y diferencias”), la Creatura. En contraposición a esta esfera está la “crudamente física gobernada sólo por fuerzas y choques”, el Pleroma. Bateson tratará extensamente esta cuestión: “Lo que del territorio puede ser delineado como mapa (recuérdese la distinción entre mapa y territorio de Alfred Korzybski) es la noticia de la diferencia” lo cual es “sinónimo de información”. Añade: “Cuando este reconocimiento de la diferencia fue considerado junto con la clara comprensión de que la Creatura estaba organizada en series [trenes] circulares de causación, como las que describe la cibernética y que estaba organizada en múltiples niveles lógicos, concebí una serie de ideas que juntas me permitieron entender sistemáticamente el proceso mental como algo diferenciado de las secuencias simplemente físicas o mecanicistas, pero sin concebirlo desde el punto de vista de dos “sustancias” separadas. Mi libro “Mind and Nature: A Necesary Unity” combina estas ideas con el reconocimiento de que el proceso mental y la evolución biológica son necesariamente análogos en estas características de la Creatura”. Bateson, Gregory y Mary Catherine, “El temor de los ángeles: Epistemología de lo sagrado”, Ediciones Gedisa, Barcelona, 2000. Respecto a lo anterior citado: ¿Qué consecuencias tendría relacionar el proceso de diferenciación propio de la mente y la dialéctica desarrollo necesario? ¿Hasta qué punto la dialéctica es el movimiento necesario para la diferenciación? ¿Qué plantea que el desarrollo necesario pudiese ser un proceso mental?

[15] Insisto en que todo este movimiento estaría regido, además de por esta dialéctica, por las leyes de la física más simples.

[16] Las formas / organizaciones estarían metafísicamente relacionadas con los números.

[17] El movimiento tiene implícita la dirección. Ésta surge del movimiento. Un punto estático al moverse lo tiene que hacer en alguna dirección. Así, automáticamente, se crea un delante, un detrás, una derecha, una izquierda, etc. Por otra parte, el movimiento también tiene implícito el espacio (como fondo). En este caso, un espacio infinito y eterno. No obstante, podría ser que el movimiento, por su fogosidad, se hiciera hueco, creara espacio. En cualquier caso, esta cuestión, aunque interesante, no es imprescindible para el desarrollo de mi exposición.

[18] Una de las formas de entenderlo es que a partir de la estrella de cinco puntas (5) se repitió el ciclo en combinaciones más complejas. La estrella de seis puntas (6), por ejemplo, se compone de dos triángulos (3+3).De todas maneras, véase apéndice. El gráfico muestra posibles formas de entender este desarrollo (representándolo sólo en 2D). No he considerado oportuno profundizar más pues introducir aquí un análisis sobre la relación entre la geometría y la aritmética nos alejaría de la cuestión de esta exposición. La idea de fondo es dar un valor ontológico y óntico a la forma / organización; proponer la existencia de unas formas / organizaciones básicas (comunes) con su razón de ser. Por otro lado, también se darían formas / organizaciones más especializadas y que serían algo más que la unión de formas / organizaciones básicas.

[19] Y de la misma manera que el carbono según su estructura puede ser cosas tan diferentes como el grafito o el diamante, cada número y/o forma / organización tiene sus propiedades diferenciadoras.

[20] Por la ley del caos, pequeñas variantes en los primeros momentos del Big Bang pueden ocasionar grandes diferencias en el desarrollo de los diferentes universos aunque, por el desarrollo necesario, habrían las mismas formas / organizaciones. Por ejemplo, encontraríamos necesariamente los mismos átomos puesto que sería imposible un universo donde se formara carbono y no hidrógeno o helio. De todas maneras, a causa de estos diferentes Big Bangs emergerían Dioses diferentes. En caso contrario, si los Big Bangs fueran exactamente iguales, ahora estaríamos repitiendo exactamente la misma historia universal.

[21] Para no sobrecargar el ensayo he omitido integrar la teoría del biólogo Rupert Sheldrake sobre los campos mórficos. No obstante quería mencionarla: esta teoría defiende que el espacio está lleno de información flotante, inmaterial, nacida de la materia pero independiente (en un sentido especial) una vez aparecida en el mundo material: “El rasgo principal es que la forma de las sociedades, ideas, cristales y moléculas dependen de la manera en que tipos similares han sido organizados en el pasado. Hay una especie de memoria integrada en los campos mórficos de cada cosa auto-organizada. Concibo las regularidades de la naturaleza como hábitos más que cosas gobernadas por leyes matemáticas eternas que existen de alguna forma fuera de la naturaleza” Sheldrake, Rupert, “Una nueva ciencia de la vida. La hipótesis de la causación formativa”, Editorial Kairós, Barcelona, 2007. Véase también lo referente al nivel de “diseño” en la “Evolución de la libertad” del filósofo Daniel C. Dennett, Editorial Paidós, 2004.

[22] Estructuras de redes complejas donde la información fluye con libertad y plasticidad. No obstante, aunque atribuya a las formas / organizaciones cierta ontología, mi tesis -acerca de que de la forma / organización total del universo surgió algo similar a una mente cósmica- requiere resolver muchas cuestiones que surgen de la comparación mente – Dios. Por un lado, la mente del ser humano es fruto de la evolución, es decir, es el resultado de un recorrido milenario hacia una mejor adaptación al entorno. En base a este pretexto, la mente surgió y, además, lo hizo al unísono con el lenguaje. En el caso del universo ¿Para qué el universo iba a necesitar una mente? Y si fuera el caso ¿Esta necesidad no se debería a un entorno al cual adaptarse? Por otro lado, mi propuesta también debería hacer frente a las críticas que recibió el funcionalismo de H. Putnam por parte, por ejemplo, de Searle (habitación china) o Ned Black (mente china). Así pues, véasen los límites de la analogía mente humana – mente cósmica.

[23] Montserrat, Javier, “Epistemología evolutiva y teoría de la ciencia”, Publicaciones de la Universidad Pontificia Comillas, Madrid, 1987.

[24] Eso resolvería los problemas que se derivan de la creación ex nihilo.

[25] Al mencionar la complejidad quiero subrayar lo que antes he llamado “niveles de organización”.

[26] El Forastero cuenta que una vez finalizado el tiempo de la primera edad del universo, la divinidad abandona el control del mundo (la caña del timón) y se retira a su atalaya, dejándolo gobernado por el destino y la pasión connaturales. Las divinidades encargadas de velar por los grupos de seres lo imitan y también se retiran  (El Político, 272e-273a).

abril 6, 2010

Historia de las TIC digitales y sus impactos culturales

Filed under: Uncategorized — Aleix Mercadé @ 7:42 am

A) INNOVACIONES de las TIC digitales

Probablemente, la innovación más importante sea el ordenador digital, es decir, la invención del hardware (sistema físico de una computadora) y el software (sistema de instrucciones instaladas en la computadora como Cobol, Fortran, Pascal o Lisp). La invención y desarrollo del chip, un circuito electrónico formado por miles de transistores, sería la condición de posibilidad para que los ordenadores fuesen una realidad cada vez más pequeña. Y así es, la miniaturización permitió encoger cada vez más todo tipo de artefactos.

Los sistemas electrónicos iban a transformar todos los sistemas hasta ahora mecánicos, eléctricos y electromecánicos. Desde la fotografía, la imprenta, el teléfono, hasta la radio, la computadora y la televisión, todos estos artefactos sufrirían esta profunda trasformación la cual se beneficiaba en términos de espacio y velocidad de transmisión.

Una innovación inherente a la invención del software fue el sistema binario, desarrollado por el matemático Alan Turing. Los dígitos se erigieron así como el lenguaje de las computadoras.

En cuanto a la comunicación, el mercado de petróleo de Rótterdam es una realidad que sólo fue posible con la invención de un sistema de redes que conectase a tiempo real lugares de todo el mundo. Este mercado es un sistema de télex y radio que conecta todo los intercambios mercantiles marítimos del mundo. El mercado de valores o el mercado de divisas son otros dos sistemas que muestran la unificación de la economía mundial y ello gracias a la velocidad y a la inmensa capacidad de las redes para gestiona la inmensa cantidad de operaciones por segundo.

La evolución de las redes de comunicación ha causado la descentralización. Antes eran grandes concentraciones en las grandes urbes pero ahora, desde casi cualquier punto del mundo, uno puede practicar todo tipo de operaciones económicas, relacionadas con software, etc.

Por otro lado, el desarrollo de teorías fue el principio de importantísimas innovaciones, tanto para desarrollar conocimiento como para generar bienes. Antes, los inventores no tenían conocimiento sobre las teorías que sustentaban sus invenciones. Fruto de esta nueva forma de relacionarse con el conocimiento teorético, están ciertas invenciones en la óptica como el láser, la holografía, la fotónica, los cuales se basaron en la teoría desarrollada por Einstein sobre el efecto fotoeléctrico. Otra base teórica que permitió todo tipo de innovaciones fue el modelo del átomo de hidrógeno de Niels Bohr. Esta teoría permitió la innovación del transistor (que es la base de la moderna electrónica y el ordenador).

A nivel organizativo tenemos como grandes invenciones: la integración vertical que fue una de las grandes innovaciones y que consistió en el control de todos los aspectos de la producción de un producto. Esta creación se debe a Walter Teagle de la Estándar Oil de Nueva Jersey. También, inspirado en las redes de ferrocarriles, Theodore N. Vail reformó el sistema de la American Telephone and Telegraph Co. de forma que estuviese integrado en un único sistema. Y además, Alfred P. Sloan diseñó el modelo de corporación que se basaba en el sistema de controles financieros y la contabilidad presupuestaria. Esto supuso la racionalización de la General Motors.

B) NUEVAS TECNOCIENCIAS DIGITALES

La informática no podía sino ser una de las nuevas tecnociencias digitales. La gran cantidad de información, el elevado número de desplazamientos y operaciones, tenía que desembocar en el desarrollo de una ciencia que se ocupara del desarrollo y el control de todo esto. Con el proyecto Manhattan y los posteriores desarrollos, la informática tomó una importancia muy significativa pues permitió diseñar y construir la bomba atómica. Desde entonces, toda la investigación científica iba a integrar la informática sin la cual no podría desarrollarse de la manera que lo estaba haciendo.

Los precedentes de esta ciencia se dieron en la burocracia. De hecho, antes de la invención del chip y del desarrollo electrónico de los ordenadores, el potencial de la informática se comprendió a partir de las tarjetas perforadas para el censo de EEUU que ideó Hollerith o para programar el trabajo de los telares. La gran capacidad para controlar, ya sea burocráticamente en el caso del censo o técnicamente en el caso del proyecto Manhattan, supuso un antes y después en el proceso del control.

Así pues, vemos el desarrollo de la ciencia de la cibernética, gracias a esta nueva concepción de la comunicación, del procesamiento de la información y del control.

Como había ocurrido con la física nuclear, pronto la informática se fusionó con otras ciencias. Una de las más influyentes en nuestra época es la bioinformática la cual, en términos computacionales, estudia la vida. El proyecto del Genoma humano parece ser el ejemplo paradigmático de ésta. Además, la ingeniería genética se ha ocupado de tratar genéticamente los alimentos, las plantas, los animales, incluso la propia secuencia génica del ser humano. El impacto que causan estas innovaciones en el entorno biótico no tiene precedentes.

C) SOCIEDADES QUE EMERGEN A PARTIR DE A) Y B) Y LOS IMPACTOS DE LAS MISMAS

A partir de las innovaciones y las nuevas tecnociencias digitales, emerge una sociedad transformada. Las comunicaciones permiten que todo esté conectado a tiempo real por lo que la estabilidad o la inestabilidad de la economía de un país depende directamente de cómo va la economía en el resto de países. El hogar, cada vez más digitalizado, queda totalmente revolucionado por las tecnologías de la información y del control, por ejemplo, en la seguridad de las alarmas, la programación de la temperatura o la televisión y, por supuesto, el gran centro de operaciones en nuestra casa: el ordenador personal (PC) e internet. Esto produce, a nivel administrativo, el problema de la gestión a escala el cual se caracteriza por una administración pública incapaz de tratar la cantidad y diversidad de las propuestas, acciones, etc., de su sociedad e incapaz, también, de tratar los problemas comunes con otros países como la economía o el bien ecológico del planeta.

De esta manera, debido a la revolución de las comunicaciones y el modo de gestionar la información, emerge una sociedad fácilmente interconectada entre sí mediante redes de comunicaciones como internet, el teléfono y otras tecnologías que hacen cada vez menos prioritario el desplazamiento físico de las personas y la información. De esta manera, el factor localización se hace cada vez más irrelevante en el caso de la economía, pues dadas las facilidades en las comunicaciones y el alto coste del suelo en las ciudades, optan por la descentralización. Las ciudades, así, se vuelven, cada vez más, centros de intercambio cultural.

La automatización, mediante programas informáticos, de los procesos de producción industrial y agrícola, configura la ocupación del hombre en el procesamiento, el control y la información. Esta automatización es la causa de los salarios bajos con fines competitivos y de las producciones flexibles con fines personalizables al cliente y que, a su vez, implican diversificación.

Vemos cómo de esta manera la sociedad se va centrando en los servicios, los cuáles están en completa expansión y tienen una total importancia desde el punto de vista de la productividad. Servicios sociales como la educación y la sanidad aseguran e incrementan la capacitación intelectual y técnica, en un caso, y la salud de las fuerzas productivas, en el otro. También, servicios profesionales como los modos de distribución o programación del trabajo ayudan a mejorar la eficiencia de las empresas.

Por último, surge un nuevo principio basado en la innovación del conocimiento en el contexto de la tecnología. El conocimiento, no obstante, queda dividido en conocimiento útil, de naturaleza técnica, y conocimiento general, de naturaleza improductiva.

marzo 9, 2010

Innovaciones y estabilizaciones de la cultura científica moderna (2)

Filed under: Uncategorized — Aleix Mercadé @ 2:17 pm

Con la electricidad iba a nacer una nueva forma de hacer ciencia. El nuevo científico practicaba una doble vida: una seria y otra lúdica. La primera la practicaba en su laboratorio, la segunda la pasaba de fiesta en fiesta, siempre privadas, donde ofrecía un espectáculo casi de feria con el fin de sufragarse sus investigaciones. Este es el caso del precursor de la teoría atómica en química, Bryan Higgins y de John Dalton, J.B. Priestley, F. Hanksbee, Desarguiller, etc. El interés por engendrar fenómenos y procesos dominó sobre las finalidades exhibicionistas. El fin último era buscar la utilidad a todo ello y no había distinción entre un elemento natural y un elemento artificial.

El hecho de que la electricidad fuera un fenómeno desconocido en la teoría y en la práctica supuso que se perfilara como lo no habitual, como lo nuevo, lo cual lo hacía especialmente atrayente. Ello lo convirtió en una posible práctica para aventureros sin preparación, imaginativos y creativos lo cual irritaba a los filósofos mecánicos. Los nuevos sabios ya no serían eruditos en matemáticas y mecánica, ni perfeccionadores de instrumentos. Ahora debían ser innovadores para poderse considerar investigadores. Lo característico era la libertad para experimentar e innovar dadas las muchas posibilidades de descubrir. Esto supuso la pérdida de un sistema único. Los fenómenos fueron vistos como consecuencia de la acción del científico quien es casi su inventor. La intervención experimental en cuestión alcanza y constituye, hasta cierto punto, el objeto y la realidad.

Volta apiló discos de igual tamaño de cobre y de cinc, sólo o con estaño, alternados, que llevaban intercalados entre cada uno de ellos un paño humedecido. Esta “pila de discos” empezaba y terminaba con discos de diferente tipo. Conectando con un alambre los discos situados en los extremos logró que fluyera un flujo eléctrico. La invención de la pila llevó a otras importantes innovaciones como la descomposición del agua mediante la electrolisis.

Berzelius desarrolló su teoría electroquímica en la que cada combinación química está constituida binariamente por un polo positivo y otro negativo. Como innovación simbólica, Berzelius, creó la formulación química. Como símbolo de una sustancia simple o elemento se emplea la inicial de su nombre griego o latino, seguido en algunas ocasiones de una segunda letra en minúscula.

En el campo del electromagnetismo destaca Oersted, Apere y, sin duda, Faraday. Éste gran inventor es responsable de la inducción electromagnética gracias al siguiente experimento: se enviaba una corriente de valor variable a través de una bobina de hilo metálico y se hacía nacer una corriente pasajera en una bobina vecina: el mismo efecto era obtenido si se empleaba una corriente constante recorriendo una bobina móvil o, lo que era lo mimo, un imán permanentemente instalado en la proximidad de una segunda bobina de hilo metálico. Este experimento pone en evidencia el principio fundamental de la dinamo.

En el campo de la termodinámica encontramos a Joule quien, a partir del descubrimiento de Faraday, conectó causalmente la mecánica y el calor. Helmhotz, y otros, a partir de Joule, pudo generalizar los principios mecánicos del movimiento en el conjunto de los procesos térmicos. Con esta disciplina las leyes tomaron un carácter probabilístico con los cual el instrumento matemático sufriría una mutación decisiva

Se formaría una subcultura de filósofos experimentales con su propio entorno simbólico (lenguaje especializado, literatura, etc) y, por supuesto, su propio entorno material (constituido en los laboratorios), etc. La química se presenta como disciplina natural básica. En el S. XIX, surge la necesidad de distinguir la ciencia de la filosofía. W.Whewell designa a los hombres que se consagran a la ciencia: “scientists” en lugar de “sabios” o “filósofos naturales”. Implicó una estabilización simbólica fruto de la estabilización organizativa de los científicos.

Benjamin Franklin probó que los relámpagos eran fenómenos eléctricos. Al mismo tiempo demostró que podía generar electricidad artificialmente. Entre Oersted y Faraday se establecieron las bases de la industria eléctrica lo que llevó a la electrificación de los entornos urbanos.

La diferencia entre el experimento de la filosofía mecánica y de las nuevas ciencias es que las nuevas ciencias, mediante instrumentos, construyen de forma homogénea y de forma recíproca un único corpus. Ello gracias también al desarrollo deductivo que por ejemplo se ejemplifica con N. R. Hanson y el descubrimiento del electrón positivo como deducción. Más tarde, Anderson, lo descubrió experimentalmente. Así, se combinaba teoría y experimentación para acrecentar el campo y las probabilidades de invención.  Blacket y Occhiliano establecieron que la deducción teórica no era pura especulación y que la observación del experimentador no era pura ilusión. Con la inclusión de la mecánica en la física y la química se inicia un proceso de unificación en un solo sistema de todo aquel nuevo conocimiento que había estado hasta entonces completamente disperso. Lavoiser y Coloumb son ejemplos de quienes introdujeron la mecánica y la matematización en tal conocimiento.

Para entonces, la mecánica es absorbida por la nueva física. Así pues, hay una inversión: los principios que rigen los fenómenos del electromagnatismo, de la óptica, la radiación, deberían dar la base que permita comprender choques, movimientos, atracciones y repulsiones.

J. C. Maxwell, en referencia al éter, intuye la teoría de la relatividad que Einstein más tarde desarrollaría. La luz dejaría de tener una velocidad infinita. Se entiende que el tiempo es necesario para la propagación de una señal o el desplazamiento de un impulso de un punto a otro. No hay una única medida de tiempo. Cada sistema tiene su propio tiempo. También se descubriría que la masa y la energía son dos aspectos de un proceso material único.

En química orgánica tenemos como ejemplo paradigmático del nuevo método sintético a Wöhler quien produciría urea por evaporación de la sal amoniacal del ácido orgánico. Fue posible la creación de propiedades idénticas a partir de substancias diferentes. M. Berthelot haría un progreso decisivo: partiendo de los elementos hidrógeno y carbono (y no de cuerpos simples ya constituidos) se hace la síntesis del acetileno por medio del arco eléctrico. Esto desestabilizaría completamente la noción de intervención por parte de una fuerza vital en la composición de las materias orgánicas (la concepción vitalista no aceptaba reducir la vida a explicaciones fisicoquímicas). En adelante sería posible hacer realidad en un laboratorio todas las substancias que se pudieran concebir.

Otra gran aportación que no podía dejar de mencionar es la tabla de Mendeléjeff la cual supuso la clasificación de 65 elementos entre el hidrógeno y el uranio. Con el descubrimiento de la radioactividad se completó, incluso los que los hombres habían inventado.

Innovaciones y estabilizaciones de la cultura científica moderna

Filed under: Uncategorized — Aleix Mercadé @ 2:07 pm

El modo de producir innovaciones de la cultura científica moderna se caracteriza por una clase de científicos que basaban su ejercicio en la experimentación. Respecto al modo de experimentar anterior, el número de experimentos se reduce lo máximo posible. Ya no se trata de hacer muchos experimentos diferentes sino hacer uno o muy pocos. Es decir, se trata de buscar el experimento crucial. Eso sí, el experimento, como si fuera una demostración matemática, debía estar perfectamente controlada mediante instrumentos de cálculo y medida, y su resultado debía ser lo que se quería demostrar. Es visible, pues, la similitud del experimento con la teoría. Los instrumentos, a la vez, eran perfeccionados mediante esta forma de operar. Así pues, matemáticas y mecánica están relacionados así de forma especial: las matemáticas se convierten en mecánicas, lo cual permite explicar cualquier fenómeno físico. La explicación tan sólo depende de su capacidad metrizante.

El proceso de teorización de la balística de Tartagli supone un buen ejemplo. Experimentaba disparando proyectiles para saber qué ángulo era el mejor para que éstos llegaran lo más lejos posible. Con ello quería probar ciertos teoremas sobre el movimiento de los proyectiles y así, poniendo en crisis a Aristóteles, definió el movimiento parabólico como la suma del movimiento uniforme y la caía uniformemente acelerada.

La relación entre teóricos y artesanos se caracteriza por el trabajo de los teóricos cuyo ocupación consiste en la Construcción del instrumento a partir de un criterio refinado a base de experimentar y teorizar. La teoría servía a los artesanos para que evitaran errores contraproducentes y pudieran mantener la coherencia entre su obrar y el límite natural de la ley de la causa y efecto, por ejemplo, como ocurrió con la ilusión del movimiento perpetuo

Los trabajos sobre óptica y astronomía se hicieron a partir del desarrollo de las lentes de Galileo. Lo mismo ocurrió con el reloj de péndulo de Huygens el cual fue un instrumento básico para el desarrollo de la mecánica teórica y práctica. Galileo y Baliani, buscando cómo solucionar la elevación del agua en minas profundas, llegaron a inventar, gracias al estudio y a la identificación del problema con la presión atmosférica, bombas de agua que crearan el vacío y así tuvieran suficiente impulso. Torricelli, buscando esclarecer si el espacio estaba formado de materia sutil o de vacío, inventó el barómetro y la bomba atmosférica.

La imprenta permitió que las obras de Galileo, Tartaglia, Newton, Lutero, etc. Configuraran, a nivel nacional y continental, un nuevo panorama cultural, como por ejemplo ocurrió con el protestantismo. La información se hizo más accesible y ello supuso que la cultura estuviese más y mejor unida. La mecánica se concebía, por culpa de la tradición metafísica estabilizada en la religión, como algo antinatural. El paso, pues, era naturalizar la mecánica para llamarla Física El interés por un método común iba a ser una de las características de esta época. La búsqueda de la unidad quedó paradigmáticamente ejemplificada en Newton cuando consiguió, con unos pocos principios, unir la mecánica celeste de Kepler con la mecánica terrestre.

El método experimental, que se hacía directamente para obtener nuevas observaciones, nuevas combinaciones y así producir nuevos efectos, tenía como objeto el descubrimiento de instrumentos mecánicos de objetivos muy concretos. La teoría no era sino una ocupación posterior a la explicación del instrumento para los artesanos. Todo esto configuró un método que una vez estabilizado empezó a hacer producir conocimiento. Por ejemplo, Isaac Newton perfeccionó el telescopio de Galileo y ello supuso el desarrollo de la óptica. Además, descubrió cómo descomponer la luz blanca en siete colores elementales. Se sirvió del método experimental y de su análisis, derivando así tal conocimiento.

Descartes se interesa por un método que asegure la exactitud y la eficacia de los descubrimientos. Leibniz, a diferencia de Descartes, abre el método más allá del individuo encerrado en su cogito y presenta un método común a desarrollar conjuntamente. Así el método se convierte en un objetivo común en el que cada teórico concentrará su trabajo y así tal elaboración se irá convirtiendo en una metodología común. La revolución filosófica lleva a la desconfianza por la filosofía natural pues ésta se basa en el método experimental. Está el problema de la observación pues se interpreta que tiende al engaño. De ahí ,el interés en que las observaciones sean variadas y coherentes entre sí, y que tales observaciones sean lo más fiables posibles, con tal de asegurar la certeza del conocimiento. No obstante, los problemas tendrán que ver con la inducción, la elección de las observaciones, etc. La nueva filosofía iba a solucionar todo esto. Ésta, basada en la deducción, sólo escogía las observaciones que pudiesen controlar y reproducir. Además, aunque Galileo utilizara lentes al utilizar el telescopio y éstas distorsionaran la realidad, la nueva filosofía, mediante reglas, no iba a renunciar a los instrumentos. Todo lo contrario. No obstante, la exclusión del sujeto y su sustitución por los instrumentos iba a asegurar la certeza. Ello implicaba el rechazo de las cualidad secundarias pues tanto eran fuente de error, relativas al sujeto y difícilmente cuantificables.

marzo 1, 2010

La influencia del contexto en el verbo

Filed under: Uncategorized — Aleix Mercadé @ 3:12 pm

Después de analizar la estructura argumental y analizar el lenguaje en términos de roles temáticos, el siguiente paso es atender al tipo de evento involucrado y ello dependiendo de su distribución temporal. La relación entre sintaxis y semántica vuelve a ser muy estrecha: según los complementos y los adjuntos, y cómo estos están dispuestos, un mismo verbo definirá un tipo de evento u otro. La forma del tiempo verbal, así como los lexemas, determinarán también en buena parte lo que aquí ahora está en juego: definir la estructura eventiva.

(1) Juan pintaba

(2) Juan ha pintado un elefante

¿Qué elementos hay en juego? ¿Qué análisis podrá hacerse con esta nueva propuesta? Como primer contacto, e intuitivamente, en el caso (1) encontramos una acción que transcurre en el tiempo, sin más. En cambio, en el caso (2), encontramos una diferencia y es que la acción ha culminado con un resultado: un dibujo de un elefante. El mismo verbo (pintar), según el contexto, tiene lo que se llama “estructuras eventivas” diferentes.

Vendler, en 1967, planteó la estructura eventiva como una categoría semántica asociada al sintagma verbal y que permitía hacer distinciones relativas a la estructura temporal que la situación denotada por el verbo requiere para su desarrollo. Vendler diferencia dos tipos básicos: El estado, que define como una representación semántica que describe propiedades de una entidad en un momento determinado, por ejemplo: Ana está embarazada; y los eventos, que define como descripciones de acciones o actividades que se realizan en un lugar y en un tiempo y de una manera determinada, por ejemplo: Vicente caminaba. Cuando este tipo de acción va acompañada de otro proceso o el mismo proceso va seguido de un estado, entonces Vendler considera que es un evento complejo; de lo contrario, simple.

Es muy interesante seguir profundizando en estos tipos pues Vendler hace un agudo estudio de ellos. En el caso del primer tipo, los estados, el autor hace observar que representan modos de acciones correspondientes a verbos que designan situaciones no dinámicas.

(3) Juan es alto

Este ejemplo de estado no revela un proceso pues ello implicaría cambios que al fin y al cabo harían de ello algo dinámico. En el análisis de Dowty (79), a los estados se les puede aplicar la siguiente diferenciación: o bien los estados son permanentes, como en el caso de (3), o bien no son permanentes, como ocurriría con “Pedro está feliz”[1]. Dick, por su parte, advierte que en los estados no interviene el control. Además, en contra de lo que propone Dowty, considera que un estado es siempre permanente.

En el caso del segundo tipo, los eventos, Vendler hace una triple diferenciación que ejemplifican las siguientes oraciones:

(4) Maria pintaba

(5) Maria pintaba un cuadro

(6) María terminó el cuadro

Primero, tenemos las actividades, las cuales son eventos que acontecen en un tiempo relativamente largo, son dinámicas y sus partes son homogéneas entre sí. La acción carece de fin. Segundo, tenemos las realizaciones, las cuales tienen la misma estructura que las actividades y, además, se les añade un componente estructural nuevo: el límite o fin. Tercero, tenemos los logros, los cuales son eventos que expresan cambios de estado inmediatos. No hay duración como en el caso de las actividades o las realizaciones, sino que la acción es puntual e instantáneo, como con los verbos disparar, toser, clickar, morir, encontrar, acabar, llegar, etc. No obstante, es concebible que en el uso cotidiano del lenguaje digamos cosas como:

(7) Aquel animal estaba muriéndose

(8) Mi tío estaba tosiendo

lo cual es fácilmente explicable, sin embargo sería extraño decir:

(9) *La bala estaba impactando en su blanco

En semántica conceptual, Jackendoff identifica dos tipos básicos: los estados y los eventos, y dentro de los eventos sólo reconoce a dos: el logro y las actividades. ¿Qué ocurre con la realización que ilustraba (5)? Jackendoff relaciona cada tipo con una imagen y así resulta:

Estado:               [   ]

Logro:              -[-   ]

Actividades:       —-

La realización, así pues, se puede deducir de la combinación de los tres:  —-[-  ]

Otra propuesta interesante es la de Pustejovsky. El autor identifica la estructura eventual con un conjunto de eventos. El análisis está en establecer la relación entre eventos. Estas relaciones pueden representar: partes de; secuencias; solapamientos; o la combinación del solapamiento y la secuencialidad. Además, en dicho análisis, Pustejovsky indica dónde está el núcleo y concibe tres tipos de eventos: procesos, estados y transiciones. Algunos ejemplos:

(10) Build: ________ e1* < e2 ________proceso

(11) Arrive: ________e1 < e2*________ logro

(12) Give: ________e1* < e2*________transición

(13) Buy: ________e1* overlaping e2 ________transición

(14) Sell: ________e1 ov e2*________transición

(15) Marry:________e1* ov e2*________transición

(16) Walk: ________e1* <ov e2________proceso

Verkuyl y Maurelatos son partidarios de no distinguir logros y realizaciones pues consideran que tienen la misma estructura. Según sus opiniones, la duración no es una característica pertinente. En cierta manera, es una cuestión de relativismo, al estilo de Protágoras y su célebre “El hombre es la medida de las cosas” puesto que toser, como construir, son verbos que ciertamente tienen la misma estructura (un proceso seguido de un fin) y es que la percepción humana del tiempo es la que nos hace distinguir la primera como logro y, por lo tanto, con un proceso casi inexistente, y la segunda como realización, es decir, como un proceso largo en el tiempo (y su fin). Sin embargo, cualquier análisis minucioso desvelaría que el toser es una acción que se compone de un proceso complejísimo a nivel fisiológico, y si queremos ir más lejos, a nivel físico-químico. Es por esto que estos autores, y otros como Tenny y Mittwoch, encuentra la duración como algo de naturaleza extralingüística. De lo contrario, podemos encontrarnos con paradojas como las llamadas “paradojas imperfectivas”:

(PI1) Si estás dibujando un círculo, entonces no has dibujado un círculo.

(PI2) Si estás caminando, entonces has caminado.

Para finalizar, Verkuyl, en 1987, propuso una visión continua:

De esta forma determinó una serie de fórmulas dentro de un mismo esquema:

proceso           +          límite                                                   =          evento

evento              +          límite                                                   =          proceso

estado              +          dinámico                                             =          proceso

proceso           –          dinámico                                             =          estado

evento              –          dinámico          –          delimitado        =          estado

estado              +          dinámico          +          delimitado        =          evento


[1] Por supuesto, la propuesta de Dowty es mucho más compleja pues relaciona clases de verbos con estructuras lógicas. Y añade más variables como si es agentivo o no, etc.

febrero 20, 2010

Actualidad de la formación universitaria y situación laboral de los licenciados en filosofía

Filed under: Uncategorized — Aleix Mercadé @ 8:31 pm

Este texto forma parte del contenido de una comunicación del pasado congreso sobre filosofía y universidad. Aquí puedes saber más acerca de este congreso y descargarte el archivo: http://transformandoelinfierno.wordpress.com/2010/02/16/contenido-de-la-comunicacion-en-el-congreso-sobre-la-filosofia-y-la-universidad-en-espana/

En España, la formación universitaria en Filosofía está desvinculada de la interdisciplinariedad y pensamos que ello tiene graves consecuencias. En contadas ocasiones, nuestros planes de estudio y sus respectivos planes docentes invitan a conocer lo que en otras disciplinas se desarrolla y todo ello desemboca, una vez con el título de licenciado en mano, en la más trágica de las realidades laborales: la incompetencia. La poca relevancia pública se presenta aquí como el mayor de los tabúes. Mientras, en un ejercicio de imaginación e idealismo, las facultades de Filosofía prometen salidas profesionales y claro, todo este autoengaño no favorece en absoluto tener una facultad en condiciones de ofrecer algo que pueda repercutir en la sociedad actual.

Una muestra de esta nula interdisciplinariedad se refleja en el hecho de que de la totalidad de revistas especializadas en Filosofía, sólo un 10% tiene como objeto de estudio filosofía que involucra otras disciplinas. El resto de revistas se ocupan de hacer hermenéutica, exégesis, literatura, etc., dejando en un segundo plano todas aquellas otras disciplinas que serían excelentes fuentes de información para el trabajo filosófico. Y esto mismo es lo que también ocurre con las tesis doctorales que producen las facultades de filosofía en España.

El poco interés por los conocimientos, las metodologías y los problemas actuales no podía sino repercutir en el desprestigio de la licenciatura en Filosofía y es que de aquellas personas que poseen dicho título, el 51% están trabajando en algo no relacionado con filosofía y del 49% restante, un 32% están sin trabajo. Otro dato significativo es que un 42% de los licenciados con empleo trabajan en instituciones públicas. Así pues, sólo un 17% de los licenciados trabajan de aquello para lo cual fueron capacitados cursando nuestra licenciatura.

Ahora bien ¿Y qué trabajos son aquellos que oficialmente prometen a los licenciados como propios de la filosofía? Más allá de la docencia[1], lo cual es irrelevante si queremos buscar algo distintivo, las profesiones son: gestor cultural, editor, asesor editorial y asesor filosófico.

No obstante, la realidad del mercado laboral no se ajusta a dichas salidas profesionales. Por ejemplo, al visitar unas cuantas páginas de oferta de empleo y consultar aquellos casos en que empresas están buscando un gestor cultural, en ningún caso encontramos como requisito haber estudiado la licenciatura de filosofía. En su lugar, los requisitos académicos hacen referencia a carreras como ADE. Algo parecido ocurre con las ofertas para ser editor. En este caso suelen pedir la licenciatura de Periodismo. De nuevo, en ningún caso aparece como requisito la licenciatura de Filosofía. Lo peor de todo es que el no haber cursado estas otras carreras condenan al licenciado en filosofía a no poder optar por dichos trabajos.

La incompetencia laboral no es de extrañar cuando las únicas competencias específicas que ofrecen nuestra titulación son:

–Sensibilidad a la diversidad de opiniones, prácticas y modos de vivir.

–Capacidad de identificar las cuestiones de fondo en diferentes tipos de debates.

–Capacidad para fundamentar racionalmente los compromisos éticos y sociales.

Incluso algunas de estas competencias son discutibles ¿Cómo vamos a tener sensibilidad a una diversidad que no conocemos? ¿Por qué conocer los problemas del pasado iban a capacitarnos para los problemas de hoy? ¿Por qué íbamos a poder obviar la cantidad y variedad de conocimientos y técnicas que fundamentan los debates más importantes de la actualidad? ¿Cómo vamos a hablar de la mente sin saber lo que la psicología moderna está investigando? ¿Cómo vamos a juzgar lo que la psicología moderna investiga si no conocemos, por ejemplo, el método de la experimentación observacional?

En este contexto se desarrolla la profesión de asesor filosófico. Según la asesoría filosófica, anticientífica y radicalmente antipsiquiátrica, los problemas psicológicos tienen un componente filosófico latente que puede tratarse efectivamente mediante el diálogo filosófico. En este diálogo, que por parte del consultante no necesita tener conocimientos en filosofía, el consultor filosófico ayuda al consultante a clarificar racionalmente sus preguntas, conflictos, retos e inquietudes. Esta clarificación racional pasa por el rastreo de teorías filosóficas, la identificación de falacias, la definición y diferenciación de conceptos, la detección de presupuestos y prejuicios, la resolución de dilemas éticos, etc. En algunas universidades de España como la de Sevilla o la nuestra, se ofrecen másters que acreditan la capacitación para la consultoría filosófica. En el caso de la Universidad de Barcelona las materias son: Comprensión y Problemática de la Subjetividad, Modelos Dialógicos en Filosofía, Aplicación de técnicas y modelos de Pensamiento, Filosofía y Espacios Sociales, Investigación aplicada a la Práctica Filosófica, Proyectos y Espacio social, Experiencia en la Práctica y La Tesina. Vemos que la formación interdisciplinar brilla por su ausencia. Nos encontramos con el problema que no hemos dejado de encontrarnos desde que prestamos atención al estado de nuestra carrera: la endogamia.

Os invitamos a que echéis un vistazo a la oferta de trabajo de tal profesión. Es muy revelador. No más revelador que el único trabajo que Porta 22, plataforma subvencionada por fondos públicos y destinada a promover el empleo, proponía hace unos años a los licenciados en Filosofía: asesor a enfermos terminales.

No debería sorprendernos estos resultados mientras la formación filosófica no recupere lo que le pertenece: el conocimiento concreto y actualizado de su entorno. Hasta entonces la facultad tendrá que hacer un esfuerzo para resistir la silenciosa vergüenza que se hizo pública en la Junta extraordinaria abierta del pasado 2 de abril de 2009. En dicha Junta se reveló que cuando la comisión responsable de organizar las prácticas externas del Grado de Filosofía quiso encontrar posibles puestos de trabajo no encontró ninguna empresa o institución que aceptase su ofrecimiento. De las ochocientas cartas que esta comisión envió a diferentes organismos sólo doce respondieron y de éstas ninguna fue positiva. Las respuestas fueron del tipo “No, gracias” o manifestaban no tener claro qué podían aportar dichos estudiantes en prácticas.

Estos datos que hoy estamos aportando dejan en una posición muy difícil a aquellos que defienden una situación favorable de nuestros estudios. Como podrá verse en el punto siguiente, existen otras formas de concebir los estudios de Filosofía, y no los expondremos porque pensemos que estos otros estudios sean los modelos a copiar sino porque queremos seguir mostrando que el modelo actual es absolutamente contingente y susceptible de modificaciones, actualizaciones, iniciativas, etc.

Aunque las circunstancias eran muy diferentes, creemos urgente recuperar el espíritu de reforma universitaria del idealismo alemán del siglo XIX que supuso actualizar las competencias de su Facultad de Filosofía. Es ese espíritu de actualización el que nos ha llevado hoy a este congreso.


[1] “Y si la práctica de la enseñanza agotara las posibilidades de ejercicio profesional específico de la filosofía, entonces se correría el riesgo de que la institución de la docencia se convirtiera en la academia donde se impartía la enseñanza de cómo matar dragones.” Pie de página: “Esta academia juega un papel central en el argumento de una novela escrita por un estudiante que ganó hace algunos años un accésit del Premio Ciencia-Ficción UPC. En la novela se relata la historia de un estudiante de la academia que se dedica a la enseñanza de cómo matar dragones. Tras largos años, el estudiante concluye los estudios y recibe el correspondiente título. Provisto de este, se va por el mundo y después de muchas averiguaciones constata que no existen dragones. En vista de ello, no se le ocurre otra salida para aprovechar su título que fundar una academia de matar dragones.” Manuel Medina, en “Consideraciones sobre un nuevo plan de estudios de filosofía”, documento que se puede encontrar dentro del seminario sobre los estudios de Filosofía en la actualidad: http://campusvirtual.ub.edu/campusub/login/index_form.php. Clickar en “Entra como a visitant”. Luego clickar en “Grups de Treball” e introducir en el buscador “Temes de Filosofia de la Ciència: Els Estudis de Filosofia al Segle XXI: Filosofia i Societat de la Informació i el Coneixement”. El acceso y la inscripción está abierta.

febrero 14, 2010

Estructurando el lenguaje en roles temáticos

Filed under: Uncategorized — Aleix Mercadé @ 2:30 pm

Las etiquetas abstractas utilizadas para dar cuenta de la relación entre predicados y sus complementos componen lo que se llama la teoría temática. El tipo de relación define diferentes funciones semánticas y, a su vez, muestra una relación directa con las funciones sintácticas. Las diferentes propuestas entorno a ello no han supuesto una llegada a algún tipo de acuerdo, ni a la hora de hacer una lista única ni a la hora de determinar su naturaleza.

Fillmore[1], quien involucró la estructura sintáctica en la estructura profunda y creó reglas del paso de la EP a la ES (estructura superficial)[2], propuso una serie de roles temáticos: el caso del instigador animado de la acción (el niño rompió el cristal), la fuerza inanimada causalmente involucrada en la acción (la llave abrió la puerta), el animado afectado por el estado o acción (dio un regado a Mageles), el objeto que es resultado de la acción o bien es sobreentendido como parte del significado del verbo (construir una casa), el caso que identifica la localización u orientación espacial del estado o la acción (en el valle hace frío) y el caso semántico más neutro: cosas que son afectadas por la acción (la carta llegó cerrada), etc.

Jackendoff concibe los roles temáticos como parte de una estructura semántica léxico-conceptual (ELC) y no como parte de la sintaxis. Las variables de la ELC pueden estar marcadas con papeles temáticos, y ello de manera que la misma variable puede estar marcada con diferentes roles en diferentes partes de la ELC. Estos diferentes papeles o roles temáticos no se conciben como posiciones argumentales[3] ni como primitivas, sino como medios para registrar ordenadamente los componentes sintácticos y las categorías conceptuales[4]. A las ya expuestas por Fillmore destacar el rol temático del sujeto que no controla y meramente vive los qualia. Cuando este rol temático, llamado el experimentador, se une al agente, que es el que inicia una acción, entonces resulta el rol temático del iniciador.

La concepción de rol temático de Dowty, a diferencia de la de Fillmore y Jackendoff, valora el hecho de que a cada rol le sigue una serie de consecuencias en forma de presuposiciones e implicaciones. Por ejemplo, el rol del agente implica cierto grado de volición. A pesar de que la propuesta es muy interesante, el autor se encuentra con serios problemas para encontrar estas consecuencias en cada uno de los roles temáticos. Consciente de ello, Dowty crea el concepto de “proto-role” el cual supone una abstracción capaz de sintetizar los proto-roles en dos: el rol proto-agente y el rol proto-paciente. El primero se caracteriza por su implicación volitiva en el evento o estado descrito por el verbo, por su percepción o conocimiento, por ser causa de un evento o un cambio de estado en otro participante, por ser causa de un movimiento en relación a una posición o a una entidad y por existir independientemente de la eventualidad descrita por el verbo. Algunos ejemplos: Maria come manzanas y lo sabe; las llamadas telefónicas causan interrupciones; etc. En el caso del rol proto-paciente, dicho rol se caracteriza por soportar un cambio de estado, por ser un tema afectado en su integridad, por estar causalmente afectado por otro participante, por ser relativamente estable respecto el movimiento de otro participante y por no tener por qué existir previamente su objeto denotado. Algunos ejemplos: Juan abre la ventana; Ana escribe un libro; fumar provoca cáncer; etc. Dichos roles se asignan a aquel argumento que tenga más propiedades del proto-rol correspondiente.

En 1988, Levin y Rappaport defendieron que los roles temáticos no eran necesarios. Después de mostrar la cantidad de irregularidades que impedían una representación viable, propusieron asociar a los argumentos, un poco en consonancia con los proto-roles de Dowty, una estructura de características de papeles temáticos. Dichas estructuras tendrían una forma como la siguiente en el caso de “load”:

(1) [+Agent, [+Goal, + Affected, + Theme], +Theme].

M. Lluísa Gràcia hizo su versión para el catalán[5].

La última propuesta de roles temáticos que quiero comentar es la de Grimshaw y que siguiendo las ideas de Levin y Rappaport, propuso elaborar jerarquías de papeles temáticos en función del criterio de prominencia. Así por ejemplo:

(2) Agente < Experimentador < Goal, Source, Location < Thema, Pacient.

Algunos roles, como el Theme y el Pacient los considera los más preeminentes porque son los objetos más cercanos al predicado.


[1] The case for case (1968)

[2] (EP) Juan rompe a ventana con una piedra; (ES1) La piedra ha roto la ventana; (ES2) La ventana se ha roto.

[3] Los argumentos se definen como los elementos necesarios para que una pieza léxica pueda ser entendida. Por ejemplo, el verbo de la oración “José dijo el pasado miércoles a su madre que la quería” es “dijo” (y como todo verbo es el núcleo). Si prescindiéramos de “el pasado miércoles” la pieza léxica que nos interesa se entendería igualmente, sin embargo, si prescindiéramos de “a su madre” o “que la quería”, difícilmente entenderíamos lo que está ocurriendo, y es que “José dijo el pasado miércoles” está reclamando imperiosamente un CD y un CI, ambos argumentos. “El pasado miércoles”, así pues, no lo identificaríamos como argumento, sino como adjunto.

[4] En la propuesta de Jackendoff, los conceptos lingüísticos, a diferencia de los papeles temáticos, sí que pueden ser descompuestos en conceptos más elementales hasta llegar a una serie de primitivas (predicados de carácter cerrado) a partir de los cuales es posible construir conceptos complejos. Así pues, diferencia las funciones de la estructura ontológica.

[5] La teoría temática (1989).

febrero 11, 2010

Frege y la prueba ontológica de la existencia de Dios

Filed under: Uncategorized — Aleix Mercadé @ 6:46 pm

<<Según Frege, hablar del mundo no consiste en establecer conexiones, por así decirlo, horizontalmente sobre un plano. Hay una jerarquía de niveles. Utilizando la herramienta técnica mediante la cual se había creado la maquinaria de la matemática moderna, Frege introduce un simbolismo formal para imponer el reconocimiento automático de las nuevas distinciones conceptuales: el uso de diferentes tipos de imprenta para diferenciar claramente entre uso y mención; un símbolo que indica que algo se asevera, distinto de aquello que se asevera; signos que sustituyen a «no”, «y», «o» «si … entonces»; y el cuantificador universal «para todo valor de que traduce las distinciones entre «todo», «algún» y «ningún» del lenguaje ordinario. Las confusiones presentes en la vieja retórica se hacen ahora visibles. Al hablar de una «cualidad» se estaba confundiendo el contenido no aseverado con el hecho de su aseveración (Coffa, 1991: 63). La cópula no es algo separado que una un sujeto con sus cualidades, sino un aspecto de la enunciación funcional. Por esa razón, comenta Frege ([1883J 1980; 65), la prueba ontológica de la existencia de Dios se desmorona, ya que la existencia no es una cualidad.

Frege se planteó la cuestión cuando intentaba clarificar el concepto de número. Normalmente, «uno» y «unidad» se toman como sinónimos. Si contamos tres objetos (1 + 1 + 1 == 3), ¿cómo es posible que objetos que son diferentes sean tratados como idénticos?9 El número 3 no es un conglomerado de objetos reunidos, ya que cada uno de ellos retiene las propiedades que lo especifican; pero si lo que mos a la pluralidad (Frege [1883 J 1980: 50). El símbolo matemático y» del lenguaje ordinario. La solución es reconocer que el número es un objeto autosubsistente. Frege lo considera la extensión de un concepto, es decir, el conjunto de todos los ejemplos que caen bajo ese concepto. Los números de Frege son platónicos. No se derivan de la acción de contar, ni de secuencias; no son propiedades abstraídas a partir de las cosas en el sentido en que lo son los colores. Esto desplaza nuestra atención hacia el procedimiento mediante el cual afirmamos algo sobre los números, al juicio de que el número de copas que hay en la mesa es de cuatro -un enunciado de identidad sobre cuál de los números es ese.

El procedimiento para establecer la identidad numérica es independiente de la acción de contar: consiste en establecer una correlación uno-a-uno entre los objetos de todos los conjuntos, igual que un camarero no necesita contar todos los cubiertos, sino tan sólo colocar un tenedor junto a cada cuchillo (Kneale y Kneale, 1984: 461). Frege pasa a la construcción de la totalidad del sistema numérico mediante definiciones puramente lógicas. El cero lo define como el conjunto de todos los objetos que no son idénticos a sí mismos. Es una imposibilidad lógica, de modo que no hay nada que responda a ella (una estrategia funesta, a la vista de la posterior paradoja de Russell). La categoría cero es absolutamente simple para Frege, de modo que ahora podemos definir «1» como el conjunto de todos los conjuntos que son idénticos al conjunto cero (no al contenido del conjunto cero). Los números siguientes se construyen como conjuntos que contienen todos los conjuntos de números precedentes (2 es [cero, 1J; J es [cero, 1, 2]; etc.). De las paradojas sobre los números infinitos, que justo en ese momento estaban causando gran escándalo a causa de las series interminables de números transfinitos de Cantor, se ocupan los nive1es que se incluyen el uno al Otro de Frege. El número que le pertenece al concepto «número finito» es un número infinito. No es un número que siga en la serie de números naturales. Frege se alió con Cantor, que había iniciado su teoría de conjuntos sólo pocos años antes, en 1874.10 Fue ésta una alianza de los radicales contra el establishment, controlado desde Berlín por Kronecker, el enemigo rigorista de los métodos abstractos generadores de paradojas en matemáticas.>>

Randall Collins, Sociología de las filosofías. Editorial Hacer, Barcelona 2005.
Cap. 13. La condición post-revolucionaria: La demarcación como problema filosófico

Página siguiente »

Blog de WordPress.com.