domingo, 25 de octubre de 2015

Donald Knuth: aspectos de computación y fe

Donald Knuth es un matemático americano, seducido desde muy joven por los computadores, que en los años 50 eran la nueva tecnología creada por ingenieros, matemáticos y algunos físicos. Claro, algunos pueden decir que la computación tiene raíces ancestrales en el ábaco, en la calculadora creada por Blaise Pascal y, más recientemente, en los trabajos de Charles Babbage y de su musa Ada Lovelace, hija del poeta Lord Byron, y considerada la primera programadora de la humanidad. 
        Sin embargo, para fines prácticos, la computación es un área del conocimiento muy reciente. Por ejemplo, en el fin de los años 80 la mayor parte de sus papas creadores estaban vivos tal como Knuth, John P. Eckert y John Mauchly (que proyectaron el ENIAC, una máquina de referencia como computador moderno), Richard Hamming, Marvin Minsky, Edsger Dijkstra, John Backus, C.A.R. Hoare, entre otros; así como los grandes inventores de la electrónica digital y la microelectrónica, como Claude Shannon, Robert Noyce y Gordon Moore; estos dos últimos vinculados a la invención del circuito integrado y al surgimiento de la industria de microeletrónica, que hicieron posible esa explosión tecnológica que infiltra tanto nuestra realidad.
        Por supuesto, algunos ya estaban muertos en los años 80, como el matemático John von Neumann, que tuvo una muerte prematura. Gran parte de los científicos citados fueron reconocidos con el premio Turing (en homenaje al matemático británico Allan Turing), un lauro dado a los científicos de la computación; una especie de premio Nobel, pero más justo por ser menos político.
       En el caso de Knuth, se pueden mencionar sus contribuciones en el estudio de los algoritmos, ese tipo de recetas computacionales basadas en ingredientes (operaciones lógicas y matemáticas) y procesos, que simbolizan secuencias lógicas con las que deben ser ejecutadas las cosas. Por eso en un algoritmo se hacen preguntas como «si el resultado es positivo», y se toman decisiones del tipo «entonces haga tal cosa». Hay algunas semejanzas entre lo que es un algoritmo y una receta de cocina, pues los dos tienen ingredientes, preguntas que deben ser hechas en tiempo de ejecución y decisiones que se toman dependiendo de las respuestas.
        Pero la diferencia entre una receta de cocina y un algoritmo es que este último debe estar regido por fuertes exigencias matemáticas y formales (no citadas aquí); por ejemplo, la garantía de la unicidad en la respuesta. Veamos un caso, cuando multiplicamos dos números naturales o dos matrices la solución debe ser única. Y un algoritmo debe ofrecer la garantía de que su respuesta será la misma, si los dados de entrada son los mismos y otras condiciones básicas permanecen iguales. En una receta de cocina esto no ocurre necesariamente, y tampoco en la física, si tenemos en cuenta la influencia del azar, de lo imprevisto, de lo contingente. Otra condición es que un algoritmo debe endosar la optimalidad de su respuesta: su veredicto debe ser único y el mejor de todos. Cuando intentamos resolver un problema por la ejecución de instrucciones y no garantizamos la solución óptima nuestra tentativa no puede ser llamada algoritmo, apenas «heurística». 
        Para colocar algoritmos en un computador necesitamos escribirlos en un lenguaje adecuado, que no deje espacios para múltiples interpretaciones; o sea no existen metáforas o cosas semejantes. Sin embargo, los lenguajes usados para programación se parecen con las lenguas naturales, en el sentido de que tienen léxicos, sintaxis, semánticas; que son definidos por formulaciones matemáticas y que son conocidas como gramáticas generativas, desarrolladas a partir de los trabajos del lingüista Nohan Chomsky. Esto permite hacer programas reconocedores de lenguajes artificiales y traductores de las mismas; que toman, por ejemplo, un programa escrito en el lenguaje Fortran y lo traducen en instrucciones capaces de ser ejecutadas en un computador específico. Y estos programas son denominados compiladores.
        A pesar de iniciar sus actividades en el proyecto de compiladores para lenguajes artificiales, las contribuciones de Knuth fueron enfocadas en la formulación de una teoría para el análisis de algoritmos. Este campo es muy importante para cualquier persona que quiera hacer de su profesión la informática, pues un programa es una solución a un problema, y cada problema puede tener varias maneras de ser resuelto; o sea pueden existir varios algoritmos que resuelvan un mismo problema, y por su vez cada algoritmo puede ser descrito en varios lenguajes artificiales, y para cada lenguaje necesitamos un compilador específico. De esta manera, los alumnos de computación gastan por lo menos un semestre aprendiendo las técnicas de Knuth para entender a calidad de los algoritmos, desarrollando fórmulas matemáticas con este objetivo.
      Siendo Knuth un pionero en una ciencia nueva, tuvo la osadía de proponerse un desafío enciclopédico: escribir un tratado sobre todos los problemas posibles en computación y sus soluciones. Este proyecto incluía la escritura de siete volúmenes, de los cuales apenas escribió tres, y que fueron la base para formar varias generaciones de programadores. Como tenía inclinaciones artísticas, específicamente por la música, y porque era difícil en su época llamar a la computación de «ciencia» colocó como nombre a su tratado de «El arte de la programación de computadores». Sin duda su obra contribuyó enormemente para emancipar la computación de otras áreas duras como la física, la matemática y la electrónica.
        En las palabras de Knuth un científico de la computación tiene una manera particular de ver las cosas, diferente de los físicos, de los ingenieros y de los matemáticos. Un científico de esta área es capaz de ver un problema desde diferentes niveles de abstracción. Puede fácilmente transitar, buscando una solución, en los vericuetos de la arquitectura de los computadores y de los circuitos digitales, en la representación de los datos, en los aspectos de los lenguajes artificiales, en las especificaciones de los algoritmos, en los modelos matemáticos abstractos, en las teorías del conocimiento y, finalizando, en los límites de la representación matemática vinculados al teorema Gödel.
        Científicos con este perfil fueron los que crearon disciplinas como la inteligencia artificial y ahora se aventuran en la llamada conciencia artificial, y parece que nadie los puede parar, pues en apenas 50 años han sido capaces de introducir tecnologías fundamentales para el desarrollo de otras ciencias, inclusive las humanas. El propio Knuth hace esta observación, intentando explicar el crecimiento exponencial de la informática, sugiriendo que la universalidad del uso del computador como herramienta fue la médula de su propio vigor. O sea, el propio computador, la herramienta más sofisticada creada por el ser humano, potencializa el avanzo de la propria computación.
        Otra peculiaridad de los científicos de la computación es que ellos lidian directamente con la herramienta que más se parece  al ser humano, y que representa una metáfora de su propia esencia. Pues mente y cuerpo, esa especie de dualidad cartesiana, se parece demasiado con la dualidad software y hardware. Y si el dualismo cartesiano viene siendo puesto en jaque, la dualidad computacional también viene siendo cuestionada, pues los límites entre software y hardware están siendo diluidos por nuevas tecnologías de computación reconfigurable y por la invención de nuevos dispositivos, que permiten aproximar más los aspectos duros de la computación a los nuevos descubrimientos de la neurociencia.
        Pero otra característica de los científicos de la computación es que no se ven obligados a vestir la camisa del materialismo, al contrario de lo que ocurre con la mayoría de los físicos, químicos y biólogos. A este respecto, el físico Richard Feynman decía que científicos debían adoptar el materialismo como una obligación. En el caso de científicos de la computación esa libertad puede ser explicada por el hecho de la computación ser una ciencia muy nueva, y que no pretende de manera alguna explicar cómo funciona o el universo, y mucho menos si este último fue creado. Sólo quiere resolver problemas que los seres humanos tienen dificultades en encarar (por ejemplo, aquellos que envuelven muchos cálculos), y diseñar máquinas que imiten el comportamiento humando en problemas que nosotros fácilmente resolvemos. Por ejemplo, cuando nosotros entramos en un ambiente desconocido, como en una sala nunca antes visitada, nuestro cerebro es fácilmente capaz de crear un mapa mental de la misma (resolviendo un problema de modelado), calcular en qué lugar de ese espacio estamos (resolviendo así un problema de localización) y, sobre todo, hacer todo esto de manera simultánea. Pues bien, este proceso es denominado de Modelado y Localización Simultanea (SLAM- Simultaneous Localization and Mapping), que es difícil de ser imitado con los computadores actuales.
        Cuando mi amigo César Giraldo me preguntó alguna vez si existía un científico de la computación al nivel de Isaac Newton yo le respondí que debería ser Donald Knuth. La explicación que le di en esa época era por su obra enciclopédica, que no sólo fue fundamental para el desarrollo de una nueva ciencia, sino para la formación de varias generaciones de estudiantes. Cuando César me instigó recordándome sobre las inclinaciones teológicas y alquimistas de Newton, yo le informé acerca de los ensayos religiosos de Knuth sobre teología cristiana.
        Knuth tuvo una formación luterana desde niño y nunca se sintió obligado a renunciar a ella, mismo siendo un científico reconocido en vida. Lo que no ocurre en la física, en donde los científicos tienen miedo de hablar en público sobre temas religiosos o espiritualistas, pues pueden ser fácilmente estigmatizados por la gran mayoría de sus colegas. Sólo algunos se aventuran vinculando aspectos de espiritualidad oriental (bastante sintetizados en las enseñanzas sutiles de Ramana Maharishi) con los descubrimientos de la no localidad espacial y temporal que caracterizan ciertas partículas, como el fotón y otros hechos sorprendentes, implícitos en el menú de la física cuántica.
        Pero cuando Knuth habla sobre fe, en su contexto cristiano, simplemente lo hace refiriéndose a un nivel de abstracción más elevado para encarar la vida. Cuando le preguntan sobre el demonio, dice que el mismo puede ser la explicación del porqué seres humanos escogen la guerra en vez de la paz. Cuando le preguntan sobre milagros, dice que los mismos pueden tener descripciones no fidedignas en los textos sagrados, mas que existen posibilidades para que los mismos ocurran. Y todo esto lo dice con la mayor naturalidad, sin ningún dogmatismo, afirmando con humildad que no es la mejor persona para hablar sobre teología, pues no es teólogo profesional; pero que tal vez sea una persona adecuada para hablar del tema para una platea de estudiantes y profesores de informática, pues sabe bien cómo ellos piensan y encaran su día a día.
        Hubo una época en que grandes científicos eran místicos y espiritualistas y casi nada daba muy errado con esto. Kepler, Galileo y Newton tenían contacto con la teología, la alquimia y la astrología, y todo lo enfocaban en niveles de abstracción específicos, tal como lo propone Knuth. Pero siempre existía el peligro de que curas inquisidores crearan una hoguera en plaza pública.
        Y hay aspectos históricos sobre este tema que deberían ser mejor discutidos; por ejemplo, el hecho de que el primer científico moderno pudo haber sido Pierre Simon Laplace, quien propuso un modelo de ciencia en donde Dios no fuera necesario. Y lo propuso de manera clara y seria: si tenemos un modelo matemático fidedigno de la realidad, y conocemos las condiciones iniciales podremos predecir cualquier cosa en el futuro. Pues sólo necesitaremos una máquina capaz de realizar los cálculos, y el futuro se nos mostraría como una vía cuya trayectoria sería calculada a partir de un punto determinado, definido por las condiciones iniciales.
            Esta máquina fue denominada «demonio de Laplace» y su concepto sigue siendo la base de muchas aplicaciones en ingeniería. El problema que tiene este demonio es que desarrollar un modelo matemático de la realidad, en su totalidad, es una imposibilidad práctica, debido a la inmensa cantidad de variables, el poco conocimiento que tenemos sobre ellas y la extrema relación compleja entre las mismas. Y, sobre todo, porque la máquina que resolvería el modelo (un computador hipotético) es en la práctica una imposibilidad. Y las propias técnicas de análisis desarrolladas por Knuth muestran el tamaño de este hueco.
        Si el demonio de Laplace nos libró de la locura de los curas, por otro lado nos colocó la camisa de fuerza del materialismo. En este sentido es fácil recordar cómo los catequizadores marxistas decían a los jóvenes que la gran contribución de Marx era la de haber invertido la supuesta pirámide vinculada al idealismo de Hegel. Al final el propio Marx afirmaba que vida y materia generaban la conciencia y no al revés. Pero como nada de lo que el hombre crea es eterno, los descubrimientos recientes de la física tienden a colocar de nuevo la conciencia en la base de la pirámide. Y si el demonio de Laplace es derrotado por la complejidad del mundo, el demonio que aun persiste en la mente de  Knuth no resistirá mucho al incremento de nuestra propia conciencia.

domingo, 9 de agosto de 2015

Virtualidades, filosofías e ingenierías



Hace algunos años tuve la oportunidad de leer algunos textos del filósofo francés Pierre Lévy, especialista en los impactos de la tecnología digital en la cultura, en la filosofía, en la estética, en la educación y en las ciencias sociales en general. Un punto central en los trabajos del filósofo era la propuesta de un abordaje filosófico sobre el tema de la “virtualidad”. Para comenzar el filósofo se preguntaba “¿qué es lo virtual?”

Bajo la sombra de Lévy lo virtual no tiene relación directa con lo real. Digamos que lo virtual existe en el ámbito de los enunciados, de las generalizaciones, de los problemas, y su opuesto estaría en el contexto de las soluciones, ámbito este que el filósofo denomina de “actualización”. Por otro lado, lo real está en relación opuesta con lo “potencial”, por ejemplo una semilla sería el contexto potencial de un árbol, que se tornaría real a partir del contenido seminal. El árbol es real, la semilla potencial.

Este esfuerzo de eliminar una relación de oposición entre lo real y lo virtual aparece ingenioso y hasta sorprendente. Sin embargo, el término “virtual” viene a la moda más por hechos tecnológicos concretos, tal como la creación de la informática y los avances en las tecnologías de comunicación. Independientemente de lo que los filósofos hayan pensado sobre lo que es virtual, los hechos hablan más fuerte que las teorías sobre el asunto, y estas últimas, supuestamente, deberían explicar lo que físicos e ingenieros están creando a una velocidad vertiginosa.

Algunas cosas que los ingenieros observan en su cotidiano están de acuerdo con lo que nos expone el filósofo francés. Por ejemplo, la ausencia de territorialidad de lo virtual, hecho que puede ser observado en diferentes ámbitos: la información es ubicua, y soportada por un nuevo medio de comunicación, la WEB. Ahora, decirnos que lo contrario a lo virtual es la actualización, deja de ser entendible para los técnicos, apareciendo más como una gimnasia mental, para adaptar trabajos suyos y de otros filósofos consagrados, como Deleuze.

En una percepción técnica no cabe duda de que la virtualización está ligada con una elevación del nivel de abstracción, que puede equivaler al nivel de la problemática, como colocado por el filósofo. Mas puede ser que no sea exactamente así. Los técnicos perciben, en general, la virtualización como la colocación de problemas y sus soluciones en diferentes medios, en donde la característica de falta de territorialidad se hace plausible por la presencia del computador y la WEB. No hay misterio en esta afirmación.

Pero el esfuerzo del filósofo viene en la dirección de demostrarnos que la virtualidad siempre ha existido, desde los orígenes de la humanidad. Por ejemplo, en el hecho de que la escrita sería la virtualización de la memoria, la lectura la virtualización del texto, el hipertexto la virtualización del texto y de la lectura juntas, la técnica como la virtualización de la acción , el contrato social (o el derecho en general) como virtualización de la violencia.

La dificultad en adaptar conceptos filosóficos y hasta antropológicos al estudio de la tecnología es incrementada por una separación entre las teorías filosóficas y el día a día de los ingenieros que crean la tecnología. Por ejemplo, en su teoría sobre lo que es virtual Lévy nos introduce el concepto de “objeto” como algo que marca las relaciones entre los individuos, circulando, física o metafóricamente entre los sujetos de un grupo, permaneciendo simultáneamente en varias manos o siendo transferido entre ellas. El objeto tendría también trascendencia distribuida, lo que le daría un cierto grado de inmanencia. Sin embargo, para los ingenieros y científicos de la computación el concepto de objeto fue creado para acelerar la dura tarea de hacer programas, intentando simular los procesos de fabricación modernos, como ocurre en las fábricas de carros y de aviones: las partes son estandarizadas, y creadas en fábricas especializadas, y ensambladas con otras piezas, en locales diferentes, para crear objetos de mayor porte, en menor tiempo y con menores costes. Esta reusabilidad de objetos es básica para mejorar el desempeño de los procesos productivos.

De esta manera, para un programador, un objeto es un programa previamente verificado, que tiene variables y operaciones encapsuladas (como una caja negra), y que ofrece acceso a sus contenidos a través de mensajes. Y así, los programadores pueden usar esas piezas de programas prefabricadas, ensamblando unas con las otras, para crear programas más complexos y con menor esfuerzo. O sea, el concepto de objeto en computación aparece como analogía a un objeto de la realidad, mas que obedece a un modelo matemático, descrito en un lenguaje de programación y almacenado en un medio específico. No hay misterio en eso, ¿para qué forzar las cosas?

Cierta vez le conté a mi amigo César Giraldo la incomodidad que me producía la lectura de textos filosóficos que trataban sobre temas de tecnología y sociedad. Y el viejo amigo me tranquilizó: “no se preocupe mijo, lo peor es cuando esos personajes se atreven a hablar sobre arte, y sobre todo sobre música, es un desastre”. Y prosiguió: “en los abordajes filosóficos sobre la ciencia los científicos tuvieron mejor suerte, pues Karl Popper era un filósofo fuera de serie y Tomas Kuhn era físico de formación”.

Es cierto que la virtualidad como concepto viene a impregnar la historia de la humanidad desde sus orígenes. Si llevamos algo desde lo real a un soporte mediático la virtualidad aparece como efecto colateral. Llevar los hechos del cotidiano a uma estructura mediática  es ya un proceso de virtualización. El registro artístico sobre una piedra o sobre una partitura obedece a un proceso de virtualización, en donde la ausencia de territorialidad de alguna manera comienza a insinuarse. Las informaciones se solidifican, tienden a transformarse en nuevos objetos, que pueden ser transportados.

Pero conjuntamente con la virtualización creamos nuevos enigmas, y hasta podríamos decir que el laberinto Borgiano está ligado con ella. Llevar una información a un medio exige un proceso de codificación, una técnica específica, un lector, un intérprete, que puede entender el mensaje, o en su lectura crear otro completamente diferente. Y en este sentido la literatura sería una virtualización de la vida, de nuestro cotidiano, en donde los mensajes están cifrados en los versos, en los parágrafos, en los personajes, en las relaciones.

Al entrar en el universo literario, como lectores, nos enfrentamos con un medio específico, una tecnología consagrada, en donde una virtualidad se nos convierte en una nueva realidad, más sutil, en un nivel de abstracción más alto. Debemos descifrar el contenido, colocándolo en diferentes contextos, inclusive en los nuestros. Podemos descifrar el código, usando las herramientas que filósofos, críticos y hasta psicólogos nos ofrecen. ¿Y por qué no usar el psicoanálisis para esto?

Sujetos como Estanislao Zuleta nos invitan a ver la estructura de los personajes literarios a la luz del psicoanálisis: “éste es el psicoanálisis de punta”, decía el docente durante sus clases en la Universidad del Valle. Este esfuerzo de ver la literatura sobre la lupa psicoanalítica está fundamentado en el estudio de las partes, de los personajes, en la definición de la topología de las relaciones entre ellos, en la clasificación de los dramas particulares, en los diagnósticos, en la crítica. En sentido contrario tenemos la visión de Harold Bloom quien coloca la literatura por encima de cualquier análisis, diferente del literario; y siendo así es imposible entender a Shakespeare a través de Freud, pues entre los dos hay una relación de padre e hijo, y el mundo subjetivo y la individualidad moderna se tornan una invención literaria, más o menos reciente. En Hamlet tenemos la tragedia, tal como en Eurípides, sólo que de alguna manera los personajes shakespearianos se creen más libres para escoger, inclusive en medio de un desfecho trágico, y también más solitarios, por la creciente ausencia melancólica de los dioses. De esta manera, la literatura está más en el plano de la síntesis, ofreciendo más misterios entre el cielo y la tierra de los que puedan descifrarnos las herramientas freudianas -y similares.

Borges en sus encuentros también se quejaba de las tentativas de entender la mecánica de la creación literaria colocando en el diván los personajes, incluyendo los propios autores. Parece ser que en un encuentro con psicoanalistas en Buenos Aires llegó a sugerir que la teoría freudiana no dejaría de ser más que una mera creación literaria. Sin embargo, indirectamente, hace una referencia al concepto concreto de la represión, fundamental en la teoría psicoanalítica, cuando insinúa que la misma es la base de toda estética que conocemos: el artista no puede decir las cosas directamente, pues hay barreras internas y externas, tiene que usar acertijos, metáforas, fábulas, alegorías y otras invenciones: “sin la censura no habría existido Voltaire. Voltaire dijo todo lo que quería decir, pero de un modo indirecto, mas eficaz”. O sea, ¿será que el escritor está queriéndonos decir que sin la censura no habría poesia?.

En esta dirección la fuerza del lenguaje aparece con todo su poder en la escrita, como expresión literaria, tal como lo dijo alguna vez el doctor Lacan. Pero el lenguaje debe ser escrito sobre algo mediático, una superficie que tenga espacio para la palabra, tal como una hoja de papel. Y aquí llevamos el sentido del escrito como un registro sobre cualquier tipo de medio de comunicación (y es un sufrimiento no poder usar la palabra inglesa media), tal como la tradición oral, las piedras de sílex, los pergaminos, el papel, el libro, el disco duro y sus variaciones, las memorias RAM y sus congéneres, el pendrive y otros dispositivos que puedan venir a acompañarnos en un futuro y, sobre todo, el inconsciente freudiano. En este sentido, el inconsciente siempre fue un suporte mediático, en donde los mensajes son grabados, con sus gramáticas y sus semánticas; un recado grandioso, encriptado e inconcluso, tal como aquella sinfonía de Schubert.

Y aquí tendríamos que traer de nuevo el viejo McLuhan, quien entendió por la primera vez la importancia de los soportes mediáticos para entender la civilización actual. Y aquí medio y mensaje se confunden; el mensaje usa  soportes para ser escrito, para articularse como palabra, para dejar de ser potencial y pasar a ser cinético. Para prosperar como literatura, para extenderse como virtualidad, como memoria humana escrita sobre una memoria extendida, sobre una herramienta que se parece demasiado con su estructura. Y el medio no sólo sirve como soporte o como medio de transporte, pues él mismo es el mensaje principal, conteniendo el estado actual de la civilización, así como sus trazos culturales. El medio, en el lenguaje ingenieril, representa el cauce de un río, por donde los mensajes son acarreados, moldeándolos, retorciéndolos para darles una forma global, que debe ser interpretada, pues permanece escondida como un camaleón en la noche. Y este cauce no deja de tener también un sentido implícito de censura.

Y si los personajes shakesperianos nos parecen más cercanos que los trágicos griegos es también por la visión del soporte mediático. Digamos que el medio de las tragedias griegas es compartido por dioses y por humanos, pues los dioses pueden escribir en el mismo, o por lo menos dictar sus factos. Por otro lado, el medio shakespeariano pertenece enteramente al autor, está permeado de libertad y de aislamiento. Por eso Borges y García Márquez hacen referencias explicitas en sus obras al abandono, a la aridez, a la soledad. Y digamos que McLuhan vuelve a tener la razón, en este caso: “el medio es el mensaje”.

Podemos acrecentar aquí que literatura y virtualidad son dos caras de la misma moneda. Y sólo un profesor de literatura, como McLuhan, tendría condiciones de resolver el problema de unificar la teoría de la comunicación, la literatura y las profundidades del inconsciente humano. Un literato que se atrevió a pensar como psicólogo,  como comunicador, y como ingeniero. Y tal vez nos veamos ahora obligados a comprender tanto Shakespeare como Freud a través de la óptica de McLuhan, con el perdón de Bloom.

Y como todo tiene su complemento, nada se asemeja más a la idea de inconsciente colectivo que la WEB, con sus dones de ubiquidad, paralelismo, accesibilidad y atemporalidad.


Nota: Texto revisado por Mario Vergara (Suecia, 2015)

domingo, 8 de marzo de 2015

Entre torres y escaleras

Carlos, la torre de Babel es un símbolo fálico, pregúntale eso a cualquier sicoanalista. Es un falo que se eleva de la costra terrestre hacia el cielo, para fertilizarlo. Su sentido profundo está en el área del deseo, del trabajo, con varios calificativos posibles, inclusive el de la arrogancia (César Giraldo).

Ante ese comentario de mi amigo Cesar, se me ocurre que la torre de Babel representa la actividad social organizada, para alcanzar algo trascendente, que elimine de una vez por todas el imperio del azar, de lo contingente. Los antiguos ya sabían que Dios sí jugaba a los dados, desde el comienzo de los tiempos, tal como lo afirman hoy los físicos cuánticos. Pues es así que se vence el determinismo de las leyes que no cargan en sí mismas lo aleatorio, lo fortuito, lo impensado.

Y aquí vemos que el libre albedrío sólo es posible introduciendo el azar, por los menos en dosis homeopáticas. Por ejemplo, en la teoría de la relatividad no hay implícito el concepto de libertad, pues no se deja espacio para esto todo es determinado por el rigor de ecuaciones matemáticas. En contraposición en las teorías quánticas, llenas de estadística y probabilidad, hay espacio para lo indeterminado y la libertad aparece, tal vez travestida de incerteza, de ignorancia.

Dios se esconde temporariamente en las leyes determinísticas que aún están por descubrirse. Sin embargo se esconderá para siempre en la estadística y en la probabilidad de los estatutos quánticos, inclusive de aquellos ya descubiertos.

Un ejemplo de cómo el proceso de incerteza es constructivo lo podemos ver en el área de optimización, tema con grandes aplicaciones en la física en la ingeniería. Si queremos encontrar la mayor altura de una superficie, representada por una ecuación matemática, o de una geografía como la cordillera de los Andes, tendremos un problema si estamos impedidos de tener una visión global, tal como lo permitirían las fotos satelitales. Este problema tal vez fue encontrado por los conquistadores españoles, pues si algún soldado llegara a una montaña podría afirmar por su cuenta y riesgo que era la más alta. En casos así algunas técnicas de optimización, que abrazan lo estocástico como su base de búsqueda, generan un número aleatorio que define la forma de escoger y recorrer un nuevo camino (como lanzando un dado) impulsándonos vivir una nueva aventura; que si bien no garantiza el encontrar algo mejor por lo menos nos aleja (por una patada en el trasero) de la estagnación.

O sea, la libertad está en la estructura fortuita de la vida, y como efecto colateral ganamos el miedo, ese perro enemigo que se esconde en cualquier tiempo, en cualquier canto.

Pero el esfuerzo grupal de elevar su estructura, tal como ocurrió en la citada torre, nos lleva a cumbres nubilosas, en donde perdemos la visión de profundidad y de lateralidad. En la pérdida de unicidad en nuestra visión se generan los saberes, los puntos de vista, la especulación, el argumento, la demostración y las ciencias. Y este sería el sentido de la metáfora de la diáspora lingüística, narrada por la biblia, no refriéndose a las lenguas sino a los saberes.

Y es sabido que el lenguaje, como representación del mundo, está lleno de inconsistencias, en donde el significado se enriquece en el contexto, en el caso particular, y que sólo tiene valor absoluto en el aquí y ahora de un sujeto, o del lector. Sin embargo, como nos dice el viejo Wittgenstein, nada existe fuera del lenguaje, y por lo tanto el mismo sería la verdadera frontera de las ciencias, de los saberes, de la filosofía, de las especulaciones. Y en este proceso podemos vislumbrar también el hecho de que los saberes son generados en lo particular y compartidos en la esfera social, dejando por fuera cualquier posibilidad a la unanimidad, hecho que se comprueba hasta en las teorías científicas, que siempre están siendo examinadas en sus verdades.

La construcción de la torre representa un paso de lo individual para lo social; siendo un esfuerzo colectivo para dominar la naturaleza, plenamente plasmado en el ideal iluminista, del cual Marx hacía parte. Esta separación implícita entre hombre y naturaleza es mediada, según Marx, por la actividad del trabajo. Si la naturaleza es externa, el trabajo desmonta esta externalización, mas esa dualidad en el fondo no es superada totalmente, por causa de la persistencia de una visión egocéntrica plasmada en la necesidad humana de dominar lo externo.

Esa separación entre naturaleza y humanidad puede ser vista como una discontinuidad, que comenzó a ser desmontada por Darwin y los evolucionistas, situando lo humano más cerca de lo natural. En este punto de vista el golpe final, después de varios otros, llega con el descubrimiento de Crick y de Watson sobre el DNA y la dupla hélice, lo que nos muestra claramente que la base de la naturaleza es prácticamente la misma, para humanos, simios, langostas, plantas, bacterias y virus.

En contraposición a la torre de Babel, el libro del génesis nos deja otra historia similar en su estructura, la escala de Jacob, que fue revelada en un sueño (y pintada bellamente en un cuadro por el poeta William Blake). Sin embargo, esta estructura no es construida, pues ya estaba cimentada desde el origen de los tiempos, siendo usada por ángeles para deambular entre el cielo y la tierra, entre lo que no tiene dimensión temporal y aquello que podemos vivenciar como humanos, como historia. Y colocamos aquí la dimensión temporal en plural, para denotar los tiempos físicos, psicológicos, inclusive las estructuras temporales que impregnan el arte, sobre todo la literatura.

La diferencia entre la torre de Babel y la escala de Jacob está situada en la discrepancia entre lo humano y lo divino. La primera pertenece a la esfera del deseo, del trabajo, tal vez en el sentido freudiano y marxista; la segunda está en la esfera de la revelación, de la posibilidad, de la promesa. Y esta última (la escala) hasta puede ser conocida en su estructura, pero tiene todas las chances de permanecer desconocida en su total significado, tal como ocurre con la escalar dupla hélice de Crick y Watson.

Y tal vez algún día podremos verificar que la torre de Babel está ligada con las teorías determinísticas (las clásicas), por ejemplo la física newtoniana y relativista. En cuanto que la escala del patriarca estaría en el ámbito de la magia cuántica, en lo onírico, en las posibilidades, en las imposibilidades, en la levedad de las partículas, en la simultaneidad, en la sincronicidad jungiana, en la brecha y en la discontinuidad entre lo objetivo y el subjetivo, en la silenciosa creatividad y por qué no en el arte.

lunes, 2 de marzo de 2015

Una crítica a la crítica



Nuestra literatura está marcada por el despiadado divorcio que la institución literaria mantiene entre el fabricante y el usuario del texto, su propietario y su cliente, su autor y su lector” (Roland Barthes)

Ante esa pasividad y prisión a la que se el lector es condenado, como nos insinúa Roland Barthes en su obra S/Z, podríamos intentar comprender la estructura de la fábrica de la literatura, por lo menos en la cultura occidental.   Sobre este tema el mismo filósofo nos complementa más adelante diciendo: “la lectura no es más que un referéndum”, y en este contexto existe un veredicto postrero del lector: “el texto se acepta o se rechaza”, lo que significaría algo como esto: o el texto nos toca o pasa desapercibido. Y en este proceso podemos percibir algo  que nos puede llevar a emocionarnos (o a vincularnos) con un escrito, o con una obra de arte (si tenemos suerte), lo que nos remite al plano de la estética. Sobre esto Barthes nos dice: “la belleza (al contrario de la fealdad) no puede explicarse realmente…”, lo que la deja por fuera de la crítica. Y complementado su explicación nos afirma: “como un Dios (tan vacía como él) la belleza sólo puede decir: soy la que soy”.

O sea, si extrapolamos el raciocinio diríamos que la crítica sólo puede alcanzar lo feo, lo incompleto, lo que cabe en el discurso, en el ejercicio de la retórica y del análisis, en lo que atañe al texto, a la memoria. Cuando algo nos impresiona por su belleza, crea memoria, mas no es una memoria discursiva, descriptiva. Es una memoria de impresiones, de emociones, y cuanto más profunda se presenta más envuelta de silencio está, más ocupada de conciencia. Y por este motivo, en esas circunstancias, en el plano de la síntesis, la crítica enmudece; no por la voluntad, sino por su falta de munición.

Y aquí hay varios caminos para recorrer: ¿por qué existe esa brecha entre el autor y el lector? ¿Por qué el lector sólo tiene un veredicto de aceptación o de rechazo posible? ¿Por qué existe la crítica literaria? La respuesta la podemos vislumbrar en la forma como la literatura se crea en la sociedad, y hasta podríamos tomar términos marxistas: ¿cómo funcionan los medios de producción con respecto a la industria literaria? En este sentido, la industria literaria está vinculada a la industria del libro y, siendo así, tiene su historia vinculada al destino libresco, de ser la memoria de los textos posibles, teniendo en cuenta objetivos artísticos, religiosos, científicos, económicos y políticos. Si guardar algo en la memoria es importante, pues nos permite tomar ventaja de la experiencia, el libro es poder, siendo así la memoria de la memoria.

El libro también amplía el contexto de la memoria de lo individual a lo colectivo, pero su información sólo va en un sentido, del autor para el lector, su flecha es unidireccional; tal como la flecha del tiempo, de la que hablan los físicos de la termodinámica y de la cosmología, y que está estrechamente vinculada a la expansión del universo. Y si hablamos de ese fenómeno en la física debemos recordar que el mismo tiene su efecto colateral: la entropía, la tendencia al desorden, del cual la vida y la naturaleza representan sólo una pequeña isla.

En este sentido la crítica viene en contrasentido: de un lector especializado hacia el autor, a pesar de la obra autoral ser escrita para el público en general. Es el retorno, el feedback, que pretende dar orden al universo literario. Sobre los críticos, me vienen a la cabeza dos juicios diferentes, que serían una especie de crítica a la crítica. La primera es del protagonista de El Túnel (la novela de Ernesto Sábato), en donde el sujeto se queja de cómo un crítico, que no es artista del área, pueda juzgar una obra. O sea, en esta perspectiva los únicos posibles críticos literarios deberían ser los propios escritores. El otro juicio es el del escritor Mario Vargas Llosa, quien en una entrevista dejaba a entender que el bajón actual de la calidad de la producción literaria sería por falta de críticos de buena calidad. Y aquí, el crítico sería una especie de organizador, el que alivia y nos salva de la entropía.

Pero volviendo al tema de los medios de producción literarios podemos verificar que el crítico no es más que una profesión vinculada a los propios medios, al sentido unidireccional del texto. Si McLuhan nos dice que el medio es el mensaje, en el sentido de que la estructura de los medios de comunicación moldea y define el significado del mensaje, así como el lecho de un rio define su curso, su topología, su geografía; de la misma manera la industria literaria define el ejercicio de la crítica, pues necesita de la profesión de crítico por la necesidad de un feedback; no para avalar la calidad, sino para garantizar su poder. Y si hablamos de poder, tenemos que admitir que estamos hablando de un fenómeno político, y si hablamos de política estaremos hablando de economía y, por lo tanto, de dinero (gracias a Dios existen los marxistas).

Y si podemos decir que la moderna industria literaria está vinculada a la industria libresca, esta última está fincada en un invento: la imprenta de Gutenberg (que lleva más de 500 años). Pero como el tiempo no para, los desarrollos de la informática, de la electrónica, bien fundamentados en los avances de la física y de la química, nos llevan a otro nivel de abstracción: el hipertexto y la web.

O sea, los medios de producción de la literatura se están estremeciendo en sus columnas, en sus vigas, por las posibilidades ofrecidas por el hipertexto (prestado por la web), que puede ser configurado por autores de manera concurrente con el ejercicio de la escrita. El término hipertexto fue acuñado por el filósofo norteamericano Tedy Nelson, en un famoso artículo titulado “Structure for the complex, the changing, and the indeterminant”, publicado en 1965. En su propuesta hacía referencia a otro famoso trabajo, más antiguo, del también norteamericano Vannevar Bush, quien en 1945 proponía la creación de una máquina para almacenar y recuperar informaciones (llamada de Memex), sin el uso de indexadores o índices remisivos (tal como ocurre en los libros), usando por su vez asociaciones, trabajando sobre listas de documentos almacenados en conjunto sobre un soporte de hardware. En su artículo Tedy Nelson propone las estructuras básicas de información que deben ser creadas, basadas en elementos de información (entradas), listas de entradas y ligaciones entre listas (links). A pesar de la web no contener todas las propuestas originales de Tedy Nelson, la misma nos remite a ciertas características originales: la indexación por asociación y la imposibilidad de entender su estructura en dos dimensiones (por ejemplo, sobre una hoja de papel), pues su naturaleza es típicamente abierta,  dinámica y multidimensional.

Lo que hoy nos ofrece la web es una estructura de información aún más compleja, envolviendo textos, figuras, sonidos, videos, etc., llegando a la idea de hipermedia, término también acuñado por Nelson. Su estructura está configurada por las informaciones de diferentes tipos, que pueden ser ligadas según la voluntad del autor, siendo que el retorno por parte de los lectores puede venir directamente de un lector normal, que no tenga ganado su título de crítico.

Un recurso importante de las nuevas tecnologías es la posibilidad del lector alterar el texto original, mediante comentarios, o nuevos parágrafos, si el autor lo permite, recreando la obra y colocando en jaque también el papel de autor.

La ligación (el link) permite que la información textual sea más rica y dinámica, tal como ocurre realmente con la memoria de un ser humano, en donde un recuerdo llama a otro, generando nuevas emociones que se apagan o se refuerzan al vaivén de la vida. Y si las ligaciones juntan algunos recuerdos con otros, ellas mismas hacen parte de la información, inclusive ganando más destaque que la propias informaciones de contenidos. Y algunas ligaciones llegan a ser más fuertes que otras, pudiendo alterarse con el tiempo, inclusive llegando a desaparecer, siguiendo la metáfora de la entropía de los físicos.

Y si los links nos permiten enriquecer el texto con imágenes, sonidos y videos, la tarea del crítico literario deberá dejar de ser meramente textual, pues los contenidos se están convirtiendo en elementos multifacéticos, y con características dinámicas. Y el protagonista de la novela de Ernesto Sábato tendrá cada vez más razón, pues es imposible ser especialista en todas las artes; y el papel de crítico defendido por Vargas Llosa perderá cada vez más su validad, tal como ocurre con los productos perecibles en los supermercados. Adicionalmente, si el link enriquece el mensaje, incluyendo contenidos no textuales, el mismo elevará su nivel de abstracción, aproximándonos a ese silencio inalcanzable por la crítica, haciéndonos sentir vinculados con los contenidos de otros autores, o sea llevándonos a esa mudez de la belleza expuesta por Roland Barthes.

Y si el libro representa la memoria de la memoria, el hipertexto, provisto de la web, representa la memoria de las asociaciones posibles, pudiendo llevar a ser también la asociación de las asociaciones. Y en este sentido, las propias asociaciones, en sus diferentes jerarquías, llegan a ser más importantes que los contenidos en forma de textos, o de otras medias; pues su estructura está fundamentada en las ligaciones dinámicas (los links, en forma de iconos), que se hacen y se deshacen en tiempo real, por la voluntad de autores y de lectores, enriqueciendo el texto, pues el valor de su contenido deja de ser en sí, para ser relativo. O sea, el valor del texto va a depender de su asociación con otro, inclusive hecho por otro autor: “sólo tendré valor si alguien me asociar sabia y bellamente con otro”. O sea, si el medio es el mensaje, el significado de este último es que los más de cien años de soledad de esta humanidad están próximos a su fin, y que no habrán más papeles fijos para los roles de autor, de lector y de crítico.