martes, 18 de enero de 2022

Algo sobre anarquismo epistémico


Hélio Schwartsman es un columnista del periódico Folha de Sao Paulo, el más prestigioso y confiable del Brasil. Hace pocos días escribió una columna llamada Tiempos sombríos en la ciencia, título impactante, tal vez exagerado si se trata de criticar el discurso científico, que por sus resultados, más que por sus argumentos, se ha ganado la confianza de la mayoría de las personas. Es que si se trata de verificar los argumentos encapsulados dentro de los discursos tenemos las variedades; pues lo que nos dicen los curas, pastores, brahmanes, chamanes, cartomantes y astrólogos son narrativas basadas en algún principio, con argumentaciones derivadas a partir de algunas reglas, y que nos muestran algunas leyes de las cuales es mejor no apartarse.
        Pero lo que nos insinúa Schwartsman es que tal estructura discursiva le cabe muy bien a la ciencia, y para esto cita el epistemólogo Paul Feyerabend, un filósofo y errante austriaco, que comenzó como devoto de Popper; pero como como buen hijo, lo renegó y se declaró anarquista, del punto de vista epistemológico. Aquí la palabra «anarquismo» no es tratada como un pormenor pirotécnico, pues para Feyerabend, no existen reglas que caractericen el método científico; ni existen diferencias objetivas entre los entusiastas de la ciencia, la astrología y la danza de la lluvia. El método hipotético deductivo popperiano no explicaría nada más allá de lo que revelaría el Génesis acerca de la creación del mundo. Lo que tenemos son discursos con distintas capacidades de imponerse y, por lo tanto, sería una cuestión de poder; lo que llevaría el temita al ámbito de la política, tal como lo imaginaría Marx. Para Feyerabend, la mejor manera de asegurar el avance de la ciencia es dejar que interactúe libremente con otros discursos, en una lucha libre y campal, y ahí entraríamos en la épica, como disciplina literaria.
        En la relación entre épica y política podemos percibir la articulación entre las nociones de discurso, poder, guerra justa, paz, soberanía, civilización, vida, muerte y, por supuesto, ideología. La forma y estructura de esa relación cabría en la poética, el análisis literario de segundo nivel, algo bien parecido a lo que ocurre cuando abordamos la epistemología, «la ciencia de las ciencias», como me la definió alguna vez mi amigo Julio César Londoño.
        Y esta postura de Feyerabend nos haría repensar sobre lo que es el «estado laico», algo inmune a discursos de cualquier orden y género, inclusive los religiosos y científicos, tal vez los literarios. Obviamente habrían los peligros, si tomáramos como ejemplo lo que ocurrió recientemente en Nueva Zelandia, un país ejemplar en muchos aspectos, en donde la idea de civilización parece estar por encima de aspectos culturales. Sin embargo, una comisión gubernamental propuso que «Matauranga Maori», el conocimiento tradicional maorí, se incluya en el plan de estudios escolar en pie de igualdad con la ciencia «occidental».
        Pero, por lo que nos relatan los chismes, un grupo de académicos de la Universidad de Auckland escribió una carta criticando la idea, en donde los profesores, sin oponerse a la enseñanza de la «matauranga», sostenían que no debería ser como ciencia. La reacción fue fulminante, y los firmantes de la carta fueron llamados racistas y colonialistas, y ahora están sujetos a posibles sanciones ejemplares.
        El problema de la propuesta de Feyerabend está en su dinámica de «lucha» entre discursos, en vez del intercambio colaborativo y respetuoso entre ellos, algo esencial en la laicidad del estado. Este último aspecto sería una vacuna contra los tumores malignos del negacionismo y el oscurantismo, que tanto nos asustan en los días actuales, como el diablo asustaba en la edad media.

jueves, 12 de agosto de 2021

Una reseña crítica de un ensayo de Malcom Deas sobre gramática y poder en Colombia


Malcon Deas es un historiador inglés, formado en la Universidad de Oxford. Su primer viaje a Colombia lo realizó en 1963, momento desde el cual empezó a venir con regularidad. Sus investigaciones han sido principalmente sobre historia de Colombia, Venezuela y Ecuador durante los siglos XIX y XX. Ha publicado ensayos acerca de temas como la historia del café, las guerras civiles, la historia fiscal, los conflictos políticos y la cultura. También, ha editado selecciones de la obras de Eloy Alfaro y José María Vargas Vila.
        Sus libros son básicamente recopilación de ensayos, y uno de ellos es Del poder y la gramática y otros ensayos sobre Colombia, publicado en 1992 por Tercer Mundo Editores, con prologo de Alfonso López Michelsen. El primer ensayo del libro tiene como título Miguel Antonio Caro y amigos: gramática y poder en Colombia, en donde hace un análisis historiográfico de una generación de políticos que tiene raíces en la burocracia imperial española que se reveló contra la metrópoli, durante el periodo de independencia, y que se estableció como actor del poder durante más de un siglo.
        Todo esto no tendría ninguna peculiaridad para llamar la atención, a no ser por dos hechos importantes. El primero es que los personajes citados no eran dueños de grandes tierras ni poseían grandes bienes comerciales, y el segundo es que los mismos eran notables gramáticos, filólogos, latinistas y, en su gran mayoría, conservadores.
        Durante el transcurso de su ensayo nos entrega datos interesantes sobre la organización (o la desorganización) social del país, victima de una serie de guerras civiles que afectaron el territorio nacional durante el siglo XIX (después de la independencia), así como la estructura social y psicológica de los núcleos elitistas que terminarían por ejercer el poder durante al menos tres décadas. Los efectos de tal situación fueron devastadores al comienzo del siglo XX: un país con los peores índices de pobreza en la región y victima de un analfabetismo extremo.
        Los personajes principales de esa élite republicana son Miguel Antonio Caro, Rufino José Cuervo, José Manuel Marroquín, José María Vergara y Vergara, Marco Fidel Suarez, Santiago Pérez y, de manera tangencial, Rafael Núñez y Miguel Abadía Méndez. Varios de ellos fueron presidentes, vicepresidentes, congresistas, diplomáticos, o ocupantes de importantes cargos en los gobiernos de la época.
        Es impresionante verificar la producción cuantitativa de dichos individuos. Por ejemplo, Miguel Antonio Caro y Rufino José Cuervo escribieron una gramática latina que ganó prestigio en España y se publicó en varias ediciones. Caro se mostró como un gran conocedor de la obra de André Bello, cuya gramática era la más utilizada en Hispanoamérica, y escribió su Tratado del participio. Además, fue el redactor principal de la Constitución de 1886. Rufino José Cuervo publicó su libro Apuntaciones críticas sobre el leguaje bogotano con éxito rotundo de ventas en 1872, elogiado en un artículo de la Enciclopedia Británica como «referencia en el español de América». José Manuel Marroquín publicó su Tratado de ortología y ortografía castellana, con informaciones sobre el tema na forma de rimas (recordemos que estos ilustres personajes cometían algunos poemas), obra que en la actualidad se imprime y se vende por las calles bogotanas.
        Alrededor de Caro había otros gramáticos como Marco Fidel Suárez, que se sentía pleno cuando pescaba gazapos en los textos de sus enemigos políticos, incluyendo sus copartidarios, como José M. Marroquín y su delfín Lorenzo. Este último escribió una novela (Pax) para exponer las buenas costumbres de la Bogotá de entonces. Pues Suárez se vengó de sus dos desafectos escribiendo un texto de 150 páginas sobre los horrores gramaticales de la novela de ese tal Lorenzo. Por otro lado, sabemos de los delirios de Núñez por la lingüística, y que parte de sus sueños era que su amigo Caro tradujera sus versos al latín, como nos cuenta Daniel Samper Pizano en su libro sobre los presidentes colombianos.
        Pero para algunos de estos personajes, sus actividades no paraban en ser presidentes, congresistas o militares. Por ejemplo, Miguel Antonio Caro, José Manuel Marroquín y José María Vergara y Vergara fundaron la Academia Colombiana de la Lengua (Rufino J. Cuervo fue su miembro más preeminente), y eran miembros correspondientes de la Academia Española. Dicen que el número original de miembros era 12, correspondiente a las 12 casas de los conquistadores que se asentaron en la sabana el 6 de agosto de 1538. Claro, la mayoría de sus miembros eran conservadores; solo los líderes radicales Santiago Pérez y Felipe Zapata hacían parte del grupo, por sus amistades con los líderes godos.
        La academia fue aprobada en 1871 por la Academia Española, y fue la primera en América Latina en ganar este galardón. Como eran épocas de gobiernos radicales, tuvieron oposiciones fuertes. Los argumentos usados en su contra eran «ser los soldados póstumos de Felipe II», rezar el rosario durante sus reuniones y escribir la conjunción «y» así y no con «i», a la manera del detestable monarca. Los conflictos ideológicos de entonces abarcaban estos hechos estrafalarios, en donde se consideraba que el uso de la «y» era notablemente conservador, a pesar de que Caro decía que favorecer la «i» era un pecado atribuible a Felipe II.
        Pero del lado radical, y sus descendientes liberales, también había las preocupaciones lingüísticas. Por ejemplo, Rafael Uribe Uribe en algún momento de su prisión escribió el Diccionario de abreviado de galicismos, provincialismos y correcciones de lenguaje. Tomó, a la carrera, clases de latín para enfrentarse, con poco éxito, en el congreso con la mayor figura del partido conservador, Miguel Antonio Caro, que era reconocido por sus dones como latinista.
        Fuera de Rafael Uribe Uribe los liberales tuvieron a Santiago Pérez, líder radical y presidente del país entre 1874 y 1876; quien fue autor de la primera gramática colombiana, Compendio de Gramática Castellana, para uso de sus alumnos, pues era dueño de un colegio. También escribió un resumen de la gramática de Bello. Por otro lado, el vallecaucano César Conto, que fue un activista en los conflicto educativos que generaron la guerra civil de 1876-1877, escribió su Diccionario Ortográfico de Apellidos y de Nombres Propios de Personas.
        Malcom Deas nos dice que a pesar del siglo XIX haber sido la edad de oro de los lexicógrafos, gramáticos, filólogos y letrados vernacularizantes, no consigue explicar ese tejido imbricado entre poder y gramática filológica en Colombia; a pesar de haber estudios colocando tal fenómeno por el surgimiento de los nacionalismos en diferentes partes del orbe. Esto suele ser aplicado, por ejemplo, en las colonias independizadas de Norteamérica, en donde la inseguridad del nuevo estatus de nación independiente los hacía ser, en su inicio, más papistas que el papa con el rigor del lenguaje escrito y hablado, con la finalidad de aumentar la autoestima como pueblos soberanos.
        Pero en el caso colombiano, las inclinaciones lingüísticas de su clase dirigente no serían explicadas por algún tipo de nacionalismo tardío; teniendo en cuenta que sus dirigentes, sobre todos los del bando conservador, tenían una admiración devocional por España, divulgando a diestra y siniestra la idea de que las guerras de independencia no fueron guerras entre naciones sino, más bien, guerras civiles entre hermanos.
        M. Deas sugiere, sin explicar mucho, que habría algo más en juego, pues el dominio de la lengua estaría emparentado con el dominio de las leyes, al rigor sintáctico y semántico de los textos, y a la configuración de una proto clase, que sabía hablar, conocía los clásicos y, sobre todo, tenía el apoyo intelectual de los académicos de España, ¿serían tal vez los precursores de la «gente de bien», de la que hablamos hoy en día?
        Sin embargo, el autor hace énfasis en las preocupaciones, tanto de liberales como conservadores, en adoptar los métodos más adecuados, según sus ideologías, para ilustrar las masas analfabetas del país. O sea, cuál sería el sistema educativo a ser adoptado para Colombia. Y nos dice que este asunto es de vital importancia para entender las interminables guerras civiles que ocurrieron en el siglo XIX, o tal vez sea una de sus causas principales.
        Pero además de sus habilidades lingüísticas varios de estos protagonistas tuvieron actividades como educadores. José M. Marroquín también fue propietario de colegio. En el caso de este último, fueron adoptadas las normas de los jesuitas para adoctrinar a sus alumnos con el método de la «letra con sangre entra», en donde sus alumnos eran obligados a memorizar las rimas ortográficas de Marroquín. También sabemos que este personaje había sido profesor en la escuela de Pérez. Caro también abrió una escuela después de su retiro de la presidencia. Algunos de estos prohombres eran también profesores universitarios, tal como el conservador Miguel Abadía Méndez (último presidente le la hegemonía conservadora) que continuó con sus clases de derecho durante el ejercicio de la presidencia de la república, por el partido conservador.
        Sobre sus bienes comerciales, Miguel Antonio Caro fue propietario de la Librería Americana que pasó a las manos de José Vicente Concha, presidente conservador entre 1914 y 1918, y los Cuervo eran fabricantes de cerveza, precursores de la cervecería Bavaria. Y así, el autor se pregunta sobre cómo cuatro personas conectadas por la gramática, la filología, algunas escuelas y una librería podrían generar una clase política tan fuerte y decisiva en un país como Colombia.
        Como presidentes, políticos y escritores son poco recordados. Marroquín perdía Panamá mientras Caro y sus colegas debatían en el congreso si el texto propuesto por los EEUU era gramaticalmente correcto, o era un acuerdo o un contrato. Abadía fue presidente durante la matanza de las bananeras, denunciada por los discursos ya incendiarios de Gaitán, y por estar registrada en la novela de Gabo. De Marco Fidel Suárez no sabemos nada y de Rafael Núñez nos sobran sus dolidas estrofas del himno nacional. Sobre Rufino José Cuervo sabemos sobre la tentativa de Fernando Vallejo de canonizarlo en años recientes por su obra Diccionario de construcción y régimen de la lengua española; con fuerte oposición de escritores, tal como Julio César Londoño que describe a Vallejo como «el notario del notario»; o sea, aquel que registra aquella figura que dedicó toda la vida a registrar la corrección de la lengua castellana (que era hablada en una sabana muisca castellanizada), pero sin tener en cuenta que la lengua es algo vivo que evoluciona, por derecho, con la historia.
        M. Deas nos dice que los Caro, Marroquín, Cuervo y Vergara estaban convencidos que el poder debía ser ejercido por letrados descendientes de familias españolas., que vinieron a ejecutar cargos burocráticos. Y para estos letrados, el lenguaje correcto era parte fundamental del poder, y su cordón umbilical con sus ancestros españoles.
        Siendo la burocracia imperial española de las más imponentes de la historia (como lo afirma el autor), es comprensible que sus descendientes no hayan olvidado que lenguaje y poder son dos caras de la misma moneda. Pero no nos explica algo que muchos colombianos ya intuimos: que tal verborragia lingüística sería el huevo de la serpiente que nos impidió tener un estado laico durante décadas, y que tal fidelidad fundamentalista al rigor gramatical y filológico sería la semilla del «mamertismo» colombiano (otra máscara del godismo) que tantas vidas ha cobrado al país durante los últimos 70 años.
        Obviamente sostener esta hipótesis sería tema de estudios académicos. Pero la idea es esta: «la letra con sangre entra», tan vinculada en la didáctica conservadora impuesta desde la época, ya sería una forma de violencia. Y así, su estructura podría ser observada también en «el catecismo con sangre entra», que aparece en la represión sexual implementada en Colombia, por el sistema educativo adoptado y, posteriormente, en «el manifiesto con sangre entra», típico de lo que yo llamo aquí «mamertismo» colombiano.
        Tal vez un conocedor de Michel Foucault ya tenga la respuesta en la punta de la lengua, pero este no es mi caso. No quiero ser peyorativo, ni definir a priori que «mamertismo» sea sinónimo de izquierda, en el ámbito colombiano. Pero veo el último caso como una consecuencia de los dos primeros tipos de fanatismo; toda acción genera una reacción, por lo menos a largo plazo.
        Intento ver la misma estructura en los tres casos, para verificar cómo funcionan los mecanismos que generan el mismo síntoma: la violencia. Pero esto es un vicio mío de ingeniero. Obviamente, entrelazar violencia lingüística, violencia/represión sexual y violencia política (aparte de cuestiones partidarias) es un tema complicado, y tendríamos que ver la parte socioeconómica del asunto.
        Un punto importante en el ensayo de M. Deas, es que el aspecto de «lucha de clases», en este caso colombiano, queda algo desconectada de ideas socio-economicistas, pues los que detentaban los medios de producción, o riquezas materiales, no eran los lingüistas que estaban en el poder. Tal vez sea una falsa contradicción, pero sería interesante verificar si existe realmente. Caso contrario, descubriríamos (tal vez algo ya observado) que el conocimiento puede detentar más poder que los propios medios de producción, por lo menos en ciertas circunstancias.
        Este fenómeno podría ser explicado por la extrema pobreza de la sociedad colombiana después de las guerras civiles; en donde se aplicaría, de manera implacable, la vieja sentencia de que «en el reino de los ciegos el tuerto es rey». Algunos argumentos que he escuchado apuntan a que la sociedad colombiana tomó el camino del godismo por el fracaso del radicalismo en construir un sistema político ordenado y estable.
        Pero hasta aquí hemos hablado sobre letras y violencia, y hemos omitido conversar sobre las armas, y el respeto y los miedos que nos producen; pues cuando decimos que lenguaje y poder son dos caras de la misma moneda estamos afirmando algo bien sabido: que el poder está asociado a las armas, y que la estructura de las letras en sus aspectos léxicos, sintácticos y semánticos las vuelven armas, y las vinculan al poder. O sea, dejamos de hablar de letras y vocablos y ahora conversamos sobre gramática, del lenguaje estructurado, del lenguaje correcto, con sus leyes y pecados.
        Sobre esa falsa dicotomía de las letras y las armas observamos algo en don Quijote, en su discurso de las armas y las letras: «dicen las letras que sin ellas no se podrían sustentar las armas, porque la guerra también tiene sus leyes y está sujeta a ellas, y que las leyes caen debajo de lo que son letras y letrados. A esto responden las armas que las leyes no se podrán sustentar sin ellas, porque con las armas se defienden las repúblicas, se conservan los reinos, se guardan las ciudades, se aseguran los caminos, se despejan los mares de corsarios».
        Y termina defendiendo el quehacer del soldado sobre el del letrado con estos términos: «alcanzar alguno a ser eminente en letras le cuesta tiempo, vigilias, hambre, desnudez, váguidos de cabeza, indigestiones de estómago y otras cosas a éstas adherentes, que en parte ya las tengo referidas; mas llegar uno por sus términos a ser buen soldado le cuesta todo lo que al estudiante, en tanto mayor grado, que no tiene comparación, porque en cada paso está a pique perder la vida».
        Mas aquí solo habla el personaje creado por el mayor exponente de las letras castellanas, quien opina sobre el riesgo de perder la vida, de la cuestión de miedo a morir, en el día a día del soldado, y quien tenía el poder de la palabra cuando discursaba. Pero bien sabemos que la trilogía secuencial miedo, rabia y culpa, en donde cada una genera la siguiente en un círculo vicioso (y esto lo podemos observar en los animales), en su grado superlativo se convierte en pánico, violencia y autodestrucción; algo que podemos observar en el estado actual de la sociedad colombiana.

Carlos Humberto Llanos

viernes, 11 de junio de 2021

Un poco sobre ciencia: una visión algo popperiana

«La ciencia descubre, la tecnología inventa, el arte crea. La ciencia es la arqueología de los fundamentos de lo que existe, de lo ya creado; la genealogía de algo que permaneció oculto. Descubrir es ir atrás de lo ya existente, de lo que permanece cubierto y, por lo tanto, de incógnito».

Esta afirmación del epígrafe da la impresión de que las teorías científicas son narrativas de las leyes ocultas de la naturaleza y que aparecen como una revelación en los textos especializados. Sin embargo, toda teoría en rigor es falsable, basta solo un contraejemplo para derrumbarla, o dejarla grogui y confinada a un ámbito restricto.  
    Y esto nos lo dice Karl Popper, un tipo con fuerte formación científica, que dedicó su vida a la filosofía dejándonos una luz sobre la naturaleza de la ciencia y de sus fundamentos epistemológicos. Sus aportes nos dieron una visión sobre lo que es y lo que no es una teoría científica. En su obra propuso que los científicos fabrican hipótesis que deben ser confrontadas con los datos experimentales colectados en los laboratorios. Si alguna de ellas sobrevive será por ser coherente con todas las informaciones conocidas, y podría así ser denominada teoría. Mas toda teoría tiene plazo de validez tal como los lácteos en los supermercados; pues en su caso, en algún momento le puede quedar grande una nueva observación. Y esto fue un parteaguas que mostró ciertas falencias en la explicación del hacer científico, lo que permitió enterrar de una vez por todas la visión iluminista de la ciencia (con Bacon como su mejor representante).
    Popper nació en Viena en 1902, de descendientes judíos convertidos al luteranismo, y siempre mantuvo distancia sobre cualquier credo religioso o ideológico. Se auto declaraba agnóstico e impugnaba referencias a cualquier tipo de nacionalismo, clase o pueblo elegido, ideas que consideraba peligrosas e implícitas en el sionismo y en el marxismo. Fue contemporáneo al círculo de Viena, pero su pensamiento independiente hizo imposible su integración total con dicho grupo. Su formación académica lo capacitó para ser profesor universitario de física y matemáticas. Durante la segunda guerra mundial se refugió en Nueva Zelanda y después emigró para Gran Bretaña en donde hizo su vida académica hasta su muerte en 1994.
    Popper nos dijo que el método que usan los científicos es cierta mezcla de fabricación de hipótesis con alguna dosis de deducción (lo llamó método hipotético-deductivo). La deducción nos la dejaron los griegos clásicos como herencia (especialmente Aristóteles), en donde demostramos una fórmula mediante procesos coherentes con algunos objetos que llamamos postulados (o premisas); formas que admitimos sin demostraciones, tal como los creyentes lo hacen con la santísima trinidad. Así los postulados, junto con un conjunto de propiedades y de operaciones admitidas en el sistema, nos permiten derivar nuevas formulaciones. En verdad podemos afirmar que tanto la deducción como la inducción son formas de concluir cosas nuevas a partir de cosas conocidas o ya demostradas, y en la ciencia a este proceso se lo denomina inferencia
    Como buen racionalista Popper valorizaba en extremo la deducción, que podría ser utilizada para extraer conclusiones de hipótesis propuestas en la solución de un problema, lo que permitiría hacer comparaciones con desenlaces de otras hipótesis; así como para refutar una teoría que estuviera en vigor.  El problema es que cierto grupo de pensadores nos dice que la deducción es algo parecido con el oficio de una peluquera que da nuevas formas y colores al pelo de una dama, pero el cabello sigue siendo una cabellera.  Por ejemplo, algunos prosélitos de la teoría de la información afirman que la información agregada por la deducción de una nueva fórmula es nula, pues todo el contenido estaba ya confinado en las premisas. Claro que esto parece fuera de contexto para ciertos matemáticos, científicos y hasta para el sentido común, pero en el ámbito de la lógica matemática todo debe ser demostrado, y la corroboración del incremento de la información a partir de la deducción de nuevas fórmulas es un problema aún abierto para investigación, a pesar de tentativas hechas por lógicos y matemáticos como el finlandés Kaarlo Hintikka.
    De hecho, la mayoría de los grandes descubrimientos científicos no fue alcanzada por deducción, sino por un procedimiento que se parece a un salto al vacío, y lo llamamos aquí inducción. Consiste en ir de hechos observables, como la caída de una manzana en la cabeza de un despistado (o mejor, la observación de las mareas), a la formulación de una ley general, como aquella que explica las órbitas de los planetas alrededor de las estrellas.  La forma como la inducción sobreviene en la cabeza de los humanos es aún un misterio.  Pero claro, sabemos que misterios son para resolverse, si tenemos tino para esto; pero la inducción tiene dificultades filosóficas profundas, y en este sentido el filósofo inglés C. D. Broad llamó a los problemas lógicos y filosóficos no resueltos, relacionados con la inducción, un escándalo de la filosofía («el escándalo de la inducción»). 
    Pero la deducción tampoco se salva de tal situación pues el mismo Hintikka acuñó la expresión «escándalo de la deducción», ya que los contenidos semánticos de las sentencias envueltas en procedimientos deductivos son difíciles de combinar con las teorías matemáticas de la información. Por ejemplo, en aquellas ideas aportadas por el matemático e ingeniero Claude Shannon, que envuelven la definición de información como la probabilidad de reducir la incerteza que un receptor tiene al recibir un mensaje: «los buenos poemas llevan más información que los chismes, pues son más raros y alivian nuestras angustias e incertezas al ser recibidos, y por lo tanto son menos probables de acontecer» —algo como esto nos decía el viejo Shannon.
    Por otro lado, existe una tendencia a investigar si la inducción tiene algún fundamento científico que pueda ser verificado. A esto se lo llama problema de justificación. Este problema de la inducción fue propuesto por David Hume en el siglo XVII, en que plantea la cuestión de cómo podemos justificar la inferencia inductiva, o sea de cómo podemos llegar de lo observado a lo no observado. Pero todo esfuerzo nos lleva a razonamientos circulares, del tipo «qué fue primero, el huevo o la gallina». Como eso agota las posibilidades de justificar la inferencia inductiva, debemos concluir que es injustificable. Vale resaltar que Hume no niega la prevalencia o la importancia de tal razonamiento; él solo está manifestando su injustificabilidad. Podemos agregar que con respecto a la inducción y toda su problemática Popper tiró la toalla y terminó negándola. 
    Pero si necesitamos fabricar hipótesis que sean compatibles con los datos, que los expliquen, o que predigan cosas no observadas, precisamos ponderar sobre la naturaleza de nuestras observaciones. Por ejemplo, Bacon afirmaba que el conocimiento científico debía lograrse solo a partir de las observaciones (los datos), y colocaba como metáfora que los científicos eran como las abejas que, a diferencia de las arañas, el racionalista o las hormigas, el empirista puro, estarían tomando el camino del medio: toman materiales de las flores (observaciones) y los transforman y digieren por sí mismos. Sin embargo, observar requiere una motivación e incluye una tendencia del observador, creada por sus intereses, por sus vivencias, o por sus vicios. O sea, solo observamos lo que nos interesa y, por lo tanto, la observación no es neutral, tal como subrayado por el propio Popper, quien desmentía a Bacon. 
    Claro que para Popper la ciencia continúa dependiente de los experimentos; pero no para confirmar las teorías como verdaderas, como en la concepción positivista, sino para comprobar su calidad. El número de pruebas que haya superado una teoría no sería garantía de su veracidad, pues las teorías siempre estarían sujetas a refutación. Una prueba de fuego, un experimento crucial, podría conducir al abandono de una teoría supuestamente consolidada.
    Un punto importante en las propuestas de Popper es la idea de progreso científico, que corresponde a un proceso de sustitución de teorías antiguas por otras de mejor calidad.  Para definir qué teorías serían mejores que otras, teniendo en cuenta su correspondencia con los hechos, Popper utiliza el concepto de verosimilitud o aproximación a la realidad, que presupone la noción de contenido de verdad y también de falsedad. Pero la idea de aceptar el concepto de verdad como el norte de la ciencia le costó trabajo y solo vino a utilizarlo después de la lectura de trabajos de un lógico matemático llamado Alfred Tarski, cuya teoría defendía el libre uso de la idea intuitiva de «verdad» como una «correspondencia con los hechos». Así, la verdad será ahora para Popper un horizonte por alcanzar (mismo que inalcanzable) y fuertemente ligada a la fiel correspondencia con los factos observados.
    Así, para que una teoría represente un nuevo descubrimiento, o un paso adelante con relación a una teoría contrincante, es necesario que tenga un mayor contenido empírico (que lo denominaremos calidad explicativa), que sea más consistente desde un punto de vista lógico, que demuestre una mayor idea de verisimilitud y que tenga un mayor poder predictivo.
    Su visión racionalista sobre el hacer científico le creó críticas de contrincantes de peso como Thomas Kuhn e Imre Lakatos. En general, sus críticos le recordaban que la ciencia es hecha por seres humanos, que además de su arsenal racional llevan consigo un tonel de cargas emocionales y de instintos de supervivencia (o sea, un barril de pólvora), y que esto los llevaría a defender sus teorías con portes menos elegantes y justos. Le recordaban que sus ideas de progreso científico, por la acumulación de contenidos, era una visión idealista y en algunos momentos claramente errada, pues el camino para generar nuevos saberes estaba repleto de intereses personales y económicos, a los que Popper no les paraba bolas. 
    Finalmente, se le achacaba el hecho de desconocer que la ciencia podría avanzar por saltos en vez de hacerlo por progresos continuos, y esto lo afirmaba Kuhn, para quien la ciencia progresaba por revoluciones o sustituciones de maneras de pensar, o quiebras de paradigmas, como ocurrió con el adviento de las ideas de la física cuántica, que nos llevó a enfrentarnos con conceptos que resisten sistemáticamente al sentido común, aquel que creemos tener la mayoría de los mortales.
    Sobre las teorías científicas se hace mucho énfasis en su descripción matemática. Mas esto es un equívoco pues varias teorías no son matemáticas o no son matematizadas. Un ejemplo es la teoría de la evolución, conocida como darwinismo. Popper la atacó intensamente en varias oportunidades, y no por su falta de narrativa matemática. Por ciertos motivos, y en cierta época, la tildó como metafísica, tautológica y refutable con cierta facilidad en ciertas circunstancias. Inclusive le retiró su título de teoría, y este asunto es fuertemente discutido en la actualidad.  Argumentos similares usó para atacar el psicoanálisis y el marxismo, retirándoles también sus estatus de teorías científicas. 
    En general los actores de las ciencias duras tienen claro la refutabilidad de sus teorías y se resisten a envolverse con filosofías, con religiones o con cualquier tipo de ideología. Saber que un trabajo de toda una vida puede ser destruido por un contraejemplo o por una nueva observación es claro y asimilable para ellos, pues hace parte de las reglas del juego. Sin embargo, refutar conceptos que se quedan obsoletos es arduo de asimilar para cualquier cura de cualquier religión, para ciertos filósofos que buscan explicar el sentido del mundo, o para los adoctrinadores de cualquier índole. Esta especie de neutralidad  y pureza popperiana, así como la aceptación a los vaivenes del saber que los científicos deberían ejercer serían sus mayores méritos, especialmente cuando soplan los vientos de la intolerancia, de los fanatismos y de los fundamentalismos de cualquier índole.

Carlos Humberto Llanos

jueves, 10 de junio de 2021

Sobre Tiempos y dudas


Qué mano puede detener su pie veloz,
¿O qué belleza el Tiempo no demarca?
¡Ninguna! Al menos que este mi amor
En negra tinta guarde su fulgor.

W. Shakespeare (soneto LXV)

Hay cosas en el cielo y en la tierra que aún no abarcamos con nuestra comprensión y una de ellas es el tiempo. Un síntoma claro es que tenemos más preguntas que respuestas para dar. ¿Es el tiempo objetivo o subjetivo, es absoluto o relativo, es solamente lo que marcan los relojes con sus punteros giratorios?  Algo sobre el tema lo discutió Platón, que lo describe como creación divina para permitir el tránsito perfecto y periódico de los astros, de acuerdo con su mundo de las ideas. En cambio, Aristóteles relaciona el tiempo con el desplazamiento de los objetos, y cree que «el tiempo es la medida del movimiento», colocando el problema del antes, del después y del ahora.  En este sentido, para san Agustín el pasado, el presente y el futuro adquieren su significado al identificarse con la memoria, la atención y la espera. Mas en la visión clásica hay cierto desprecio por el tiempo, colocándolo en el nivel de lo imperfecto, opuesto a la perfección de la eternidad. 
    Discusiones sobre si el tiempo es externo y objetivo, o interno y subjetivo ocurren desde siglos, teniendo como protagonistas actuales filósofos, psicólogos, literatos y científicos. Inclusive se debate si el tiempo existe o es una ficción de nuestras conciencias. Pero sin duda solo tenemos por cierto conjeturas y algunas dudas frustrantes, tal como aquella vieja cuestión agustiniana: «Si nadie me lo pregunta, lo sé; si me lo preguntan y quiero explicarlo, ya no lo sé». 
    En la literatura tenemos la visión de Proust, el pasado puede ser rescatado mediante la purificación de la memoria, centrando la atención en el retrovisor de la vida. La atención presencial nos sirve de espejo —la media espacial— en donde podemos revivir el pasado. Sobre el futuro tenemos la ficción de los oráculos, casi siempre en la forma de acertijos a ser interpretados, como le ocurrió a Edipo y a tantos otros mortales. 
    En visiones filosóficas verificamos precursores de lo que se investiga en la neurociencia. Por ejemplo, para Kant el tiempo aparece como condición subjetiva sobre la cual tiene lugar toda y cualquier intuición y, siendo a priori, es anterior a los objetos en su representación. Así, el tiempo es una intuición que forma parte de la estructura del sujeto cognoscente, con la cual el sujeto ordena los fenómenos del mundo según la sucesión y la simultaneidad.
    Lo que es simultáneo y lo que es secuencial está claro en la física de Newton pues el tiempo es absoluto e independiente de cómo nos movemos como observadores.  De cierta manera también lo está para Kant para quien el tiempo es algo homogéneo; lo que para Bergson sería un pecado, pues sojuzga la filosofía al sistema científico, cortando sus alas y tornado imposible una metafísica del saber. 
    Para Bergson el tiempo real es duración (al que llama de tiempo real), devenir, y se compone de momentos interiores., que se entrelazan entre sí. Y lo define así para oponerse a la tradición científica y kantiana que, según él, confunde tiempo con espacio, colocándolo como algo homogéneo y divisible. El yo aparece allí donde la duración aparece por la primera vez, como fenómeno psicológico. La duración también es ser, siendo heterogénea, continua, indivisible y fundamental como experiencia interna. Esas visiones que plantean tesituras más o menos subjetivas sobre el tiempo es tema actual de debates filosóficos. Sin embargo, en Bergson podemos percibir que su concepción de tiempo —como duración— lleva de nuevo a algo clásico, casi de vuelta a una idea de absoluto, una visión metafísica del tiempo. Lo que lo lleva también a criticar la concepción temporal de la física relativista.
    En este sentido, la física del siglo 20 nos habla sucesión y simultaneidad, específicamente en la teoría especial de la relatividad, en donde la velocidad de la luz es lo único absoluto.  Nos dice que si dos eventos son simultáneos en algún local, en donde estamos, no lo serán si observados en otro sistema de referencia que se mueve con velocidad contante con respecto a nosotros. En este caso, la simultaneidad depende de dónde estemos y de la condición del lugar de quien observa.
    Y conversando desde donde estamos, como observadores voyeristas, los conceptos de localidad espacial y simultaneidad temporal tienen sus respectivos acertijos en la física de las partículas atómicas y subatómicas.  Dos objetos pueden estar conectados por una simultaneidad a pesar de estar a distancias que no caben en nuestras cabezas. O sea, la instantaneidad en la comunicación entre dos eventos cuánticos es un hecho comprobado en los laboratorios. Así el eterno presente y la comunión de los santos es ahora tema científico.
    Tenemos también otras visiones filosóficas que colocan por lo menos algún tipo de atributo subjetivo a la cuestión temporal como en Martin Heidegger, en donde existe el tiempo propio del sujeto por sí, aparte del tempo del mundo (el tempo que miden los relojes). Para Heidegger es esencial pensar el tiempo como algo independiente del movimiento. Pues la idea aristotélica —y científica— del tiempo deja por fuera cualquier disposición afectiva, personal. Heidegger parte de la premisa de que nosotros no estamos en el tiempo, nosotros somos el tiempo. Pues el tiempo tiene que ser visto por sí mismo y no como medida, o como una relación de movimiento, adjunto al espacio. A pesar de los relojes marcar el mismo tiempo para todos, la experiencia del tiempo es única y singular para cada uno. Las horas no pasan, somos nosotros los que pasamos: el tiempo es el hombre. Es porque morimos que hablamos de tiempo, al contrario de Aristóteles para quien hay muerte porque hay tiempo. 
    Y esto hasta que tiene la condescendencia de unos de los pilares de la física cuántica, Erwin Schrödinger, para quien un beso sincero a una bella dama sería suficiente para hacer el tiempo parar. Mas la capacidad de hacer el tiempo parar es también implícita a toda arte, cuando un observador desaparece mientras observa una obra que lo cautiva, que lo atrapa y lo secuestra, por algunos instantes, para otra realidad. 
    Pero la relación del tiempo con los movimientos periódicos y circulares de los astros —y de los punteros de los relojes— la recogemos también en Borges: «lo decían los antiguos pitagóricos, todo retorna como la fracción periódica… y los astros y los hombres vuelven cíclicamente…La mano que esto escribe renacerá del mismo vientre». El tiempo en espiral, como el movimiento helicoidal de los planetas en torno a un sol que ahora sabemos que también transita, como un bólido en el espacio tiempo. O el tiempo travestido de música, cuando nos dice en el verso final del otro poema de los dones: «por la música, misteriosa forma del tiempo».
    Mas hablando del tiempo objetivo, medido por movimientos periódicos y retornelos, el reloj disimula la naturaleza incógnita del tiempo usando la máscara convincente de un movimiento. O sea, traviste el tempo de movimiento regular —ya criticado por Bergson.  Y nos queda una transformación de algo misterioso, en su esencia, en una regularidad que nos indica la duración, la cuantificación de un período de algo, inclusive de nosotros mismos.  Así, en la física, la duración es para el tiempo aquello que la longitud es para el espacio, como nos lo dice el físico y filósofo Étienne Klein. En ambos casos tenemos representaciones y tal vez solo fetiches de lo temporal y de lo espacial (Heidegger estaría feliz de escuchar esto). 
    Y aquí podemos decir que esa duración es un cuenteo de instantes, que vienen y se van mediante un mecanismo que no podemos comprender. Cada instante que verificamos conscientemente lo llamamos presente, mas esto no deja de ser una simple definición, como un postulado para fabricar explicaciones o para tejer teorías. 
    La sucesión de instantes no admite pausas y el presente es un instante que verificamos como observadores. Ese motor de instantes ariscos es el mecanismo que no podemos entender —no captamos su funcionamiento, tal como lo desearían tanto físicos como ingenieros. 
    Físicamente hay con el tiempo una condición dictatorial, pues con el espacio podemos hasta hacer recorridos y tránsitos con cierta libertad. En el caso del tiempo estamos atrapados en un cierto tipo de prisión. Podemos repetir eventos, como dormir, cenar, hacer el amor. Pero no podemos repetir los instantes que ya transcurrieron. Podríamos decir que somos arrastrados sin posibilidad de rescate, sin una mano amiga que nos saque de algo que no comprendemos.
    Y hablando de obligatoriedad del transcurso temporal hay una relación de este con los fenómenos del calor, estudiados en un área conocida como termodinámica. El calor fluye espontáneamente de un cuerpo caliente para un cuerpo frío. Este facto es comprobado diariamente en las diferentes actividades que realizamos, y nunca se encontró un contraejemplo, por lo menos fuera de la locura de la física cuántica. Una mano caliente, transmite calor para una mano fría —es la famosa segunda ley de la termodinámica. Cuando sumergimos un cuerpo caliente dentro del agua el calor fluye del cuerpo caliente para el agua, hasta que el conjunto llegue al equilibrio térmico, y este equilibrio térmico está asociado con un mayor desorden del sistema. Este tipo de procesos son temporales, y van siempre en la misma dirección, en la medida en que el tiempo avanza, y son llamados de fenómenos irreversibles. 
    La medida de desorden de un sistema cerrado es denominada comúnmente de entropía, y los que nos dicen los físicos es que la entropía siempre aumenta, junto con el transcurso del tiempo, buscando que los fenómenos lleguen a un punto de equilibrio, lo que equivale a su punto de máximo desorden, ¿tal vez la muerte de nuestros cuerpos? Así el pasado, presente y futuro son estados de un sistema, que guardan características de irreversibilidad, lo que nos hace asociar al tiempo con nuestra finitud, y como dice el poeta: ¿qué belleza el tiempo no demarca? 
    ¿Para la ciencia realmente el tiempo pasa, como lo dice la famosa canción de Pablo Milanés? Hay aquí una metáfora ya usada: el tiempo como un río que recorre algo. Mas en un río tenemos una visión espacial, un recorrido perceptible y comprobable. Y tenemos la gravedad como su causa, y un cause —su nacimiento, su curso y su destino final. En relación con el tiempo, estrictamente hablando, no tenemos estas muletas, no sabemos ni su causa ni su cause, y menos su destino final. Si verificamos un poco percibimos que tal vez somos nosotros los que pasamos, como pasan los árboles y los postes de energía cuando viajamos en un tren. Y aquí Heidegger estaría de acuerdo.
    También decimos que somos arrastrados por el tiempo, como si fuera un río, mas eso es solo un fragmento literario de lo que nos dicen las canciones y los versos. Algunos físicos dicen que el pasado, presente y futuro existen en una especie de partitura matemática que es ejecutada por nosotros como seres consientes. O sea, el motor temporal son nuestras mentes y nuestras observaciones. Y que hay una especie de tejido al que llaman espacio-tiempo que compartimos por algún tipo de consenso colectivo. Aquí el futuro predicho por los oráculos que usan símbolos arquetípicos tal vez tenga sentido, pues podríamos presumir que un símbolo podría mapear, o vincularse, con un instante que aún no aconteció.  
    Otro grupo de físicos afirma que solamente los eventos presentes son reales: el pasado fue perdido irremediablemente, y el futuro no existe, como nos lo insinúa Shakespeare —solo es fabricado como presente, y en el momento oportuno. Y esto de por sí ya hace posible la tragedia como género literario.   Los dos grupos generalmente están atrincherados en la física relativista o en la física cuántica, o en alguna corriente literaria o filosófica.
    Si hablamos sobre una dimensión espaciotemporal, los físicos afirman que tenemos un universo de 4 dimensiones (tres espaciales y una temporal). Pero recientes teorías más abstractas nos dicen que las partículas atómicas son fabricadas por vibraciones de objetos unidimensionales, como las cuerdas de una guitarra. Y que dependiendo de la forma como vibren aparecen objetos físicos, como partículas elementales, tal como los cuarks que pueden agruparse para formar partículas mayores, y así sucesivamente. Así, los físicos nos insinúan que existen más 7 dimensiones, con características curvas, tal como las formas femeninas, que serían necesarias para unir los fenómenos gravitacionales, cuánticos y electromagnéticos. Al final, tendríamos un universo de 11 dimensiones y el tiempo apenas sería una de ellas.
    Pero saliendo de temas estrambóticos y hasta pintorescos, físicamente sabemos que tempo y espacio tienen una relación, específicamente en el caso del movimiento. Este último es comúnmente descrito en la forma de velocidad, algo que todos entendemos intuitivamente. Nos movemos con una velocidad que significa algo concreto, y que hasta podemos percibir: si es mayor llegamos más rápido, con una duración menor. La física relativista nos dice que la mayor velocidad posible es la de la luz. Y que los únicos objetos que la pueden alcanzar no tienen masa, tal como los fotones. Otros objetos con masa diminuta solo pueden tener una velocidad máxima menor, dependiendo de su energía. 
    Y lo más intrigante y singular es que si pudiéramos correr detrás de una partícula de luz y acelerásemos hasta llegar a una velocidad altísima, ese fotón siempre estará viajando a la velocidad de la luz con respecto a nosotros. No importa a que velocidad estemos, siempre que midamos su velocidad será la misma.  O sea, nunca podremos darle la mano a un fotón y decirle hola.  
    Tal vez por eso la expresión «iluminarse», usada por ciertas religiones y credos espiritualistas, tenga aquí su sentido metafísico: «alguien dejó de ser de este mundo y saltó el muro de su prisión». De esta manera, nuestras visiones de objetividad o subjetividad sobre el misterio de la temporalidad perderían sentido; pues parar el mundo, por alguna técnica artística o espiritual, hace que la realidad desparezca. La propia física nos lo insinúa:  sin la existencia del tiempo la película se para, y los personajes se vuelven como un fotograma y cualquier historia deja de tener sentido y posibilidad. 
    Aún no sabemos si el tiempo pasa, o si nosotros pasamos en el tiempo; ni sabemos sobre el motor que lo origina y lo controla. Bergson critica la tradición clásica que confunde el tiempo con el espacio, así como Heidegger critica enredarlo con el movimiento. Y hasta tenemos dudas de si somos el tiempo, como nos lo afirma algún filósofo, o algún cantor. Si el tiempo existe —porque hay muerte y máximo desorden— es porque estamos piamente seguros de nuestra identificación con nuestros cuerpos de carbono. Es decir, el problema no dejaría de ser una cuestión de identidad, pues como lo dicen algunos psicoanalistas «no hay loco más loco que aquél que afirma ser Napoleón, mismo que sea el propio Napoleón».

Algunas referencias:
  • Klein, Étienne. Le Temps (qui passe?), Paris, Bayard, 2013. Edición original.
  • Frant Pereira, Sofia e Alvim; Duarte, Pedro. O Conceito de Tempo nos Primeiros Escritos de Martin Heidegger. Departamento de Filosofia, PUCRJ, Rio de Janeiro. 
  • Heidegger, Martin. Ser e tempo. Petrópolis: editora Vozes, 2009.
  • Mascarenhas, Aristeo, L. C. Bergson e Kant: o problema do tempo e os limites da intuição.  https://doi.org/10.1590/s0101-31732017000200006

miércoles, 9 de junio de 2021

Música, Pitágoras y Prometeo


La relación entre la música y matemática en occidente es histórica y también estética. Y este es su gran misterio: ¿por qué una escala musical cuyos tonos están vinculados a frecuencias mecánicas (en este caso, ondas de presión acústicas) suena bien al oído?
    Pero cuando hablamos de escalas es imposible dejar de lado a Pitágoras, quien quizás primero tuvo una relación estética con el sonido y luego persiguió un modelo matemático. Podemos recordar que los pitagóricos eran devotos de las simetrías, de las perfecciones y que cultivaban la relación entre los números enteros. Algunas de estas relaciones generaban fracciones periódicas, patrones de secuencias que se repiten ad aeternum (una especie de simetría), y esto era ya suficiente para ser tomado como tema filosófico y de espiritualidad (tal vez de religión).
    Esta recurrencia de objetos puede ser observada en los cuadros de Escher y en la música barroca: las formas musicales son temas repetitivos. Así, en el principio de la música hay principalmente un aspecto estético, sobre el eterno retorno, la recursividad matemática, la función que se llama a sí misma. Pero la matemática rigorosa vino después tal como ocurre en la ciencia actual: alguien observa un proceso (o un fenómeno) y después quiere presentarnos o vendernos un modelo matemático (o una teoría) que funcione, explique algunas cosas y haga algunas predicciones.
    El problema es que los pitagóricos deificaban los números, pero no la estética musical y por eso enfatizaron más en la construcción de un modelo que en el fenómeno estético en sí. Tal como suele ocurrir dentro de la ciencia actual que hace mucho énfasis en los modelos teóricos, en donde muchos usan narrativas matemáticas, casi siempre para darles elegancia y formalismo académico. Pero debemos recordar la advertencia del Prof. George Box: «all models are wrong but some are usefull».
    Tal vez podemos afirmar que Pitágoras y su grupo fueron los primeros físicos teóricos, pues crearon una teoría matemática para los sonidos, y posiblemente los primeros ingenieros pues la usaron para estimular la construcción de instrumentos musicales. En la construcción de escalas musicales se hace énfasis en obtener sonidos sin asperezas, que suenen bien al oído, lo que lleva al concepto de consonancia sonora. Obviamente si algún sonido en una escala determinada tiene alguna acidez será una disonancia.
    En la construcción de las escalas se usa una frecuencia fundamental (que dará nombre a la escala) y el resto de las notas se consigue usando relaciones entre números naturales. Por ejemplo, si multiplicamos la frecuencia fundamental del do por 2 (denominada de relación 2/1) la llamaremos de octava superior. Otras relaciones definen nuevas frecuencias (y nuevos tonos), por ejemplo: 3/2 (quinta), 4/3 (cuarta), 5/3 (sexta mayor), 5/4 (tercera mayor), 6/5 (tercera menor) y 8/5 (sexta menor); y así obtendremos la escala de do. Las cuatro primeras relaciones generan consonancias perfectas y las restantes consonancias imperfectas.
    O sea, todo hace parte de un concepto estético que tiene sus tránsitos históricos, inclusive porque el asunto sobre qué es disonancia (o no) tiene su historicidad y ha cambiado con el tiempo. Por ejemplo, los músicos dicen que es un concepto variable y que el oído humano puede adaptarse a usarlas y crear nuevas musicalidades, como lo verificamos en la música erudita contemporánea, en el jazz, la bossa-nova y otras similares, especialmente en la construcción de acordes.
    Un punto fundamental de la experiencia auditiva es que cada nota suena igual que su octava superior, y esto no tiene equivalencia en ninguna de las otras experiencias sensoriales (visión, olfato, etc.) En la física se explica diciendo que todos sus componentes ondulatorios complementares (llamados armónicos) son coincidentes, y por eso el oído procesa los dos sonidos como si fueran iguales. Una decisión arbitrária de la evolución que siempre busca optimizar algo, el problema es saber  qué quiso optimizar en este caso.
    Así históricamente se crearon escalas intentando maximizar el número de consonancias y minimizando intervalos desagradables para el oído (disonancias) entre la nota fundamental y su octava superior; por ejemplo, la escala Pitagórica, tal vez la primera tentativa formal en occidente, y la escala justa.
    El problema es que si hacemos el mismo procedimiento para la frecuencia del re tendremos la dificultad de que los intervalos de frecuencia no son iguales, lo que obligaría a afinar los instrumentos cada vez que mudemos de escala. Para buscar algún tipo de patrón que funcionara para todas las escalas se hicieron algunos ajustes en los intervalos entre notas generando la escala temperada de 12 tonos (tal vez idea de Bach). Estos pequeños ajustes hacen que los intervalos tengan algún tipo de simetría y podamos tener las mismas variaciones de frecuencias entre semitonos (la mitad de un tono) que valen para todas las escalas. Un músico puede observar estas pequeñas perturbaciones si compara la escala cromática con la escala pitagórica (o la escala justa), pero el oído termina por aceptarlas, y para los legos y el resto de los mortales, como la mayoría de nosotros, no hay diferencias.
    Tal vez la escuela Pitagórica fue pionera en crear modelos matemáticos que tuvieran posibles impactos en cosas reales (como los instrumentos musicales), y podríamos verificar también las fundaciones de las relaciones entre matemática, ciencia y tecnología.
    Pitágoras sería una representación mortal de Prometeo (el famoso titán) que, entre otras cosas, robó el fuego para dárselo a los humanos y por eso fue castigado severamente. Recordemos que el fuego era el elemento fundamental y vivificador del universo para los pitagóricos, y su dominio representa la tecnología primigenia que permitirá a los humanos entrar en las edades de la metalurgia (por la fusión de minerales, como el cobre, el bronce y el hierro), calentar sus cuerpos de manera artificial y cocinar.
    Su grupo estaba compuesto tanto de hombres como de mujeres, algo raro en la historia antigua, y la observación de variadas relaciones numéricas, o analogías al número en los fenómenos del mundo objetivo, era la convicción de que los números y sus relaciones armoniosas confluían en principios absolutos del conocimiento. «Los números son cosas en sí», cogitaba Aristóteles cuando abordaba los enunciados pitagóricos.
    En el caso de Prometeo, el castigo sufrido puede ser visto así: podemos donar conocimientos culturales, filosóficos y científicos (verifiquemos que estos son divulgados abiertamente en literaturas específicas). Ahora, si se trata de conceder tecnologías la cosa tendrá un precio alto. Basta observar cómo los gobiernos e industrias guardan sus tecnologías a siete llaves en la forma de know-how y de patentes, y cómo violar un secreto industrial es un delito en los marcos jurídicos de todos los gobiernos. Quizás la feroz persecución que sufrió la escuela pitagórica y su fundador puede ser un vestigio de este sino.

De las Ciencias, de las Tecnologías y del Arte


La ciencia descubre, la tecnología inventa, el arte crea. La ciencia es la arqueología de los fundamentos de lo que existe, de lo ya creado; la genealogía de algo que permaneció oculto. Descubrir es ir atrás de lo ya existente, de lo que permanece cubierto y, por lo tanto, de incógnito.
    Inventar tiene como etimología el prefijo in (hacia dentro), ligado al verbo venire en infinitivo latino, y con su supino ventus; siendo que este último tiene también su contraparte como sustantivo: el viento, o un soplo de suerte, o algo así. Y haciendo una pequeña composición podríamos insinuar algo como: siendo el viento, el buen agüero que viene desde adentro.
    Crear tiene origen en el infinitivo latino creare, con el sentido de engendrar, de parir, de dar a luz, de cuidar, de nombrar alguien para un cargo. Se crea a partir de algo, y con el perdón de los creacionistas ortodoxos. Por lo tanto, queda más fácil entender el por qué el arte siempre estuvo ligado con la tecnología (y mucho más ahora) pues el viento, que viene de adentro, se parece más a un eólico parto, que engendra algo de lo preexistente.
    No hay arte sin tecnología pues en la caverna de Altamira hubo la invención previa de la tinta y de los artefactos que permitieron pintar en los muros —pura tecnología. La escritura fue posterior a la invención del alfabeto, a la palabra hablada, y nos atreveríamos a pensar que el lenguaje oral es una de las primeras tecnologías de la comunicación. Si fue invención o creación es otra historia.
    Si hablamos de tecnología, ciencia y sociedad podemos verificar que las revoluciones sociales están ligadas con revoluciones tecnológicas, y estas últimas a descubrimientos científicos, en una relación de recursividad: un descubrimiento científico suele generar nuevas tecnologías y una nueva tecnología suele apalancar una nueva descubierta científica. Podemos verificar que revolución francesa puede ser atribuida a las tecnologías desarrolladas por la revolución industrial, que forjaron nuevas clases sociales y nuevas relaciones de trabajo.
    Pero las presiones sociales suelen surgir de lo cotidiano, en donde los personajes inventores de los cimientos tecnológicos son estimulados, o presionados, a desarrollar nuevas formas de pensar, o sea descubrimientos científicos. Y aquí tenemos el problema de saber si lo que pasa es que una tecnología genera una transformación social, o un descubrimiento científico genera una nueva tecnología, o si es al contrario; pues podemos caer fácilmente en el problema del huevo y la gallina.
    Generalmente asumimos las revoluciones tecnologías como revoluciones industriales, pero el problema es que el concepto de industria ha cambiado con el tiempo, así como el concepto de trabajador (y con el perdón de los marxistas). Los ingenieros industriales y de producción han acuñado el término de industria 4.0, en donde se incluyen nuevas formas de producción, envolviendo formas de trabajo no concebidas con anterioridad, abordando tecnologías como la inteligencia artificial y la robótica. Así, lo que conocemos como fábrica, su layout y logística, no se parece, o se parecerá, con los nuevos conceptos de fábrica, pensados de acuerdo con las nuevas formas de organización, envolviendo procesos descentralizados, autónomos, con alto grado de comunicabilidad, y en donde se puede trabajar remotamente.
    Si miramos una línea del tiempo podemos colocar la máquina de vapor, los motores de combustión interna, la electricidad, los motores eléctricos, la electrónica, las comunicaciones inalámbricas, la telefonía, el computador, la microelectrónica, la ingeniería de materiales, el circuito integrado, el desarrollo de interfaces hombre-máquina, el desarrollo de nuevos sensores, la neurociencia, la inteligencia artificial y realidad aumentada. Y todo esto confluye en el teléfono celular actual. Nunca antes hubo un producto con tantas tecnologías integradas en un único dispositivo, y que cabe en una de nuestras manos.
    Muchas de esas tecnologías eran protagonistas de películas de ciencia ficción hasta hace pocos años. En este aparato de comunicación tenemos las funcionalidades de un computador sofisticado junto con las capacidades de transmisión y recepción, envolviendo algoritmos sofisticados de modulación; sin pensar en pantallas planas e interface por toque y voz, incluyendo técnicas de reconocimiento de voz e imagen. Y todo esto ocurre veloz e imperceptible, en donde perdemos hasta el derecho a la sorpresa. Ese crecimiento rápido para nuestra percepción puede ser visto como un incremento exponencial, que bien más rápido que el linear, con aceleración creciente, lo que nos lleva aprisa a valores que no caben en nuestras cabezas.
    Ese fenómeno de integración lo observamos también en la robótica, en donde intentamos simular comportamientos del cerebro humano, incluyendo los problemas que nuestro cerebro resuelve de manera fácil. Por ejemplo, cuando llegamos a una sala somos capaces de reconocer los objetos en ella, de saber en qué lugar estamos localizados y actualizar ese mapa en tiempo a cada instante. Ese problema de localización y mapeamento realizados de manera simultánea es duro de roer en el área de la ciencia de la computación, y por lo tanto en la robótica. En esta área es conocido como SLAM (del inglés Simultaneous Localization and Mapping). Así en un robot vemos incorporados aspectos sofisticados de la mecánica fina, de la inteligencia artificial, de la visión computacional, de la interface hombre-máquina (HCI, del inglés Human-Computer Interaction), y por supuesto del SLAM. O sea, la integración de tecnologías es evidente.
    En el fenómeno de integración podemos observar también que algunas tecnologías absorben otras, tal como ocurrió en la telefonía en donde el teléfono fijo ha sido desplazado por los celulares, que también tienden a sustituir los PCs. Lo mismo parece acontecer con la industria automotriz en donde el vehículo convencional será absorbido por la robótica, si pensamos que un vehículo autónomo no es más ni menos que un robot transportador de humanos y de las cosas. Y el transporte de palabras se queda a cargo de la web y de sus redes sociales.

sábado, 3 de agosto de 2019

Reflexiones sobre computadores e IA



A mis profesores de Univalle Jaime Grú y Edgar Charry

Carlos, yo admiro muchos tus colegas que trabajan con computadores y tus amigos neurocientíficos, mas para un viejo devoto del arte, como yo, pensar que el centro de la vida está en el cerebro suena tan ingenuo como afirmar que el centro de la sexualidad está en los testículos (César Giraldo) 

Y aquí tocamos uno  de los temas más sorprendentes en la actualidad: el crecimiento exponencial de las tecnologías. Los jóvenes las absorben por los poros de la piel y los viejos tendemos a quedarnos con la boca abierta ante tanto volumen de información, complejidad de los nuevos dispositivos, cantidad de opciones a enfrentar y, sobre todo, la ansiedad por la respuesta sobre adónde iremos a llegar.   Cuando decimos exponencial nos referimos a algo que se duplica, cuadriplica, etc., a cada periodo de tiempo. Por ejemplo, el número de transistores que puede colocado en un circuito integrado de silicio se duplica aproximadamente a cada 2 años (teóricamente a cada 18 meses), y esto es conocido como la ley de Moore, en homenaje a Gordon Moore (uno de los fundadores de la Intel) quien describió el fenómeno en un famoso artículo en 1965. Por ejemplo, el primer microprocesador fabricado por la empresa Intel (llamado 4004) en 1971 tenía sólo 2.300 transistores. En 1984 este número llegaba a 134.000, y en 2015 alcanzaba el nivel de 1.750.000.000 transistores. Si un número k de transistores se duplicara a cada 2 años, en 10 años tendríamos un nuevo valor de k= k×25 lo que representa un crecimiento sorprendente en pocos años, que dejaría con la boca abierta a cualquier lector desprevenido. O sea, la ley de Moore es uno de los fenómenos ilustrativos de la exponencialidad ligada a las tecnologías que nos rodean.

La causa principal de la ley de Moore es la reducción del tamaño de los transistores que son diseñados sobre la pastilla de silicio de un circuito integrado (chip). Por ejemplo, en 1985 un transistor de un microprocesador tenía un tamaño en la faja de 1 μm (1 micrómetro). Podemos verificar que un hilo de cabello tiene un diámetro entre 60 y 120 μm. En el año 2000 se estaban fabricando procesadores con transistores de 0,13 μm (casi 10 veces menores). Ya en 2012 tenemos transistores de 22 nm (22 nanómetros, que es igual a 0,022 μm), y actualmente tenemos disponibles circuitos con tecnología de 10 nm. Para 2020 estaremos en la casa de los 5 nm, cuando llegaremos al límite de la tecnología del silicio. ¿Qué vendrá después? Esa es una pregunta difícil de responder, hasta para los propios especialistas en silicio, pues estructuras menores a 5 ns posiblemente deberán ser manipuladas a nivel atómico. 

Lo que se sospecha es el uso de nanotecnologías alternativas al silicio, como los nanotubos de carbono, estructuras que ya son usadas para fabricar transistores y memorias eficientes; o estructuras basadas en Memristors (palabra que agrupa los términos “memoria” y “resistencia”), que son dispositivos en que la resistencia no es constante sino que depende de la historia de la corriente que ha fluido previamente a través del dispositivo. O la computación cuántica, una idea que promete altos niveles de paralelismo.

La predicción de Gordon Moore duró unos 50 años, pero ya no se cumple. Por ejemplo, 2010 un microprocesador Intel tenía unos 1.170.000.000 de transistores. Si la ley de Moore hubiera continuado, podríamos haber esperado que los microprocesadores en 2016 tuvieran 18.720.000.000 transistores. En cambio, el microprocesador Intel equivalente tenía sólo 1.750.000.000 transistores, un desfase de un factor de 10, de lo que la ley de Moore hubiera predicho. Estos datos contradicen lo que la mayoría de las personas afirman, erróneamente, sobre la actual vigencia de la ley de Moore. 

Por algunos aspectos tecnológicos, el decremento del tamaño de los transistores permitió conmutar los procesadores a frecuencias más altas. La conmutación es hecha por un reloj (clock) que sincroniza todas las actividades dentro de un procesador. Por eso este tipo de dispositivos son llamados de circuitos síncronos. Para entender mejor este concepto podemos recordar las navegaciones en el imperio romano, donde los remeros eran sincronizados por un tambor tocado sincronizadamente. O por el ritmo generado por un metrónomo que es impuesto por el director a los instrumentistas de una orquesta sinfónica. 

La frecuencia del reloj es definida en Hercios (Hz) en donde un Hz representa una oscilación por segundo. En este sentido el aumento de la velocidad del reloj fue de poco menos de 1 MHz (1 megahercio, o un millón de oscilaciones por segundo), en la década de 1970, para alrededor de 3–4 GHz (gigahercios) en los días actuales. Pero de acuerdo con las previsiones iniciales, la frecuencia del reloj debería estar actualmente en la casa de los 20 GHz. La previsión falló por un hecho muy simple: entre mayor sea la frecuencia del reloj el circuito disipará más energía, y por esto se calentará más. Este efecto de calentamiento indebido fue contrarrestado inicialmente con la disminución de la tensión de alimentación de los circuitos integrados. Por ejemplo, los primeros procesadores eran alimentados con tensiones de 5 voltios, y actualmente suelen ser alimentados con tensiones de 1,3 voltios. El problema es que no se puede bajar más la tensión de alimentación de los procesadores pues comienzan a ocurrir problemas de pérdida de las informaciones que están siendo computadas.

En este sentido Robert Dennard observó en 1974 que la densidad de potencia era constante para un área determinada de silicio, incluso a medida que aumentaba el número de transistores debido a las dimensiones más pequeñas de cada transistor. Sorprendentemente, los transistores podrían trabajar más rápido y disipar menos potencia, y no calentarse hasta quemarse. Pero la vigencia de la ley de Dennard terminó alrededor de 2004, porque la corriente y el voltaje no podían seguir bajando, como explicado anteriormente, y aún así mantener la fiabilidad de los circuitos integrados. Este fenómeno de sobrecalentamiento de los procesadores obligó a la industria a tomar otros caminos para aumentar el desempeño de los procesadores, sin tener que aumentar la frecuencia del reloj, y representa un límite de la tecnología actual de fabricación de chips digitales, específicamente la tecnología CMOS (Complementary Metal-Oxide-Semiconductor). Como siempre, es posible crear un término para describir los problemas, y los ingenieros han llamado a este fenómeno de power-wall

Así la industria de los microprocesadores  se vio obligada a utilizar múltiplos procesadores, o núcleos eficientes dentro de un chip (las arquitecturas multi-core), en vez de un único procesador ineficiente. De hecho, en 2004 Intel canceló sus proyectos de un único procesador de alto rendimiento y se unió a otros fabricantes para declarar públicamente que el camino hacia un mayor rendimiento sería a través de múltiples procesadores por chip, en lugar diseñar mono-procesadores más rápidos. O sea que las esperanzas de aumentar el desempeño de sistemas computacionales recayeron sobre la exploración del paralelismo (en el diseño de las aplicaciones), es decir, en los programadores.

Pero la exploración del paralelismo a nivel de instrucción (ILP– Instruction-Level Parallelism) ya era realizada en los diseños mono-procesador, usando estructuraras de múltiplas líneas de montaje, tal como ocurre en las fábricas de la industria automovilística. O sea, las instrucciones que componen un programa son encaminadas para varias lineas de montaje (pipelines), visando una aceleración en la ejecución de los programas. De esta manera, si una fábrica es capaz de producir 2 carros por día, usando 2 lineas de montaje independientes, un procesador podría ejecutar 2 instrucciones por unidad de tiempo usando 2 pipelines

Podemos verificar que el paralelismo fue la salida que encontró la computación como panacea para sus sufrimientos, tal como ocurrió en la música occidental, que buscó libertarse de la monotonía melódica-litúrgica con la invención de la polifonía (casi 3 siglos atrás) –la música basada en acordes, que explora la simultaneidad (regida por formulaciones matemáticas) de las sensaciones sonoras, sin renunciar a los efectos melódicos. O sea, todo ocurrió con objetivos de desempeño, con el fin de explorar las posibilidades sensitivas del oido humano. 

Pero el paralelismo ofrecido por los chips multiprocesadores representa un gran desafío, pues los programadores y sus herramientas (como los compiladores) deben ser capaces de explorar el paralelismo ofrecido por las arquitecturas computacionales. Pero este no es un problema trivial. Esto ocurre porque todo lo que los programadores hacen es resolver problemas, codificándolos usando lenguajes de programación, y no siempre los problemas se dejan resolver vía paralelismo. 

Un ejemplo claro es ejecutar un problema que consiste en calcular un conjunto de dos instrucciones como este: A = B + D y C = A + Q. Podemos verificar que para calcular C necesitamos primero tener el valor de A. O sea que el cálculo de C debe esperar siempre por el cálculo de A, a pesar de que podamos tener 2 procesadores disponibles para este programa simple. Este tipo de problema es definido como dependencia de datos, siendo el talón de Aquiles para la computación paralela. 

Entonces verificamos que todo problema puede tener partes intrínsecamente seriales, que no se dejan paralelizar, y partes que realmente son paralelas y que podrían ser aceleradas mediante el uso de arquitecturas del tipo multiprocesadores. Este problema fue verificado por Gene M. Amdahl, estableciendo límites prácticos para la cantidad de núcleos útiles por chip. Si el 10% de la tarea es serial, el beneficio de rendimiento máximo del paralelismo es 10, sin importar cuántos núcleos coloque en el chip. O sea que no importa cuantos procesadores tengamos disponibles, pues si las tareas tienen características seriales, sólo un procesador estará activado, mientras que los otros estarán en la banca de reserva. Este fenómeno es conocido como la ley de Amdahl.

El problema de explorar el paralelismo en las instrucciones está anclado en otro problema fundamental: el paradigma de computación de von Neumann, que es la base de la mayoría de los procesadores actuales, y de todos sus males. Este modelo computacional asume que un problema debe ser resuelto mediante una ejecución secuencial de instrucciones, que son almacenadas en la memoria del computador. O sea, las instrucciones de un programa residen en la memoria del computador, y deben ser transferidas, una a una, para dentro del procesador, pues sólo allí pueden ser ejecutadas. Así, el modelo sedimentado por el matemático John von Neumann es claramente burocrático, pues tenemos memoria, procesador (CPU) y líneas de comunicación entre estos dos elementos (llamados de buses). La memoria debe informar al procesador que está con instrucciones listas para ejecución, el procesador debe responder que también está listo, la memoria anuncia que acaba de enviar la instrucción, el procesador debe responder ok, y así sucesivamente. Y en este esquema los buses de comunicación se sobrecargan de informaciones, tal como la avenida 5a de Cali, en vísperas de un día de fiesta prolongado. 

De esta manera, otras variaciones de computación están siendo discutidas para superar las restricciones del modelo de ejecución basado en conjuntos de instrucciones (el malévolo paradigma de von Neumann): el paralelismo a nivel de datos (DLP– Data-Level Parallelism), el paralelismo a nivel de threads (TLP– Thread-Level Parallelism) y el paralelismo a nivel de solicitud (RLP–Request-Level Parallelism).  

Mientras que el compilador y el hardware favorecen la exploración implícita de ILP (Instruction-Level Parallelism) sin la intervención del programador, las propuestas de DLP, TLP y RLP son explícitamente paralelas, lo que requiere la reestructuración de la aplicación para que se pueda explotar el paralelismo explícito. En algunos casos, esto es fácil. Pero en su mayoría es una sobrecarga para los programadores, y este problema no tiene una solución definitiva prevista a medio plazo. 

Por otro lado, no existe una correlación perfecta entre la ley de Moore y el aumento del desempeño de los procesadores, y muchas personas afirman, erróneamente, que el desempeño de los computadores se duplica a cada 2 años, tal como lo sugeriría la ley de Moore. 

Para ilustrar esto, antes de mediados de la década de 1980 el crecimiento en el desempeño de los procesadores estaba en gran medida impulsado por la tecnología y promediaba alrededor del 22% por año, o duplicándose a cada 3,5 años (recordar que la ley de Moore prevé una duplicación a cada 2 años). Entre 1986 y 2003 hubo un incremento substancial, llegando a alcanzar un crecimiento de 52% al año (o sea, se duplicaría a cada 2 años), lo que es atribuible a la aplicación de ideas de arquitecturas y organización de computadores más avanzadas, basadas en arquitecturas RISC (un tipo de arquitectura que visa el uso de instrucciones lo más simples posible). En 2004, los límites de disipación de potencia debidos al final de la ley de Dennard (que explica el sobrecalentamiento de lo chips) y el paralelismo en nivel de instrucción (ILP) disponible redujeron el rendimiento del procesador a un 23% por año, hasta 2011 (o sea, se duplicaría sólo a cada 3,5 años). De 2011 a 2015, la mejora anual fue inferior al 12% (se duplicaría a cada 8 años), en parte debido a los límites del paralelismo de la Ley de Amdahl. Desde 2015, con el el final de la Ley de Moore, la mejora ha sido de sólo del 3.5% anual; o sea se duplicaría sólo a cada 20 años. O sea, el desempeño de los procesadores tuvo, en general, un crecimiento  inferior a la métrica de la ley de Moore, facto bien evidente en los últimos años.

Una pregunta importante es cómo los ingenieros de computadores verifican el desempeño de sus máquinas. En el comienzo usaban algunos conceptos básicos, que cualquier persona podría imaginarse, tales como el número de instrucciones ejecutadas por unidad de tiempo (MIPS: millones de instrucciones por segundo), o el número de operaciones matemáticas en punto fluctuante, un formato numérico para representar grandes números (MegaFlops: millones de operaciones en punto fluctuante por segundo). Sin embargo, por la diversidad en las arquitecturas de computadores imaginadas por los ingenieros, y porque era difícil comparar máquinas con un sólo criterio (tal como ocurre en las ciencias humanas, y en el arte), el desempeño comenzó a ser medido usando un conjunto de problemas, escogidos a dedo y usados por un pacto de caballeros. Estos conjuntos de ejemplos representan problemas de procesamiento de imágenes, procesamiento de señales, inteligencia artificial y temas por el estilo, representando puntos de referencia (benchmarks) para comparaciones. O sea, el desempeño de los procesadores es evaluado de la misma forma que en los atletas de los juegos olímpicos: todos deben ser sometidos a las mismas pruebas, sobre las mismas condiciones. Gana quien realizar más rápido su ejercicio. 

Propuestas basadas em DLP (Data-Level Parallelism) son interesantes, pues prevén que un sistema tenga como entrada únicamente los datos, sin necesitar a ejecución de instrucciones. Un ejemplo claro son las redes neuronales artificiales (ANNs– Artifical Neural Networks), propuestas en los primordios de la computación al comienzo de los años 40 por el neurofisiologista Warren McCulloch y el matemático Walter Pitts. En 1949, Donald Hebb escribió “The Organization of Behavior”, un trabajo que señalaba el hecho de que las vías neuronales se fortalecen cada vez que se usan, un concepto esencial para la forma en que los humanos aprenden. Si dos nervios se disparan al mismo tiempo, argumentó, se mejora la conexión entre ellos. 

En 1956, la reunión de Dartmouth sobre Inteligencia Artificial proporcionó un impulso tanto a la Inteligencia Artificial (IA) como a las Redes Neuronales (ANNs). Un resultado de este proceso fue estimular la investigación de IA en la parte del procesamiento neural. En los años posteriores al proyecto Dartmouth, John von Neumann sugirió imitar funciones neuronales simples utilizando relés telegráficos o tubos de vacío. Además, Frank Rosenblatt, neurobiólogo, comenzó a trabajar en el Perceptron, una red neural de múltiples camadas, como una estructura más compleja, en que las neuronas son agrupadas en camadas, y cada camada tiene una conexión definida con la camada siguiente. 

La idea era crear sistemas de computación que pudieran conectar pequeñas estructuras (neuronas artificiales) por medio de conexiones (sinapsis artificiales), que serían ponderadas con valores (refuerzos en la sinapsis), previamente calculados mediante algoritmos de entrenamiento apropiados. 

Es importante enfatizar que nuestro cerebro no tiene nada que ver, en su funcionamiento, con el paradigma burocrático de von Neumann. O sea, no ejecuta ninguna instrucción. En verdad, los datos (señales neurales) viajan, se refuerzan o se atenúan en las sinapsis, dinámicamente, mediante procesos electro-químicos conforme las vivencias de los humanos. Procesa datos, se automodifica en su estructura dinámicamente, y no existe separación entre lo que podemos llamar de memoria y sistema de procesamiento (al contrario de lo que ocurre con el paradigma de von Neumann). Así afirmar que nuestro cerebro es un computador es bastante cuestionable. 

El problema de imitar el dinamismo del cerebro es un gran desafío para los ingenieros de computación, pues las plataformas de hardware no permiten imitar este dinamismo, pues el cerebro se entrena y resuelve los problemas de manera simultanea. Lo que tenemos actualmente son programas que son ejecutados en arquitecturas tipo von Neumann, y que emulan las estructuras de las ANNs, siendo entrenadas off-line para resolver cada tipo de problema, para posteriormente ser utilizadas efectivamente. 

Una luz al final de túnel, en los problemas del modelo de von Neumann, es que tecnologías emergentes están permitiendo implementar realmente ANNs en plataformas de hardware (no en software), que pueden ser reconfiguradas dinámicamente. Esto en principio permitiría emular el dinamismo en las interconexiones de las neuronas, tal como ocurre en nuestro cerebro. Estas plataformas son conocidas como FPGAs (Field Programmable Gate Arrays), y empresas como Intel las están utilizando masivamente en sus nuevos proyectos de arquitecturales. 

De cualquier manera, la historia de las ANNs no ha sido fácil pues en los años 60 Marvin Minsky y Seymour Papert demostraron limitaciones serias de ANNs de una camada. Esto desató el primer periodo de invierno en esta área de investigación, lo que retrasó su desarrollo en los años posteriores. En los años siguientes fue demostrado que tales limitaciones eran superadas por el aumento del número de camadas en las redes. Actualmente existe mucho dinero para investigación en redes neurales de múltiples camadas (redes neurales profundas, deep-ANNs). En general área es llamada de aprendizaje profundo (Deep-Learning). 

Paradigmas basados en flujo de dados (en vez de flujo de instrucciones) representan una área de punta en el proyecto de nuevos computadores. Sobre todo por el paradigma de von Neumann es ineficiente para procesar grandes volúmenes de datos (big-data), debido a sus problemas burocráticos y por su ineficiencia para explorar el paralelismo intrínseco de los algoritmos. Además de esto, existe el problema de su alto consumo de energía, un efecto colateral de este paradigma. 

En este sentido, nuestro cerebro es altamente eficiente del punto de vista de consumo de energía, si comparado con los computadores más potentes de la actualidad. Las neuronas cambian sus conexiones de manera dinámica y eficiente del punto de vista energético, sin seguir estándares predefinidos, con comportamientos que sólo pueden ser modelados por estructuras probabilísticas y estadísticas, tal como ocurre en la física cuántica. Nada mejor que esconder los secretos de la inteligencia y de la conciencia usando una estructura aleatoria en sus principios de funcionamiento. Y como si fuera poco, nuestro cerebro no usa un reloj para sincronizar sus tareas (es un sistema asíncrono), y su funcionamiento ocurre por mecanismos aún oscuros para los neurocientíficos. 

Si Einstein se recusó a aceptar los principios de la física cuántica diciendo que “Dios no juega a los dados con el universo”, tal vez se quedaría con la boca abierta si supiera sobre el comportamiento errático, misterioso y aleatorio de nuestro sistema neuronal. 

Lo que nos depara el futuro es un redireccionamiento para arquitecturas basadas en flujo de datos, implementadas sobre nuevas nanotecnologías, que permitan imitar más fidedignamente las redes neuronales naturales, con nuevas técnicas de entrenamiento, que sean válidas para resolver diferentes tipos de problemas, de manera más flexible y dinámica, tal como ocurre con nuestro sistema nervioso, y con capacidad de trabajar con grandes volúmenes de datos; y tal vez con una mejor eficiencia energética. 

Si es verdad que los humanos tienden a hacer herramientas que se parezcan con ellos, sin duda que el computador tiene este apelo. Lo que veremos serán plataformas integrando gran capacidad de recursos, tal como ocurre con los teléfonos celulares, que agrupan poderosas arquitecturas de computadores, sistemas de telefonía sofisticados, antenas, sensores, actuadores y poderosos sistemas de inteligencia artificial, interconectándose con sistemas en nuve (cloud-computing). Hasta dónde va a llegar esta capacidad de integración sólo el futuro lo dirá. 

Pero ya podemos sospechar que las tecnologías de IA, de realidad aumentada, realidad virtual y cosas por el estilo vendrán a ser integradas a nuestro sistema neuronal, tal vez mediante implantes, o estructuras vestibles, lo que nos permitirá vivir nuevas realidades nunca imaginadas. Esto nos obliga a replantearnos preguntas milenarias como la naturaleza de la realidad y de nuestra propia identidad, más allá de lo que las religiones nos cuentan, o de lo que la ciencia des-cubre, o de lo que las ideologías nos imponen.

Nota: varios datos tecnológicos colocados aquí están documentados en la literatura especializada. Muchas informaciones sobre el tema ya están sedimentadas en la última edición del libro clásico de Hennessy y Patterson "Computer Architecture".