Monthly Archives: January 2011

Datos que amenazan

Hoy he tenido otra interesante clase de El Humanista Digital. La «única» lectura eran los capítulos 13, 14, 16 y 20 de Beautiful Data: The Stories Behind Elegant Data Solutions, escrito por Toby Segaran and Jeff Hammerbacher, aunque no sé si este último es el mismo Jeff Hammerbacher que ahora trabaja para Facebook como Data Manager. Tendría sentido al menos.

El libro, muy recomendable, ha sido la introducción definitiva de los asistentes al mundo de los datos, su representación y su interpretación. Y, como buena clase de humanistas, no ha faltado la sana discordia. Debo reconocer que es la primera vez en mi vida en que escucho las palabras ataraxia, hermenéutica y epistemológico (para esta última ni siquiera hay entrada en el DRAE) en menos de tres horas y en una clase. Definitivamente estoy en el mundo humanista.

Parte I

Comenzamos la clase con un vídeo «orgánico» basado en el trabajo de Michael Ogawa. En este caso se partía del análisis pragmático del acto de habla clasificado según los criterios de J.L Austin y Juan José Calvo con la intención de identificar la figura del gracioso en una selección de las comedias de Calderón de la Barca. Tomando como medida temporal el verso, se extrajo la evolución de la frecuencia absoluta de cada acción según avanzaba la obra y se representaron simultáneamente todas las obras analizadas. Desestimando aquellas apariciones de acciones con una frecuencia menor al 0.5% se creó un vídeo en el que cada acto, de un color, se mueve alrededor del personaje que efectúa la acción cuando ésta se produce, de manera que según sea el área del círculo significará que más o menos veces se está usando el término. Es curioso ver cómo casi siempre hablan todos a la vez –¿interludios?– y usan los mismos verbos. Elegir sólo los actos más repetidos es sólo una de las miles de maneras de analizar los datos que Miriam Peña, la investigadora al mando, pudo haber seleccionado. Resulta evidente que hay otras maneras y que según se tomen o no, las representaciones de los datos serán de una u otra forma. Más importante que el porqué no se tuvieron en cuenta las frecuencias bajas es qué información nos da la visualización generada. Es fundamental ir contestando preguntas para que vayan apareciendo otras nuevas; si nos detenemos a planteárnoslo todo, si abusamos del escepticismo, será muy difícil avanzar. Juan, otro alumno, se preguntaba por qué abandonar esos verbos con poca frecuencia si quizás eran incluso más decisivos que los actos más repetidos. Un planteamiento totalmente legítimo. La respuesta es que tanto un enfoque como el otro son igualmente válidos, pero no se puede desestimar ninguno sin antes atacar el problema. Hay que avanzar, y con datos la forma de avanzar es analizándolos. Puede pasar que al no contemplar los actos poco nombrados en las obras estemos perdiendo información importante de cara a la identificación del personaje cómico en las comedias, que quizás un análisis pragmático del texto no lleve a nada, pero si no se intenta y sólo se especula no hay avance posible. Es necesario exprimir los datos para que nos digan algo. Porque la información está ahí, es sólo cuestión de darle las vueltas necesarias y, en este caso, una representación orgánica nos sirve para ver que la repetición de determinados actos de habla sí configuran y definen las intervenciones de los graciosos en las comedias de Calderón.

Parte II

Tras la presentación del vídeo, la discusión se situó en torno al proyecto Rayuela155! y la poca información que acerca de él hay por el momento. La idea iniciática partió de la clase de la semana pasada, fue un germen, pero hay visos de que quizás vaya desembocar en algo bien distinto. Al preguntarse uno mismo por la justificación de un proyecto así surge, por una parte, la visión del exceso de información y el intrincado laberinto de obstáculos, aunque también de ganancias, que implica. ¿Necesitamos «conocer» todas las lecturas posibles de Rayuela? Pregunta equivocada. No se trata de eso. Las técnicas tradicionales de interpretación seguirán siendo aplicables a cualquiera de las combinaciones que seamos capaces de obtener de Rayuela, aquellos de formación deconstruccionista seguirán aportando lo mismo que los post-modernistas. La profesionalización de la lectura debe comprender los distintos roles y contextos posibles. Rayuela155! nace como un experimento para cambiar algunas cosas en la educación humanística, con ánimo de complementar lo ya existente, nunca de desplazarlo, y conseguir así un currículo más rico para el humanista capaz ahora de disponer de la conveniencia o no de ciertas herramientas según sean las preguntas que necesita contestar.

Sin embargo, el sentimiento de desorientación ante la marasmo de información y datos en las que cava vez estamos más inmersos se hizo patente cuando un alumno planteó si se juzgaba o no el que se escogieran métodos tradicionales de investigación hermenéutica. Dio a entender que se sentía desplazado por las nuevas técnicas. Esa postura de mártir de la que sólo el Prof. Suárez se percató en el discurso denota una importante falta de conocimiento de los nuevos procesos, lo que puede llegar a mermar la capacidad de decisión y limitar la autonomía del investigador. El mundo de la obsolescencia programada está cambiando las reglas del juego, está moldeando el sistema socio-económico y la adaptación no es una desventaja necesaria, sino la posibilidad de aprovechar nuevas herramientas, de convertirse en agente activo. Ello conlleva participar y reaccionar, y dejar de resguardarse en el nicho que ya se conoce. Ninguna nueva iniciativa está exenta de crítica, ésta no es menos. Pero no hay que perder el norte, un escepticismo desmedido es un instrumento necesario pero demasiado poderoso. El pirronismo constante puede terminar por la destrucción del criterio, la suspensión del yo o la ataraxia mental, tan de moda en política actual y que tan útil resultó para la Reforma Católica. Hemos de situar el yo, remangarnos y ponernos manos a la obra. O al menos esto es lo que yo saqué de la micro-conferencia que dio en ese momento el Prof. Suárez. Vamos, no criticar por vicio. Conoce primero para poder desmontar con razón.

Como apuntaba Diego, los textos no son tan distintos de los datos y viceversa. Entonces, ¿por qué no agregar los nuevos procedimientos a las humanidades? Al fin y al cabo es un proceso de interpretación a partir de una entrada con más o menos contexto.

Parte III

La última parte de la clase se centró en un libro que no figuraba como lectura, «La medida de la realidad. La cuantificación y la sociedad occidental, 1250-1600» de A.W. Crosby, del que se desprenden algunos conceptos interesantes. Medir la realidad –explicaba el Prof. Suárez– es cuantificar lo que de ella podemos percibir. Algo para lo que a la ciencia y la tecnología nunca le faltó pudor. La obra de Crosby nos permite descubrir que esto se ha hecho desde hace mucho más tiempo del que se suele pensar, y conocer cómo eran las herramientas de entonces, basadas básicamente en los mapas. En una revisión del citado (de entre las muchas que circulan por Internet), con más o menos fortuna, se llega decir que hay un numeroso grupo de personas que «no considera a los números como parte de la cultura; me refiero claro a una cultura básicamente literaria que desprecia los fenómenos de la cuantificación como si se tratara de labores de mediocres especialistas; aquel tipo de gente que sin sensibilidad para el arte y las emociones humanas busca en esotéricas especialidades su cuota de gloria. Pues bien, es un error, un grave error». Inspirador. No conozco al autor del blog ni creo que sea necesario, sea un lector profesional o no su impresión sobre el mensaje del libro queda clara: «me da mucha pena que esta clase de libros no sean de lectura obligatoria para toda persona moderadamente ilustrada». Sólo puedo decir una cosa: ¡bravo! Si este libro viene a decirnos que los números son nuestros amigos, que no hay que sentir los datos como una amenaza, que los aprovechemos y nos apoyemos en ellos para construir nuevos procedimientos y contestar preguntas distintas, no puedo sino saltar de mi silla y abrazar como agua de mayo la obra de Crosby.

Se me antoja que es, aunque con cambios de forma, lo que Toby Segaran and Jeff Hammerbacher vienen a contarnos de una menara un poco, si me permiten la licencia, menos humanista. En el capítulo 20 de Beautiful Data se hace hincapié en el cambio de paradigma que supone pensar y organizar la estructura mental en torno a las relaciones, reducir la realidad a modelos manejables. Hecho que nuevamente las grandes instituciones utilizan para sus acciones políticas, militares o económicas. Vivir siendo conscientes de las vínculos que existen entre todo lo que nos rodea intuyo que no es fácil, hay demasiada información, no estamos preparados para afrontar tal complejidad. Necesitamos formas de representar y visualizar para sentir como asequible la red y sus comportamientos emergentes. Y esto no sería posible sin estructuras flexibles que soporten eficientemente los datos en grafo para poder trabajar con ellos. Las bases de datos tradicionales, en funcionamiento durante los últimos 40 años, han sido un importante hito en la historia de la informática y del mundo. Prácticamente todo lo que hacemos en la Red queda registrado en una base de datos. Pero esa información está mucho más relacionada de lo que cabría esperar, está interconectada, y en eso los tradicionales sistemas gestores de bases de datos se quedan cortos. Surgió no hace mucho un nuevo movimiento que intenta dar respuesta a esa necesidad, el NoSQL, dentro del que se engloban, entre otros muchos tipos, las bases de datos basadas en grafo. Éstas son capaces de almacenar de manera natural la información como un red, en la que los nodos y las relaciones entre ellos tienen atributos, con lo que es sencillo modelar prácticamente cualquier grafo, consultarlo, analizarlo o almacenarlo. Un ejemplo puede ser la base de datos basad en grafo Neo4j, núcleo fundamental –junto a Django/Python— del sistema Sylva que desarrollamos en el CulturePlex.

Insistía Juan, al final de la clase, en el dataset y el imaginario colectivo. Lo segundo quedó más o menos claro, a mi parecer al menos, resaltando la inocencia de no preguntarse porqué damos por válida la visión que Cosmos de Carl Sagan hace del Universo y en cambio martilleamos hasta la extenuación nuevas visualizaciones de trabajos humanísticos como los vídeos sobre las comedias de Calderón. Si me apuran, Cosmos, además de ser una obra brillante y excepcional, nos permite adentrarnos en el Unverso y verlo. La concepción que mucha gente tiene de los planetas es gracias a Cosmos, como defendía Juan. La representación de un planeta tiene dos partes fundamentales: la científica que subordina ciertos parámetros como el color, la composición, la presencia de atmósfera o el tamaño; y la artística, que se encarga de recoger todas las reglas y restricciones y dibujar un posible planeta que quizás exista. ¿Es acaso tan distinto de los vídeos sobre las comedias? ¿No hay también un trabajo científico detrás del artístico? En mi humilde opinión, y con las distancias evidentes, no son cosas tan distintas.

Respecto a lo primero lo explicaré con un ejemplo. Google Zeitgeist es un «producto» de los de Mountain View que se encarga de obtener la información relevante a las tendencias masivas en cuanto a búsquedas. «¿Qué pasa con lo que no se repite?», pues que no obedece a las leyes del mercado. Google es una empresa, una empresa enorme, y busca mecanismos para mejorar la experiencia de sus usuarios a través de sus hábitos, para de esta forma hacerlos consumir más publicidad, la base económica de la compañía. Lo que no se conoce no le interesa a Google, pero puede interesar a otros. Es sólo una forma de explotar los datos y la estructura. «¿Qué pasa con lo que no se repite?», mi respuesta es ¿cuál es la pregunta que quieres contestar?

1 Comment

Filed under Debates

La retórica del código

La semana pasada, en la segunda parte de la clase de tres horas que, a decir verdad, se pasaron volando, las lecturas recomendadas eran el prólogo y capítulo primero de La era de la información Vol. 1: La sociedad red, de Manuel Castells, “Part Three: Digital Life” de Being Digital por Nicholas Negroponte, y los capítulos del 1 al 6 de Linked. How Everything Is Connected to Everything Else and What It Means, una exquisita obra de divulgación de Albert-László Barabási.

Para esta semana teníamos nuevas e interesantes lecturas que poco a poco van introduciendo lo digital. Muy relevantes me resultaron los manifiestos de las Humanidades Digitales, tanto la primera versión como la 2.0, la entrevista a Daniel Shiffman que FlowingData tituló Por qué todo el mundo debería aprender programación, o el discurso de Umberto Eco al recibir el doctorado honoris causa en la Universidad de Sevilla hace algo menos de un año. Y por si fuera poca lectura, se añadió el artículo de Google al respecto de su nueva herramienta Books Ngram Viewer, titulado Análisis cuantitativo de la Cultura usando millones de libros digitalizados, creo que aquí tampoco es muy decisiva la noción de millón norteamericano o millón castizo, tal cantidad ya asusta de por sí.

Parte I

Comenzaba la clase de hoy con el debate sobre la comunicación broadcast vs. la comunicación on-demand y su utilidad o no para cambiar los modelos de enseñanza tradicional que se llevan a cabo en las asignaturas de cualquier índole. Se llegó de nuevo a la necesidad de establecer una audiencia: las academias virtuales tienen en la pequeña empresa su célula más pequeña mientras que cualquier individuo con suficiente tiempo libre y dedicación puede «formarse» a través de, por ejemplo, los más de 1 150 vídeos que la Universidad de Stanford publica gratuitamente a través de su canal en YouTube. Consumida de esta forma la formación se convierte en una colección de contenidos de más o menos calidad, pero sin la mayor garantía de que realmente se vaya a formar nadie con ello. Se hace necesario un mecanismo de interacción con los consumidores de los contenidos. Casi no importa si son difundidos en un clase de 3, 14 ó 160 personas, a través de la televisión o la radio o si están disponibles libremente para su descarga en una página web. ¿Se toma un curso porque se siente interés en el tema o porque se supone que se debe tomar para conseguir ser en un especialista en X? ¿Quién decide qué es lo apropiado para formar a los demás en tal o cual disciplina? ¿Por qué?

Estableciendo que en la práctica es irrelevante el medio en el que se difunda la información si éste no ofrece cierto grado de interacción –ya sea broadcasting, multicasting, on-deman o loqueseacasting–, necesitamos aun contestar a las preguntas anteriores en base al currículo de los «alumnos» potenciales, entendiéndolo como «el conjunto de estudios y prácticas destinadas a que el alumno desarrolle plenamente sus posibilidades». En el mundo de las Ciencias la justificación del background es evidente, nadie confiaría demasiado en un ingeniero que no ha estudiado matemáticas o físicas. Es más, en última instancia, todas las ciencias aplicadas, ingenierías y carreras técnicas están enfocadas a producir un bien en el mercado, están sometidas a los requisitos y leyes fijas que la sociedad de consumo impone. El buen ingeniero queda definido en términos de eficiencia y eficacia económicas. En cambio eso no sucede en las Humanidades. No hay una entidad que establezca los conocimientos necesarios para el perfecto humanista, en parte, porque sería casi antitético. El criterio, la capacidad de razonamiento, la comprensión o el análisis son básicos para los humanistas, pero no es fácil escoger, por ejemplo, las lecturas adecuadas para que afloren. Proponía Negroponte que no se diseccionen más ranas, la «hard fun» de Seymourt Paper, dale las herramientas al alumno y él buscará los resultados –aunque el proceso sería un poco menos frustrante si se supervisa un equilibrio entre el ensayo y error y el do it yourself. Se me antoja que es lo que las Humanidades han estado haciendo desde siempre, con el inconveniente añadido de tener 2 000 años de historia y muchas, muchísimas «herramientas» que conocer de antemano. Incluso demasiadas, tantas que a veces termina por convertir al humanista en un coleccionista de sus propios saberes, un curador hermético. ¿Preocupados por las subsistencia? No me extraña, ante el hermetismo cualquier nuevo camino se presenta como una amenaza. La adaptación es la clave, no hay por qué perder de vista el humanismo clásico, pero sí emborronar un poco las fronteras en todas las direcciones. Un cambio de paradigma. Enseñar a manejar herramientas que tarde o temprano arrojarán soluciones a problemas de naturaleza humanista no es una crisis, ni una amenaza, ni, mucho menos, un problema de subsistencia.

Parte II

La segunda parta de la clase, coincidente con el momento en el que el Prof. Suárez estima que estamos divergiendo más de la cuenta y el tiempo de aula se agota, comienza con unas propuestas sobre las que pensar. Entre ellas el Digital Humanities Manifesto, que habla de muchos conceptos viejos en el mundo del Software Libre pero que, como observaba un alumno, no son para nada la norma en el mundo de la Informática. No sé cuál es la formación de las personas que han escrito el manifiesto, pero sí que el documento defiende valores no muy distintos a la filosofía stallmaniana. Y va más allá llegando a aseverar incluso mi postura: «las Humanidades Digitales tratan sobre convergencia: no sólo entre las disciplinas y los medios, sino también entre las artes, las ciencias y las tecnologías». Es decir, entre las visualizaciones de los datos, las teorías aplicadas y las herramientas de análisis.

A colación del código fuente surge una pregunta interesante: ¿es la programación (un) arte? Reformulando, ¿se puede disfrutar estéticamente con el código? Mi respuesta es clara: sí. Pero no exactamente en el mismo sentido en que se disfrutan de los recursos de la escritura. Un libro surge, intuyo, por la necesidad de contar algo. Tiene un fin. El Humanismo se ha encargado de difuminar el objetivo de cada libro, de cada escritura, dándole diversas interpretaciones y dotando al lenguaje de una retórica que puede estudiarse en sí misma sin tener en cuenta, a priori, la finalidad última del autor al escribirlo. En este sentido un programa de ordenador no es muy diferente. Consta de un origen, que es resolver o dar una solución válida a un problema, y está elaborado por código informático. El código son letras estructuradas como en casi cualquier lenguaje escrito y tiene un significado. Existen muchas maneras de resolver un problema con código de la misma forma que existen muchas maneras de decir una misma cosa. Sin embargo no todo el código responde ante un canon estético. Pese a que cumpla con su finalidad, hay códigos bien escritos, códigos brillantes, códigos elegantes y códigos feos, horribles e ilegibles. La premisa perseguida siempre es la misma: simplicidad, tiempo y espacio. Desde los orígenes de la programación sobre ordenadores reales, los programadores tuvieron la limitación del espacio que el código podía usar, tanto en memoria como en almacenamiento, esto es, la cantidad de información que en un momento dado podía usar y la longitud del programa. Además no podía ser interminablemente lento en su ejecución. Fueron estas circunstancias las que provocaron que escribir código se convirtiese en una tarea artesanal, en una proceso de conocimiento extremo de los recursos disponibles de cada procesador para sacarle el mayor partido, de hallar la mejor solución bajo estos términos. En los tiempos en los que se programaba para ensamblador la programación era un arte. Más tarde llegaron los lenguajes de segunda generación, tercera, etc. que abstraían el código final que la máquina debía interpretar. Auto-generaban programas de la manera más eficiente posible a partir de instrucciones mucho más asequibles por el intelecto. Esto, junto con la aparición de la Ingeniería del Software, provocó que el código se desatendiera en pos de los requisitos. No era importante la calidad sino la funcionalidad. No estoy para nada de acuerdo con esto. Por fortuna llegó el movimiento del Software Libre en el que más o menos desinteresadamente se pone a disposición del que lo requiera las fuentes originales de los programas.

Es fácil encontrar aberraciones desde el punto de vista estético. Por suerte, en lenguajes como Python los autores y la comunidad alrededor de ellos se encargaron de constituir una guía de estilo que desde entonces sirve para determinar qué es buen código Python y qué no lo es. La norma que lo recoge es la PEP8. No es más que una forma de canon estético, el lenguaje seguirá funcionando exactamente igual mientras no haya errores sintácticos. Entonces, ¿por qué esa fijación por el buen código? Lo primero por la posibilidad de que otros tengan que modificar programas que no son suyos, un mejor código es más legible. Lo segundo, bajo mi punto de vista, es mero placer estético, el disfrute de la retórica que puede existir tras un montón de líneas, del porqué se usan unas instrucciones y no otras, etc.

A modo de ejemplo dejo un extracto de código que cumple con todas las normas del PEP8…


def combine(items, k=None):
    """
    Create a matrix in wich each row is a tuple containing one of solutions or
    solution k-esima.
    """
    length_items = len(items)
    lengths = [len(i) for i in items]
    length = reduce(lambda x, y: x * y, lengths)
    repeats = [reduce(lambda x, y: x * y, lengths)
               for i in range(1, length_items)] + [1]
    if k is not None:
        k = k % length
        # Python division by default is integer division (~ floor(a/b))
        indices = [(k % (lengths * repeats)) / repeats
                   for i in range(length_items)]
        return [items[indices] for i in range(length_items)]
    else:
        matrix = []
        for i, item in enumerate(items):
            row = []
            for subset in item:
                row.extend([subset] * repeats)
            times = length / len(row)
            matrix.append(row * times)
        # Transpose the matrix or return the columns instead rows
        return zip(*matrix)

…y otro que no.


def GaborFilter():
    var = pos_var/10.0
    w = pos_w/10.0
    phase = pos_phase*CV_PI/180.0
    psi = CV_PI*pos_psi/180.0

    cvZero(kernel)
    for x in range(-kernel_size/2+1,kernel_size/2+1):
        for y in range(-kernel_size/2+1,kernel_size/2+1):
            kernel_val = math.exp( -((x*x)+(y*y))/(2*var))*math.cos( w*x*math.cos(phase)+w*y*math.sin(phase)+psi)
            cvSet2D(kernel,y+kernel_size/2,x+kernel_size/2,cvScalar(kernel_val))
            cvSet2D(kernelimg,y+kernel_size/2,x+kernel_size/2,cvScalar(kernel_val/2+0.5))
    cvFilter2D(src_f, dest,kernel,cvPoint(-1,-1))
    cvShowImage("Process window",dest)
    cvResize(kernelimg,big_kernelimg)
    cvShowImage("Kernel",big_kernelimg)
    cvPow(dest,dest_mag,2)
    cvShowImage("Mag",dest_mag)

Actualización: Me envía el Prof. Suárez una iniciativa recién estrenada, de hecho salida directamente de unos de los foros de HASTAC tras la MLA 2011, una de las conferencias sobre Humanidades más grandes de todos los Estados Unidos. Su nombre es Critical Code Studies. Mark C. Marino lo ha resumido perfectamente en un sólo párrafo:

«Cada vez más el código determina, transforma y limita nuestras vidas, nuestras relaciones, nuestro arte, nuestras culturas y nuestras instituciones cívicas. Es el momento de sacar al código de las dobles comillas y moverlo más allá de la ejecución para comentarlo, documentarlo e interpretarlo. Saquemos el texto del código».

Parte III

Por último me gustaría mencionar un proyecto más que interesante que inspiró otro compañero de clase: Understanding Rayuela –al estilo del famoso Understading Shakespeare. Sucede que Rayuela, a pesar de la línea tradicional de lectura que Cortázar propone, más alguna que otra adicional, se puede construir de otras muchas. Siendo puristas, si la novela consta de 155 capítulos podríamos obtener las novelas correspondientes a todas las permutaciones, es decir, 155! novelas distintas. Si mis cálculos no me fallan, más de 4 mil hexadecillones de veces el número de partículas del universo. Un número bastante aterrador. Siendo un poco realistas no creo que realmente se puedan combinar de cualquier manera y con total seguridad el número de novelas posibles a partir de Rayuela será algo más abarcable. Lo que propongo es crear una aplicación capaz de obtener un resumen de todas las posibilidades de ordenación distintas de los capítulos de Rayuela e incluso las analice en los términos habituales de minería de textos. Podríamos ver cómo la aparición de ciertos términos en momentos concretos siguen desencadenando o no los mismos sucesos, o analizar cómo la frecuencia de los términos a lo largo de la obra determina o no el mensaje. Un conjunto interesante de posibilidades que luego podríamos aplicar a otras obras como 62 Modelo para amar o incluso a obras tradicionales para comprobar cómo afecta el orden de los capítulos a la creación de un resumen de la idea que se transmite.

4 Comments

Filed under Debates

De humanistas, crisis y WikiLeaks

En la primera clase de la asignatura El Humanista Digital se discutieron temas salientes de artículos de Stanley Fish, en concreto tres de ellos (todos en inglés): ¿Nos salvarán las Humanidades?, La Crisis de las Humanidades II, Llega oficialmente la crisis de las Humanidades y una review de “The Last Professor”. Sí, es tan apoteósico y tremendista como parece, o más. Además también se recomendó la lectura de los capítulos 1, 5 y 6 de la obra de Jerome Kagan titulada Las Tres Culturas: Ciencias Naturales, Ciencias Sociales y Humanidades en el siglo XXI [en].

Parte I.

Reconozco que no me leí todos los artículos al completo, aunque sí que estuve en la segunda mitad de la discusión y quiero reflejar algunas de mis impresiones respecto a ciertos temas concretos que salieron a colación. Como las dos primeras cuestiones a pensar, y esto es muy importante, pensar, ya que no suele haber una respuesta absoluta, están, por una lado la búsqueda de «argumentos que “expliquen” o “justifiquen” las Humanidades, en cuanto disciplina académica, a partir de la óptica que propone Stanley Fish». Cita a continuación el Prof. Suárez un pasaje del autor: «[…] Si estos o algunos otros puntos de referencia instrumental –instrumental en el sentido de que están ligadas a un efecto secundario y no a una economía interna– son los que deben cumplir con las humanidades, éstas nunca estarán a la altura». Surge con facilidad en esta discusión la idea de la crisis de las Humanidades. Es necesario hacer una distinción importante aquí: cuando se habla de crisis de las Humanidades se está hablando en realidad de la crisis en los modelos de financiación de las Humanidades, en que las universidades están cerrando programas y en que las partidas presupuestarias son cada vez más escasas. Establecido esto, sí, hay crisis, ¿pero por qué? Bien, para contestar a eso debemos siempre tener en cuenta el entorno económico capitalista en que nos movemos. Lo que no es rentable tiende a desaparecer, luego, parece que no se gana mucho dinero con las Humanidades. Se han convertido, como decía una alumna del curso, en un lujo, en un producto para la élite. Posteriormente afirmaba que las Ciencias se estaban «comiendo» a las Humanidades. Quiero matizar esto último. La propia condición recolectora que han tenido las Humanidades al menos durante la última mitad del siglo pasado, le ha impedido moverse con rapidez, ha atrofiado los músculos que le hubieran permitido cambiar, evolucionar y adaptarse. Desde luego esta necesidad sólo es inteligible bajo el marco capitalista, pero esa no es la cuestión (al menos no únicamente). Esta inercia ahora propia de las Humanidades está limitando su capacidad de expansión, se ha recluido en un nicho elitista y niega sistemáticamente las nuevas formas de humanismo. El humanismo de primera, como el que defiende la alumna anterior, impide la aceptación de las nuevas formas, relegando a éstas a un humanismo de segunda, un humanismo nuevo, un humanismo que comienza a utilizar las herramientas que sólo ahora existen. Estas Humanidades digitales provienen en su mayoría del resto de disciplinas, la poca permeabilidad de las Humanidades clásicas ha sido un fuerte freno, pero no el suficiente. Agazapados en su propio grafo de conocimiento y con un crecimiento lento y pesado, están ahora viendo como la tecnología extiende sus caminos hasta los nodos más aledaños, configurando lo que será una nueva era para las Humanidades, las Humanidades Digitales.

Parte II.

Y como segunda cuestión, que tampoco quiero dilatarme demasiado, el debate se centra en una observación hecha por un alumno en clase: “¿cuáles son los argumentos para afirmar que Julian Assange es un humanista? Y, consecuentemente, ¿de qué «humanismo» sería representante?”. Las comillas en humanismo no son mías, sino del Prof. Suárez. ¿Significan quizás que la respuesta puede estar encaminada a que no se trata, en efecto, de ningún tipo de humanismo? Pese a mis limitaciones, mi opinión es clara. Es evidente que todo el fenómeno WikiLeaks está levantando ampollas en el mundo entero, al que no le faltan ni fieles seguidores ni duros detractores. Está poniendo de manifiesto algo que se sospechaba desde hace tiempo: los gobiernos pequeños ceden ante las presiones de los grandes. Como ejemplo más práctico de esto podemos ver lo que pasó en España con la llamada Ley Sinde, homónima de la feancesa Hadopi de Sarkozy. Víctor R. Ruiz expone en tres magníficos artículos: «en 2007 la Embajada americana no está nada satisfecha con los avances en materia de protección intelectual en España, y establece un plan a varios años vista, que requerirá la atención especial de la Embajada y de otras agencias gubernamentales en Washington. El plan consiste en presiones a todos los niveles. El objetivo es que el Gobierno español apruebe primero una ley para avisar a los usuarios que están descargando contenidos con copyright, y en base a la experiencia, apruebe posteriormente la legislación para cortar el acceso. Tienen en cuenta las elecciones de 2008: antes de ellas el gobierno no tendrá margen de maniobra, y tras ellas creen que sólo hay un periodo de un año para la aprobación de medidas impopulares». Todo esto, incluidas las medidas torticeras que se proponen, tiene visos de hacerse realidad a pesar de los cables publicados correspondientes de la Embajada de Madrid (07MADRID2305). Sin embargo, parte de la sociedad española se levantó en contra del engaño. Podemos decir que WikiLeak les permitió alzarse con la razón y la justicia como reclamo. Esto es lo que está generando WikiLeaks, respuesta, respuesta inmediata para aquellos que no quieren ser engañados más tiempo. Pero el trabajo de WikiLeaks no ha sido un trabajo humanista, sino un meticuloso trabajo de captación y (escaso) tratamiento de la información. Ha sido, pues, una tarea del periodismo más puro, del no sujeto a líneas editoriales controladas por entidades y sus intereses económicos. Y la cabeza visible, Julian Assange, no es más que eso: la punta de una organización capaz de seguir funcionando pese a las bajas. Sin conocer cuáles son las aspiraciones y objetivos de la WikiLeaks, sin saber a ciencia cierta si su finalidad es precisamente devolver un poco de justicia y no deshumanizar los valores humanos, sin tener constancia de si entre las metas de la organización está el estudio de los propios datos que revela y los enlaces que está poniendo de manifiesto, el Cablegate se me antoja más bien como una fuente de información cruda, un origen de información anteriormente confidencial pero decisivica. Es, por tanto, algo bien distinto del humanismo.

2 Comments

Filed under Debates