Generando industrias creativas (o los previos al HASTAC Lima 2014)

Este año, la conferencia de HASTAC – el Humanities, Arts, Sciences and Technologies Advanced Collaboratory – no solo se está haciendo por primera vez fuera de Estados Unidos, sino que será en Lima, organizada por el Ministerio de Cultura, del 24 al 27 de abril de este año. HASTAC es una de las conferencias más grandes e importantes en el ámbito de las humanidades digitales y el uso de nuevas tecnologías en la investigación en humanidades, artes y ciencias sociales, así como de la creación de proyectos que trascienden la academia y pretenden tener un mayor impacto público.

El trabajo que se presenta en HASTAC tiene mucha afinidad con el tipo de trabajo que hacemos en mi programa de maestría aquí en el MIT – integrando investigación académica con proyectos de diseño y nuevas tecnologías. Así que dada la afinidad y la conexión directa, y bajo la idea de que estos temas son relativamente nuevos en Lima y requieren un poco más de fortalecimiento, con mis compañeros del posgrado hemos decidido armar un pequeño proyecto piloto, inmediatamente previo a HASTAC, para diseñar el tipo de conceptos y proyectos que se presentan en estos espacios. Queremos crear una oportunidad para que grupos, proyectos y organizaciones puedan explorar maneras innovadoras de incorporar nuevas tecnologías en su trabajo, generando productos, servicios, experiencias y herramientas que amplifiquen su impacto o generen maneras de vincularse con el público que sean totalmente nuevas.

Por eso, un equipo interdisciplinario del programa de Medios Comparados del MIT está viajando unos días antes de HASTAC para organizar un taller que hemos llamado el Creative Industries Protoyping Lab, un laboratorio itinerante donde desarrollaremos habilidades de diseño crítico de experiencias basado en investigación cualitativa, y formularemos modelos para generar las infraestructuras alternativas necesarias para que esas experiencias sean sostenibles y escalables. En otras palabras: queremos ayudar a grupos locales en el proceso de reinterpretar su trabajo utilizando medios digitales de diversos tipos, y empezar de esta manera a consolidar un núcleo local de gente con experiencia en el desarrollo de nuevas industrias creativas.

El equipo que facilitará el taller tiene experiencia en una gama diversa de temas – diseño de interacciones, nuevas literacidades, documentales interactivos, diseño de juegos, crowdfunding, cultura visual digital, entre otras cosas. Entre todos, haremos algunas presentaciones sobre nuestro trabajo y nuestras aproximaciones a la integración entre investigación y diseño, pero los participantes del taller pasarán la gran mayoría del tiempo diseñando nuevos conceptos y prototipos con apoyo del equipo facilitador. Será un trabajo intenso durante dos días, el lunes 21 y martes 22 de abril, culminando en una presentación pública de los resultados el miércoles 23. Además, haremos una crónica de la experiencia y de los productos generados en un panel especial en el mismo HASTAC.

Para poder tener los mejores resultados, el taller tendrá capacidad limitada y haremos una selección de los grupos participantes en función al tipo de trabajo que quieran realizar. Hemos escogido trabajar solo con grupos y no con individuos porque el tipo de trabajo que queremos hacer es forzosamente interdisciplinario, y queremos hacer una selección de ideas porque queremos asegurarnos que los equipos que participen tengan toda la intención de implementar los proyectos generados. Es importante mencionar, además, que por el tipo de trabajo que vamos a hacer y el origen de la mayoría del grupo facilitador, el taller va a realizarse casi totalmente en inglés (incluso si tuviéramos traducción simultánea, no sería realmente efectiva para un ejercicio de diseño) – aunque vamos a contar con el apoyo de colaboradores locales en la facilitación, es importante que los equipos participantes tengan esto en consideración. Además, estamos haciendo un esfuerzo considerable para que la participación del taller no involucre costo alguno. La información detallada sobre la convocatoria la estaremos circulando en los siguientes ideas, junto con la información sobre cómo aplicar.

Este va a ser un experimento muy interesante, y tengo muy altas expectativas de los resultados que generaremos, así que espero que estén interesados en participar. Pronto estaremos publicando todos los detalles de fechas, agenda y logística. Si tienen cualquier pregunta, no duden en dejarla abajo en los comentarios o escribirme por correo electrónico.

El proyecto está organizado por investigadores del posgrado en Medios Comparados del MIT con el apoyo de Ayu en la producción local, así como la colaboración del Ministerio de Cultura.

Una lectura computacional del Informe Final de la CVR, 2

Siguiendo en la línea de mi post anterior, algunas muestras más generadas por el código que tengo y el tipo de preguntas o narrativas que se pueden generar cuando se examinan. En el caso anterior, a manera de ejemplo generé mapeos simples de términos como “PCP-SL” o “MRTA” en el documento de la cronología de eventos que está incluido en el Informe Final de la Comisión de la Verdad y Reconciliación. Aunque son interesantes, no son terriblemente profundos.

Pero también podemos hacer otros tipos de mapeos. Por ejemplo, si queremos hacer un poco de historia política reciente, podemos mapear búsquedas de los principales personajes de la historia política durante el periodo de violencia interna en el Perú entre 1978 y el año 2000. A manera de ejemplo, estos son los resultados de mapear en el documento la incidencia de los nombres de presidentes peruanos en este periodo (Belaúnde, García, Fujimori, Paniagua, Toledo), a lo largo del mismo periodo. Mayor o menor frecuencia puede indicar mayor o menor participación en la vida política a lo largo de este periodo, al menos en lo que refiere a lo documentado por la CVR.

Belaúnde:

1978: ##1
1979: ##1
1980: ###################################12
1981: #######################8
1982: ############################################15
1983: ##################################################17
1984: #########################################14
1985: ##1
1986: ##1
1987: ##1
1988: ########3
1989: ##1
1990: ##1
1991: ##1
1992: ##1
1993: ########3
1994: ##1
1995: 0
1996: ##1
1997: 0
1998: ##1
1999: #####2
2000: #################6

García (el término es problemático por ser un apellido bastante común, se presta a usos potencialmente ambiguos):

1978: #1
1979: ###2
1980: 0
1981: #1
1982: ###2
1983: ########5
1984: ########5
1985: #####################################22
1986: ##################################################29
1987: ####################12
1988: #####################################22
1989: ##################################################29
1990: ####################12
1991: ######4
1992: ###############9
1993: ###2
1994: #############8
1995: ########5
1996: ###2
1997: #1
1998: #1
1999: ######4
2000: ########5

Fujimori:

1978: 0
1979: 0
1980: 0
1981: 0
1982: 0
1983: 0
1984: 0
1985: 0
1986: 0
1987: 0
1988: 0
1989: 1
1990: ########################42
1991: ######################38
1992: ###############################54
1993: ##############################52
1994: ###############################55
1995: ################################56
1996: #########################43
1997: ##########################46
1998: ##############25
1999: #############################51
2000: ##################################################86

Paniagua:

1978: 0
1979: 0
1980: 0
1981: 0
1982: ##########1
1983: 0
1984: ##########1
1985: 0
1986: 0
1987: 0
1988: 0
1989: 0
1990: 0
1991: 0
1992: 0
1993: 0
1994: 0
1995: 0
1996: 0
1997: 0
1998: 0
1999: 0
2000: ##################################################5

Toledo:

1978: 0
1979: 0
1980: 0
1981: 0
1982: 0
1983: 0
1984: 0
1985: 0
1986: 0
1987: 0
1988: 0
1989: #####2
1990: 0
1991: 0
1992: 0
1993: 0
1994: #######################8
1995: ########3
1996: 0
1997: 0
1998: 0
1999: #####2
2000: ##################################################17

Cuando vemos los mapeos en comparación, ¿qué tipo de observaciones podemos hacer? Primero que nada, podemos ver que las “estelas” de Belaúnde y García son más extensas que las de los demás. Como podríamos anticipar, Fujimori no existe antes del 89: la data no hace sino validar su categoría de “outsider” al sistema política partidario, y su incremento abrupto y marcado en los años subsiguiente coincide con el descenso en la frecuencia de los demás nombres – coincidente con el desmantelamiento de la clase política tradicional que operó el fujimorismo. Paniagua tiene un rol menor en los ochentas y luego virtualmente desaparece hasta la transición del 2000, mientras que Toledo registra solamente en periodos electorales (1995 y 2000).

En realidad estos cuadros no muestran nada que no sepamos ya – de hecho, a muchas de estas observaciones sólo podemos llegar porque ya sabemos muchas de estas cosas, y apenas comparamos nuestro conocimiento con lo que muestra la data. Lo interesante está, creo, en que la data, sin haber sido diseñado para eso (o para siquiera ser considerada como data) efectivamente valida estos patrones. Si no supiéramos varias de las cosas que ya sabemos, y trabajáramos con documentos menos estructurados, un análisis de este tipo nos mostraría tendencias para poder volver sobre estos vacíos y patrones y examinar en detalle por qué se dan discrepancias o se generan tendencias.

En este caso los ejemplos nos sirven más bien para validar que la herramienta efectivamente arroja datos válidos y por extensión, potencialmente interesantes. Si nos mostrara patrones que no tienen mayor sentido, alrededor de los no podemos construir una narrativa coherente, entonces pensaríamos o que el algoritmo está mal diseñado o que mi capacidad de programación es muy pobre. Felizmente, parece que ambas cosas no son (totalmente) ciertas porque de hecho tenemos resultados en apariencia válidos, con lo cual podemos seguir buscando nuevas cadenas y combinaciones y comparaciones que nos empiecen a insinuar cosas que no sabemos.

Con lo cual vale la pena mencionar algo más sobre el código: por ahora, a lo mucho hay una o dos funciones interesantes y una capacidad muy pobre de representación gráfica. Pero espero ir ampliando esto con el tiempo para darle mayor utilidad. Por lo cual cualquier feedback me sirve para ir pensando en maneras cómo se pueden generar interrogaciones sistemáticas extendiendo el código. Una de las primeras cosas que quiero agregar, además, es la capacidad para generar mejores gráficos que reflejen con mayor claridad los patrones, y quizás incluso con la capacidad de comparar múltiples resultados al mismo tiempo (por ejemplo, la data presentada arriba sería mucho más útil comparada lado a lado que como cinco gráficos separados). También quiero buscar la manera de hacer búsquedas por colocaciones (bigramas, trigramas o enegramas) para poder buscar nombres completos, nombres de organizaciones e instituciones.

Una lectura computacional del Informe Final de la CVR

He estado trabajando últimamente en un proyecto que involucra el uso de procedimientos computacionales para el análisis de datos, trabajando en el desarrollo de programas en Python para catalogar y analizar datos o para procesar textos en busca de patrones. Una de las cosas interesantes que ha salido de esto es un trabajo a partir del Informe Final de la Comisión de la Verdad y Reconciliación peruana, que además este año cumple diez años de haber sido publicado. El Informe Final es un esfuerzo masivo de investigación que involucró a un equipo enorme trabajando a través del Perú durante varios años, y es quizás el documento más comprehensivo de nuestra historia reciente sobre nuestra historia reciente. Se trata de nueve tomos más sus anexos, para un total de, si mal no recuerdo, alrededor de ocho mil páginas.

Por ello mismo, es sumamente difícil poder leerlo todo – a pesar de que lo he intentado varias veces, nunca lo he logrado. Existe Hatun Willakuy, la versión abreviada del IF en un solo volumen, pero obviamente no tiene la misma densidad y profundidad de información. De modo que se me ocurrió que el texto mismo del informe podría prestarse para una forma de lectura lejana (lo opuesto a una lectura cercana) donde el texto es tomado como la base de un análisis computacional que procesa el texto en busca de patrones significativos. Esto es totalmente un experimento, pero la idea del experimento es realizar este tipo de lecturas no con la intención de que un algoritmo agote el significado del texto, sino de que podamos utilizar un algoritmo para alzar preguntas y exponer áreas de interrogación que quizás no hubiéramos considerado antes. Esta aclaración es importante porque este tipo de herramientas de análisis basadas en computación o métodos en el ámbito de las humanidades digitales son suficientemente nuevas como para que su uso se pueda confundir o malinterpretar en el sentido de que intentemos dejar que la computadora responda preguntas, cuando en realidad es más interesante que genere posibilidades de interrogación.

Como un primer experimento dentro de lo espero se vaya volviendo un proyecto más completo con el tiempo (y que espero pueda resultar de interés a otras personas que se quieran ir sumando), he trabajado con la cronología de eventos entre 1978-2000 que forma parte de los anexos del informe. El archivo original en PDF, por supuesto, no está disponible en un formato fácilmente analizable, así que lo primero que hice fue convertirlo en un archivo de texto que pudiera ser analizado. Luego, dividí el archivo en secciones por año, para poder hacer un análisis comparativo a lo largo del tiempo. Todo el código que he generado está disponible en Github como el proyecto CVR Analytics para que cualquiera lo clone o analice. El código se apoya en el módulo NLTK para procesamiento y análisis del lenguaje natural, y es todavía un trabajo en progreso – de hecho, varias cosas importantes como la identificación de eventos y fechas todavía no funcionan como deberían.

Pero incluso en su forma actual se pueden formular algunas preguntas interesantes. La función word_map(), por ejemplo, permite buscar un término específico en el texto y visualizar la frecuencia con la que aparece en la cronología año por año. Esto genera algunos resultados interesantes, aún cuando muchos de ellos pueden ser esperables. Por ejemplo, una búsqueda por “PCP-SL” como término genera lo siguiente:

1978: 0
1979: ###2
1980: ########5
1981: #############8
1982: ####################################21
1983: #####################################22
1984: ##################################################29
1985: ##################11
1986: #############8
1987: #################10
1988: ########################14
1989: ################################19
1990: ######################13
1991: #########################15
1992: ####################################21
1993: ########################14
1994: ######################13
1995: #####3
1996: ###2
1997: #1
1998: ###2
1999: #1
2000: #1

Una búsqueda por “MRTA” genera la siguiente distribución:

1978: 0
1979: 0
1980: ##1
1981: 0
1982: ########3
1983: ##1
1984: ######################8
1985: #################################12
1986: #############5
1987: #################################12
1988: ##############################11
1989: ##################################################18
1990: #################################12
1991: ################6
1992: ###################7
1993: ################6
1994: ##1
1995: #####2
1996: ######################8
1997: #################################12
1998: 0
1999: ########3
2000: #####2

(Soy consciente de que mis visualizaciones son un poco crudas, pero vamos, esto es sólo una prueba de concepto.)

Otra función interesante es la de yearly_collocations(), que utiliza las funciones incluidas en NLTK para generar bigramas frecuentes: palabras que coinciden juntas con una inusual frecuencia. Las colocaciones para los años 1979-1981, por ejemplo, son éstas:

1978
Building collocations list
Asamblea Constituyente; Movimientos sociales; Francisco Morales; Hugo
Blanco; Óscar Molina; Cisneros Vizquerra; Partidos políticos; paro
nacional; Blanco Galdós; Fuerzas Armadas; Molina Pallochia; Morales
Bermúdez; alto nivel; decretos legislativos; las elecciones; origen
político; más alto; Luis Cisneros; Alva Orlandini; Estados Unidos
1979
Building collocations list
Partidos políticos; Morales Bermúdez; Francisco Morales; Junta
Militar; Movimientos sociales; Pacto Andino; Partido Comunista; Bedoya
Reyes; Cuadros Paredes; Raúl Haya; otro lado; Armando Villanueva; Por
otro; movimiento popular; Víctor Cuadros; Víctor Raúl; Luis Bedoya;
garantías individuales; las Fuerzas; Asamblea Constituyente
1980
Building collocations list
Belaunde Terry; Richter Prada; Partidos políticos; Pedro Richter;
origen político; Barrantes Lingán; Movimientos sociales; Manuel
Ulloa; Elecciones Generales; Alfonso Barrantes; Ulloa Elías; José
María; Orrego Villacorta; Silva Ruete; Eduardo Orrego; San Martín;
Armando Villanueva; Mientras tanto; Javier Silva; del Interior

Claramente no es un análisis perfecto – parte de los problemas que he encontrado hasta ahora han girado en torno al trabajo con un texto en español, cuando la mayoría de documentación y cuerpos de análisis disponibles están todos en inglés, de modo que el análisis es muchas veces menos que perfecto. Pero es un punto de partida, y muchos de los problemas seguramente pueden corregirse (seguramente con facilidad por alguien con mejor manejo del código que yo). Lo que quiero señalar con esto es simplemente que este tipo de análisis de textos masivos, como el Informe Final, pueden servir para elucidar preguntas y evidenciar patrones que de otra manera podrían permanecer ocultos en el texto y pasar desapercibidos a una lectura pormenorizada.

De ninguna manera esto es un mejor modo de lectura, o reemplaza al trabajo exegético y analítico que las humanidades y las ciencias sociales están acostumbradas a hacer. Pero ciertamente puede servir como un complemento, ayudando a abrir líneas de investigación u oportunidades de trabajo a seguir explorando. En mi caso, representa un primer experimento para seguir trabajando no sólo como aproximación analítica sino con suerte para luego complementarlo con un trabajo productivo, tomando no sólo la cronología sino también otras partes del informe y procesándolas para generar visualizaciones, archivos, o reinterpretaciones que permitan que un público más amplio pueda aproximarse a esta información y navegarla sin tener que saltar la valla altísimo de enfrentarse al informe en su totalidad.

Y claro, nunca está de más decir que cualquier comentario o pregunta sobre esto es bienvenido, para ir mejorando y ampliando el proyecto en otras direcciones.

Educación, humanidades y tecnología

[Foto CC: Post-Katrina School Bus, por laffy4k]

Varias ideas reunidas sobre la educación en las humanidades y cómo está cambiando a partir de la tecnología. Si no quieren leerlo todo, igual les pediría que revisen la última y me den sus ideas.

Des-escolarizar la sociedad. Vía un texto de Marshall McLuhan llego a Ivan Illich, filósofo austriaco, que tiene un libro llamado Deschooling Society. Una suerte de manifiesto para la reinterpretación de la educación universal en sociedades post-industriales (o informacionales, si nos ponemos Castellianos, y si el adjetivo “Castelliano” existe). Dice Illich:

Universal education through schooling is not feasible. It would be no more feasible if it were attempted by means of alternative institutions built on the style of present schools. Neither new attitudes of teachers toward their pupils nor the proliferation of educational hardware or software (in classroom or bedroom), nor finally the attempt to expand the pedagogue’s responsibility until it engulfs his pupils’ lifetimes will deliver universal education. The current search for new educational funnels must be reversed into the search for their institutional inverse: educational webs which heighten the opportunity for each one to transform each moment of his living into one of learning, sharing, and caring. We hope to contribute concepts needed by those who conduct such counterfoil research on education–and also to those who seek alternatives to other established service industries.

Esto es de 1971, dicho sea de paso. En otras palabras, nuestras nuevas circunstancias culturales tanto permiten como reclaman una nueva forma de educar y aprender. La yapa es que con nuevos procesos/instituciones para el lenguaje y el aprendizaje, se vuelven por extensión necesarios nuevos procesos/instituciones para muchas otras funciones sociales.

Transformar la educación en humanidades. El programa de Comparative Media Studies en MIT (uno de mis programas de postgrado soñados) organizó un simposio bajo el título “Applied Humanities: Transforming Humanities Education”. El simposio planteó una discusión entre diversos especialistas que están trabajando con diferentes enfoques y experiencias interdisciplinarias en humanidades con un enfoque aplicado, que van desde el uso de videojuegos como herramientas educativas hasta estrategias innovadoras para la educación en literatura clásica.

El video pueden verlo en su sitio web o pueden descargarlo directamente.

Humanidades digitales. El campo de las humanidades digitales es muy cercano a lo anterior (humanidades aplicadas) pero desde su punto de intersección más específico con la computación y los medios digitales. Es no solamente un campo que se pregunta por cómo las herramientas digitales pueden aportar al trabajo de las humanidades (que sería la lógica de cómo hacer lo mismo pero más rápido o mejor), sino más profundamente cómo las herramientas digitales transforman la actividades académica en las humanidades, y permiten hacer cosas que antes no eran posibles.

El blog de Dan Cohen, director del Center for History and New Media de la George Mason University reúne algunas de las preguntas posibles bajo la idea de “hackear la academia“:

Can an algorithm edit a journal? Can a library exist without books? Can students build and manage their own learning management platforms? Can a conference be held without a program? Can Twitter replace a scholarly society?

As recently as the mid-2000s, questions like these would have been unthinkable. But today serious scholars are asking whether the institutions of the academy as they have existed for decades, even centuries, aren’t becoming obsolete. Every aspect of scholarly infrastructure is being questioned, and even more importantly, being hacked. Sympathetic scholars of traditionally disparate disciplines are cancelling their association memberships and building their own networks on Facebook and Twitter. Journals are being compiled automatically from self-published blog posts. Newly-minted Ph.D.’s are foregoing the tenure track for alternative academic careers that blur the lines between research, teaching, and service. Graduate students are looking beyond the categories of the traditional C.V. and building expansive professional identities and popular followings through social media. Educational technologists are “punking” established technology vendors by rolling their own open source infrastructure.

Estas preguntas se volvieron la base para Hacking The Academy, un libro escrito colaborativamente en menos de una semana y que reunió aportes en una serie de categorías vinculadas a cómo la tecnología hackea la academia, o cómo replantea sus prácticas y sus instituciones.

Integrando la tecnología y las humanidades. En paralelo, pero en relación con todo lo anterior, he estado pensando últimamente en armar un taller sobre herramientas tecnológicas para humanistas y académicos. Me han hecho varias preguntas al respecto y podría ser una idea interesante, donde podría compartir un poco mi propia experiencia con herramientas digitales como este mismo blog, el uso de wikis como materiales de curso y otras plataformas o herramientas que podrían ser útiles para humanistas en la actualidad, y la manera como estas herramientas transforman nuestro entendimiento tradicional del trabajo en las humanidades.

Aún la idea es totalmente embrionaria, pero quiero compartirla primero para ver si más personas consideran que sería una idea interesante, pero sobre todo para que me ayuden a armar la lista de contenidos. ¿Qué cosas les gustaría ver en un taller como éste? ¿Qué preguntas tienen sobre tecnología, academia, humanidades y educación para las que no tienen respuestas claras? Cualquier sugerencia sobre preguntas, temas, contenidos o demás es bienvenida para la preparación de este taller experimental.