De Peugeot a Latour, o el peligro de la tecnología como caja negra

Vi circulando en las últimas horas entre usuarios peruanos de Facebook y Twitter esta historia sobre un usuario que describe haber sido sistemáticamente engañado por Braillard, el representante peruano de Peugeot, en la compra de un nuevo auto. Escojo rebotarla, en primer lugar, porque si efectivamente las cosas han sido como las describe (y no tengo más información que la incluida en el artículo), es no solo preocupante sino también indignante, y la circulación abierta de información sobre este tipo de casos contribuye a fortalecer nuestra capacidad colectiva para resistir y evitar este tipo de cosas. En otras palabras: casi la única manera de que esta historia tenga un final medianamente feliz es que toda esta situación se vuelva un desastre de relaciones públicas para Braillard y se vean obligados a remediar el asunto. (Los problemas de este mismo tipo de acciones colectivas los he comentado ya hace un tiempo también.)

La segunda razón por la que he querido circular la historia es porque es una narración sumamente detallada que ilustra el peligro de que las tecnologías que nos rodean sean tratadas como cajas negras a las cuales no tenemos acceso, e ilustra también las complejidades de estas mismas tecnologías como sistemas sociotécnicos que se ramifican en redes a través del planeta. Luego de haber estado releyendo esta semana un poco de Reensamblar lo social, el libro de Bruno Latour que funge como introducción a la teoría del actor-red (muy bien reseñado aquí por Javier Urbina), la descripción de cómo una empresa peruana comercializa y vende un automóvil bajo una marca francesa ensamblado con partes fabricadas en diversos lugares del planeta termina siendo una excelente descripción de cómo las tecnologías que usamos se despliegan a través del planeta como redes complejas y muchas veces opacas, si no invisibles. En la medida en que nos posicionamos como consumidores, muchas veces perdemos de vista o simplemente desconocemos estas redes, y eso puede resultar frecuentemente en que nos encontramos sometidos por estas tecnologías, o sometidos por aquellos que manipulan la caja negra para mantenernos en la oscuridad.

En resumen, la historia va así: el usuario compra un auto nuevo, que empieza a fallar poco después de haber sido comprado. Sin entender bien qué falla o por qué, acude al vendedor, quien dilata el proceso y muy posiblemente esconde y manipula información sobre la falla hasta que expire la garantía, luego de lo cual procede a intentar cobrarle al usuario por todos aquellos problemas que muy probablemente han venido mal de fábrica o, peor aún, han sido causados por el mismo vendedor. En el camino, el usuario descubre como ciertos mitos sobre diseño (por ejemplo, la calidad y diferencia entre autos diseñados en China, Japón, Francia o Italia) chocan contra sus propias realidades y que, a pesar de estas banderas nacionales afiliadas a ciertos productos, un Peugeot o cualquier otro auto es realmente un auto hecho en su supuesto país de origen – son, más bien, ensamblajes (literales y figurados) de partes que provienen de múltiples lugares del mundo y que forman una cadena de agencias y responsabilidades sumamente difíciles de distinguir. Es aquí donde vemos claramente cómo Peugeot se vuelve Latour.

No se trata, además, solo de la cadena productiva. No son solo las piezas ensambladas – estamos aquí presenciando ensamblajes sociotécnicos donde participan de la cadena también conceptos como marcas, creencias sobre culturas nacionales, experiencias de redes sociales, prácticas comerciales internacionales, relaciones entre franquicias y franquiciados, interacciones entre sistemas que son a su vez complejos, y demás. La explicación no se reduce solamente al hardware, sino que el software que maneja todo el proceso es también un sistema complejo movilizado por su propio conjunto de tecnologías y piezas en movimiento que pueden terminar siendo igualmente opacos: por ejemplo, la comunicación de Braillard, el vendedor del auto, hacia el usuario, parece consistentemente estar diseñada para perpetuar la oscuridad de todo el proceso y mantener al usuario en relación total de dependencia. Es, además, un oscurantismo construido sobre la idea de que los usuarios son incapaces de comunicarse entre sí o acceder a fuentes de información fuera de la oficial, algo que a lo largo del proceso prueba ser falso (así como el consiguiente rebote de la historia de denuncia).

El resultado es una lección sumamente elaborada sobre la importancia de la alfabetización tecnológica, que no quiere decir saber usar Word y Excel, ni “música en MP3, Messenger con mis amigas” como decía un noventero comercial de CableNet. Saber usar tecnologías tiene en el fondo poca relación con entender cómo funcionan esas tecnologías: saber, si no en detalle cómo se configuran las redes que las hacen posibles, por lo menos que existen tales redes, y que esas redes son accesibles y comprensibles, nos acerca más a entender cómo se despliegan en el mundo. Tener este tipo de conocimiento y saber cómo adquirirlo en caso de necesitarlo – saber, por ejemplo, el tipo de preguntas que uno puede formular respecto al origen o calidad de un auto, y cómo puede intentar responderlas – es un recurso sumamente valioso para fines cotidianos en los cuales estamos adquiriendo e interactuando con estas tecnologías. Abrir las cajas negras, en otras palabras, es una condición casi indispensable para que a uno no le metan la rata.

Esto mismo aplica en todo tipo de contextos. De hecho, dos situaciones donde lo he visto mucho es cuando la gente compra computadoras nuevas, o cuando uno tiene que pedir soporte técnico para su conexión a Internet. En el primer caso, es sumamente normal que un vendedor exagere propiedades y beneficios y que un usuario con poca información termine comprando algo que no necesita o que no cumple con sus verdaderos requerimientos: uno va a la tienda, y entre gigahertz, teraflops, gigabytes, nombres de marcas, prejuicios y experiencias previas, marketing, y demás, puede fácilmente terminar atolondrado por el proceso. O en el segundo caso, uno llama a servicio técnico para escuchar muchas veces que “no, eso es un problema del lado del usuario”, cuando muchas veces no es verdad y nada ha cambiado del lado del usuario (“Uy, ¿se conectó otra computadora a su red wi-fi? Debe ser eso entonces, nosotros no damos soporte para eso.“).

Cuando hablamos de sistemas sociotécnicos, y cuando hablamos de actores-red, esencialmente estamos hablando de este tipo de experiencias y en contra de su opacidad. En la actualidad, promover la transparencia de las cajas negras que nos rodean no solo es un tema de curiosidad anecdótica, sino que termina siendo un tema de empoderamiento del usuario, del consumidor, del ciudadano. De ninguna manera intento decir que, en la historia referida arriba, me parezca que esto es culpa o responsabilidad del usuario. Por el contrario, creo que este usuario ha sido víctima precisamente de esta opacidad, y que su historia persona ilustra bien por qué debería importarnos abrir las cajas negras – e, idealmente, hacerlo sin tener que atravesar el proceso para descubrir por qué es importante. En un mundo, tal como lo describe Latour, donde estamos rodeados por actores no-humanos que ejercen agencia sobre nosotros, nos vemos forzados a inventar mecanismos para preservar nuestra propia capacidad de agencia y evitar que esta sea delegada en su totalidad a sistemas de los cuales no tenemos mayor comprensión.

Situando los discursos sobre la tecnología

Notas tras el primer día de #filoenredes

Aunque hay varias cosas, interesantes y no tanto, que habría que comentar sobre el primer día del coloquio Redes de la Filosofía | Filosofía en las Redes, hay una idea en particular que quería anotar antes de perderla. Surge luego de escuchar varias de las presentaciones de ayer y de conversaciones posteriores sobre ellas, y gira alrededor de cómo situar los diferentes discursos que se hacen sobre la tecnología a lo largo de diversos ejes. Por supuesto, nótese además que esto es excesivamente preliminar.

Se me ocurre que los discursos sobre la tecnología (ojo, los discursos, no las tecnologías mismas) pueden posicionarse en algún lugar a lo largo de dos espectros: por un lado, uno de los espectros oscila entre la tecnofilia, o el optimismo tecnológico (alguna variante de “la tecnología nos salvará”) y la tecnofobia, o el pesimimo tecnológico (“la tecnología nos condenará”). Sin tener necesariamente que adoptar alguno de estos polos, los discursos tecnológicos normalmente se inclinan por alguna de estas orientaciones.

Al mismo tiempo, estos discursos pueden posicionarse a lo largo de otro espectro en función de cómo caracterizan a la tecnología. El discurso clásico y, a mi juicio, el más incompleto es el que considera la tecnología simplemente como herramienta, como receptáculo de la voluntad de un individuo racional. La forma como forma, como vehículo de nuestra intencionalidad, “no es ni buena ni mala, sino que depende de cómo la usamos”. Es lo que me parece, digamos, el polo más ingenuo. Una posición basante más elaborada es la que toma la tecnología como un sistema complejo, un tejido no sólo de materialidad sino también de prácticas, procesos e instituciones que no reciben meramente la voluntad del individuo, sino que contribuyen a darle forma al definir su espectro de posibilidades. Pero el polo opuesto de este espectro lo representan los discursos que llevan la tecnología al punto de la ontología, dándole carácter autónomo o semi-autónomo y cierto grado de agencia o autodefinición. En este espectro es donde encontraríamos posiciones como las del Object Oriented Onthology o el Actor-Network Theory.

Podríamos decir, también, que ambos ejes se pueden representar como cruzándose, pues cualquiera de estos discursos se ubicará necesariamente en algún lugar de ambos de ellos. Y podríamos, por ello, quizás representarlos así:

Retrato del filósofo como hacker

Como comenté hace unos días, el jueves estaré haciendo una presentación en el coloquio Redes de la Filosofía en la PUCP (mi mesa es a las 3pm junto con Roberto Bustamante, justo antes de la conferencia de Pierre Lévy a la 5pm sobre rizomas algorítmicos).

He venido jugando con varias ideas sobre lo que quiero presentar, y he intentado combinarlas en este texto base a partir del cual quiero hacer mi presentación. Quiero compartirlo anticipadamente por si (1) tienen algún comentario, crítica o feedback que sea bueno incorporar, (2) no pueden asistir (o no están seguros y esto los puede animar/desanimar), o (3) quieren ir agregando temas que se desprendan de aquí como para la discusión en el evento. Cualquier comentario es bienvenido, y tengan en cuenta que, como suele ser el caso, todo esto son ideas en desarrollo.

Arquitecturas intangibles

“Internet” no es algo por sí mismo, sino que es una colección de algos que es más que la suma de sus partes: hecho posible por la invención del protocolo IP (Internet Protocol), Internet hizo posible que diferentes redes pudieran comunicarse entre sí e intercambiar información, incluso en aquellos casos en los que sus arquitecturas eran fundamentalmente diferentes. Lo que hizo fue crear una lingua franca a partir de la cual diferentes infraestructuras podían efectivamente comportarse como una sola, con la capacidad de conectar y desconectar nuevos nodos sin afectar la integridad del conjunto.

Cuando hablamos de Internet, estamos hablando de múltiples capas de abstracción que se ven oscurecidas y opacadas por la más visible de ellas, que es la WWW, porque es la que utilizamos cotidianamente para casi todos los propósitos. El usuario no tiene por qué ser consciente de ni entender todo el sustrato de capas y capas lógicas y físicas que existen detrás de estas abstracciones, pero cuando hacemos crítica tecnológica o queremos evaluar y entender la manera cómo la tecnología afecta procesos sociales esto sí se vuelve importante porque todas estas capas apiladas están afectadas por el concepto de “inheritance”, o herencia: las decisiones tomadas en las capas inferiores, los supuestos realizados y los affordances incorporados al diseño, afectan a todas las construcciones que realizamos en las capas superiores. Todas nuestras manifestaciones expresivas realizadas en medios computacionales, están inevitablemente estructuradas y limitadas por las posibilidades del medio computacional: esto a pesar de que intuitivamente nos parece lo contrario, de que el medio computacional o digital permite un poder expresivo infinito e ilimitado. Las redes de información digitales están configuradas por sus protocolos y sus aplicaciones, que a su vez están configurados por sus sistemas operativos y sus lenguajes de programación, que a su vez están configurados por la capa material con la cual estos lenguajes interactúan para genererar operaciones electrónicas cuya naturaleza semántica emerge a partir de la repetición masiva de millones de instrucciones aritméticas simples por segundo.

Todo esto lo digo porque es fácil que perdamos de vista algunas cosas que dejan de ser obvias o aparentes cuando queremos estudiar la manera en la cual, por ejemplo, hacemos filosofía en el medio digital, porque pasamos a concentrarnos más en la capa de lo inmediatamente tangible – comprensible pero, por todo lo que acabo de señalar, engañoso. Con esto no quiero decir ninguna de las siguientes dos cosas: que sea necesario un entendimiento profundo de las capas inferiores (p.ej. entender la definición de un protocolo o conocer un lenguaje de programación en detalle) para poder intentar analizar las maneras en las que operan o afectan a las demás capas; o que el análisis de lo tecnológico signifique un viaje a la semilla en busca de una causa primera o un primer motor inmóvil. Sí creo, en cambio, que son verdaderas las dos siguientes premisas:

  • Que es necesario el entendimiento de que estas múltiples capas existen y se afectan mutuamente, y que la configuración de capas inferiores afecta la configuración de capas superiores.
  • Que el conjunto de prácticas sociales y supuestos conceptuales bajo los cuales se configuraron las capas inferiores, son heredadas parcialmente por las capas superiores y afectan el conjunto de prácticas y supuestos que allí se realizan.

Hago esta prolongada introducción porque a partir de aquí quiero argumentar, o por lo menos provocar, tres posibles líneas de discusión:

  1. La primera es la posibilidad de una lectura filosófica realizada en y sobre la tecnología que tiene una forma similar a la práctica tecnológica estructurada por la ética hacker, y que sin embargo no es nueva en la historia de la filosofía en su conjunto.
  2. La segunda es la necesidad de una lectura filosófica que informe y contexualice la práctica tecnológica, y haga evidentes los supuestos que orientan las decisiones que afectan la manera en la que hacemos tecnología. Dicho de otro modo, la necesidad de brindarle al hacker los elementos para que él o ella puedan ser, a su propia manera, filósofos, o reflexivos respecto a su propia práctica.
  3. La tercera es la oportunidad de razonar, por analogía, a partir del análisis de sistemas abstractos que son claramente mapeables, hacia sistemas concretos que son menos transparentes y accesibles al análisis. En concreto, quiero utilizar la idea de que la capacidad de navegar redes de información afecta procesos sociales como la movilidad social o la capacidad de salir de la pobreza de maneras que aún no hemos explorado del todo.

Del filósofo como hacker

Es pertinente empezar esta sección afirmando que no estoy intentando aquí trazar un modelo normativo para la práctica filosófica – no creo que sea esto un deber-ser de cómo los filósofos deberían hacer su trabajo. Ni estoy aquí intentando realizar una reconstrucción retrospectiva de la filosofía misma, como intentando decir “esto es lo que la filosofía siempre ha sido pero nunca nos dimos cuenta”. Por eso tomo la precaución de referirme a la práctica filosófica, es decir, a la manera como los filósofos individual o colectivamente hacen filosofía en casos concretos, y la manera como se ve modificada al realizarse en y a través de entornos computacionales y digitales. En otras palabras, la filosofía en las redes.

A fines del 2011 publicamos con EDLJ un pequeño artículo en la revista Páginas donde describíamos los cambios materiales por los estaba pasando la práctica filosófica y de las Humanidades en general. Nuestra descripción en ese caso fue casi estrictamente operativa, hablando de maneras específicas en las cuales un investigador podría aprovechar nuevas herramientas digitales para ampliar o difundir su trabajo de maneras creativas. Pero en el contexto de ese artículo no abordamos la cuestión más de fondo, de cómo utilizar esas herramientas afecta no solamente las condiciones de producción, sino también las condiciones de lo producido: cuando hacemos teoría en y sobre la tecnología, ¿cuáles son las condiciones diferentes, singulares de esa teoría?

Intenté responder a esa pregunta con el programa de la teoría mínimamente viable, y en particular, con las nuevas condiciones en las cuales nos vemos en la necesidad de formular modelos teóricos, especialmente cuando ellos se refieren a lo tecnológico:

[H]oy día vemos una serie de fenómenos que se mueven y cambian demasiado rápido como para que nuestros mecanismos tradicionales para formular teorías nos den explicaciones útiles. En el tiempo que le toma a un libro o a un paper ser publicados, por ejemplo, muchas explicaciones y descripciones sobre cambios tecnológicos o conductas sociales emergentes pueden haber cambiado significativamente, o incluso haber desaparecido. Procesos tradicionales como el peer-review, que no dejan de ser importantes, no necesariamente tienen tanto sentido cuando nos enfrentamos al tipo de desafíos teóricos como aquellos a los que responder una MVT. Esencialmente, es algo así como pasar de un modelo filter, then publish, a un modelo publish, then filter.

Lo sugerente es como en este caso, empezamos a imaginar una forma de práctica filosófica que es a su vez estructuralmente similar al tipo de prácticas mismas que intenta estudiar. La ética hacker y los principios de la cultura hacker se vuelven entonces un interesante modelo a seguir para modelar una práctica filosófica propia del medio digital. Podemos tomar, por ejemplo, los principios de la actitud hacker descritos por Eric S. Raymond en su ensayo clásico, “How To Become a Hacker“:

  1. El mundo está lleno de problemas fascinantes esperando ser resueltos.
  2. Ningún problema debería tener que ser resuelto más de una vez.
  3. El aburrimiento y el trabajo rutinario son malignos.
  4. La libertad es buena.
  5. Tener actitud no es sustituto para ser competente.

De estos principios podemos hacernos la idea de que la práctica del hacker está principalmente orientada por la curiosidad para entender cómo es que funcionan diferentes tipos de sistemas, y cómo es que podemos hacerlos mejores. Es una ética gobernada meritocráticamente por comunidades de individuos vinculados más o menos flexiblemente, a través de espacios distribuidos, conectados por tecnologías digitales de la información. Es el tipo de organización social emergente hecha posible por la tecnología digital que rompe con nuestros supuestos tradicionales sobre cómo podemos y debemos organizarnos para cumplir con objetivos comunes (ruptura o confrontación descrita por Yochai Benkler desde su artículo, “Coase’s Penguin, or Linux and the Nature of the Firm“).

La actitud del hacker asume un mundo llenos de problemas esperando ser resueltos, pero a pesar de su profunda vinculación con lo tecnológico, no hay nada en esa actitud que indique que, intrínsecamente, esos problemas deben ser de naturaleza tecnológica. Es decir, no todos los problemas “hackeables” tienen que ser problemas de código, sino que es más bien la disposición con la que se abordan los problemas lo que distingue al hacker. Lo cual deja abierta la puerta a que la filosofía misma pueda entenderse como una forma de hackeo, y quizás por lo mismo, como una forma de realizar la práctica filosófica que más fácilmente consigue aproximarse a la comprensión de lo tecnológico.

¿Cómo se configura ese tipo de comprensión? Quizás podemos encontrar más pistas si tomamos otro ensayo clásico de Raymond, “The Cathedral and the Bazaar“. En este ensayo, Raymond explica las diferencias entre dos enfoques hacia el desarrollo de software: por un lado, el desarrollo propietario/corporativo es aquel que se dedica a la construcción de “catedrales”: grandes sistemas complejos que requieren de todo un andamiaje organizacional complicado que genere el espacio que permita la creatividad. Por otro lado, el desarrollo del software libre se dedica a la construcción de “bazares”: en lugar de partir de la búsqueda de grandes estructuras, el software evoluciona a partir de la concatenación de pequeñas piezas que responden a preocupaciones puntuales, que al conectarse forman dependencias y permiten crear estructuras más grandes que la suma de sus partes. El enfoque de la catedral es la aplicación de la lógica industrial a la producción de un intangible como el software; en cambio, el enfoque del bazar es hecho posible por la aparición de tecnologías de la información que permiten que miles de desarrolladores puedan trabajar individualmente en problemas distribuidos colectivamente. Más que intentar decir que una forma sea superior a la otra, Raymond intenta señalar que claramente la segunda forma es novedosa y posible dadas nuestras condiciones actuales de producción.

La analogía es útil si queremos pensar en la forma que toma la práctica filosófica pensada como un ejercicio de hackeo: no una filosofía centrada en el diseño de “catedrales” o de grandes sistemas, sino una centrada en la emergencia de esos sistemas a partir de las conexiones que pueden trazarse entre múltiples piezas independientes. Allí, quizás, su innovación, aunque tenemos que tener suficiente conciencia histórica para reconocer que esto no es en términos generales novedoso en la historia de la filosofía: discursos en contra de la filosofía como sistema, o a favor de su imposibilidad, abundan desde mucho, mucho antes del siglo XX y la aparición de la tecnología digital y las redes de información. Aunque esto aparece como una innovación en el campo del desarrollo de software y aplicaciones informáticas, no lo es tanto desde el punto de vista de la práctica filosófica, pero con una particularidad significativa: la filosofía  como ejercicio del hacking, como constructora de “bazares” conceptuales, no niega ni se cierra a la posibilidad de que existan sistemas filosóficos. Sólo discute la naturaleza de esos sistemas: como edificios complicados articulados voluntariamente a priori, o como estructuras complejas cuyas propiedades, características y elementos emergen a posteriori a partir de la interacción de componentes simples. El sistema conceptual análogo al mundo digital e informatizado es un sistema dinámico, extensible, computacional e histórico: es, entonces, una red.

Del hacker como filósofo

Creo que es importante prestar también atención al otro lado de la moneda. He intentado responder escuetamente a la pregunta, ¿qué forma toma una práctica filosófica configurada por las tecnologías digitales de la información? Quiero ahora intentar algo similar para la pregunta, ¿cómo puede una práctica filosófica así configurada influir sobre el desarrollo de la tecnología misma?

La filosofía no ha tenido mucho que decir sobre esto, o en aquellos casos donde lo ha hecho, ha conseguido más bien empujar este tema hacia la periferia o hacia otros ámbitos disciplinarios. Más aún, en muchos casos es fácil encontrar también discursos filosóficos sobre la tecnología que se distinguen por lo distanciados que están de la práctica tecnológica misma – que no se esfuerzan por entender sus particularidades, por manejar sus lenguajes o considerar su propia lógica interna. Esto ha resultado en un doble proceso preocupante: por un lado, que el desarrollo tecnológico preste poca atención al discurso filosófico que suele realizarse sobre él, y por otro lado, que este mismo desarrollo preste atención a otras fuentes conceptuales de manera poco crítica o informada.

Los diseñadores y desarrolladores de nuevas tecnologías van a seguir haciendo aquello que saben hacer más allá de que la filosofía les diga si lo que hacen está bien o mal, o si resulta más o menos deseable, o lo que fuera. El problema es que en muchos de estos casos, muchas muy buenas ideas terminan resultando inefectivas al ser implementadas porque no tomaron en consideración el contexto en el cual iban a ser aplicadas y sus posibles implicaciones, o en casos peores terminan generando un impacto negativo respecto al esperado. Aunque escapa al alcance de las herramientas de la filosofía realizar este tipo de evaluaciones e informar el diseño de nuevas tecnologías a partir de sus usos y aplicaciones, sí está dentro de sus posibilidades formular y promover una lógica mejor informada respecto a las complejidades de lo tecnológico y las múltiples capas de significado que participan de su diseño, implementación y uso. En otras palabras: la filosofía no puede decirte por qué una tecnología en particular es o no adecuada para un contexto determinada, pero sí puede decirte que la respuesta a esa pregunta no es contingente a las características de la tecnología misma.

De lo cual se desprende, me parece, el sentido que adopta el generar una red conceptual articulada en torno a la tecnología, que conozca sus lógicas internas y pueda brindar una perspectiva que no resulte ingenua ni desactualizada: un sistema de “crítica tecnológica” que, en el sentido clásico de la crítica kantiana, permita identificar los límites y parámetros dentro de los cuales opera nuestra mentalidad tecnológica – incluso en aquellos casos donde una tecnología pretende ampliar y modificar esa misma mentalidad. La filosofía tiene la capacidad para formular un conjunto de preguntas y conceptos que puedan a su vez ser reutilizados por el hacker al reflexionar sobre sus propias creaciones y modificaciones, sobre sus propias prácticas y sobre las dinámicas de su propia comunidad creativa.

De lo que no se trata, es de utilizar herramientas y conceptos filosóficos para decirle al hacker cómo es que debe hacer las cosas – algo en lo cual las ramas temáticas de la filosofía frecuentemente suelen incurrir, bajo un exceso de normatividad construida exteriormente. No sólo termina siendo un ejercicio inútil, sino que termina siendo hasta contraproducente, en la medida en que consigue que el discurso filosófico sea excluido de lo que podría ser de otra manera un diálogo mucho más interesante y construido colaborativamente. Y está dentro de la esfera de interés de la práctica filosófica (o al menos dentro de la de muchos de nosotros) construir este espacio de diálogo donde poder contribuir al desarrollo de una conciencia tecnológica mejor informada y menos ingenua por ambos lados: tanto por el lado de lo técnico como por el lado de lo conceptual.

Quizás una de las primeras tareas de este tipo de construcción de conciencia es identificar las maneras implícitas en las cuales este intercambio ya se ha venido dando. Hay una historia poco explorada de la participación de la filosofía en la tecnología digital de la información, que regresa hasta la manera en la cual el cartesianismo influyó a varios de los teóricos iniciales de la informática y la cibernética con nociones cercanas al dualismo, la relación entre la mente y el cuerpo y la figura del “fantasma dentro de la máquina”. A partir de allí, hay una línea de diálogo intermitente cuya manifestación quizás más interesante puede encontrarse en las conversaciones más recientes en torno a los límites y posibilidades de la inteligencia artificial, así como sus implicancias legales, éticas y políticas.

Conectados y desconectados

Quiero cerrar con una nota sobre por qué me parece importante todo lo anterior, y si la conexión entre una y otra cosa no termina resultando aparente, estaré especialmente agradecido de los comentarios que me puedan hacer para poder hacer las aclaraciones del caso.

Me parece importante ilustrar la importancia que tiene toda esta reflexión y metareflexión sobre cómo pensamos en la tecnología, cómo informamos su desarrollo y cómo utilizamos o podemos utilizar estas herramientas conceptuales en la navegación de redes de información cotidianas. En cierta manera (que espero no tener que elaborar aquí en detalle), aprender a navegar una red es como aprender un lenguaje, es decir es como aprender una forma de vida, y en cierta manera, toda forma de vida y todo lenguaje pueden representarse y entenderse como una red: sin puntos de ingreso privilegiados, y donde cada ruta de navegación es parcial y regional de un todo sobre el cual adquirimos competencia de navegación.

Puesto de otra manera: toda tecnología comprende un lenguaje y todo lenguaje es, a su vez, una forma tecnológica que nos permite domestica alguna región de la realidad o algún tipo de problema. Esto ciertamente amerita mayor elaboración (que puede encontrarse parcialmente en mi artículo sobre las gramáticas tecnológicas), pero para no hacer el argumento demasiado largo les pido que lo aceptemos temporalmente. Lo que esto nos permite es reconocer como tecnologías un conjunto considerablemente más grande de procesos, siguiendo una argumentación bastante mcluhaniana: bajo esta lógica, las ciudades pueden considerarse como tecnologías, como pueden también serlo los teléfonos, las autopistas, las pinturas medievales, los smartphones, etc. Nos encontramos aquí muy cerca del dominio de la ontología orientada a objetos, o de la teoría del actor-red.

Arthur C. Clarke acuñó la idea de que “cualquier tecnología suficientemente avanzada es indistinguible de la magia”, y esto podemos observarlo fácilmente en nuestras relaciones cotidianas con la mayoría de tecnologías: no necesitamos saber cómo es que el espectro electromagnético es manipulado para que la señal llegue de mi teléfono celular a la antena que representa la “celda” local que me conecta con la red de comunicaciones para poder hacer una llamada. Probablemente no queremos saber, como tampoco necesitamos entender los principios químicos de la combustión para viajar en auto o cómo programar en C++ para poder utilizar aplicaciones en una computadora. Las interfases se encargan de ocultarnos todo este proceso que ocurre detrás de cámaras, y consideramos que una interfase está mejor diseñada cuando consigue más exitosamente este oscurecimiento y consigue preservar o incluso incrementar la sensación de lo mágico. Quizás ningún ejemplo sea más claro que los productos de Apple que son notablemente más difíciles de de personalizar o modificar, bajo la noción de que sacrificamos control de la caja negra por una mejor experiencia de usabilidad.

El problema surge, o se complica, cuando empezamos a estirar la metáfora y empezamos a pensar que una posta médica, un aula de clases o un gobierno regional son también tecnologías que comprenden sus propios lenguajes en los cuales tenemos que ser competentes para cumplir con una serie de objetivos. A su vez, no son lenguajes formalizados, reconocidos, y sobre todo no son lenguajes en los que recibamos ningún tipo de formación o adiestramiento. Son lenguajes altamente opacos y poco navegables, cosa que resultará evidente a todo aquel que haya intentado, alguna vez, realizar algún tipo de trámite con alguna dependencia del Estado, sea cual sea.

Estas cajas negras en efecto eliminan nuestra capacidad para trazar relaciones causales entre inputs y outputs, entre procedimientos y resultados, y es en ese momento en que se introducen arbitrariedades como la corrupción, el nepotismo, la usurpación de funciones, y demás errores del sistema. Uno podría argumentar que hay una “clase profesional” cuyo objetivo es evitar estar irregularidades, que vendría a ser la burocracia estatal y, quizás más ampliamente, los abogados que tienen el conocimiento para navegar este tipo de sistemas. Pero dada su naturaleza, esto no me parece una respuesta aceptable, pues efectivamente significa el monopolio de una “tecnología” de servicio y beneficio público.

Nuestra capacidad para participar de estos circuitos informacionales, de navegar redes de información diversamente conectadas entre sí, se vuelve una habilidad fundamental para ubicarse en el mundo contemporáneo. Es la capacidad, por ejemplo, para entrar a la página web de una dependencia del Estado para encontrar la información sobre los requerimientos de un trámite, y evitar así ser estafado por un tramitador. El acceso a la información, y a la información sobre la información, y el desarrollo de capacidades de navegación de redes, son entonces no sólo habilidades fundamentales sino marcadores determinantes de nuestra posición social y nuestra condición de clase: la condición de pobreza es no sólo una condición material, sino que es también una afirmación sobre nuestra capacidad de acceder efectivamente a la información. Mientras menos acceso a la información tengo, más son las tecnologías, los sistemas y las redes a mi alrededor consideradas como “magia”, porque no tengo manera de entender cómo es que funcionan. Esta condición mágica es el caldo de cultivo perfecto para la arbitrariedad, la explotación y el abuso. Visto de esta manera, y corriendo el riesgo de que suene trivial, el pésimo diseño que suelen tener los sitios web de las dependencias del Estado es no sólo un atentado contra el buen gusto, sino incluso un atentado contra los derechos fundamentales, en el sentido de que impiden el acceso a la información pública y perpetúan la condición de exclusión de las personas que más la necesitan. El ejemplo clásico en este sentido es el de las becas educativas, cuya información a pesar de ser públicamente disponible, rara vez llega a las personas que más podrían beneficiarse de ella simplemente porque se encuentran desconectados de los circuitos de información donde circula.

Ejemplos como éste hay muchos y de muchos tipos. Y es precisamente allí donde creo que una crítica tecnológica bien formulada puede tener mucho que contribuir, y mucho que heredar, a su vez, de la creencia del hacker de que no deben haber cajas negras tecnológicas y de que el mundo está al alcance de nuestro análisis y examen. De la misma manera como intentamos más arriba seguir el hilo de Ariadna desde la interfase visible hasta las capas subyacentes de tecnología que nos resultan invisibles, para entender todas las herencias de conceptos y significados que participan de una experiencia, podemos también analizar tecnologías menos obvias, y menos transparentes, donde tenemos un interés público en entender lo que resulta invisible en todas esas capas.

Tenemos a su vez un interés, si no una responsabilidad, en que ese aparato crítico esté ampliamente disponible no sólo a los filósofos, y no sólo a los hackers y diseñadores, sino que estén disponibles públicamente para realizar el examen de las instituciones con las que interactuamos cotidianamente y nos hagamos legítimamente la pregunta de por qué funciona de una manera y no de otra. Debemos entender que las instituciones son hackeables no en el sentido trivial de traerse abajo su página web, sino en el sentido significativo de pedirles explicaciones y rendición de cuentas, y de legítimamente exigir que estén al servicio del público.

Soy plenamente consciente de que, en este sentido, el problema es mucho más complejo de lo que aquí planteo, y que intervienen una serie de procesos, particularmente educativos, de primera importancia. Pero el alcance de lo que he intentado decir puede resumirse en un conjunto de premisas básicas:

  • Las tecnologías con las que interactuamos están compuestas por una serie de capas interdependientes que usualmente se esconden al análisis, y la crítica tecnológica informada debe desenmarañar la tecnología como un proceso social complejo.
  • La práctica tecnológica puede dar forma a una práctica filosófica que entienda y maneje su lógica interna, y que pueda realizar afirmaciones contextualizadas y útiles a la práctica que observa, formando sistemas conceptuales emergentes, dinámicos e históricos.
  • La práctica filosófica puede a su vez desarrollar aparatos conceptuales que beneficien a la práctica tecnológica, permitiéndole contemplar la complejidad de sus actividades y los diferentes elementos que participan de la implementación de nuevas tecnologías.
  • La crítica tecnológica informada nos da herramientas y referentes para el análisis de diversas redes de información y su importancia, permitiéndonos identificar también patrones sistemáticos de exclusión e injusticia escondidos en los diseños cerrados de sistemas, procesos e instituciones.

Estas son las ideas que quiero presentar este jueves en Redes de la Filosofía. Así que, de nuevo, cualquier comentario es bienvenido, y espero que puedan asistir y podamos tener una buena conversación en vivo.

Redes de la filosofía

Del 3 al 5 de octubre en el Auditorio de Humanidades de la PUCP, se estará llevando a cabo el coloquio Redes la Filosofía | Filosofía en las Redes. Es un evento que estará explorando tanto las maneras como nuevas tecnologías de la información están cambiando la manera en la que hacemos y comunicamos la filosofía, así como las maneras en las que la filosofía contribuye a echar luz sobre cómo emergen, se configuran y se implementan las diferentes redes de las que participamos: informacionales, sociales, organizacionales, lingüísticas, etc.

Dos razones en particular por las que los invito a asistir o, por lo menos, seguir el webcast en vivo durante los tres días del evento: la primera, y más importante, es porque contará con la participación de Pierre Lévy, filósofo francés que ha prácticamente acuñado las ideas que manejamos en torno a la inteligencia colectiva y la capacidad cognitiva distribuida hecha posible por las tecnología de la información (notablemente en su libro Inteligencia colectiva). Lévy estará presentando el jueves 4 de octubre a las 5pm bajo el título “Beyond Networks: Algorithmic Rhizomes”, una aproximación a la formalización de sistemas complejos multidimensionales representándoles como sucesiones anidadas a su vez de redes complejas. El trabajo de Lévy en los últimos años ha estado dedicado a incrementar nuestra capacidad colectiva para “cartografiar” nuestro universo de conocimiento desarrollando metalenguajes y marcadores (específicamente, el metalenguaje IEML) para poder identificar y rastrear conexiones conceptuales a través de disciplinas, enfoques y lenguajes.

La segunda y autobombística razón es que estaré presentando yo mismo en el coloquio, en una mesa titulada “Hackeando conceptos: Nuevos enfoques para nuevos problemas”, junto a Roberto Bustamante (a.k.a. @elmorsa). Esta mesa está programada para el mismo jueves 4 a las 3pm, justo antes de la presentación de Lévy. La presentación que estoy preparando incluirá elementos de la ética hacker (en los que estoy interesado hace tiempo) y la manera como se comparan con la investigación filosófica y permiten codificar la manera en la que puede operar una “filosofía de las redes” que, al mismo tiempo, permita formular un pensamiento crítico sobre la tecnología que no adelante juicios de valor ni peque de ingenuidad. En ese sentido quiero hablar de cómo la filosofía puede permitirnos navegar y des-entrañar los múltiples niveles anidados en los cuales se configuran las redes y los sistemas de información, junto con sus múltiples supuestos y conceptos, y de cómo la ontologización de estas redes representa tanto una oportunidad como una nueva responsabilidad para la práctica filosófica.

Pero incluso más aún, hay múltiples razones por las que podrían estar interesados en asistir. El evento va desde la mañana del miércoles 3 de octubre con la presentación de Alexandre Lacroix, “Prolegómenos a una filosofía política de Internet”, y en sus tres días incluirá la participación de ponentes nacionales e internacionales como Alessandra Dibós, Miguel Giusti, Víctor J. Krebs, Alejandro León, Daniel Luna, Rosemary Rizo-Patrón, Wilbert Tapia, Fidel Tubino, y Joao Salles, además de los antes mencionados. Pueden encontrar más información en la página en Facebook de El Talón de Aquiles o siguiendo su cuenta en Twitter, o el hashtag #filoenredes, y el programa completo estará pronto en la web para que lo puedan revisar.

El ingreso es libre a todas las presentaciones, y si no son miembros de la comunidad PUCP, pueden inscribirse aquí para poder ingresar. Mientras tanto, en los próximos días espero poder ir también adelantando algunas notas e ideas de lo que será mi presentación.

Actualización. Ya está disponible el programa del coloquio:

Toma tu simposio, octava edición

Del 19 al 21 de setiembre, en el Auditorio de Humanidades de la PUCP, el VIII Simposio de Estudiantes de Filosofía.

Tengo un aprecio enorme por este simposio. Fue, de hecho, el primer evento académico en el que presenté algo, hace unos años. Y es el foro donde he presentado ideas consistentemente, hasta, si no me equivoco, el año pasado.

El Simposio de Estudiantes es una gran cosa. Es un excelente espacio para la experimentación y la innovación, para probar nuevas ideas y ensayar combinaciones en un entorno relativamente “seguro”: uno no tiene ni la presión de conseguir una buena nota para un curso, ni la de tener que presentar en un contexto más consolidado y menos permisivo. Es una gran manera de foguearse presentando ideas frente a un público, de experimentar con diferentes recursos retóricos y de acostumbrarse a lo que significa someter ideas a la evaluación de tus pares.

Mi primera presentación en el simposio fue en mi primer año de Facultad en filosofía, presentando un texto titulado “Apología del sofista”. Arriesgado, para ese momento, supongo. Desde entonces presenté en casi todas las oportunidades, hasta dos veces en un mismo año, y con temas desde la empleabilidad en la filosofía hasta Watchmen. En todas las ocasiones lo disfruté enormemente y aprendí mucho de la experiencia. En años recientes, además, también disfruté mucho de visitar el simposio para conocer a los “jóvenes talentos” de la facultad y conocer más de cerca qué temas estaban trabajando, cómo estaban pensando, cómo estaban presentando.

Así que sólo puedo decir dos cosas. Primero que nada, si son estudiantes de filosofía, presenten. Presenten lo que sea, aunque no crean que está terminado, aunque no crean que es bueno, presenten y descubran que las ideas son un proceso y no un producto y que se refinan continuamente y mejoran a partir de compartirlas y discutirlas. Segundo, para todos, vayan al simposio. Escuchen las nuevas ideas que allí se presentan, y discútanlas con elegancia: no vayan para destruir, no vayan para aplastar, vayan para contribuir al fortalecimiento de proyectos conceptuales, para descubrir nuevas posibilidades y, también, para identificar nuevos talentos. Es un gran espacio al que me siento especialmente conectado, aún cuando siento que mi tiempo de presentar en él “ya pasó” y que hay que dejar ese espacio para que nuevas generaciones hagan cosas raras. Y que, por lo mismo, me alegro mucho de que se mantenga como una institución entre las nuevas generaciones de estudiantes.

El “bleeding effect”, 2: mensajes encriptados y capas de significado

Una idea más sobre el concepto del “bleeding effect”: siguiendo con la analogía de Assassin’s Creed, hay otro elemento interesante en el juego llamado “eagle vision“, o “visión de águila”, donde el protagonista usa una habilidad especial que le permite ver “más allá de lo evidente” e identificar amigos, enemigos, objetos de interés a su alrededor, etc. En otras palabras, es una habilidad que le permite identificar una capa de significado adicional por encima de la realidad que lo rodea (que es, por supuesto, parte misma de la realidad).

Esto es algo similar, digamos, a lo que le ocurría a Neo en The Matrix cuando empezaba a ver la realidad como configuraciones de código, que además podía modificar a su voluntad. Conforme aprendemos nuevas cosas, nuevos lenguajes, nuevas gramáticas, adquirimos capas adicionales de significado que nos permiten identificar mensajes encriptados en la realidad misma, que estuvieron ahí todo el tiempo pero que sólo podemos decodificar si tenemos acceso al conocimiento apropiado. Esto es, en cierto modo, una manifestación más de lo que sería el bleeding effect, en el sentido de que habilidades adquiridas en un espacio o en una plataforma “sangran” o “chorrean” hacia otros ámbitos de la realidad.

Un ejemplo donde esto resulta bastante claro es con el uso de los hashtags en Twitter. Los hashtags son identificadores textuales que permiten vincular twits independientes y dispersos dentro de una sola discusión utilizando una etiqueta descriptiva (de la forma #etiqueta). Se popularizaron originalmente en Twitter donde permitían hilar discusiones dentro de una plataforma que está permanentemente dispersa, generando hilos conductores. Pero su uso ha trascendido fuera de Twitter, primero que nada apareciendo naturalmente en otras plataformas: no es raro, por ejemplo, encontrar gente utilizando hashtags en Facebook, donde técnicamente no sirven para mucho (Twitter convierte los hashtags en enlaces a una búsqueda por otras menciones del mismo hashtag, pero en Facebook aparecen sólo como texto). Porque son sólo texto, el uso de un hashtag no se puede evitar, y para un usuario que no sabe lo que son aparecen simplemente como una curiosidad indeterminada. Pero para cualquiera que haya usado Twitter, el uso del hashtag es un marcador de que hay un hilo conductor que vincula ese elemento individual con otros, y también que la persona que lo usa, muy probablemente, un usuario de Twitter.

El uso del hashtag ha trascendido incluso fuera de espacios virtuales: no es raro encontrar en la transmisión de programas de televisión el uso de un hashtag oficial que se muestra durante la emisión del programa, como indicando dónde está ocurriendo la discusión en vivo de lo que está pasando (aquellos que manejan el “código secreto” tienen la opción de acceder a todo un nuevo nivel de disfrute de lo que está pasando, invisible a los demás). Hace unas semanas, además, el diario español El País usó un hashtag como titular de una noticia de primera plana sobre los #nimileuristas. Y en la actualidad, casi cualquier evento en vivo, conferencia, congreso, seminario, etc., tiene un hastag activo permanentemente en el cual los participantes comparten preguntas, ideas, comentarios, o críticas, creando un canal subterráneo (un “backchannel“) donde se puede tener otro tipo de interacciones. Todo esto es un poco como el eagle vision de Assassin’s Creed: si se tiene la habilidad se puede reconocer esta capa adicional de significado y aumentar la experiencia (realidad aumentada), y si no, pues la persona quizás no reconozca que haya algo que reconocer.

Difícilmente es esto algo singular o exclusivo a las gramáticas de la tecnología, sino que es en realidad propio de cualquier lenguaje: si paseo por un aeropuerto en Frankfurt sin saber alemán, hay toda una capa de significados que me es invisible por no conocer la clave de decodificación. Asimismo, si no sé leer y escribir, este mismo post es sólo una serie de líneas y glifos raros en una pantalla, pero no se convierten en significado. De modo que incluso estas capas se superponen unas sobre otras y se requieren entre sí, en muchos casos. La gran diferencia, o lo interesante en este caso en particular, es quizás cómo ahora que tenemos una mayor diversidad de soportes y plataformas y que nuestras maquinitas meméticas están operando al 110%, este fenómeno se vuelve tanto más evidente. En otras palabras: no digo que pensar en el hashtag signifique dejar de pensar en la alfabetización, pero sí que cuando diseñamos estas plataformas, cuando educamos y cuando incentivamos la participación, hay gramáticas que sin ser intrínsecamente exclusivas no son automáticamente accesibles ni intuitivas. Las capas de significado a la que cada uno de nosotros tiene acceso para identificar varía de individuo a individuo en función a intereses, geografía, historia personal, etc. Pero algunas combinaciones se correlacionan en mayor medida con algunas dimensiones de la realidad: por ejemplo, cada vez más la capa para identificar, entender y utilizar código de programación se vuelve importante para el vínculo con la información, el conocimiento y en última instancia el ejercicio efectivo de la ciudadanía, como una capa que está “sangrando” o “chorreando” cada vez más intensamente, pero a la que no todos tenemos acceso por igual.

El “bleeding effect”, o sobre la conexión entre lo real y lo virtual

SPOILER ALERT: Si no has terminado Assassin’s Creed 2, el siguiente post puede contener spoilers importantes.

Estoy jugando con una idea últimamente que me ha interesado mucho, a partir de un concepto introducido en la serie de videojuegos Assassin’s Creed: en el Assassin’s Creed 2 la trama desarrolla el concepto del “bleeding effect”, traducible como “efecto de sangrado”, para explicar algunas de las visiones que el protagonista, Desmond Miles, empieza a tener a medida que pasa más tiempo interactuando con el Animus, una simulación de realidad virtual en la que Desmond revive las memorias de sus antepasados.

Pasar mucho tiempo en el Animus tiene consecuencias importantes: progresivamente, las habilidades que Desmond desarrolla dentro del Animus se vuelven disponibles fuera de él, y su capacidad para “conectarse” con las memorias de sus antepasados empieza a manifestarse en cualquier momento (como en el fragmento del juego en el video arriba). Esto se vuelve un problema porque empieza a serle difícil distinguir las visiones de la realidad, pero al mismo tiempo, es necesario para él porque es la única manera en que los asesinos pueden entrenarlo rápidamente y darle el conocimiento y habilidades que necesitan que tenga para que pueda ayudarlos.

Me parece que el bleeding effect es una gran metáfora para ilustrar la manera como los aprendizajes que tenemos en espacios virtuales y las habilidades que cultivamos son reutilizables fuera de los espacios en los que las aprendemos, como una especie de “sangrado” donde la separación entre lo virtual y lo real se diluye pero no desaparece. De hecho, distinguir entre virtual y real de por sí me parece incorrect: lo que hacemos en espacios virtuales no es ni falso ni es irreal, por lo cual quizás una mejor distinción sería entre virtual y físico, o entre virtual y presencial, para distinguir entre lo que ocurre “dentro” y lo que ocurre “fuera” de la máquina.

Es, por ejemplo, una gran manera de explorar cómo aprendemos con los videojuegos. Al jugar videojuegos, normalmente no hay un propósito de aprendizaje explícito (salvo en los casos de juegos educativos, claro), pero la mayoría de mecánicas de juego terminaran por acostumbrarnos a procesos mentales generales a todos los videojuegos y específicos al juego en particular. Es así, por ejemplo, que los videojuegos fortalecen nuestra capacidad para procedimientos de ensayo y error y para formular estrategias y tácticas, o como un first-person shooter puede desarrollar nuestra coordinación ojo-mano o nuestra ubicación espacial, o un juego de estrategia puede desarrollar nuestro razonamiento económico o nuestra capacidad de planificación. Que el juego nos haga realizar estos ejercicios mentales no quiere decir que explícitamente nos esté educando como solemos entenderlo, pero esos mismo procesos mentales siguen estando disponibles a nosotros cuando apagamos el juego, y el conocimiento y las habilidades exhiben este efecto de sangrado fuera del espacio virtual.

Y es también una metáfora para ilustrar como, progresivamente, espacios virtuales y espacios “reales”/físicos/presenciales terminan siendo indisociables entre sí, contra la suposición que aún esgrimen muchos de que uno “sale” del mundo real para “entrar” a Internet. Sobre todo conforme nuestros dispositivos son más portátiles y nos acompañan permanentemente, es cada vez menos útil distinguir entre dos maneras de ser o estar, sino que entre ambas dimensiones se tiende una continuidad. Cuando hago un check-in en Foursquare, y ese check-in está conectado a una oferta en un restaurante, o me sirve para encontrarme con un amigo que está cerca, es también una manifestación de lo virtual “sangrando” o “chorreando” sobre lo “real”.

El bleeding effect es un concepto muy poderoso, y creo que se puede sacar mucho de utilizarlo como metáfora para ilustrar cómo aprendemos en espacios virtuales y qué significan esos aprendizajes. Por ahora tengo sólo estas ideas preliminares, pero espero poder ampliarlas un poco más pronto – sobre todo conforme vaya jugando los títulos que me faltan en la serie Assassin’s Creed.

Teoría provisional, o la Minimum Viable Theory

Hace poco terminé de leer The Lean Startup, el libro de Eric Ries que está en cierta medida alimentando un movimiento y una cultura sobre cómo gestionar el trabajo que hace un start-up – una organización que quiere introducir un nuevo producto, servicio o modelo en el mercado la sociedad. Soy intencionalmente genérico en esta descripción porque Ries abre el espacio del start-up mucho más allá de sólo empresas, o sólo servicios tecnológicos, y juega con una definición mucho más amplia para el start-up:

A startup is a human institution designed to deliver a new product or service under conditions of extreme uncertainty.

De modo que esto puede aplicarse a múltiples tipos de organizaciones o grupos, con diferentes propósitos, mientras que su objetivo común sea la introducción de algo nuevo al mundo y sus condiciones operativas sean de extrema incertidumbre. La metodología del lean startup, entonces, debería servir a la gestión de cualquier iniciativa que exhiba estas características.

El propio Ries sintetiza el núcleo de esta metodología en esta presentación del 2010 en el Web 2.0 Expo:

Ayer venía a casa caminando y empecé a darle más vueltas al asunto, pero intentando traducir estas categorías y herramientas a la labor teórica y a las diferentes maneras de realizar trabajo teórico que hoy en día se están volviendo tanto posibles como necesarias. Solía ser el caso de que la teoría era algo confinado a unos ciertos ámbitos – principalmente académicos – y construido de una cierta manera arquitectónica, lo cual encerraba además supuestos ontológicos, epistemológicos y éticos de ninguna manera triviales. Y solía ser el caso también de que estas construcciones respondían a condiciones estructurales: los recursos para la investigación y el trabajo teórico eran de difícil acceso y por ello era necesario concentrarlos físicamente para reducir costos e incrementar la eficiencia, y los problemas explorados y desarrollados se movían a una velocidad y un ritmo que les permitía comprometerse a resultados y mantener relevancia durante largos periodos de tiempo.

Parto de una observación simple, y por supuesto, cuestionable: que estas condiciones estructurales que afianzaban el edificio del trabajo teórico se han venido abajo. Por un lado, ya no es cierto que los recursos necesarios para realizar investigaciones y construir modelos teóricos deban concentrarse por temas de eficiencia y acceso, porque la tecnología disponible nos permite nuevas alternativas (no equivalentes ni mejores, simplemente nuevas). Por otro lado, aparecen hoy objetos y temas de estudio cuya naturaleza rápidamente cambiante y difícil de abarcar desafía nuestras nociones tradicionales de teoría, pero no por ello requieren de menor comprensión de nuestra parte. Que nosotros estemos acostumbrados a hacer teoría de una cierta manera, no quiere decir que Internet o la economía se van a mover más lento como para que captemos con “claridad y distinción” lo que está ocurriendo. Simplemente quiere decir que nuestros modelos se vuelven bastante menos efectivos, en gran medida porque terminan siendo obsoletos incluso antes de ser terminados. Alejandro Piscitelli, presentando el libro Facebook es el mensaje de Clara Ciuffoli y Guadalupe López, lo pone de esta manera:

Si hace un tiempo decíamos que en la red un año son 7 del mundo real, quizás ahora deberíamos hablar de 12 o 14 años. Lo cierto es que el presente de hoy difiere tanto del presente de 1 año o 2 atrás, para no decir de 10 años o 20 (cuando nació la web), que resulta casi imposible sacar fotos de este flujo incesante de experiencias, plataformas, realineamientos y en definitiva de diseño multivariado de experiencias.

Pero el valor de nuestra comprensión de estos fenómenos no ha disminuido. En el caso de la tecnología, nuestra capacidad para comprender y explicar los efectos sociales de nuevos fenómenos emergentes es lo que marca la diferencia entre que la tecnología haga cosas con nosotros, y que nosotros hagamos cosas con la tecnología (no como herramienta, sino más bien como colaboración). Nuestra capacidad para formular rápida, efectiva y eficientemente modelos teóricos para explicar nuevas fenomenologías se convierte en una capacidad de primordial importancia para nuestra adaptación cultural: en otras palabras, nuestra capacidad para hacer teoría bajo condiciones de extrema incertidumbre.

La Minimum Viable Theory

Uno de los elementos de la metodología lean startup de Ries es el Minimum Viable Product (MVP), o producto mínimamente viable. El objetivo de formular un MVP es implementar un producto funcional que pueda ser llevado al mercado lo antes posible, para evaluar las hipótesis sobre el mercado, el consumidor y el producto que un start-up ha formulado al empezar su proceso de diseño. Es diferente a un prototipo, en tanto un prototipo está destinado sola o principalmente a evaluar la funcionalidad de un producto y que de hecho pueda hacer lo que se espera que haga. El MVP, más bien, busca evaluar la viabilidad de todo un modelo de negocios: no sólo la funcionalidad de un producto o servicio, sino su capacidad para ingresar al mercado y cumplir, aunque sea mínimamente, con sus objetivos propuestos.

Si utilizamos el MVP como base para un analogía respecto a la formulación de modelos teóricos, podríamos pensar en una Minimum Viable Theory (MVT), o teoría mínimamente viable, como la base de la concepción de una teoría provisional que nos permite comprender fenómenos bajo condiciones de extrema incertidumbre.

Pero es importante tener en cuenta que una MVT tiene objetivos epistemológicos muy diferentes a la manera como solemos entender la theoría. En primer lugar, porque su objetivos principal no es alcanzar la certidumbre, sino minimizar la incertidumbre: a través del ensayo y error, una MVT evalúa y descarta rápidamente diferentes hipótesis para restringir el alcance y la viabilidad de su modelo, y para reducir el espacio del error, pero sin la pretensión de que todas sus explicaciones sean por eso verdaderas o certeras. Es un modelo, en todo caso, probabilístico: al reducir el margen de error aumenta la proporción de afirmaciones y explicaciones correctas, pero no por eso alcanza una descripción o definición última ni absoluta de aquello que busca explicar.

Además, y en la misma línea, los valores sobre los que se formula una MVT son diferentes a los tradicionalmente aceptados para el trabajo teórico, y es importante tener eso presente. Si una teoría está destinada principalmente a buscar certidumbre y claridad, y para ello se somete a un pormenorizado y largo proceso de evaluación cuidadosa de evidencia, fuentes y referencias como aquel que distingue al trabajo académico, una MVT está enfocada más bien en construir un modelo eficaz (consigue presentar explicaciones para aquello que pretende explicar), eficiente (lo hace sin multiplicar innecesariamente los entes) y efectivo (presenta explicaciones que podemos utilizar posteriormente para orientar otras teorías, acciones e iniciativas) aún a expensas de un proceso comparativamente menos pulcro.

Si un modelo teórico se ha distinguido tradicionalmente por su capacidad popperiana para la falseabilidad – la búsqueda de evidencia que falsee el modelo para probar su validez – una MVT se comporta de la manera contraria. Lo cual no quiere decir que opere por eso de manera ingenua, falaz o exagerando sus propios alcances, sino simplemente que una MVT busca ser útil antes que verdadera. Esto por la simple razón de que una MVT, en tanto teoría provisional, encierra la idea de que será rápidamente reemplazada cuando aquello que pretende explicar cambie tan radicalmente que sus explicaciones ya no encuentren asidero. La MVT es teoría rápida, interconectada y hasta cierto punto descartable, que nos brinda conocimiento operativo sobre fenómenos nuevos que nos afectan y a través de ese conocimiento nos permite tomar decisiones e iniciar acciones.

¿Por qué sería necesaria una MVT?

Por tres razones. En primer lugar, como intenté explicar antes, porque hoy día vemos una serie de fenómenos que se mueven y cambian demasiado rápido como para que nuestros mecanismos tradicionales para formular teorías nos den explicaciones útiles. En el tiempo que le toma a un libro o a un paper ser publicados, por ejemplo, muchas explicaciones y descripciones sobre cambios tecnológicos o conductas sociales emergentes pueden haber cambiado significativamente, o incluso haber desaparecido. Procesos tradicionales como el peer-review, que no dejan de ser importantes, no necesariamente tienen tanto sentido cuando nos enfrentamos al tipo de desafíos teóricos como aquellos a los que responder una MVT. Esencialmente, es algo así como pasar de un modelo filter, then publish, a un modelo publish, then filter.

En segundo lugar, porque el agotamiento institucional y económico de ciertos modelos tradicionales de investigación está haciendo evidente la necesidad de alternativas. Las instituciones de educación superior y nuestro modelo educativo industrial en general esté enfrentándose a desafíos estructurales que están desafiando su propia supervivencia, y la creciente disponibilidad de información está posibilidad que se haga trabajo de investigación y construcción de modelos teóricos fuera de los claustros universitarios. Una MVT es un modelo que potencialmente podría funcionar fuera de los espacios tradicionales, pero que al mismo tiempo nos haga conscientes de aquello que estamos dejando sobre la mesa, los diferentes enfoques, valores y objetivos que se tiene frente al trabajo teórico tradicional.

En tercer lugar, porque los modelos teóricos tradicional no se distinguen por ser accionables (actionable, un poco difícil de traducir, pero básicamente queriendo decir que no son “orientados a la acción”). Mucho se ha escrito en múltiples contextos sobre como toda teoría tiene algo de praxis y toda praxis encierra una teoría, pero eso no quiere decir que los modelos teóricos que construimos estén diseñados para permitir y facilitar tomas de decisión, construcción de iniciativas e inicio de acciones. La MVT, en cambio, responde a propósitos mucho más claramente pragmáticos y operativos: implica construir modelos teóricos que nos sirvan para orientar la acción, de modo que son intrínsecamente mucho más orientados a la acción.

¿Y qué pasa con las otras formas de teoría?

Nada, realmente. Que haya espacio y necesidad para una MVT no quiere decir que la MVT llene todos los espacios y satisfaga todas las necesidades, o que no haya lugar para modelos y conductas teóricas que respondan a otros valores y objetivos. De hecho, prefiero pensar que es en realidad todo lo contrario: la posibilidad de una MVT como alternativa reafirma el valor, sentido y utilidad de otras formas de hacer teoría, tanto conocidas como por conocer.

Iron Man y la segunda enmienda

Esta semana he visto Iron Man 2 en la televisión como cuatro o cinco veces. Al principio de la película hay una escena que lamentablemente no he encontrado en YouTube: en ella, Tony Stark es llamado a testificar ante el senado estadounidense, y en la audiencia un senador lo exhorta a entregar el “arma Iron Man” al control del gobierno americano por representar un riesgo para la seguridad y los intereses de la nación.

Iron Man es un personaje sumamente interesante porque en él Stan Lee cristalizó una serie de preocupaciones culturales de los años cincuenta y sesenta. En su discurso despidiéndose de la presidencia de EEUU, Dwight Eisenhower había advertido sobre la amenaza creciente que representaba el complejo militar-industrial en la post-guerra de la Segunda Guerra Mundial y en crecientemente complicado escenario de la Guerra Fría. Contratistas militares de proporciones nunca antes vistas para la época tenían, por su naturaleza, un incentivo a promocionar los conflictos bélicos aún cuando ello pusiera en riesgo a la población que supuestamente protegían. Stark Industries es, justamente, una versión de estos contratistas de armas, enormemente poderosos y peligrosos pero al mismo tiempo un importante incentivo para el desarrollo tecnológico e innovaciones no militares.

Pero Iron Man también refleja el miedo nuclear propio de una crisis de los misiles de 1962, con misiles intercontinentales permanentemente armados y apuntados en ambas direcciones. Iron Man es la ilustración perfecta de un poder prácticamente incontrolable que como resultado del proceso de desarrollo tecnológico se encuentra en manos no sólo de una industria privada, sino de un solo individuo – Iron Man elabora esta tensión sin determinar, necesariamente, que esto está bien y no hay ningún problema. Más bien, en el desarrollo del personaje queda claro que ésta es una tensión que debe resultarnos incómoda.

En este contexto, la escena en cuestión en Iron Man 2 me hizo pensar también en la conocida y controversial segunda enmienda a la constitución estadounidense, que dice:

A well regulated militia, being necessary to the security of a free state, the right of the people to keep and bear arms, shall not be infringed.

La segunda enmienda es fascinante. Era, en la óptica de los founding fathers, el dispositivo que garantizaba que los ciudadanos mantenían siempre el control sobre el gobierno por medio del uso de la fuerza, de ser necesario. En caso de que un gobierno se volviera tiránico, los ciudadanos tienen el derecho a alzarse en armas en defensa de sus propias libertades, y la segunda enmienda, en teoría, les garantiza el derecho a estar armados para poder hacerlo efectivamente. Es un interesantísimo dispositivo de la cultura liberal de la cual se formaron los Estados Unidos: en una línea que va desde Thomas Jefferson hasta V de V for Vendetta, la idea de que “el gobierno es quien debe temer a sus ciudadanos”.

Ahora, la segunda enmienda hoy debe procesarse a través de dos filtros importantes. Uno de ellos es el Proyecto Manhattan: la idea de que los ciudadanos pueden armarse para resistir un gobierno tiránico alcanza su clímax de insostenibilidad cuando el gobierno tiene armas nucleares, donde no es posible ni deseable que los ciudadanos puedan, efectivamente, tener armas que puedan accidentalmente diezmar a la población humana almacenadas en su sótano. De esta transformación estructural deviene el segundo filtro, que es la NRA (National Rifle Association, o Asociación Nacional del Rifle): aún cuando la intención original sea pragmáticamente inviable, la NRA insiste en que la segunda enmienda no ha perdido su validez y legitimidad, aún cuando las armas que utilice la población civil sean, en teoría, usadas para cazar venados (en la práctica para incrementar la violencia y la inseguridad en áreas urbanas).

Iron Man, entonces, bien puede leerse como un cuestionamiento a este espectro, quizás más actual que nunca. Es cierto, por supuesto, que ante el armamento nuclear el propósito de la segunda enmienda queda efectivamente invalidado. Pero Iron Man fuerza la pregunta, si un ciudadano puede por sus propios recursos construir un arma de esta envergadura y complejidad, ¿es legítimo que permanezca en su poder, y que haga uso de ella? ¿Está el traje de Iron Man amparado bajo la protección de la segunda enmienda? ¿Es legítimo que el gobierno intente tomar posesión y control del traje, más aún, cuando su propósito es reproducir su tecnología para generar más armamento similar?

El traje de Iron Man es un ejemplo un poco extremo, pero las película de los últimos años logran plantear el problema de una manera muy relevante para la actualidad. Y es que, aunque no necesariamente se trate de una armadura capaz de volar y disparar pulsos de energía, la miniaturización de la tecnología y el desarrollo de redes informáticas complejas han puesto una enorme cantidad de poder, tanto constructivo como destructivo, en las manos de ciudadanos de a pie. Ni siquiera voy a abrir la caja de Pandora que es Anonymous aquí, pero viendo lo poco que efectivamente la ciberseguridad y la guerra cibernética han sido preocupaciones reales de gobiernos alrededor del mundo, un escenario extremo de guerra cibernética (al estilo de Duro de Matar 4) no es del todo inimaginable. En el caso de la película Iron Man 2, ese tipo de riesgo está en realidad reflejado en el personaje de Ivan Vanko, el científico ruso capaz de reproducir tecnología a la altura del traje de Iron Man, pero apenas con una fracción de los recursos de investigación y desarrollo disponibles en comparación a los de Stark Industries.

Iron Man refleja que la solidez del Leviatán ya no es más, y que el monopolio de la violencia que supuestamente era una de sus características más importantes se ha vuelto una realidad porosa e inestable: tanto por su dependencia en el complejo militar-industrial que tanto preocupaba a Eisenhower, pero más aún, porque la tecnología en las manos de los ciudadanos reduce su capacidad de hacer efectivo ese monopolio.