El artículo Science 2.0 de Ben Shneiderman, publicado en el último número de Science, me llevó a plantear en Soitu.es | Piel digital si ¿Sacará la 'Ciencia 2.0' a la investigación de su torre de marfil? (en Wired Science han publicado un artículo sobre el mismo tema, The Internet Is Changing the Scientific Method). Al final, el artículo de Science fue una excusa para reflexionar sobre el concepto de “ciencia 2.0”. Paradójicamente, la ciencia, que explora nuevos territorios, va camino de convertirse en el último ámbito al que se incorporan los cambios de paradigma provocados por Internet y la web 2.0. Suelo publicar en este blog resúmenes e información complementaria de mis artículos aparecidos en otros sitios, pero en este caso, por el tema que trata, lo reproduzco aquí por completo.
Dentro de la ola de lo 2.0, pocos conceptos son tan ambigüos y llenos de dobles o triples interpretaciones como el de ciencia 2.0. Al fin y al cabo, ¿no ha sido la ciencia siempre 2.0? la creación de conocimiento científico se ha basado en comunidades de pares colaborando en redes abiertas y compartiendo sus resultados. Lo cierto es que esta visión aún políticamente correcta hoy en día tiene poco que ver con lo en que se ha acabado por convertir la ciencia en las últimas décadas del siglo XX. La protección de la propiedad intelectual y las patentes dominan sobre el intercambio libre de conocimiento; este se limita en buena parte limita a los resultados finales en forma de artículos, pero rara vez a los datos originales o los detalles clave de los procedimientos. Pero aún aquí, el acceso abierto a las publicaciones científicas es un fenómeno incipiente que solo en los últimos años empieza a generar apoyos de instituciones relevantes, como es el caso de PubMedCentral de los National Institutes of Health de Estados Unidos o la reciente adopción por la Universidad de Harvard de una política de acceso abierto para los artículos publicados por sus investigadores. Proyectos editoriales exitosos fundados sobre el modelo de acceso abierto, como BioMedCentral y Public Library of Science, siguen siendo minoritarios y aún no han calado en los grandes grupos de editores científicos.
Por otra parte es evidente que las tecnologías de la información tienen que afectar al modo en que se “hace ciencia”. Esta cuestión se ha abordado en su mayor parte desde la perspectiva casi exclusiva de la necesidad de grandes “ciberinfraestructuras” para desarrollar lo que ha venido en llamarse e-ciencia, ámbitos de investigación que requieren grandes recursos computacionales y que se pueden beneficiar de los avances tecnológicos y del uso de Internet como plataforma de trabajo computacional intensivo. Pero, esta, siendo necesaria, no es más que una visión reduccionista e instrumental.
¿Cómo se ve afectada “el resto de la ciencia” que no tiene esas necesidades?, ¿existen cambios culturales y organizativos mediados por la tecnología (como está sucediendo como el resto de la sociedad y la economía)?, ¿es más lenta la transición a la ciencia 2.0 por las instituciones académicas son refractarias a la innovación?, ¿crea el mundo digital nuevos ámbitos de investigación científica que necesitan de cambios metodológicos? Todas estas preguntas pueden configurar el futuro de lo que podríamos denominar “ciencia 2.0”. El artículo Science 2.0 de Ben Shneiderman, profesor de computación en la Universidad de Maryland, aparecido en el número de 7 de Marzo de la revista Science, apunta algunas respuestas a varias de estas cuestiones.
El artículo adopta una interesante doble perspectiva consistente en aprender del “mundo exterior” (desde los negocios al activismo) y, al tiempo aplicar una aproximación científica para comprender el nuevo paradigma de la colaboración en red. Para Shneiderman, eBay, Amazon, Wikipedia, Flickr, MySpace o Facebook, entre otros, son ejemplos exitosos de los que deberían aprender los científicos. Para este objetivo, la metodología debe cambiar por que estos procesos no pueden ser estudiados en condiciones controladas, “de laboratorio”, y debe hacerse observando y estudiando casos en el mundo real. La existencia de enormes bases de datos y de una ciberinfraestructura suficiente para su “minería” mediante computación intensiva son los elementos claves para el éxito de este cambio metodológico.
El artículo de Shneiderman, siendo interesante, se queda en buena medida en una colección de ideas y no acaba por elaborar un modelo coherente de lo que podría ser la ciencia 2.0. Por otra parte, mientras los científicos descubren el mundo 2.0 y se preguntan como incorporarse, el resto de la sociedad les adelanta y empieza a desarrollar acciones tradicionalmente reservadas a las instituciones científicas. Finalmente, cabría preguntarse quien va a hacer la ciencia 2.0 y no tanto como la ciencia convencional se hace 2.0. Quizás valga la pena recordad dos ejemplos que demuestran que la innovación que dará lugar a la ciencia 2.0 está ya sucediendo fuera de las “torres de marfil”.
Hal Varian ha pasado de ser uno de los economistas académicos más reputados, trabajando en la School of Information de la University of California at Berkeley, a convertirse en el Google chief economist. En el número de Febrero de Fast Company, explica como su empresa aplica métodos propios de la investigación científica a una velocidad y escala impensables hasta hace poco (e impensables en el mundo académico):
At the university, you'd work on one problem for months at a time. Here, I have a dozen problems I'm working on--auctions; forecasting; ad hoc statistical, econometric analysis such as how the mortgage crisis affects Google--and I get two weeks to work on them…
You know how genius is described as 1% inspiration and 99% perspiration? Google has a new idea: cyber sweat. We make the computers do the 99% perspiration. I thought it was extremely clever and showed a lot of foresight to build the data collection and testing system into the basic functionality of the search and ad systems. At any one time, Google is running hundreds of experiments on its products and collecting all the results. They're carefully designed experiments.
El mundo de las editoriales científicas, que ya citaba antes, también esta sufriendo convulsiones importantes. Es paradójico que el artículo Science 2.0 aparezca Science, dependiente de la American Association for the Advancement of Science, que hasta el momento carece de ningún tipo de estrategia coherente en Internet. Por el contrario, la otra revista científica de referencia a nivel internacional, Nature, forma parte del grupo editorial Nature Publishing Group que lleva ya un tiempo desarrollando una estrategia propia enormemente innovadora, situándose por delante de sus usuarios principales, los científicos integrados en las instituciones académicas convencionales. En Estrategia web 2.0 de Nature Publishing Group resumí los principales proyectos incluidos en esta estrategia y analizaba la naturaleza del conflicto entre los innovadores “comerciales” y los conservadores usuarios académicos:
Pero al tiempo, este proyecto se ha enfrentado a diversos problemas y, posiblemente, uno de los más difíciles ha sido el provocado por la apatía de sus propios usuarios (los científicos en este caso), como ha sucedido en su experimento sobre “open peer review” (más aquí). En este caso, los científicos han mostrado un muy escaso interés en poder revisar y criticar en público y en abierto los papers de sus colegas, un proceso que constituye la base fundamental de la evaluación de la calidad científica de los trabajos. Nature es un buen ejemplo de cómo la adaptación institucional puede verse frenada por los propios usuarios. En el informe final publicado en la revista se resume esta aparante paradoja: “Despite enthusiasm for the concept, open peer review was not widely popular, either among authors or by scientists invited to comment.”.
En realidad, en mi opinión, el resultado era previsible por dos razones. Primero, las comunidades científicas son bastante tradicionales en sus comportamientos y reglas de funcionamiento por lo que son reacias a cambiarlos de modo rápido ante la propuesta experimental de una editorial (por mucho que sea una de las más importantes). Segundo, el peer review significa un trabajo adicional que, en estos momentos, ninguna institución científica incentiva. De hecho, las revistas científicas tienen cada vez mayores dificultades para encontrar revisores para los artículos que reciben, y este experimento no ha podido escaparse a esta tendencia.