Blok de BID (esp)

Reseñas de Biblioteconomía y Documentación
Suscribirse a canal de noticias Blok de BID (esp)

Ignasi Labastida
CRAI
Universitat de Barcelona

Implementation roadmap for the European Open Science Cloud (2018). 33 p. Brussels: European Commission. (Staff Working Document). Disponible en: <http://ec.europa.eu/research/openscience/pdf/swd_2018_83_f1_staff_workin.... [Consulta: 11.12.2018].

Prompting an EOSC in practice: final report and recommendations of the Commission 2nd High Level Expert Group (2017-2018) on the European Open Science Cloud (EOSC) (2018). Brussels: European Commission. 40 p. Disponible en: https://publications.europa.eu/en/web/eu-law-and-publications/publicatio.... [Consulta: 11.12.2018].

En 2015, la Comisión Europea tuvo la idea de construir una infraestructura federada para apoyar la ciencia en abierto y poder desarrollarla, priorizando el intercambio de datos surgidos de la actividad investigadora y la generación de servicios a partir de estos datos. Esta infraestructura recibió el nombre de Nube Europea para la Ciencia en Abierto (European Open Science Cloud o EOSC). La Comisión constituyó un primer grupo de expertos que elaboró el documento Realising the European Open Science Cloud, donde se proponían una serie de recomendaciones para crear esta nube y después ha ido financiando diferentes proyectos como el EOSCPilot o el EOSCHub hasta llegar al viernes 23 de noviembre cuando se presentó la primera versión de la infraestructura, el portal de la EOSC.

Al mismo tiempo que se abría el esperado portal, se hacía público un nuevo documento elaborado por un segundo grupo de expertos, nombrado por la Comisión, que llevaba por título Prompting an EOSC in practice. En este documento se recogen unas nuevas recomendaciones para implementar la EOSC a partir de la hoja de ruta descrita en el documento de trabajo de la Comisión publicado en marzo del 2018, y que fue enviado al Parlamento Europeo y al Consejo de la Unión Europea.

Este documento de trabajo es el resultado de un proceso de consulta entre todas las partes implicadas en el desarrollo de esta infraestructura incluyendo, entre otros, conclusiones del Consejo Europeo u opiniones del Comité de las Regiones respecto a la ciencia en abierto. Además, también se recogen resoluciones del Parlamento Europeo respecto a la EOSC y los datos de la investigación donde se pide que se elabore un plan de acción y se creen los mecanismos de financiación para hacer sostenible esta infraestructura. Estos mecanismos y un modelo de gobernanza es el que ofrece el documento de trabajo publicado en marzo, que también fue elaborado para discutir con los estados miembros la implementación de la EOSC. Por esta razón, en el anexo del documento se incluyen algunas infraestructuras de datos ya creadas como iniciativas nacionales.

Para hacer realidad la nube de la ciencia en abierto se proponen seis niveles de trabajo: la arquitectura, la gestión de los datos, los servicios a ofrecer al usuario, los mecanismos de acceso, las reglas de participación y la gobernanza de la infraestructura.

Respecto a la arquitectura se propone crear una federación de infraestructuras de datos de investigación existentes o ya planificadas, es decir, no se pretende construir una infraestructura nueva donde depositar datos sino trabajar con proyectos que ya funcionan o se están poniendo en marcha. La EOSC no quiere ser una nueva estructura sino una federación de estructuras para evitar la fragmentación actual.

Respecto a la gestión de los datos de la investigación se pone de manifiesto que existe una falta de cultura para compartirlas y, por tanto, lo primero que hay que hacer es promover un cambio cultural entre los investigadores a la vez que se potencian las habilidades para gestionar los datos y se crean incentivos para una buena gestión. Además, si el objetivo es tener los datos disponibles según los principios FAIR (findable, accessible, interoperable and reusable), hay que continuar trabajando para crear estándares, especificaciones y herramientas.

Por lo que se refiere a los servicios que debe ofrecer la EOSC, se proponen cinco: un servicio de identificación y autenticación; un espacio protegido y personalizado; acceso a la información de los servicios disponibles y a guías específicas, como por ejemplo indicaciones para hacer los datos FAIR; un servicio para encontrar los datos de otros; y, finalmente, un servicio para que el usuario pueda hacer los datos FAIR y pueda preservarlos. En el documento se propone que los tres primeros servicios sean gratuitos y los dos últimos puedan cobrarse, en parte, para hacer sostenible la infraestructura.

Por lo que respecta al cuarto nivel de trabajo, el acceso a la infraestructura, se proponen diferentes puntos de entrada a la EOSC entre los que se encuentra el portal que se presentó en Viena el 23 de noviembre, y no se descarta la creación de puntos de entrada específicos para comunidades científicas ya establecidas en alguna infraestructura existente que formará parte de la EOSC.

Las normas de participación incluirán los derechos y las obligaciones de todas las personas implicadas como usuarias, proveedoras de datos, o prestadoras de servicios teniendo en cuenta algunas de las prácticas ya establecidas entre algunas comunidades de investigadores y los proveedores de servicios.

Finalmente, se considera que la gobernanza de la EOSC es primordial porque hay que establecer los mecanismos para decidir la estrategia, para hacer la implementación y el seguimiento, y rendir cuentas. El modelo planteado se detalla en el último anexo del documento y ha sido la base del que se ha aprobado en la primera fase de implementación con la puesta en funcionamiento del portal. Se propone una estructura ejecutiva que se encargue de la implementación y de la rendición de cuentas ante todas las partes y del Consejo de la EOSC. Este consejo institucional debería estar formado por representantes de los estados miembros y de la Comisión y debería velar para hacer efectiva la implementación. Y, finalmente, debería existir un foro de participación donde todas las partes implicadas puedan tener voz.

Por lo que se refiere a la financiación de la infraestructura, el documento recoge unas reflexiones preliminares donde se indica que el principal coste será más administrativo que el de creación de recursos dado que la EOSC se alimentará de infraestructuras ya existentes que ya tienen sus propios mecanismos de financiación. Se espera que los estados miembros y los financiadores continúen implicándose en las infraestructuras que se federarán dentro de la EOSC. También se reconoce que la Comisión ya tiene comprometidos, hasta el 2020, 300 millones de euros para poner en funcionamiento toda la infraestructura mediante diferentes iniciativas del programa marco Horizon 2020.

En el documento de trabajo también se detalla un calendario de actuaciones hasta el 2020 cuando quiere tenerse en pleno funcionamiento la EOSC. Algunas de estas actuaciones ya se han puesto en marcha como por ejemplo la creación de un primer catálogo de datos o la elección del primer consejo ejecutivo de la EOSC.

En el documento publicado en noviembre, ocho meses después de la hoja de ruta, el segundo grupo de expertos recoge la propuesta de implementación de la Comisión y enumera una serie de recomendaciones para hacerla efectiva. La principal propuesta es la de crear un prototipo inicial al que denominan «ecosistema viable mínimo». En este ecosistema deben convivir los investigadores, los desarrolladores de software y los gestores de las infraestructuras. Los servicios mínimos que deben ofrecerse son los de registro, descubrimiento, análisis, publicación y hospedaje de datos. Por lo que a la gobernanza se refiere, el segundo grupo de expertos apoya la propuesta del documento de trabajo que establece tres capas, la estratégica, la ejecutiva y la participativa. La estrategia debe establecerla el Consejo de la EOSC, que deberá pedir al Consejo Ejecutivo que la desarrolle. El nivel participativo vendrá determinado por un foro donde los participantes podrán hacer llegar sus opiniones. Además, se propone una estructura de apoyo al Consejo Ejecutivo para coordinar las infraestructuras y los proyectos ya existentes y para poner en marcha la primera fase de la EOSC. Esta estructura de apoyo se financiará mediante un proyecto específico en el marco del Programa Horizon 2020. El grupo de expertos también propone la creación de grupos de trabajo temporales para trabajar en diferentes áreas como, por ejemplo: las reglas de participación, los estándares abiertos, los incentivos y los modelos de negocio o las políticas de gestión de los datos. La creación de estos grupos puede determinarse a partir de las propuestas que surjan en el foro de participantes.

Otro aspecto relevante que aparece en el documento es la propuesta de modelos de financiación de la EOSC. El grupo de expertos propone un acceso amplio a la EOSC descartando otras opciones como un acceso basado en la excelencia o un acceso determinado por una cuota. El acceso amplio permite más visibilidad y disponibilidad de los datos y los servicios que puedan ofrecerse. Pero hay que determinar cómo se financiará esta infraestructura. Puede utilizarse un sistema directo donde las agencias de financiación paguen determinados elementos de la EOSC, un sistema de cupones que los investigadores pueden utilizar cuando utilicen los servicios de la nube o bien una combinación de los dos sistemas. Los expertos no apuestan claramente por ninguno de los tres sistemas pero ofrecen argumentos a favor y en contra de cada uno de ellos. También proponen una diferenciación entre usuarios comerciales y no comerciales a la hora de contribuir a la sostenibilidad de la EOSC.

Por lo que respecta a la participación, en el documento se proponen unos criterios para determinar la elegibilidad de los usuarios. Por ejemplo, qué disponibilidad y qué calidad tendrán los servicios o los datos ofrecidos, cómo se cumplirán otras regulaciones como la protección de los datos personales o la protección de la propiedad intelectual, o cuáles serán los metadatos y los identificadores que habrá que utilizar.

Habrá que ver cómo se desarrolla la hora de ruta en los próximos meses y, en especial, cómo se pone en funcionamiento este mínimo ecosistema viable durante el año 2019. En el próximo año se detallarán las reglas de participación y los modelos de negocio que harán sostenible la EOSC a partir del año 2020 cuando se ponga en funcionamiento a pleno rendimiento.
Parece ser que aquella idea de la Comisión de hace tres años empieza a ser una realidad y habrá que ver cómo podremos formar parte de manera activa como individuos y como instituciones.

 

Candela Ollé
Estudis de Ciències de la Informació i la Comunicació
Universitat Oberta de Catalunya (UOC)

Marsh, Jackie; Kumpulainen, Kristiina; Nisha, Bobby; [et al.] (2017) Makerspaces in the early years: a literature review. [Sheffield ]: University of Sheffield: MakEY Project. 139 p. Disponible en: <http://makeyproject.eu/wp-content/uploads/2017/02/Makey_Literature_Revie... >. [Consulta: 11.12.2018].

Lahmar, Jamal; Taylor, Mark; Marsh, Jackie (2017). Makerspaces in the early years: current perceptions and practices of early years practitioners, library and museum educators and makerspace staff. [Sheffield ]: University of Sheffield: MakEY Project. 55 p. Disponible en: <http://makeyproject.eu/wp-content/uploads/2018/01/MakEY_Survey.pdf>. [Consulta: 11.12.2018].

¿Qué son los makerspaces? Una definición sencilla podría ser: un espacio colaborativo, un entorno de aprendizaje y de experimentación que combina elementos de taller, laboratorio y estudio de arte para desarrollar y crear (proyectos innovadores, por ejemplo). En la ciudad de Barcelona encontramos dos espacios makers de referencia, como son el Made o el FabLab Barcelona que cuenta con Fab Kids y, recientemente, se ha creado en la Universitat de Barcelona (UB), en concreto en el CRAI Biblioteca del Campus Clínic un nuevo espacio llamado EspaiCREA. Para más contexto, en Madrid, en el MediaLab-Prado se organizó el año pasado la jornada: Makerspaces en bibliotecas públicas: sesión de trabajo abierta dado que la cultura maker debe incorporarse en las bibliotecas (ya sean escolares, públicas o académicas), en los museos o cualquier institución que tenga como servicio la formación y el aprendizaje.

Los informes que analizamos (que forman parte del proyecto MakEY y ha recibido financiación del programa de investigación e innovación Horizon 2020 de la Unión Europea) ofrecen un buen contexto para así conocer todas las variables implicadas con el movimiento. El primer texto (Marsh, Jackie; et al., 2017) es una amplia revisión bibliográfica que analiza la cultura maker y la práctica educativa; los espacios makers dentro de los espacios de aprendizaje formales e informales (bibliotecas, museos, laboratorios abiertos, etc.); las disciplinas de aprendizaje vinculadas (Science, Technology, Engineering, Maths –STEM–; arte; habilidades digitales; Design thinking, entre otras). Además, en el cuarto apartado, revisa las variables que intervienen: el género, la familia, la clase social, el factor lingüístico y, en el quinto, presenta las conclusiones orientadas al futuro que sintetizamos con:

  • «el potencial de los espacios makers [que son esenciales] para desarrollar los tipos de habilidades y conocimientos necesarios para permitir a Europa competir globalmente en futuros mercados de ocupación [...] donde las tecnologías digitales conformarán diversos caminos de ocupación en los próximos años».
     
  • y la importancia de la contribución del movimiento maker al conocimiento.

Por otra parte, el segundo informe (Lahmar, Jamal; et al., 2017) es una continuación del primero, ya que después de una extensa revisión bibliográfica quieren conocerse las percepciones y puntos de vista de los profesionales con una metodología cualitativa como es la encuesta. Esta ha sido llevada a cabo en siete países de la Unión Europea (Alemania, Dinamarca, Finlandia, Islandia, Noruega, Reino Unido y Rumanía) y en los Estados Unidos, para identificar los beneficios y retos de los espacios de trabajo makers focalizados en los niños de edades comprendidas entre tres y ocho años, tanto en el entorno formal (como guarderías y escuelas) e informal (como museos y bibliotecas).

Los perfiles que han sido encuestados son: profesorado de infantil, personal de los museos y bibliotecas, así como personal de los makerspaces. De un total de 881 respuestas obtenidas, 633 han completado satisfactoriamente todo el cuestionario y como punto de partida encontramos que el concepto makerspaces no es conocido por el 63 % de los que responden, dado que no están familiarizados con él.

Los resultados de la encuesta han sido agrupados en función de los tres targets mencionados en el párrafo anterior; el capítulo 2 analiza las respuestas de los early years practitioners que aunque no conocen el movimiento ven que tendría valor incorporarlo a la educación infantil; el capítulo 3 pone el foco en los resultados procedentes del personal de bibliotecas y museos y expresan entusiasmo con el potencial que supondría la incorporación de los espacios makers para sus instituciones e identifican un abanico de beneficios; el capítulo 4 se centra en el personal de los espacios makers que tienen un elevado interés en trabajar con niños y desarrollarles equipamientos.

Algunas de las conclusiones globales apuntan que hay claras diferencias en relación a la experiencia de los profesionales encuestados y respecto a la procedencia geográfica. En los Estados Unidos, por ejemplo, los espacios de creación están fuertemente promocionados en las bibliotecas y en los museos. Por otra parte, hay divergencia de opiniones sobre el valor que estos espacios pueden tener con los niños. Se ha detectado también una falta de recursos (la encuesta menciona y pide la opinión sobre herramientas como: cortadoras láser; impresoras 3D; equipamientos para codificar; creación digital con tabletas, cámaras; herramientas electrónicas para actividades STEM) y la necesidad de formación, así como orientaciones en relación al tipo de actividades y la evaluación del aprendizaje adquirido. Por tanto, la encuesta ha sido de utilidad para confirmar que la línea y dirección iniciada por el proyecto MakEY encaja con los objetivos, pero queda mucho trabajo por hacer.

Haciendo un punto y aparte de los informes y en un intento de acercarnos a la realidad de nuestro país, donde la adquisición de las competencias en la educación infantil ha dado un giro y cada vez más les escuelas cambian el modelo tradicional por el learning by doing. Algunos ejemplos de esta nueva realidad: el trazo, el aprendizaje de la lectura y la escritura ya no se delimita en el papel y en la mesa, si no que es el patio que se transforma en una gran pizarra; las matemáticas ya no son aquellos ejercicios repetitivos y mecánicos en la libreta, si no que el ambiente del supermercado y la clase de cocina les sirven para hacer los cálculos básicos mientras compran y calculan los ingredientes para hacer pasteles, por poner dos ejemplos que veo en P5.

Más allá de la escuela, las bibliotecas necesitan también incorporar bibliolabs –denominación de los makerspaces en las bibliotecas– (véase el proyecto de la Diputació de Barcelona) ya que son una vía de atracción de nuevos perfiles de usuarios y la biblioteca puede ser entendida también como un espacio de aprendizaje, creación y acceso a la información.

Para saber más:

González-Fernández-Villavicencio, Nieves (2013). «El movimiento "Maker" en bibliotecas». Bibliotecarios 2020, enero 01.

Marquina, Julián (2017). «Makerspaces en bibliotecas: el fenómeno Bibliomakers». Julián Marquina, abril 18.

Rafael Aleixandre Benavent
Científico titular de OPI. UISYS, Unidad mixta de Investigación
(CSIC-Universitat de València). Ingenio (CSIC-UPV)

Open access to data: it’s not that simple (2017). Copenhagen K: Danish National Research Foundation. 27 p. Disponible en: http://dg.dk/wp-content/uploads/2017/11/Open-Access-to-Data-%E2%80%93-It.... [Consulta: 05/11/2018].

Para dilucidar las ventajas y los retos de la apertura de datos en la ciencia, la Danish National Research Foundation (DNRF) llevó a cabo una encuesta entre sus investigadores sobre el acceso abierto a los datos. Este informe, que presenta los principales resultados y un capítulo de sugerencias, también quiere dar respuesta a algunas preguntas clave como: ¿qué son «datos de investigación»?, ¿qué datos son relevantes para compartir?, ¿a quién pertenecen los datos?, ¿por qué la gente comparte voluntariamente esta materia prima tan valiosa? y ¿quién debería cubrir los gastos de mantenimiento de los grandes bancos de datos?

El estudio parte de la premisa de que las mejores prácticas se deducen escuchando a los investigadores y, por este motivo, la DNRF realizó una encuesta entre investigadores de todos sus centros de excelencia. De los 1.175 investigadores que fueron invitados a participar, 474 respondieron a la encuesta, lo que supone una tasa de respuesta del 40 %. El propósito de la encuesta era aclarar cómo y cuánto los investigadores están usando datos abiertos y también iluminar las fortalezas, barreras, oportunidades y desafíos de los datos abiertos. El informe se acompaña de las experiencias que narran cinco centros daneses que muestran cómo trabajar con datos abiertos puede potenciar la investigación y cuáles son los desafíos en cinco áreas de investigación diferentes.

  1. The Center for Permafrost (CENPERM), que trabaja con las interacciones entre el suelo, las plantas y los microbios, y los procesos de retroalimentación de los ecosistemas asociados al clima.
     
  2. iCourts Database on International Court Decisions, la mayor base de datos de decisiones judiciales de tribunales internacionales existente en la actualidad.
     
  3. The Centre for Urban Network Evolutions (UrbNet), un centro interdisciplinario con una gran base de datos en humanidades.
     
  4. The Stellar Astrophysics Centre’s (SAC), especializado en astrofísica.
     
  5. Center for Personalized Medicine in Immune Deficiency (PERSIMUNE), que explica cómo con un único número identificador es posible utilizar los datos generados por el sistema de salud cumpliendo los principios de legalidad y confidencialidad.

Resultados de la encuesta

Los resultados de la encuesta mostraron que es más común que los datos estén disponibles en ciencias naturales y en humanidades que en ciencias sociales, ciencias de la vida y ciencias tecnológicas. Aproximadamente el 32 % de los investigadores indicaron que sus datos están disponibles como datos suplementarios acompañando a los artículos de revista, aproximadamente el 20 % los depositan en un repositorio, el 17 % en memorias y el 8 % en el sitio web del proyecto.

En relación con las razones para poner a disposición los datos, las más importantes son: a) permite la validación o replicación de datos (el 81 % los encuentra muy o extremadamente importantes); b) es una buena práctica compartir los datos de la investigación (el 77 % los encuentra muy o extremadamente importantes); c) permite la contribución de los demás y fomenta la colaboración (el 73 % lo encuentra muy o extremadamente importante).

Entre las barreras para compartir, las dos más importantes son: a) «requiere tiempo y esfuerzo para preparar los datos» (el 46 % encuentra esta razón muy o extremadamente importante); b) «pérdida de oportunidades de publicación del estudio» (el 41 % encuentra esta razón muy o extremadamente importante); c) «los datos contienen información confidencial o sensible» (el 35 % los encuentra muy o extremadamente importantes); d) «otros pueden hacer un mal uso o malinterpretar mis datos» (el 30 % los encuentra muy o extremadamente importantes).

La distribución de las motivaciones para depositar los datos dio los siguientes resultados: a) financiación adicional para cubrir el coste del estudio (35 %); b) posibilidad de ser coautor en el trabajo subsiguiente tras la reutilización (32 %); c) saber cómo otros usan los datos (32 %); d) citación de los datos (32 %); e) mejor reputación académica (31 %).

En lo que se refiere a qué consideran importante los investigadores cuando utilizan datos de otros, las razones más importantes fueron; a) que los datos sean de alta calidad (45 %); b) que estén bien documentados (42 %); c) que se hayan obtenido de fuentes fiables (38 %).

Comentarios y sugerencias

Dado que la investigación se lleva a cabo, en gran medida, en las universidades, estas juegan un papel muy importante en la promoción del acceso abierto a los datos. Pueden fomentar la concienciación sobre la importancia del proceso, promoviendo una cultura de ciencia abierta y desarrollando políticas en las distintas áreas de investigación. Las políticas de datos abiertos deben ser dinámicas y reflejar continuamente las necesidades de los investigadores y el desarrollo tecnológico. También deben conocer las limitaciones que rodean a los datos abiertos y encontrar posibles soluciones. Las universidades podrían adoptar el acceso abierto a los datos de la investigación como un criterio, entre otros, para la promoción profesional.

Las instituciones individuales deben trabajar para el establecimiento de infraestructuras y un desarrollo sostenible a largo plazo que garantice la conservación y preservación de los datos. Los datos son, en muchos casos, muy diversos y requieren una gran coordinación a nivel nacional para aprovechar las oportunidades que ofrecen.

Para que la investigación pueda aprovechar al máximo los beneficios de los datos abiertos, es esencial la colaboración intra e interinstitucional. También es importante disponer de un órgano centralizado que se ocupe sistemáticamente de las cuestiones jurídicas y éticas que plantea el acceso abierto a los datos. Por otra parte, las instituciones podrían implantar programas de formación sobre cómo hacer que los datos estén disponibles, cómo reutilizarlos, cómo adquirir habilidades para su gestión de datos, etc.

Jesús Tramullas
Departamento de Ciencias de la Documentación
Universidad de Zaragoza

Merlo Vega, José Antonio (ed.) (2018). Ecosistemas del acceso abierto. Salamanca: Ediciones Universidad de Salamanca. 391 p. (Aquilafuente; 228). Disponible en: <https://gredos.usal.es/jspui/bitstream/10366/138566/8/978-84-9012-774-2.pdf>. [Consulta: 26.11.2018].

Debo reconocer que, de un tiempo a esta parte, cada vez que oigo o me hablan de acceso abierto, inmediatamente desconecto y me oriento a otras tareas académicamente más interesantes. Se trata de uno de esos temas sobre los cuales la comunidad profesional e investigadora lleva insistiendo de forma reiterada bastantes años, y sobre la que se amontonan periódicamente un buen número de trabajos, la mayor parte de los cuales no aportan nada nuevo al conocimiento ya disponible.

Técnicamente, un repositorio no es más que un tipo especializado de sistema de gestión de documentos, cuyos flujos de trabajo son muy limitados, y cuyo producto final es siempre el mismo. Teóricamente, poco se puede profundizar sobre un servicio tan limitado, con un concepto básico y sin apenas posibilidad de desarrollo. Política y socialmente, no hay mucho que tratar, más allá de los compromisos y políticas institucionales, de los esquemas de licencias, y de la percepción y uso que puedan hacer las comunidades de usuarios. En este contexto, cabe plantear qué interés puede tener otro trabajo colectivo sobre acceso abierto. A priori, parece que este puede ser escaso.

Surge entonces la necesidad de plantear algo más, aproximaciones que permitan aprovechar el acervo documental que se ha ido conformando en los repositorios. Con una perspectiva más avanzada, podría decirse que se trata de generar valor añadido con y en el repositorio. Se trata de creatividad. Y en una parte de las aportaciones de la obra que nos ocupa se aplica este principio, basado simplemente en la superación del modelo tradicional de repositorio y en la aplicación del sentido común, aportando nuevos servicios y funcionalidades que enriquecen el árido mundo de los repositorios.

José Antonio Merlo-Vega ha desarrollado una notable actividad de coordinación para conseguir que Ecosistemas del acceso abierto salga adelante, y provea al lector de un panorama actualizado de las perspectivas del acceso abierto. La mayor parte del contenido procede de las presentaciones realizadas en las jornadas Ecosistemas del Conocimiento Abierto (ECA 2017), celebradas en Salamanca entre los días 25 y 27 de octubre de 2017. Dada la cantidad de trabajos presentados en el completo programa de las jornadas, resulta loable que las actas del mismo hayan sido publicadas en tan breve plazo, lo que demuestra que las largas latencias en procesos de edición académica no tienen justificación en la actualidad.

Merlo-Vega señala en la introducción al volumen que «El libro que presentamos refleja de manera determinante las diferentes caras del conocimiento abierto, ya que en sus distintos capítulos se pueden observar tanto enfoques teóricos, como tecnológicos, de procedimientos y de servicio.» (p. 11). Se trata, a mi juicio, de una aproximación y estructura organizativa más que acertada, que pretende establecer casi un estado de la cuestión. Sin embargo, este empeño sólo se ha conseguido parcialmente, debido a los diversos enfoques y los diferentes niveles de calidad que ofrecen los textos reunidos en la obra.

El volumen se organiza realmente en cuatro bloques, si se excluye el texto inicial, que detallo en el siguiente párrafo. En primer, lugar un bloque sobre Contexto, compuesto por dos trabajos, al que siguen bloques más amplios sobre Investigación y sobre Servicio. El bloque dedicado a Innovación ha sido el que me ha parecido más interesante, por cuanto abre nuevas perspectivas basadas en productos o servicios de uso inmediato por los usuarios. El volumen acaba con un bloque sobre Desarrollo, que recoge experiencias de creación e implementación de repositorios institucionales. Seis es el número mágico de la obra, por cuanto todos estos apartados recogen ese número de trabajos.

El primer texto, redactado por M. L. Kennedy, citando un buen elenco de fuentes, incide en la necesidad de superar las aproximaciones tradicionales de depósito, para incidir en la creación de entornos de información para investigadores: «the use of digital evidence and method, digital authoring, digital publishing, digital curation and preservation, and digital use and reuse of scholarship» (p. 19), para luego llamar la atención sobre cuatro áreas: descubrimiento, integración, aplicación y enseñanza. Es un texto que merece la pena leer, por cuanto enfatiza lo que está evolucionando en los procesos de edición colaborativa en el entorno académico, que no suele ser lo que muchos bibliotecarios creen que pasa.

En lo que concierne al resto del volumen, el nivel de contenido y calidad es desigual. Podemos encontrar capítulos que son meras puestas al día del estado de la cuestión, de corte generalista, algunas con grandilocuentes afirmaciones sin más sostén que el propio discurso. En otros casos, hay investigaciones cuya metodología es manifiestamente mejorable, por cuanto los objetivos planteados no coinciden con las conclusiones obtenidas, o bien estas conclusiones son generalistas y no están argumentadas en profundidad. El lector también puede encontrar estudios de caso, algunos de los cuales aportan ideas interesantes, mientras que otros se quedan en la mera descripción de repositorios de tipo tradicional, sin otro interés que documentar el caso de turno. Si me viese obligado a recomendar alguno de los trabajos recogidos, me inclinaría por:

  • El texto de Ferreras Fernández sobre repositorios institucionales en España (p. 39-84), por cuanto delinea aspectos sobre evolución y estado actual, y es imprescindible para comprender los procesos de la última década.
     
  • El texto de García-Hidalgo y García-Peñalbo sobre gestión de conocimiento abierto con open source (p. 147-160), que plantea un modelo de evaluación para las herramientas de software. Aunque considero que le faltan parámetros de evaluación más funcionales, ofrece una aproximación interesante.
     
  • Los textos de Ribes-Llopes, Pardo-Gómez y Martínez-Galindo sobre acceso abierto (p. 213-228) y de Martínez-Galindo, Pérez García y Ribelles Aguilar (p. 285-297), sobre integración de publicaciones, ambos en la Universitat Politècnica de València (UPV), por cuanto muestran buenos ejemplos de integración dinámica de publicación académica y gestión del repositorio.
     
  • El texto de Mañez Sánchez, Prats Prat, Prieto Jiménez y García Martínez, de la Universitat Politècnica de Catalunya (UPC) sobre la combinación con geolocalización (p. 243-253).
     
  • Y, finalmente, el texto de Malo de Molina, Fernández del Pino y Rasero sobre el UC3M Research Portal (p. 299-310), que integra el contenido del repositorio en un portal sobre investigación.

Desde una perspectiva metodológica, y personal, por supuesto, una de las conclusiones que extraigo de la revisión del texto es que resulta necesario profundizar en los métodos y técnicas de investigación en repositorios, y aplicarlas con una aproximación más cercana a las ciencias experimentales que a las humanísticas. Otra cuestión no tratada sería la predilección de diferentes grupos de investigadores por los repositorios temáticos internacionales frente a los institucionales, lo que parece ser un tema que pocos están dispuestos a abordar. Tampoco se ha entrado en los modelos emergentes de redes sociales académicas, que permiten desarrollar trabajo colaborativo, incluyendo integración con repositorios, y gestión de documentos de trabajo. Una reflexión final: no deja de resultar curioso que varios de los trabajos del volumen, que han recopilado y organizado volúmenes de datos, no hayan predicado con el ejemplo y depositado esos conjuntos como datos abiertos para su uso y comprobación por otros investigadores...

Luis Fernando Ramos-Simón
Departamento de Biblioteconomía y Documentación
Universidad Complutense de Madrid

Gran Bretaña. Cabinet Office. Government Digital Service (2017). Government transformation strategy. (Policy paper). Disponible en: https://www.gov.uk/government/publications/government-transformation-str.... [Consulta: 02.11.2018].

El Gobierno británico se propone, en los próximos años, aprovechar su excelente infraestructura digital para conseguir que todos los servicios públicos sean digitales por defecto en el año 2020. Así se recoge en un documento, elaborado en 2017, por el Gobierno británico titulado Government transformation strategy y cuya última actualización está fechada en septiembre de 2018. El documento forma parte de un programa de transformación impulsado por un grupo de directores generales del Gobierno británico, orientado a crear nuevos servicios, hacer una gestión más eficiente e implementar políticas a largo plazo. En este informe se plantean hitos como que la recogida de datos para el censo de 2021 sea digital por defecto, el objetivo es que el 75 % de las respuestas sean en línea (frente al 16,7 % en 2011, la cifra más alta de cualquier país en el mundo). En ese último censo se envió la hoja censal en papel, pero en 2021, los ciudadanos recibirán previamente una invitación para rellenar los datos en línea.

El Gobierno británico goza de gran prestigio en el desarrollo de su administración electrónica, muchas de sus iniciativas han sido tomadas como modelo en todo el mundo. Fue la primera en plantear iniciativas como el acceso a información pública mediante licencias digitales o en aplicar una estrategia de gobierno y datos abiertos. Iniciativas que le han valido figurar entre los primeros en un buen número de rankings internacionales, tales como la Encuesta de las Naciones Unidas sobre el gobierno electrónico 2018 o el Barómetro de datos abiertos.

Para lograr esos servicios digitales por defecto, el Gobierno se propone aplicar una estrategia de servicios multicanal para sus usuarios, mejorar la capacitación de los empleados públicos, configurar las herramientas y procesos necesarios para convertir la organización en digital por defecto, gestionar mejor los datos para ponerlos a disposición de los usuarios, compartirlos de manera efectiva y evitar la duplicación de servicios para reducir costes y aumentar la eficacia administrativa.

La idea básica de esta propuesta es transformar la relación entre los ciudadanos y el Gobierno, es decir, más poder en las manos de los ciudadanos y responder mejor a sus necesidades. Las tecnologías de Internet facilitan conocer las expectativas de los ciudadanos, adecuar los servicios y mejorarlos continuamente, de ahí que se planteen cinco objetivos:

  1. Ofrecer servicios digitales de gran calidad en todas sus fases, de forma moderna y eficiente, no limitarse a sustituir el papel con versiones en línea del mismo formulario. Esta transformación de servicios debe llevar a un nuevo diseño, así como a una ampliación del concepto de usuario para reflejar que algunos usuarios interactúan a través de servicios de terceros que utilizan API (application programming interface) gubernamentales. En este objetivo, el Gobierno cuenta con mejorar radicalmente la experiencia del usuario mediante la creación de servicios digitales que cumplan con el estándar de servicio digital.
     
  2. Desarrollar una cultura de servicio público entre los funcionarios que favorezca el desarrollo de habilidades en un entorno de aprendizaje, centrado en los resultados para los ciudadanos. El desafío es atraer y retener a especialistas cualificados en un mercado muy competitivo. Además, deben de entender la forma de actuar de los servicios públicos y fortalecer las habilidades de liderazgo. La apuesta es contar en 2020 con los funcionarios más capacitados digitalmente del mundo. Para lograr el objetivo se deberán establecer los principios de organización de los datos digitales en los organismos públicos, incluido el desarrollo de carreras profesionales y oportunidades de aprendizaje, así como atraer personal diverso para ocupar roles digitales de datos y tecnología.
     
  3. Crear mejores herramientas digitales y gestionar los recursos humanos para facilitar el trabajo de los funcionarios. El Gobierno debe crear un entorno adecuado para prestar servicios públicos de primer nivel mundial, tanto en tecnologías como programas de trabajo, formulación ágil de políticas, control de calidad y garantía de los servicios. En la consecución de estos objetivos, es esencial disponer de una tecnología común e interoperable en donde el diseño del espacio proporcione herramientas digitales adecuadas para poder gobernar, financiar y operar servicios con enfoques abiertos centrados en el usuario.
     
  4. Hacer un mejor uso de los datos, tanto para el proceso de transparencia como para facilitar su reutilización por el sector privado. El documento reconoce la importancia de los datos como recurso crítico para la prestación de servicios, hasta el punto de afirmar que «los datos actúan como la base sobre la que descansa todo lo demás». Se necesita mejorar el intercambio de datos de manera que respondan a las necesidades de los ciudadanos y evitar duplicidades y contradicciones entre conjuntos de datos. Para 2020, el Gobierno se propone mejorar el uso de los datos –haciendo mención especial a la alta calidad de sus datos geoespaciales– y abrirlos a través del uso de API para apoyar la toma de decisiones, al tiempo que se construye una infraestructura nacional de datos con las adecuadas medidas de seguridad.
     
  5. Crear plataformas compartidas, así como introducir en los organismos públicos productos y servicios del sector privado que operen con estándares abiertos para poder interactuar en esas grandes plataformas de servicios intergubernamentales, de modo que los organismos públicos se beneficien de la combinación de tecnología, procesos y personas para conseguir resultados compartidos y reutilizables para ser utilizados por el sector público y por terceros. La idea es construir servicios específicos para los organismos públicos sólo cuando sea necesario. Por esa razón, las prioridades para 2020 son construir componentes, plataformas compartidas con el sector empresarial, orientadas a la reutilización conjunta, eliminando barreras. Una de las propuestas claras de la estrategia del Gobierno es conseguir que los organismos públicos abandonen los contratos con las grandes compañías de tecnologías de la información. Además, el documento propone publicar estándares y desarrollar directrices para que el sector público utilice procesos y plataformas compartidas, sin perder de vista la seguridad de estos sistemas. Por último, se propone hacer un mejor uso del dominio único «Gov.uk» para facilitar la navegación de los usuarios y dar mayor valor a los contenidos, de forma que puedan encontrar mejor lo que están buscando (hay más de 300.000 documentos y crece a un ritmo de 2.500 páginas al mes).

En la parte final, el documento contiene algunas reflexiones interesantes. Aunque el 2020 no está lejos, nadie puede predecir cómo será el mundo, aunque se puede esperar que lo «digital» sea más común. Para estar preparados, se proponen una serie de orientaciones a seguir, a nuestro parecer muy acertadas, entre las que caben destacar: un enfoque hacia la personalización de los servicios, aumentar la confianza en la protección y seguridad de los datos –en especial los personales–, mayor uso de los datos para la toma de decisiones, así como flexibilizar la organización para responder a un mundo cambiante. También hay algunas tendencias macro a las que los gobiernos necesitarán responder, tales como dar un servicio conjunto y a la vez delegar cada vez más el poder en las regiones, entender el potencial de la inteligencia artificial, vigilar el uso de datos sanitarios y «wearables», así como atender el desafío que suponen la Internet de las cosas, la mejora de las auditorías públicas o una mejor utilización de datos geoespaciales.

Business models for sustainable research data repositories (2017). [Paris]: OECD. 80 p. (OECD science, technology and innovation policy papers; 47). Disponible en: <http://dx.doi.org/10.1787/302b12bb-en>. [Consulta: 05/11/2018].

Rafael Aleixandre Benavent Científico titular de OPI. UISYS, Unidad mixta de Investigación (CSIC-Universitat de València). Ingenio (CSIC-UPV)

Dentro de la serie OECD science, technology and innovation policy papers, la Organización para la Cooperación y el Desarrollo Económico (OCDE) publicó en diciembre de 2017 su número 47, titulado: Business models for sustainable research data repositories. Este proyecto se ha llevado a cabo en colaboración con el Committee on Data for Science and Technology of the International Council for Science (ICSU-CODATA) y Research Data Alliance (RDA), y también con expertos de muchos repositorios de datos que compartieron sus experiencias.

El informe parte de la idea de que para que los beneficios de la ciencia abierta se hagan realidad, los datos deben gestionarse de forma cuidadosa y sostenible para que puedan ser comprendidos y utilizados tanto en el presente como por las generaciones futuras de investigadores. Sin embargo, una buena administración de datos es costosa y los presupuestos de investigación son limitados, por lo que el desarrollo de modelos empresariales sostenibles para gestionar los depósitos de datos de investigación debe ser una de las principales prioridades en todos los países. Sorprendentemente, se han hecho pocos análisis sistemáticos de los flujos de ingresos, costos, valor y modelos de negocio para los repositorios de datos, y esa es la laguna que este informe intenta abordar desde la perspectiva de la política científica.

El proyecto analizó una amplia variedad de repositorios de datos y se llevó a cabo de conformidad con la siguiente declaración de tareas:

1ª. Identificar y describir las fuentes de ingresos existentes, así como los negocios emergentes e innovadores, incluyendo los métodos de optimización y reducción de costes;

2ª. Probar con mayor rigor los posibles modelos de negocio con los distintos grupos de interés;

3ª. Sobre la base de estos hallazgos, hacer recomendaciones de política para promover modelos de repositorios de datos de investigación sostenibles.

El informe explora, a lo largo de cuatro capítulos, las fuentes de ingresos, los costes, las propuestas de valor y los modelos de negocio de 48 repositorios de datos de investigación. Incluye un conjunto de recomendaciones diseñadas para desarrollar modelos de negocio sostenibles y ayudar a los responsables políticos y a los financiadores a apoyar los repositorios. La información necesaria se extrajo de 48 entrevistas estructuradas con gestores de depósitos de varios campos de investigación de 18 países y un grupo de trabajo sobre el tema.

En el capítulo primero del informe se analizan los factores que influyen en el diseño y la sostenibilidad de los modelos de negocio de los repositorios de datos de investigación: el papel del repositorio, los contextos nacionales, la etapa en la que se encuentra el repositorio, las características de la comunidad de usuarios y el tipo de datos que gestiona. Todas estas cuestiones deben tenerse en cuenta a la hora de elegir y desarrollar modelos de negocio adecuados para los repositorios de datos de investigación, y deben revisarse periódicamente a lo largo del ciclo de vida.

Las recomendaciones van dirigidas, principalmente, a los responsables de la formulación de políticas científicas, entidades financiadoras y gestores de los repositorios y se resumen en las cinco siguientes:

  • Todas las partes interesadas deberían reconocer que los repositorios de datos de investigación son una parte esencial de la infraestructura para la ciencia abierta.
  • Todos los repositorios de datos de investigación deben tener un modelo de negocio claramente articulado.
  • Los responsables de la formulación de políticas, los financiadores de la investigación y otras partes interesadas deben considerar las ventajas y desventajas de los distintos modelos de negocio en diferentes circunstancias.
  • Los modelos de negocio de los repositorios de datos de investigación están condicionados y deben estar acordes con las políticas, mandatos e incentivos.
  • En el contexto de la sostenibilidad financiera, deberían explorarse las oportunidades de optimización de costes para poder gestionar eficazmente los activos digitales a lo largo del tiempo.

El capítulo 2, titulado Panorama de los repositorios de datos de investigación, explora el alcance y las características de los repositorios analizados y examina sus fuentes de ingresos, así como las expectativas sobre su futura adecuación, posibles fuentes alternativas de ingresos y la optimización de costes. De los 48 repositorios analizados, alrededor de la mitad se centran en ciencias exactas y naturales, un tercio eran mixtos y cerca del 15 % se centraban en ciencias sociales y humanidades.

En el capítulo 3º, Modelos de negocio de los repositorios en contexto, se esbozan algunos de los elementos importantes del contexto en el que operan los repositorios de datos de investigación. Proporciona una visión general de las influencias contextuales y estructurales que deben tenerse en cuenta en la selección y desarrollo de los modelos de negocio de los repositorios y de los incentivos para la optimización de costes.

El capítulo 4º, Modelos de negocio sostenibles, explora la sostenibilidad de los modelos de negocio de los repositorios de datos de investigación, analizando su sostenibilidad financiera, los pros y los contras de varios modelos de negocio y los posibles efectos de los incentivos en la optimización de costes.

 

 

 

 

 

 

 

 

 

 

 

 

Lluís Anglada
Director del Àrea de Ciència Oberta
Consorci de Serveis Universitaris de Catalunya (CSUC)

La asociación: https://libereurope.eu/about-us/  
El plan estratégico de la LIBER: https://libereurope.eu/strategy/
48th LIBER Conference: https://liberconference.eu/
LIBER quarterly: https://www.liberquarterly.eu/
LIBER Open Science Roadmap: https://zenodo.org/record/1303002#.W9yANGj0mUl

A pesar de que en el Blok de BiD se reseñan mayoritariamente informes, de vez en cuando vale la pena hablar también de asociaciones o de servicios. Es lo que haremos hoy con la LIBER. Que el desarrollo de las siglas sea Ligue des Bibliothèques Européennes de Recherche indica que se fundó en aquellos tiempos no tan remotos cuando el inglés todavía no era el latín de la comunidad científica, concretamente las primeras reuniones fueron en 1968 y el primer congreso en 1971. Esko Häkli, que fue presidente de la LIBER, ha escrito una historia de la asociación1.

La LIBER fue creada con el objetivo de dar una voz propia a las bibliotecas europeas de investigación, nacionales y universitarias, es decir, crear una asociación especializada y similar a la ya existente para las bibliotecas de los Estados Unidos y Canadá, la Association of Research Libraries (ARL). Justo es decir que el término de bibliotecas de investigación debe interpretarse de forma amplia, es decir, incluyendo todas las bibliotecas que proporcionan servicios a la investigación (para clarificar: algunas bibliotecas universitarias pueden no ser de investigación y muchas bibliotecas especializadas lo son). Hoy forman parte de la LIBER más de 400 bibliotecas.

Los objetivos de la asociación son los de proporcionar servicios a sus asociados, darles un fórum de intercambio y debate (las conferencias anuales), hacer de lobby en las instituciones europeas y ayudar a las bibliotecas de investigación a definir bien sus posicionamientos de futuro. En este último sentido, vale la pena hablar de los planes estratégicos de la LIBER2. Estos han servido para orientar las tareas de la asociación, pero –a mi entender– hay que verlos de forma más próxima y operativa, como puntos de partida para el establecimiento de planes o posicionamientos estratégicos de cualquier biblioteca de investigación o para asociaciones como Rebiun, por ejemplo.

El plan estratégico actual tuvo un largo, planificado y participativo proceso de gestación que duró tres años. El plan actual (para el quinquenio 2018-2022) prevé grandes cambios en la forma cómo se está haciendo la investigación y, por lo tanto, para las bibliotecas que dan su apoyo. El plan parte de la visión que el 2022 el acceso abierto será la forma predominante de publicación de revistas, que los datos de investigación serán en abierto de forma FAIR (findable, accessible, interoperable and reusable), que la investigación «digital» será más abierta, transparente, colaborativa y participativa, y que el patrimonio cultural de mañana es la información digital de hoy.

Las direcciones estratégicas del plan, que sirven a la LIBER para organizarse en comités y grupos de trabajo, son tres:

  • Comunicación académica innovadora, que incluye los subámbitos del copyright y otros temas legales, del Acceso Abierto y de las nuevas métricas innovadoras.
     
  • Habilidades y servicios digitales, que incluirían las Humanidades Digitales así como los programas de formación (tanto los genéricos como los dirigidos a directores y a futuros líderes).

Infraestructuras de investigación, que engloba las actividades del Fórum de la LIBER dedicado a Arquitectura y las que se hacen para explorar los servicios que las bibliotecas deben crear para apoyar la gestión de datos de investigación (RDM-Research Data Management).

Los congresos anuales (el próximo será en Dublín) son una buena ocasión para ponerse al día de los temas que la asociación considera más candentes. Esto se hace con conferencias generales y ponencias. Por descontado, hay también una interesante feria y muchas reuniones de grupos de trabajo y otros. Los congresos de la LIBER son, pues, una gran ocasión para ponerse al día y hacer «networking». Es de lamentar que, a pesar del posicionamiento hacia lo abierto de la LIBER, no tengan un lugar en su web desde donde poder consultar las presentaciones de los congresos. Respecto al pasado, celebrado en Lille pueden consultarse algunas presentaciones y los vídeos de las principales sesiones.

La LIBER publica (en abierto) la revista LIBER quarterly que tiene dos secciones: la de artículos y la de casos de estudio. Los artículos que se publican reciben la revisión por pares y tratan de forma «académica» los temas que preocupan hoy a los profesionales. Los casos de estudio pretenden hacer de puente entre las aproximaciones más teóricas a los problemas y sus soluciones prácticas en un lugar determinado (en el último número, del Politécnico de Zurich y de la Universidad de Vilnius, por ejemplo).

En estos momentos (y para terminar), comentar que la LIBER publica de vez en cuando informes y tomas de posición que pueden ser muy útiles tanto para informarse como para ayudar a posicionarnos en temas clave pero nuevos y complejos. Este sería el caso del reciente LIBER Open Science Roadmap. Ahora que la Ciencia Abierta está irrumpiendo con fuerza en las «agendas» de los estados y de los organismos financiadores de la investigación, está muy bien y es de agradecer que nuestra asociación profesional procure orientar a las bibliotecas para evitarles «ché la diritta via era smarrita».3

El Open Science Roadmap de la LIBER es posterior (y deudor) de las recomendaciones, de la Open Science Policy Platform de la Comisión Europea. La LIBER ve en la ciencia abierta una enorme oportunidad para las bibliotecas de investigación que, creando servicios que le den apoyo, pueden ganar influencia y valor. Más que responder la pregunta que uno puede hacerse respecto a qué es esto de la Ciencia Abierta4, lo que hace la LIBER es analizar las oportunidades y retos que presenta la ciencia abierta en las bibliotecas y hace recomendaciones sobre qué hacer. Esto está dividido en las siguientes áreas: comunicación académica, datos FAIR, infraestructuras de investigación y la EOSC (European Open Science Cloud), métricas y reconocimientos, habilidades digitales, integridad de la investigación, y ciencia ciudadana.

Insistiendo en el enfoque práctico que guía su actividad, la LIBER incluye en su agenda casos prácticos de cómo algunas instituciones se orientan hacia dar servicio en el contexto de la ciencia abierta. Los casos de estudio incluidos se corresponden al Karlsruhe Institute of Technology, la biblioteca nacional de Finlandia, el Institut Ruder Bošković, el CSIC, y las universidades Svetozar Markovic, de Barcelona, University College London y Southern Denmark.

1 Häkli, Esko (2011). Innovation through co-operation: the history of LIBER 1971-2009. Copenhagen: Museum Tusculanum Press. ISBN 9788763537919.
2 Los anteriores al actual fueron para los períodos 2013-2017 y 2010-2012. Véase: https://libereurope.eu/strategy/previous/.
3 Dante. Divina comedia. Canto 1º, verso 3º.
4 Anglada, Lluís; Abadal, Ernest (2018) «¿Qué es la ciencia abierta?». En: Anuario ThinkEPI, v. 12, p. 292-298.

Miguel Navas-Fernández
Centre de Documentació
Museu de Ciències Naturals de Barcelona

Crawford, Walt (2018). Gold open access journals 2012-2017: GOAJ 3. Livermore (California): Cites & Insights Books. 179 p. Disponible en: <https://waltcrawford.name/goaj3.pdf>. [Consulta: 22/10/2018].

Crawford, Walt (2018). Gold open access journals by country 2012-2017: a supplement to GOAJ 3. Livermore (California): Cites & Insights Books. 293 p. Disponible en: <https://waltcrawford.name/cntry1217.pdf>. [ Consulta: 22/10/2018].

Walt Crawford es un bibliotecario retirado con una actividad incansable. En su blog Walt at Random va publicando sus propios informes sobre revistas científicas y su boletín Cites & Insights: Crawford at large que trata sobre bibliotecas, tecnología, medios de comunicación y comunicación científica. Utiliza su propia editorial, Cites & Insights Books.

Sus trabajos sobre revistas en acceso abierto, titulados GOAJ: gold open access journals, son exhaustivos y de mucha calidad. Los publica desde 2016 en acceso abierto con licencia CC BY y con la ayuda y financiación de SPARC. Crawford recoge las revistas incluidas en el DOAJ y después realiza un descomunal trabajo manual revista por revista, recogiendo el precio de los article processing charges o APC  (si es que hay) y el número de artículos por año.

Cada uno de estos informes GOAJ cubre los seis años anteriores al año de publicación. Así, GOAJ 3, que tiene una extensión de 179 páginas, recoge el período 2012-2017. En la página del proyecto pueden consultarse los tres informes publicados hasta ahora, juntamente con los datasets. El último informe, objetivo de esta reseña, incluye también un anexo de 293 páginas, del que solo se comentará la información correspondiente a España.

Lo primero que nos llama la atención de este informe es el título, Gold open access journals. Y lo hace porque si el acceso abierto se divide en dos rutas, la dorada (gold) para las revistas y la verde (green) para los repositorios, entonces todas las revistas son gold. El autor justifica esta nomenclatura para diferenciar las revistas indexadas en el DOAJ de las que no lo están. Además, establece la categoría gray para identificar las revistas (supuestamente depredadoras) que aparecían en la famosa y desaparecida lista de Jeffrey Beall.1

El informe de Crawford recoge 10.293 revistas, de las cuales un 70 % nacieron después del año 2005. Del total de títulos, el 69,7 % no cobra tasas de publicación APC. No obstante, un poco más de la mitad de los artículos (56,3 %) provienen de revistas que sí cobran, porque la ratio de artículos por revista y año es mucho más baja para las primeras (36) que para las segundas (110). El precio medio por artículo es de 1.557 $, con un aumento sostenido del 4 % anual durante los últimos cuatro años. Justo es decir que más de 2/3 de todos los artículos con APC se concentran en las revistas más caras.

Uno de los análisis estrella de esta obra es el que aparece de manera gráfica en su cubierta: los artículos por año, divididos entre los que se pagan por publicar y los que no. El número de artículos ha crecido año tras año, pero el factor diferenciado es que los artículos con APC han crecido más: un 84 % durante el total de los seis años estudiados, ante el 58 % de los otros.
 
Crawford separa las revistas en dos grupos bien diferenciados: «APC land» («la tierra de los APC») y «OA world» («el mundo del acceso abierto»). El primero está constituido por 13 grandes editoriales, incluyendo Elsevier, Hindawi, Oxford University Press, PLoS, SAGE, Springer, Wiley y otros. BioMed Central y Nature también aparecen, ya que el DOAJ las considera como editoriales separadas de Springer. Este grupo publicó casi el 20 % del total de revistas en el DOAJ, contando con el 43 % de los artículos y el 84 % de todo el beneficio potencial de cobrar por publicar, que el autor estima en 413 millones de dólares. No obstante, no todas las revistas publicadas por estas editoriales cobran APC: el 26 % de todos los artículos de 2017 no tenían, aunque provenían de solo el 13 % de las revistas. El precio medio del APC era de 1.955 $, superior al precio medio global del DOAJ que hemos visto antes.

Por otra parte, «OA World» incluye más de 4.000 editoriales, que son responsables del 80,5 % de las revistas activas en 2017 y el 57 % de los artículos, pero solo del 16 % de las ganancias de cobrar por publicar. El 81 % de estas revistas ni tan solo cobraban APC, provocando que 2/3 partes de todos los artículos de este «mundo del acceso abierto» se publicaran gratis. El precio medio de APC en este grupo fue de 750 $, casi tres veces inferior al del grupo de «la tierra de los APC».

En cuanto a las editoriales, el autor establece cinco tipos: universidades y centros de investigación; asociaciones, sociedades y entes gubernamentales; editoriales «tradicionales» (comerciales); editoriales de «acceso abierto» (comerciales pero especializadas en revistas en abierto); y otras. La primera tipología de editorial es la que publica el mayor número de revistas (51 %), y 3/4 partes de las cuales no cobran APC. No obstante, las editoriales especializadas en acceso abierto, que están en segundo lugar con el 20 % de títulos, publican la mayoría de artículos, 6/7 partes de los cuales cobrando. Como se ha visto, cuantos más artículos publica una revista, más probable es que cobre por publicar. Es más, las revistas con APC más caros suelen publicar más artículos que las más baratas.

La mayoría de revistas sobre medicina las publican las editoriales «especializadas en acceso abierto», mientras que las editoriales comerciales tradicionales y las sociedades científicas, en cambio, publican más revistas sobre ciencia, tecnología, ingeniería y matemáticas.

En cuanto al lugar de publicación, en el grupo «APC land» destaca el Reino Unido, responsable del 32 % de los títulos, seguido de Egipto (18 %) y Suiza (11 %). Con menos del 10 % podemos destacar a los Países Bajos, la India y los EEUU. El grupo «OA world» está liderado claramente por Brasil (13 %) e Indonesia (12 %), que es el país que más ha crecido en el DOAJ en 2017. El autor destaca el crecimiento de España y Polonia y la bajada de la India (3/4 partes de sus revistas han desaparecido o han sido incluidas en el «APC land»). La distribución global de revistas por países puede consultarse en cualquier momento en el DOAJ (ver "country of publisher") donde puede verse la preeminencia del Reino Unido, Indonesia, Brasil, España, EEUU, Polonia e Irán.

Una información interesante que ofrece esta obra es el porcentaje de revistas sin APC que publica cada país. Así, si consideramos solo aquellos países que publican más de 50 revistas, tendríamos a España en primer lugar con el 96 %, seguido de Argentina con el 95 %, Brasil con el 92 %, y otros países de América Latina o «periféricos» (fuera de la órbita anglosajona y de Europa occidental). A la cola de esta lista tendríamos Sudáfrica y el Reino Unido por debajo del 40 %, y otros grandes productores de revistas en abierto como la India (54 %), Indonesia (70 %) y los EEUU (74 %) por debajo de los mencionados anteriormente.

Crawford establece tres grandes grupos de materias: biomedicina, «STEM» (ciencia, tecnología, ingeniería y matemáticas) y humanidades y ciencias sociales. El grupo «STEM» tiene más revistas y artículos, pero la biomedicina tiene más ingresos por APC, y es el único grupo donde las revistas que cobran APC son mayoría. Finalmente, las humanidades y las ciencias sociales son el grupo con más revistas (47 % de todas las que hay en el DOAJ, con un incremento notable durante 2017), pero publican pocos artículos y normalmente no cobran por publicar (los ingresos son 1/15 parte de los de biomedicina, por ejemplo).

Las editoriales (comerciales) de acceso abierto publican el 39 % de las revistas sobre biomedicina, y las comerciales «tradicionales» un otro 20 % más, llegando a casi el 60 % de los títulos en esta categoría, mientras que las universidades y centros de investigación solo publican el 24 %. El precio medio del APC en 2017 es de 1.778 $, aunque casi la mitad de los artículos están en las revistas más caras.

En el caso de la categoría «STEM», el 45 % de las revistas pertenecen a universidades, el 75 % de las cuales no cobran ningún APC. Las editoriales comerciales (tradicionales o no) publican en total un 36 % de los títulos, y un 60 % de los cuales sí que cobran por publicar. El precio medio del APC es de 1.507 $.

En cuanto a las revistas sobre humanidades y ciencias sociales, el 71 % son publicadas por universidades y centros de investigación, y solo el 13 % pertenecen a las comerciales. Sobre el total de títulos de estas temáticas, solo 1/8 parte cobran APC, y en el 60 % de estos casos es de menos de 200 $, con un precio medio de 118 $.

El autor dedica capítulos enteros a analizar tipologías de revistas, volúmenes de artículos, análisis de APC, etc. y dedica centenares de páginas y de tablas a estudiar grupos de materias y de regiones, entre otros. La información es abundante y precisa al mismo tiempo, y por este motivo invitamos al lector a consultar aquella parte del estudio de su interés, dado que resulta imposible incluirla toda en esta reseña.

El mencionado anexo Gold open access journals by country 2012-2017 proporciona información sobre cada país. En el caso de España, constan 576 revistas que en 2017 habían publicado 16.332 artículos, con una media de 29 artículos por revista sin APC y de 45 artículos por revista con APC. El precio medio del APC es de 353 $. Las universidades publican 2/3 partes de las revistas. La tercera parte restante queda repartida entre editoriales comerciales (10 % del total), sociedades y gobierno (9 %) y otros (14 %). El 74 % de todas las revistas son sobre materias que entrarían dentro del grupo de artes, humanidades y ciencias sociales.

Queremos agradecer la atención prestada por el propio autor, Walt Crawford, a la hora de responder nuestras preguntas sobre aspectos específicos de su estudio.

1 El autor ha publicado un análisis exhaustivo, Gray OA 2012-2016: open access journals beyond DOAJ, en 2017, disponible en https://citesandinsights.info/civ17i1.pdf, así como un «seguimiento parcial», disponible en https://citesandinsights.info/civ17i9.pdf, del mismo año.

Tony Hernández-Pérez
Departamento de Biblioteconomía y Documentación
Universidad Carlos III de Madrid

Google Dataset Seach: beta. Disponible en: <https://toolbox.google.com/datasetsearch>. [Consulta: 16/10/2018].

El año 2018 está siendo muy entretenido en el mundo de la comunicación científica. En la primera parte del año se presentaron tres grandes bases de datos académicas 1Findr (de 1Science’s), Dimensions (de Digital Science) y Lens (de Cambia, una ONG australiana, que, además de artículos científicos, recoge incluso patentes). De repente, tres grandes bases de datos que aspiran a competir con la caja blanca, más bien negra, de Google Scholar y de Microsoft Academic. Y a la vuelta del verano, otras dos grandes sorpresas: el controvertido Plan S, una iniciativa de 12 de las más importantes agencias nacionales de financiación de la investigación en Europa. Un plan cuya intención es obligar a científicos e investigadores beneficiarios de fondos públicos de investigación para que en 2020 publiquen sus trabajos de forma inmediata solo en repositorios o revistas de acceso abierto, excluyendo incluso a las revistas híbridas. Una iniciativa que ha enfadado mucho, entre otros, a gran parte del sector editorial, que lo perciben como una gran amenaza. Y casi el mismo día, el 5 de septiembre de 2018, Google hizo público el lanzamiento de un nuevo producto: Google Dataset Search, cuyo objetivo es facilitar el acceso a los millones de datasets existentes en miles de repositorios en la web.

Google aspira a convertir su nuevo producto en «el Google Scholar de los datos»: el lugar en donde se pueden descubrir los datasets de calidad que sirvan a los investigadores, a los periodistas y a todos aquellos ciudadanos interesados en disponer de datos procedentes de fuentes de calidad. La hipótesis de trabajo de Google con el nuevo producto ha sido «Constrúyelo y vendrán» y no les ha faltado razón. El buscador, aún en fase beta y con muchas limitaciones, ha levantado muchas expectativas, seguramente, porque contribuye a resolver un grave problema: la dispersión de fuentes en las que se encuentran los conjuntos de datos más relevantes, tanto los producidos por los gobiernos (datos abiertos gubernamentales) como los producidos por los investigadores (datos abiertos de investigación).

En la actualidad, buscar datasets resulta extremadamente problemático, no sólo por los múltiples esquemas de metadatos que se utilizan para describir los datasets sino también por la multitud de repositorios de datos que existen. El directorio de repositorios de datos científicos más importante, el Registry of Research Data Repositories recoge ya más de 2.200 repositorios, 24 en España, algunos especializados en un tema, otros, como Zenodo, Mendeley o Figshare, más generalistas, en donde se puede encontrar casi cualquier tema. Nature recomienda depositar los datos que sirven de base a sus publicaciones en más de 50 repositorios diferentes. Y los repositorios de datos abiertos gubernamentales se encuentran igualmente dispersos. A veces, accesibles a través de un agregador y otras es necesario acudir a buscar en cada ayuntamiento, ministerio, o agencia gubernamental. Un caos para el usuario final, que finalmente no sabe en qué silo de datos buscar, que está obligado a usar una interfaz distinta para cada sitio y a obtener descripciones muy diversas de estos datasets.

Con su nuevo producto Google pretende contribuir a lo que ellos llaman un «fuerte ecosistema de datos abiertos» mediante el fomento de estándares abiertos de metadatos para describir los datasets publicados. En sus directrices, Google advierte que solo recolectará datasets de páginas web que contengan datos estructurados. Y recomienda el uso del tipo de contenido Datasets, del consorcio schema.org o estructuras equivalentes representadas en el Data Catalog Vocabulary (DCAT) del W3C, una buena noticia para muchos de los catálogos de datos abiertos gubernamentales, muchos utilizan este vocabulario, que podrán ver un aumento en el acceso a sus datasets si este producto de Google se populariza. La idea está clara, si el robot de Google descubre tus páginas web con datos estructurados que contengan datasets, los recogerá, si no… las tratará como una página más pero no entrará en su índice de datasets y tendrá más riesgo de perderse en la larga cola de resultados.

Google intenta, además, fomentar la cultura de la cita de datos, de forma similar a cómo citamos las publicaciones, para reconocer el mérito a aquellos que crean y publican datos. De hecho, en sus páginas de resultados ya se pueden apreciar mensajes del tipo «4 artículos académicos citan este conjunto de datos (Ver en Google Académico)», con lo que, al mismo tiempo, Google enlaza los datasets con los trabajos de investigación indexados en Google Scholar. Aún es pronto para saber si el sistema será reversible. ¿Desde los artículos se podrá acceder a los datasets indexados por Google? ¿Está Google pensando en contribuir a esta cultura añadiendo un botón para citar los datos de acuerdo al esquema de metadatos de Datacite u otro similar?

Google Dataset Search, a diferencia de su buscador general, trabajará exclusivamente con metadatos. Aun así, el reto no es menor: después de que el robot descubra los datasets deberá realizar una operación de «limpieza de datos», a pesar de los datos estructurados, es necesario normalizar fechas, detectar diferentes autores y asegurarse de que los metadatos están bien asignados porque estos metadatos suelen llegar con datos incompletos, erróneos o directamente omitidos; Google deberá identificar las réplicas, puesto que un mismo dataset puede estar depositado en varios repositorios al mismo tiempo, o ser un subconjunto de un dataset con un mayor nivel de agregación. A continuación, pasará la información por su gráfico de conocimiento (Knowledge Graph), la base de datos de conocimiento que utiliza Google para detectar entidades, lugares, etc. y entender el contexto de la página que está analizando. Y, finalmente, intentará enlazar el dataset con Google Scholar. Lo que construye Google es, pues, un gigantesco índice de metadatos limpios y enriquecidos que será la base de datos en la que busquemos los usuarios. Así, la calidad de la base de datos será mayor o menor en función de la calidad de los metadatos que asignen los proveedores de los datasets.

Esquema del funcionamiento de Google Dataset Search
Fuente: https://ai.googleblog.com/2018/09/building-google-dataset-search-and.html

El producto, como decíamos, está en fase beta. Google aún no sabe cómo buscamos los usuarios datasets y espera poder aprender del uso que hacemos del buscador para poder mejorarlo. Por ahora, no se saben los criterios con los que muestra el ranking de resultados, no se sabe si utiliza la fiabilidad de la fuente, el número de citas del dataset en Google Scholar, la fecha de actualización o de cobertura temporal o cualquier otro criterio. La interfaz de los resultados es muy mejorable: no ofrece ni siquiera los resultados aproximados a una búsqueda; las descripciones de los distintos datasets son muy dispares; apenas se muestran de tres a cinco resultados; no permite filtrados de casi ningún tipo, aunque parece que funciona el operador site: xxx.xx para limitar las búsquedas; no hay búsqueda avanzada ni ninguna ayuda de cómo buscar. Y, como en Google Scholar, por desgracia, no proporciona ninguna API (application programming interface). Y, por ahora, no resulta fácil encontrar un listado de los repositorios que están indexando, más allá de algunos de los grandes repositorios que de alguna forma están contribuyendo activamente al despegue de Google Dataset Search (NOAA, ICPSR, Dataverse…) cumpliendo con las directrices de Google para publicar datasets.

La mayor parte de los grandes repositorios, como Zenodo, Dryad o Figshare soportan y describen en JSON-LD sus datasets de acuerdo a schema.org. Sin embargo, muchos repositorios que han estado almacenando datasets de sus investigadores no trabajan aún con schema.org, por lo que, si se quiere aumentar la visibilidad de los datasets para luego intentar hacer un seguimiento de sus citas y de su uso, convendrá ir preparándose. En cualquier caso, para aquellos datasets a los que queramos dar visibilidad de forma inmediata y hasta la implementación de schema.org en nuestro repositorio, siempre se puede acudir, como hasta ahora, a registrar el dataset en algunos de los hubs o agregadores que sí lo tengan implementado, por ejemplo, en Datacite o en datos.gob.es para el caso de datos abiertos gubernamentales.

La aparición de Google Dataset Search produce sensaciones encontradas. Por un lado, puede ayudar a simplificar la búsqueda de datos abiertos, como ha ocurrido con Google Scholar. Siendo consciente de la importancia de los datos y, por fin, de los metadatos, está construyendo un producto o servicio capaz de conectarse a distintos repositorios, bibliotecas digitales, revistas y catálogos de datos de las administraciones y agencias gubernamentales para facilitar al usuario final la búsqueda de datos abiertos desde un único sitio. Por otro lado, el éxito del servicio significará una especie de punto único de acceso a todos los datos abiertos, una especie de jardín único y privado de Google, gratis, sí, pero privado, porque será Google el único que tendrá acceso a toda la información y los datos que ese punto único de acceso genere. Ahora que gracias a los identificadores persistentes vemos aparecer nuevas bases de datos de artículos científicos como Lens, Dimensions o 1Findr quizás también veamos aparecer otros buscadores de datasets alternativos. Ojalá aparezcan estas alternativas y ojalá que Google no deje morir su nuevo juguete, como tantos otros productos.

Candela Ollé
Estudis de Ciències de la Informació i la Comunicació
Universitat Oberta de Catalunya (UOC)

Kaufman, Peter B. (2018). Towards a new audiovisual think tank for audiovisual archivists and cultural heritage professionals. Hilversum, NL: Netherlands Institute for Sound and Vision. Disponible en: <http://dx.doi.org/10.18146/2018thinktank01>. [Consulta: 15/10/18].

El Libro Blanco de los archivos audiovisuales ha sido elaborado por el Netherlands Institute for Sound and Vision que, con más de millones de horas de material, experiencia y organización de actividades, actualmente ofrece sus participaciones a la más amplia variedad de usuarios finales, incluidos periodistas, estudiantes, investigadores, organizaciones del patrimonio y el público en general.

El documento que reseñamos identifica las prioridades estratégicas de los archivos audiovisuales en la próxima década y presenta un decálogo de recomendaciones concretas para la acción colectiva, impulsadas y acompañadas por el correspondiente grupo de liderazgo de pensamiento que quiere articular la investigación internacional para el sector del patrimonio cultural audiovisual. Pretende ayudar a los actores interesados en preservar el patrimonio audiovisual para identificar sus prioridades futuras. Es un documento breve y que demuestra, tanto por el formato como por el vocabulario utilizado, que quiere avanzar con paso rápido y firme y para ello elabora una agenda de acción e investigación a desarrollar en la próxima década.

Se trata de un texto esquemático, pero es el primer paso hecho (si se quiere ampliar la información puede visitarse el web) y pone de manifiesto la importancia de cuantificar la comunicación audiovisual en la actualidad; de ser conscientes del valor extraordinario de los activos audiovisuales; quiere hacer que el material audiovisual que se haga en estos archivos sea útil y accesible globalmente; se comprometen a proteger y mantener la libertad y derechos humanos –especialmente de expresión– y, finalmente, a facilitar el conocimiento, la información y la educación en todo el planeta.

El Libro Blanco propone diez recomendaciones como prioridades estratégicas para los próximos diez años, a cuyo alrededor se organizarán acciones, investigación, desarrollo y recursos. Cada recomendación incluye un cronograma de las primeras acciones colectivas a realizar. A continuación, resumimos las principales ideas de las preguntas planteadas en las recomendaciones:

  1. ¿Tendría que haber una mejor manera, por ejemplo, un catálogo unificado, para que se conozca la disciplina, sus participaciones y su poder?
     
  2. ¿Sería apropiada una guía de buenas prácticas escritas para Google y otras tecnologías para optimizar tanto la investigación como los recursos audiovisuales?
     
  3. ¿Es preciso un acuerdo con el sector privado (gigantes del campo como Google, Facebook y Amazon)?
     
  4. ¿Cuál debe ser nuestro propio compromiso con la experimentación constante?
     
  5. ¿Debemos lanzar un esfuerzo real para implicarnos con Wikipedia?
     
  6. ¿Debería plantearse que el trabajo de FIAT/IFTA, PrestoCentre y archivos individuales como Sound and Vision debería ser siempre abierto, sin restricciones y libre?
     
  7. Si el contenido digital es cada vez más difícil de licenciar, alquilar y vender en línea, la publicidad se convertirá en el principal medio de generar ingresos en el futuro de los contenidos de imágenes en movimiento. ¿Cómo debemos considerar este negocio desde una perspectiva empresarial?
     
  8. ¿Los archiveros deberían estar conectados con más facilidad con los productores y los creadores?
     
  9. ¿Cómo definimos nuestros roles como educadores actuales, especialmente cuando tantos jóvenes ven y escuchan el mundo a través de imágenes y sonidos en movimiento? ¿Debemos elaborar una declaración de principios?
     
  10. ¿Qué papel, si es que hay alguno, deberían jugar los archivos en el ámbito político/mediático/cultural?

Y después de leer el Libro Blanco, ¿ahora qué?

El grupo de investigación está comprometido a seguir estas recomendaciones mediante una serie de actividades y grupos de trabajo. Estos grupos llevarán a cabo investigaciones adicionales, elaboración de recomendaciones de política y de práctica a través de manuales, documentos de estrategia y de otras publicaciones; y desarrollarán planes de acción que conecten directamente con los intereses de los profesionales de la archivística y del patrimonio cultural.

Parece, a priori, muy ambicioso por los agentes implicados, el cronograma marcado y el alcance global del proyecto. Deberemos hacer el seguimiento para ver los siguientes pasos.