Experiència d’implementació d’especificacions d’una estratègia de virtualització per fer-se càrrec d’obres d’art multimèdia obsoletes

Figura 1. Primer nivell d'accés a paquets de preservació.

  [Versión castellana] Jesús Robledano Arillo Professor del Departamento de Biblioteconomía y Documentación  Universidad Carlos iii de Madrid jroble@bib.uc3m.es ORCID: https://orcid.org/0000-0002-4090-8684 EXIT: https://www.directorioexit.info/ficha693   Resum Objectius: Presentar un model de preservació digital d’obres d’art multimèdia basat en la virtualització, idoni per a les necessitats de preservar digitalment els fons objecte de treball en el projecte “Vocabularios … Llegiu més

Altaveus intel·ligents i skills: una eina per fomentar la lectura infantil?

Figura 1. Utilitat dels altaveus intel·ligents.

Objectiu: l’article busca conèixer quines aplicacions relacionades amb la lectura per a altaveus intel·ligents estan disponibles a la botiga d’skills d’Amazon, quines són les característiques i les possibilitats com a recursos de foment lector.

Metodologia: s’estudien onze paràmetres de trenta skills amb la informació proporcionada per la botiga i l’anàlisi directa de cadascuna d’elles: categoria, tipus de contingut, actualització, ús del producte, privacitat, comentaris dels usuaris, etc.

Resultats: s’arriba a la conclusió que aquest producte emergent tindria potencialitat per fomentar la lectura, sempre que tingui uns criteris i una oferta variada i de qualitat, incorpori informació completa del producte a la botiga i actualitzi freqüentment els continguts, requisits demanats habitualment pels usuaris; però encara són poques les skills relacionades amb la lectura.

Creació, gestió i anàlisi d’un bot a biblioteques acadèmiques

Figura 1. Interfície gràfica d'usuari d'ANTswers

La primera part d’aquest article analitza com crear i gestionar un bot de conversa a biblioteques acadèmiques, incloent-hi el tipus d’estadístiques que s’haurien d’elaborar i la importància de revisar periòdicament les transcripcions. Creat l’any 2014, el bot de conversa en qüestió s’ha desenvolupat fins al punt en què, de mitjana, contesta correctament les preguntes dels usuaris de les biblioteques en un 70 % dels casos. La segona part és una anàlisi de més de 10.000 frases enviades pels usuaris (preguntes i afirmacions). L’anàlisi va emprar l’eina UAM CorpusTool per tal de crear capes i transcripcions de codi d’acord amb l’estructura de les frases, les afirmacions d’obertura i tancament, l’interès mostrat, així com els tipus de serveis i materials sol·licitats. Si bé el bot de conversa de les biblioteques està clarament identificat com un programa informàtic, una sèrie d’usuaris tracten habitualment el bot de conversa com si fos un ésser humà i hi mantenen llargues converses no relacionades amb les biblioteques. — La primera part d’aquest article analitza com crear i gestionar un bot de conversa a biblioteques acadèmiques, incloent-hi el tipus d’estadístiques que s’haurien d’elaborar i la importància de revisar periòdicament les transcripcions. Creat l’any 2014, el bot de conversa en qüestió s’ha desenvolupat fins al punt en què, de mitjana, contesta correctament les preguntes dels usuaris de les biblioteques en un 70 % dels casos. La segona part és una anàlisi de més de 10.000 frases enviades pels usuaris (preguntes i afirmacions). L’anàlisi va emprar l’eina UAM CorpusTool per tal de crear capes i transcripcions de codi d’acord amb l’estructura de les frases, les afirmacions d’obertura i tancament, l’interès mostrat, així com els tipus de serveis i materials sol·licitats. Si bé el bot de conversa de les biblioteques està clarament identificat com un programa informàtic, una sèrie d’usuaris tracten habitualment el bot de conversa com si fos un ésser humà i hi mantenen llargues converses no relacionades amb les biblioteques. — Part 1 of this paper discusses how to create and manage an academic library chatbot, including the type of statistics that should be kept and the importance of regularly reviewing transcripts. Created in 2014, the chatbot in question has been developed to the point where, on average, it correctly answers library users’ questions 70% of the time. Part 2 is an analysis of over 10,000 user-submitted sentences (questions and statements). The analysis used UAM CorpusTool to create layers and code transcripts according to sentence structure, opening and closing statements, showing interest, and types of service and materials requested. While the library chatbot is clearly marked as being a computer program, a number of users regularly treat the chatbot as human and hold long non-library related conversations with it.

Descripció automàtica d’arxius audiovisuals: NeuralTalk, un model de video-to-text aplicat a l’arxiu de RTVE

Descripcions subministrades pel sistema en la primera iteració

Objectiu: determinar la maduresa dels sistemes de video-to-text per a la descripció automàtica d’imatges en un arxiu de televisió.

Metodologia: es fa una prova de concepte mitjançant un sistema de video-to-text desenvolupat ad hoc. La prova es va articular en tres fases o iteracions diferents entre juny de 2016 i gener de 2017. En les dues primeres iteracions el sistema va analitzar un nombre determinat de continguts procedents de l’arxiu de RTVE, les descripcions es van valorar per establir la taxa d’encert del sistema o, en altres paraules, com de propera era aquesta descripció a la que podia haver subministrat un ésser humà. En una tercera fase, i prèviament a l’anàlisi dels continguts, es va entrenar el sistema utilitzant tècniques d’aprenentatge profund amb l’objectiu de millorar els resultats.

Resultats: els resultats obtinguts posen de manifest que es tracta d’una tecnologia prometedora, si bé resulta fonamental aprofundir més en els mecanismes que serien necessaris per a la seva posada en producció en els arxius de televisió. — Objetivo: determinar la madurez de los sistemas de video-to-text para la descripción automática de imágenes en un archivo de televisión. Metodología: se realiza una prueba de concepto mediante un sistema de video-to-text desarrollado ad hoc. La prueba se articuló en tres fases o iteraciones distintas entre junio de 2016 y enero de 2017. En las dos primeras iteraciones el sistema analizó un número determinado de contenidos procedentes del archivo de RTVE, las descripciones se valoraron para establecer la tasa de acierto del sistema o, en otras palabras, cómo de cercana era dicha descripción a la que podía haber suministrado un ser humano. En una tercera fase, y previamente al análisis de los contenidos, se entrenó al sistema utilizando técnicas de aprendizaje profundo con el objetivo de mejorar los resultados.

Resultados: los resultados obtenidos ponen de manifiesto que se trata de una tecnología prometedora, si bien resulta fundamental profundizar más en los mecanismos que serían necesarios para su puesta en producción en los archivos de televisión. — Objective: To assess the deep learning capability of a video captioning model for automated image description in a television archive.

Methodology: Our proof of concept tested an ad hoc video-captioning model in three iterations between June 2016 and January 2017. In the first and second iterations the model was used to analyse a selection of content from the archives of the Spanish Radio and Television Corporation (RTVE) and the descriptions it generated were evaluated to determine the model’s success rate, i.e., how close it came to providing human-like image descriptions. In the third iteration and before the content was analysed, the model was trained using deep learning techniques to optimise the results.

Results: The results indicate that the model has potential, although further development will be required to customise its use in television archives.

Quantificar-se per viure a través de les dades: les dades massives (big data) aplicades a l’àmbit personal

Mapa conceptual de les aplicacions presents al mercat actualment

Objectius: aquest article reflexiona sobre el sorgiment dels fenòmens lifelogging i quantified self com una forma de viure a través de les dades personals generades pel mateix usuari. S’analitza la perspectiva social i tecnològica fent èmfasi en la gestió de les dades, i es descriu com els principis de les dades massives permeten entendre les oportunitats i complexitats que generen aquests fenòmens.

Metodologia: s’ha revisat la bibliografia publicada sobre els fenòmens lifelogging i quantified self des de l’aparició fins als nostres dies. La recerca bibliogràfica s’ha fet mitjançant bases de dades bibliogràfiques pels articles i cercadors generalistes per a la informació dels productes i aplicacions, així com per les notícies d’actualitat aparegudes a la premsa local i internacional.

Resultats: el resultat és una taxonomia d’usos, aplicacions i eines de lifelogging i quantified self. Es conclou que un factor determinant en la seva evolució serà la capacitat de generar informació de qualitat a partir de les dades generades per l’usuari. En els dos casos es veu necessari establir estàndards i protocols que permetin una estructuració, gestió i anàlisi de les dades per tal d’optimitzar els potencials impactes positius que pot generar el fenomen del quantified self a la societat. — Objetivos: este artículo reflexiona sobre el surgimiento de los fenómenos lifelogging y quantified self como una forma de vivir a través de los datos personales generados por el propio usuario. Se analizan la perspectiva social y tecnológica haciendo énfasis en la gestión de los datos, y se describe cómo los principios de la inteligencia de datos (big data) permiten entender las oportunidades y complejidades que generan estos fenómenos.

Metodología: se ha revisado la bibliografía publicada sobre los fenómenos lifelogging y quantified self desde su aparición hasta nuestros días. La búsqueda bibliográfica se ha realizado en bases de datos bibliográficas para los artículos y mediante buscadores generalistas para la información de los productos y aplicaciones, así como para las noticias de actualidad aparecidas en la prensa local e internacional.

Resultados: el resultado es una taxonomía de usos, aplicaciones y herramientas de lifelogging y quantified self. Se concluye que un factor determinante en su evolución será la capacidad de generar información de calidad a partir de los datos generados por el usuario. En ambos casos se ve necesario establecer estándares y protocolos que permitan una estructuración, gestión y análisis de los datos con el fin de optimizar los potenciales impactos positivos que puede generar el fenómeno del quantified self a la sociedad. — Objectives: This paper uses data generated by users to reflect on the emergent paradigm of lifelogging or quantified self as a lifestyle. It analyses the social and technological aspects of this phenomenon, focusing on data management, and it describes how the principles of big data enable us to understand the opportunities and complexities that quantified self is responsible for.

Methodology: The paper revises the bibliography published on lifelogging and quantified self from its beginnings to the present. The bibliographic search was completed using bibliographic databases for the articles and general search engines for information on products and applications and for news articles in the local and international press.

Results: The result is a taxonomy of uses, applications and tools for lifelogging and quantified self. The researchers conclude that the ability to generate quality information from user-generated data will be key in the development of this paradigm. It will also be necessary to establish standards and protocols to organize, manage and analyse the data so that the potentially positive impact of quantified self on society can be optimized.

Eines d’anàlisi de dades bibliogràfiques i construcció de mapes de coneixement: Bibexcel i Pajek

Interfície de Bibexcel i exemple de registre tipus. Les fletxes assenyalen els llocs on se selecciona el fitxer i el lloc on apareixen els registres

Els mapes de coneixement són instruments que ajuden a visualitzar informació. Si prenen com a base de l’anàlisi dades de naturalesa bibliogràfica es converteixen en una forma senzilla de proporcionar l’estat de la qüestió d’una àrea o un tema molt concret. Aquest treball se centra en la utilització d’informació científica bibliogràfica per produir un mapa, i presenta les eines per construir-los. Bibexcel s’usa per analitzar les dades extretes de la base de dades Web of Science i Pajek, per representar visualment els resultats. El treball descriu els passos necessaris per utilitzar aquestes aplicacions, especialment quan no mostren un dibuix adequadat a causa d’un nombre excessiu de dades. — Los mapas de conocimiento son instrumentos que ayudan a visualizar información. Si toman como base del análisis datos de naturaleza bibliográfica se convierten en una forma sencilla de proporcionar el estado de la cuestión de un área o tema muy concreto. Este trabajo se centra en la utilización de información científica bibliográfica para producir un mapa, presentando las herramientas para construirlos. Bibexcel es utilizado para analizar los datos extraídos de la base de datos Web of Science y Pajek para representar de forma visual los resultados. El trabajo describe los pasos necesarios para utilizar estas aplicaciones, especialmente cuando no son adecuadamente dibujados por contar con un número excesivo de datos. — Knowledge maps are tools that help visualize information. If they take bibliographical data as the basis for network analysis they become a simple means of getting to the crux of highly specific areas or subjects. This paper focuses on the use of scientific bibliographic information to produce a knowledge map and describes the tools that can do this. Bibexcel is used to analyze the data extracted from Web of Science and Pajek is used to visually represent the results. The paper describes the various steps in the procedure, focusing on what to do when visualization is hampered by too many data.

El CollectiveAccess, un sistema de gestió i difusió de col·leccions de museus, arxius i biblioteques

Fragment del formulari de catalogació disponible en una instal·lació amb el perfil de metadades Dublin Core

Es presenten les característiques principals del CollectiveAccess, un sistema de gestió i difusió de col·leccions digitals per a museus, arxius i biblioteques. Se’n descriuen els components principals, el procés d’instal·lació, l’estructura interna del sistema i es mostren alguns exemples de casos d’ús. Les versions analitzades del sistema són la 1.4 del Providence i la 2.0 del Pawtucket. — Se presentan las principales características de CollectiveAccess, un sistema de gestión y difusión de colecciones digitales para museos, archivos y bibliotecas. Se describen sus principales componentes, el proceso de instalación, la estructura interna del sistema y se muestran algunos ejemplos de casos de uso. Las versiones analizadas del sistema son la 1.4 de Providence y la 2.0 de Pawtucket. — This paper describes the main features of CollectiveAccess, a collections management and presentation system for the digital collections of museums, archives and libraries. The paper describes the main features of the system and explains how to install and configure the package. It also examines CA’s internal structure and gives examples of how it can be used. The system analyzed in the paper uses Version 1.4 of the core cataloguing application Providence and Version 2.0 of the public web-tool Pawtucket.

App, mobilitat de continguts per estendre serveis d’informació

The App Date (2013). http://bit.ly/16TuPuj

Les tendències de consum d’informació d’Internet mòbil han modificat l’escenari d’ús actual dels dispositius mòbils. El màxim exponent d’aquest canvi són les aplicacions mòbils (app) que representen noves possibilitats per a la mobilitat de continguts a partir de telèfons intel·ligents i tauletes. L’ús d’aquestes tecnologies permet el consum d’informació en qualsevol lloc i a qualsevol hora (everywhere, everytime). Els professionals de la informació hem de conèixer l’evolució dels conceptes smart, connexió de dades i connectivitat de persones a través de dispositius mòbils per fer evolucionar els serveis d’informació. Aquest treball analitza les principals evolucions tecnològiques en les comunicacions sense fils, aporta les principals dades sobre aquest creixement i la seva rellevància en el mercat de la informació, estableix com s’ha d’abordar un projecte tecnològic basat en aplicacions informàtiques per a dispositius mòbils i posa en valor els criteris d’èxit per al desenvolupament d’una aplicació mòbil enfocada a serveis d’informació. — Current trends in mobile media consumption have changed the way mobile devices are used and mobile applications or ‘apps’ are a prime example. Apps offer new opportunities for developing mobile media with smart phones and tablets and allow users to consume that media anywhere at any time. In order to offer competitive services, information professionals need to keep abreast of the developments in smart technology, data connection and the connectivity people have through mobile devices. This paper examines the main technological developments in wireless communication and considers data about its growth and relevance to the information market, establishing how to negotiate a technology project based on computer applications for mobile devices and how to successfully develop a mobile application focused on information services.