Experiència d’implementació d’especificacions d’una estratègia de virtualització per fer-se càrrec d’obres d’art multimèdia obsoletes

Figura 1. Primer nivell d'accés a paquets de preservació.

  [Versión castellana] Jesús Robledano Arillo Professor del Departamento de Biblioteconomía y Documentación  Universidad Carlos iii de Madrid jroble@bib.uc3m.es ORCID: https://orcid.org/0000-0002-4090-8684 EXIT: https://www.directorioexit.info/ficha693   Resum Objectius: Presentar un model de preservació digital d’obres d’art multimèdia basat en la virtualització, idoni per a les necessitats de preservar digitalment els fons objecte de treball en el projecte “Vocabularios … Llegiu més

Altaveus intel·ligents i skills: una eina per fomentar la lectura infantil?

Figura 1. Utilitat dels altaveus intel·ligents.

Objectiu: l’article busca conèixer quines aplicacions relacionades amb la lectura per a altaveus intel·ligents estan disponibles a la botiga d’skills d’Amazon, quines són les característiques i les possibilitats com a recursos de foment lector.

Metodologia: s’estudien onze paràmetres de trenta skills amb la informació proporcionada per la botiga i l’anàlisi directa de cadascuna d’elles: categoria, tipus de contingut, actualització, ús del producte, privacitat, comentaris dels usuaris, etc.

Resultats: s’arriba a la conclusió que aquest producte emergent tindria potencialitat per fomentar la lectura, sempre que tingui uns criteris i una oferta variada i de qualitat, incorpori informació completa del producte a la botiga i actualitzi freqüentment els continguts, requisits demanats habitualment pels usuaris; però encara són poques les skills relacionades amb la lectura.

Creació, gestió i anàlisi d’un bot a biblioteques acadèmiques

Figura 1. Interfície gràfica d'usuari d'ANTswers

La primera part d’aquest article analitza com crear i gestionar un bot de conversa a biblioteques acadèmiques, incloent-hi el tipus d’estadístiques que s’haurien d’elaborar i la importància de revisar periòdicament les transcripcions. Creat l’any 2014, el bot de conversa en qüestió s’ha desenvolupat fins al punt en què, de mitjana, contesta correctament les preguntes dels usuaris de les biblioteques en un 70 % dels casos. La segona part és una anàlisi de més de 10.000 frases enviades pels usuaris (preguntes i afirmacions). L’anàlisi va emprar l’eina UAM CorpusTool per tal de crear capes i transcripcions de codi d’acord amb l’estructura de les frases, les afirmacions d’obertura i tancament, l’interès mostrat, així com els tipus de serveis i materials sol·licitats. Si bé el bot de conversa de les biblioteques està clarament identificat com un programa informàtic, una sèrie d’usuaris tracten habitualment el bot de conversa com si fos un ésser humà i hi mantenen llargues converses no relacionades amb les biblioteques. — La primera part d’aquest article analitza com crear i gestionar un bot de conversa a biblioteques acadèmiques, incloent-hi el tipus d’estadístiques que s’haurien d’elaborar i la importància de revisar periòdicament les transcripcions. Creat l’any 2014, el bot de conversa en qüestió s’ha desenvolupat fins al punt en què, de mitjana, contesta correctament les preguntes dels usuaris de les biblioteques en un 70 % dels casos. La segona part és una anàlisi de més de 10.000 frases enviades pels usuaris (preguntes i afirmacions). L’anàlisi va emprar l’eina UAM CorpusTool per tal de crear capes i transcripcions de codi d’acord amb l’estructura de les frases, les afirmacions d’obertura i tancament, l’interès mostrat, així com els tipus de serveis i materials sol·licitats. Si bé el bot de conversa de les biblioteques està clarament identificat com un programa informàtic, una sèrie d’usuaris tracten habitualment el bot de conversa com si fos un ésser humà i hi mantenen llargues converses no relacionades amb les biblioteques. — Part 1 of this paper discusses how to create and manage an academic library chatbot, including the type of statistics that should be kept and the importance of regularly reviewing transcripts. Created in 2014, the chatbot in question has been developed to the point where, on average, it correctly answers library users’ questions 70% of the time. Part 2 is an analysis of over 10,000 user-submitted sentences (questions and statements). The analysis used UAM CorpusTool to create layers and code transcripts according to sentence structure, opening and closing statements, showing interest, and types of service and materials requested. While the library chatbot is clearly marked as being a computer program, a number of users regularly treat the chatbot as human and hold long non-library related conversations with it.

Descripció automàtica d’arxius audiovisuals: NeuralTalk, un model de video-to-text aplicat a l’arxiu de RTVE

Descripcions subministrades pel sistema en la primera iteració

Objectiu: determinar la maduresa dels sistemes de video-to-text per a la descripció automàtica d’imatges en un arxiu de televisió.

Metodologia: es fa una prova de concepte mitjançant un sistema de video-to-text desenvolupat ad hoc. La prova es va articular en tres fases o iteracions diferents entre juny de 2016 i gener de 2017. En les dues primeres iteracions el sistema va analitzar un nombre determinat de continguts procedents de l’arxiu de RTVE, les descripcions es van valorar per establir la taxa d’encert del sistema o, en altres paraules, com de propera era aquesta descripció a la que podia haver subministrat un ésser humà. En una tercera fase, i prèviament a l’anàlisi dels continguts, es va entrenar el sistema utilitzant tècniques d’aprenentatge profund amb l’objectiu de millorar els resultats.

Resultats: els resultats obtinguts posen de manifest que es tracta d’una tecnologia prometedora, si bé resulta fonamental aprofundir més en els mecanismes que serien necessaris per a la seva posada en producció en els arxius de televisió. — Objetivo: determinar la madurez de los sistemas de video-to-text para la descripción automática de imágenes en un archivo de televisión. Metodología: se realiza una prueba de concepto mediante un sistema de video-to-text desarrollado ad hoc. La prueba se articuló en tres fases o iteraciones distintas entre junio de 2016 y enero de 2017. En las dos primeras iteraciones el sistema analizó un número determinado de contenidos procedentes del archivo de RTVE, las descripciones se valoraron para establecer la tasa de acierto del sistema o, en otras palabras, cómo de cercana era dicha descripción a la que podía haber suministrado un ser humano. En una tercera fase, y previamente al análisis de los contenidos, se entrenó al sistema utilizando técnicas de aprendizaje profundo con el objetivo de mejorar los resultados.

Resultados: los resultados obtenidos ponen de manifiesto que se trata de una tecnología prometedora, si bien resulta fundamental profundizar más en los mecanismos que serían necesarios para su puesta en producción en los archivos de televisión. — Objective: To assess the deep learning capability of a video captioning model for automated image description in a television archive.

Methodology: Our proof of concept tested an ad hoc video-captioning model in three iterations between June 2016 and January 2017. In the first and second iterations the model was used to analyse a selection of content from the archives of the Spanish Radio and Television Corporation (RTVE) and the descriptions it generated were evaluated to determine the model’s success rate, i.e., how close it came to providing human-like image descriptions. In the third iteration and before the content was analysed, the model was trained using deep learning techniques to optimise the results.

Results: The results indicate that the model has potential, although further development will be required to customise its use in television archives.