index
La Novitade
Section titled “La Novitade”Aldrovandi
Section titled “Aldrovandi”feat(zenodo): add module for preparing and uploading entity packages
Queries kg.ttl for licensed entity/stage combinations, groups folders by entity ID, creates one zip per entity with all stages, and generates piccione-compatible YAML configs for Zenodo upload.
feat(zenodo): add complete creators list with ORCIDs
feat(zenodo): update keywords
feat(zenodo): add support for all Zenodo API metadata fields [release]
refactor(zenodo): split uploads into separate records per stage
Each processing stage (raw, rawp, dcho, dchoo) now becomes a separate Zenodo record instead of bundling all stages into a single entity record.
feat(zenodo): extract authors dynamically from RDF knowledge graph
Instead of assigning all 27 creators to every Zenodo record, authors are now extracted from the RDF graph via crm:P14_carried_out_by for each entity/stage combination. A lookup table maps RDF names to Zenodo metadata (affiliation, ORCID).
refactor: convert output format from JSON-LD to Turtle/TriG with CC0 license via metadata.add((URIRef(""), DCTERMS.license, CC0))
feat(zenodo): add comprehensive metadata
Add dynamic license extraction from RDF, publication date generation, and enhanced descriptions. Include static metadata fields: communities, related works, locations, notes, and method.
feat(zenodo): add entity URI as alternate identifier
Add the entity URI (e.g., https://w3id.org/changes/4/aldrovandi/itm/27/ob00/1) to Zenodo uploads via the related_identifiers field with relation isAlternateIdentifier.
Ho scoperto il software usato da Zenodo: https://inveniordm.docs.cern.ch/ Infatti, se si usano le API legacy di Zenodo non si possono specificare più licenze, con quelle nuove di InvenioRDM invece sì.
Con le nuove API i tempi di caricamento sono anche infinitamente più rapidi.
feat(zenodo): add support for multiple licenses with descriptive titles
Use InvenioRDM rights array format instead of legacy license field. Each license now has a custom title indicating whether it applies to metadata or content, making it immediately visible in the Zenodo UI.
La risultatazione
Section titled “La risultatazione”- https://sandbox.zenodo.org/records/432369
- https://sandbox.zenodo.org/records/432371
- https://sandbox.zenodo.org/records/432362
- https://sandbox.zenodo.org/records/432367
Mobility and migration broadly understood
Section titled “Mobility and migration broadly understood”From Maya blue to digital permanence: a 500-year migration toward immortality
Section titled “From Maya blue to digital permanence: a 500-year migration toward immortality”The Codex Cospi, one of only fourteen surviving pre-Columbian manuscripts, arrived in Bologna in 1533 as a gift from the Dominican friar Domingo de Betanzos to Pope Clement VII. In the five centuries since, it has traveled through private collections, public museums, and academic institutions, each transfer transforming its meaning: from sacred divination manual to exotic curiosity, from museum piece to subject of scientific inquiry.
This contribution traces the codex’s migrations as a case study in knowledge preservation across time. The narrative begins with Maya Blue, the synthetic pigment that colors its pages - a nanocomposite material invented a thousand years ago, whose production technique was lost after the Spanish conquest but whose brilliance endures. Maya Blue serves as a metaphor for the manuscript itself: knowledge that survives even when its context is forgotten.
The presentation examines three phases of the codex’s migration: its physical migration from Mesoamerica to Europe; its institutional migration through 132 years of undocumented ownership followed by centuries of cataloguing and scientific analysis; and its current digital migration within the CHANGES project at the University of Bologna. This final phase raises a question: how do we ensure that digital twins carry not just images, but the knowledge needed to interpret them?
Drawing on the FAIR principles and semantic web technologies, the contribution argues that contemporary metadata practices continue a tradition of documentation stretching back to Lorenzo Legati’s 1677 description in the Museo Cospiano. The responsibility remains the same: to create records that might outlast us.
Domande
Section titled “Domande”Aldrovandi
Section titled “Aldrovandi”- Non trovo il progetto CHANGES su OpenAIRE, che è la fonte usata da Zenodo per i progetti. Serve per il campo grants.
- Abbiamo detti che
Questo fa sì che gli autori delle fasi 5 e 6, ovvero metadatazione e pubblicazione, finiscano su Zenodo come autori del dchoo, il che non è vero. Li tolgo?STAGE_STEPS = {"raw": ["00"],"rawp": ["00", "01"],"dcho": ["00", "01", "02"],"dchoo": ["00", "01", "02", "03", "04", "05", "06"],}
- Vanno bene degli zip normali o uso livelli di compressione più aggressivi? Tipo 7z a livello 9.
- va bene Zenodo come publisher?
- Nella mia tesi dico che la FICLIT DL usa Omeka S. Questa cosa è ancora vera?7
Aldrovandi
-
Bisogna caricare su Zenodo soltanto gli oggetti a cui è associata una licenza, dove per oggetti si intende l’entità di ogni sottotipologia RAW, RAWP, DCHO e DCHOO.
-
La provenance andrà salvata su un unico file Turtle da inviare a Ivan.
-
Bisogna inserire la licenza CC- all’interno di ogni file metadatale, ovvero sia in meta.ttl che in prov.ttl
-
Bisogna salvare una tabella di associazione tra ciascuna entità e il DOI su Zenodo
-
Bisogna chiedere a Silvio la tabella CSV da cui ricavare i nomi delle colonne, tabella che andrà compilata con le informazioni sui documenti che abbiamo caricato su Zenodo. Vizioso
-
https://en.wikipedia.org/wiki/Compilers:_Principles,_Techniques,_and_Tools
-
HERITRACE
- C’è un bug che si verifica quando uno seleziona un’entità preesistente, poi clicca sulla X e inserisce i metadati a mano. Alcuni metadati vengono duplicati.
- Se uno ripristina una sotto entità a seguito di un merge, l’entità principale potrebbe rompersi.
-
Meta
- Bisogna produrre la tabella che associa temp a OMID per produrre le citazioni.
-
OpenCitations
- Rifare dump (CrossRef e DataCite)
- Risolvere la questione ORCID
- Rilanciare processo eliminazione duplicati
-
“reference”: { “@id”: “frbr:part”, “@type”: “@vocab” } → bibreference
-
“crossref”: { “@id”: “biro:references”, “@type”: “@vocab”} → reference
-
“crossref”: “datacite:crossref”
-
Ripubblicare dbpedia agnostica su Zenodo e si può usare time-agnostic-library su db pedia agnostica
-
oc_ocdm
- Automatizzare mark_as_restored di default. è possibile disabilitare e fare a mano mark_as_restored.
-
https://opencitations.net/meta/api/v1/metadata/doi:10.1093/acprof:oso/9780199977628.001.0001
-
Guida per Meta e cerotti
-
DELETE con variabile
-
Modificare Meta sulla base della tabella di Elia
-
embodiment multipli devono essere purgati a monte
-
Portare il Meta Editor fuori. oc_editor
-
Modificare documentazione API aggiungendo omid
-
Heritrace
- Per risolvere le performance del time-vault non usare la time-agnostic-library, ma guarda solo la query di update dello snapshot di cancellazione.
- Ordine dato all’indice dell’elemento
- date: formato
- anni: essere meno stretto sugli anni. Problema ISO per 999. 0999?
- Opzione per evitare counting
- Opzione per non aggiungere la lista delle risorse, che posso comunque essere cercate
- Configurabilità troppa fatica
- Timer massimo. Timer configurabile. Messaggio in caso si stia per toccare il timer massimo.
- Riflettere su @lang. SKOS come use case. skos:prefLabel, skos:altLabel
- Possibilità di specificare l’URI a mano in fase di creazione
- la base è non specificare la sorgente, perché non sarà mai quella iniziale.
- desvription con l’entità e stata modificata. Tipo commit
- display name è References Cited by VA bene
- Avvertire l’utente del disastro imminente nel caso in cui provi a cancellare un volume
-
Meta
- Fusione: chi ha più metadati compilati. A parità di metadato si tiene l’omid più basso
- Issue github parallelizzazione virtuoso
- frbr:partOf non deve aggiungere nel merge: https://opencitations.net/meta/api/v1/metadata/omid:br/06304322094
- API v2
- Usare il triplestore di provenance per fare 303 in caso di entità mergiate o mostrare la provenance in caso di cancellazione e basta.
-
RML
- Vedere come morh kgc rappresenta database internamente
- https://dylanvanassche.be/assets/pdf/iswc2024-krown-benchmark-rdf-graph-materialisation.pdf
https://github.com/oeg-upm/gtfs-bench
- Chiedere Ionannisil diagramma che ha usato per auto rml.
-
Crowdsourcing
- Quando dobbiamo ingerire Crossref stoppo manualmente OJS. Si mette una nota nel repository per dire le cose. Ogni mese.
- Aggiornamenti al dump incrementali. Si usa un nuovo prefisso e si aggiungono dati solo a quel CSV.
- Bisogna usare il DOI di Zenodo come primary source. Un unico DOI per batch process.
- Bisogna fare l’aggiornamento sulla copia e poi bisogna automatizzare lo switch