Tu vuo far el phdino
Heritrace
Analisi dei dati
Test
- Partecipanti finora
- Utenti finali: 4
- Configuratori: 4
Domande
Gentilissimo, Trattandosi di documentazione amministrativa, è possibile contattare anche gli uffici dell’ateneo partner e, a tal proposito, possiamo certamente scrivere noi ai colleghi. Le rammento, ad ogni modo, che dovrà anche richiedere il riconoscimento delle attività svolte durante la mobilità Erasmus al collegio di dottorato, presentando al collegio una lettera in carta intestata della sua referente di Leuven in cui siano indicate le attività svolte e un giudizio sulle stesse. Il collegio delibererà, di conseguenza, il riconoscimento delle attività da lei svolte durante il periodo di scambio Eramsus+. Se desidera supporto nel contattare gli uffici amministrativi di Leuven la prego di non esitare a chiedere. Saluti, Andrea Zaniboni, PhD
RML
- Test dockerizzati
- Recupero informazioni dallo schema originale. Utile per ricostruire ordine colonne e datatype se non inferibili dai mapping
- considero bad mapping nel caso in cui la tabella originale abbia righe duplicate e il mapping non contenga informazioni sugli indici
- Un altro caso di bad mapping sono mappature con solo costanti
- Un altro caso di bad mapping è quello in cui una certa colonna non venga minimamente menzionata nel mapping e i dati di quella colonna non vengano minimamente menzionati nell’RDF prodotto tramite il mapping. In quel caso io posso anche recuperare dallo schema l’esistenza di quella colonna, però non ho poi modo di ricostruire i dati
- Miglioramenti query SPARQL di inversione
- Nomi variabili parlanti, non semplici numeri impossibili da debuggare. (?1, ?2, ?3) -> (?Name, ?StudentID, ?Name_2)
- Più efficienti, non filter bind (bind da solo basta) e no bind vuoti, che tra l’altro causavano errori
- No ENCODE_FOR_URI, che rende le query più complesse. Ciò che va encodato viene encodato direttamente via Python, tipo stringhe contenenti spazi dentro template. Questo ha permesso una semplificazione enorme del codice, perché è più semplice costruire le query
- Rimosso OPTIONAL, non ha senso e rende le query più lente.
- Benchmark con 10000 righe e 150k triple passato da 184 secondi a 6 e ha reso possibile il benchmark con 50k righe e 2 milioni di triple che prima andava in timeout. Quest’ultimo impiega comunque 55s
CSV,conf,v9
- Promettiamo una data di lancio?
- Non mi è chiaro se OJS estragga automaticamente le citazioni o meno
- Sarebbe carico avere un mockup di OJS, no?
- OJS è un software. Questo software potrebbe essere usato da riviste predatorie, che poi usato il plugin di OpenCitations. A noi questa cosa va bene? Immagino di sì perché puntiamo a essere universali, dopodiché è l’utente che decide cosa usare e cosa no. Chi decide quali journal sono trusted?
- Io cosa voglio dal mio pubblico? Cosa gli sto chiedendo? Qual è la call to action?
- Come si diventa trusted agent?
Domande
- 1825 euro
Memo
- Tesi
- Aggiungere ParaText
- Crowdsourcing future works
- Csv,conf,v9
CSV,conf,v9
- Scrivo a Gazi per dire che sto presentando e vorrei mostrare un mockup se ne hanno uno. Nella email che gli mando dico che ho la presentazione nella stessa email gli dico di organizzare una ripresa dei lavori.
OpenCitations
- Rifare dump (Crossref e Datacite)
- Risolvere la questione ORCID
- Rilanciare processo eliminazione duplicati
“reference”: { “@id”: “frbr:part”, “@type”: “@vocab” } → bibreference
“crossref”: { “@id”: “biro:references”, “@type”: “@vocab”} → reference
“crossref”: “datacite:crossref”
Ripubblicare dbpedia agnostica su Zenodo e si può usare time-agnostic-library su db pedia agnostica
oc_ocdm
- Automatizzare mark_as_restored di default. è possibile disabilitare e fare a mano mark_as_restored.
https://opencitations.net/meta/api/v1/metadata/doi:10.1093/acprof:oso/9780199977628.001.0001
Guida per Meta e cerotti
DELETE con variabile
Modificare Meta sulla base della tabella di Elia
embodiment multipli devono essere purgati a monte
Portare il Meta Editor fuori. oc_editor
Modificare documentazione API aggiungendo omid
Heritrace
- Per risolvere le performance del time-vault non usare la time-agnostic-library, ma guarda solo la query di update dello snapshot di cancellazione.
- Ordine dato all’indice dell’elemento
- date: formato
- anni: essere meno stretto sugli anni. Problema ISO per 999. 0999?
- Opzione per evitare counting
- Opzione per non aggiungere la lista delle risorse, che posso comunque essere cercate
- Configurabilità troppa fatica
- Collegamento da review e articolo revisionato.
- Timer massimo. Timer configurabile. Messaggio in caso si stia per toccare il timer massimo.
- Riflettere su @lang. SKOS come use case. skos:prefLabel, skos:altLabel
- Possibilità di specificare l’URI a mano in fase di creazione
- la base è non specificare la sorgente, perché non sarà mai quella iniziale.
- desvription con l’entità e stata modificata. Tipo commit
- display name è References Cited by VA bene
- Avvertire l’utente del disastro imminente nel caso in cui provi a cancellare un volume
Meta
- Fusione: chi ha più metadati compilati. A parità di metadato si tiene l’omid più basso
- Issue github parallelizzazione virtuoso
- frbr:partOf non deve aggiungere nel merge: https://opencitations.net/meta/api/v1/metadata/omid:br/06304322094
- API v2
- Usare il triplestore di provenance per fare 303 in caso di entità mergiate o mostrare la provenance in caso di cancellazione e basta.
RML
- Vedere come morh kgc rappresenta database internamente
- https://dylanvanassche.be/assets/pdf/iswc2024-krown-benchmark-rdf-graph-materialisation.pdf
https://github.com/oeg-upm/gtfs-bench
- Chiedere Ionannisil diagramma che ha usato per auto rml.
Crowdsourcing
- Quando dobbiamo ingerire Crossref stoppo manualmente OJS. Si mette una nota nel repository per dire le cose. Ogni mese.
- Aggiornamenti al dump incrementali. Si usa un nuovo prefisso e si aggiungono dati solo a quel CSV.
- Bisogna usare il DOI di Zenodo come primary source. Un unico DOI per batch process.
- Bisogna fare l’aggiornamento sulla copia e poi bisogna automatizzare lo switch
docker compose atom melody, con un volume per gli asset. C’è una documentazione su come si lanciano entrambi fatti da Giulia Renda. Fine maggio
Archivio
10-02-2022. Triplestore del terzo tipo
16-03-2022. Opinionated Meta model
22-03-2022. GraphDB vs Blazegraph
29-03-2022. Pattern per volumi e numeri
08-04-2022. Time-agnostic-library +300%
19-04-2022. 1 task per process and lock on files
13-05-2022. Time-agnostic-library ultra-compatibile
17-05-2022. Codice benchmark tab aggiornato
26-05-2022. Progetto di dottorato v1.0.0
07-06-2022. In preparazione alla lettera di risposta
21-06-2022. It’s outreach time
19-07-2022. I wish my code will work at the first time
06-09-2022. Query combinate con le apette
13-09-2022. OpenCitations full automations
20-09-2022. OpenCitations full automated
13-10-2022. Anche Crossref rompe i DOI
20-10-2022. OpenAIRE Research Graph
25-10-2022. OpenCitations Meta
03-11-2022. Fuso orario nella provenance
08-11-2022. Ottimizzazione API OC Meta
22-11-2022. Programmazione agile
01-12-2022. L’articolo su Meta è pronto
20-12-2022. Il giorno del lancio
17-01-2023. Inizio del dottorato
31-01-2023. merge tra entità con prefissi diversi
07-02-2023. rdflib-ocdm genera gli snapshot
07-03-2023. oc_ocdm usa SHACLE
17-04-2023. SPARQLWrapper timeout
27-04-2023. Conversione BEAR fatta
02-05-2023. Meta: 28 min → 3 min
09-05-2023. Bug autori API risolto
16-05-2023. Pseudocodice in LaTeX
23-05-2023. Pseudocodice come?
25-07-2023. Una-Her-Doc bureaucracy
12-09-2023. Mi è scappata la mano e ho finito il dottorato
26-09-2023. Articolo Meta fatto
22-11-2023. Risolto il bug dei bug in Meta
11-01-2023. ExportKB dà problemi
18-12-2023. Merge delle entità duplicate
23-01-2024. Programmazione tutoraggio
01-02-2023. Primo lancio dei test su BEAR
07-02-2024. time-agnostic-library da ripensare
12-03-2024. Align data with triplestore
19-03-2024. supplier_prefix once again
26-03-2024. Ricorsione SPARQL manuale
17-04-2024. Il lusso della qualità
23-04-2024. Ho sfasciato il PC
20-05-2024. Primo tentativo di resuscitazione fallito
30-05-2024. Migrazione su Virtuoso
04-06-2024. Esoterismo virtuoso
11-06-2024. Migrazione riuscita
25-06-2024. R2RML tests completed
30-07-2024. Finalmente ho trovato i bug in Meta
09-11-2024. Tre entità alla volta
18-09-2024. HERITRACE: issue, volume, journal
27-09-2024. SHACL Advanced Features
01-10-2024. Contatori su Redis
08-10-2024. Nuove proprietà di entità esistenti
31-10-2024. Correzione della provenance
07-11-2024. Ricerca su HERITRACE
11-11-2024. HERITACE è più bellino
02-12-2024. Meta: disaster recovery
09-12-2024. HERITRACE: lock risorse
30-01-2025. Bug storici di Meta risolti
04-02-2025. Archiviazione automatica report validazione
23-02-2025. Revisione provenance DSH
27-02-2025. HERITRACE Francesca buggifixxi
25-03-2025. Top level search in nested search
02-04-2025. Script provenance Aldrovandi
16-04-2025. Interfaccia di merge
24-04-2025. Time Agnostic Mess
08-05-2025. Bulk load della provenance fatto
05-06-2025. Meta fulmine di guerra ed HERITRACE 1.0.0 terminata
10-06-2025. Merge CSV dumps light