Dati e prodotti dal primo Open Data Day Italiano

LiMo Ontology

A pochi mesi di distanza dall'Open Data day il gruppo MISM (Modelli concettuali, Interoperabilità Semantica e Metadati ) pubblica la prima ontologia delle licenze opendata in Italia. La LiMo, studiata e realizzata da Andrea Raimondi di EvoDevo, Silvia Mazzini di Regesta.exe e Chiara Veninata dell'Archivio Centrale di Stato, ha l'obbiettivo di rendere uniforme l'attribuzione delle licenze attraverso un vocabolario controllato che specifica, per ogni modello legale, le condizioni d'uso, di attribuzione e di pubblicazione delle risorse pubbliche open.
Le licenze opendata non sono uno strumento tecnico per pochi esperti, ma un veicolo attraverso il quale riconsolidare la fiducia nelle Istituzioni. Il beneficio di una policy chiara per le risorse pubbliche è il vantaggio di un riuso commerciale che stimola la partecipazione e crea nuovo business intorno agli opendata.
I dati, se associati ad un licenza, forniscono una guida chiara agli utenti nel riuso delle risorse. La LiMo è un'opportunità per le Amministrazioni Pubbliche di utilizzare una risorsa disponibile gratuitamente per migliorare il livello di interoperabilità dei propri datastore. L'ontologia, infatti, rende automatizzabile molto del lavoro che oggi viene svolto a mano o non viene svolto affatto, garantendo una rappresentazione legale uniforme per tutto l'ambito degli opendata degli Enti italiani.
Oltre a fornire uno schema astratto di organizzazione delle risorse legali, la LiMo raccoglie già nella sua prima versione le maggiori licenze opendata, descritte attraverso i vocabolari FOAF, DC e VOID e integrate con i ns di riferimento già esistenti (come nel caso delle Creative Commons e di Eurovoc). La LiMO permette di definire all'interno dei dati le loro condizioni di utilizzo in modo chiaro e riusabile, e d'altra parte fornisce una base di lavoro per la rappresentazioni dei requisiti e dei criteri legali da associare.


LiMO

Un Catalogo Linked Open Data per gli Open Data delle PA

Il panorama dei portali Open Data e delle esperienze di pubblicazione italiane è variegato e in crescita (incontrollata), il risultato è un universo di siti e tecnologie che mancano di armonia ed integrità, rendendo di fatto complicato l'accesso ed il riuso.
Immaginare un coordinamento centralizzato è complicato e spesso mortificante per coloro che pubblicano: imporre tecnologie e strumenti non sempre garantisce che il "Pubblicatore virtuoso" con pochi fondi a disposizione sia in grado di adeguarsi alle richieste, il che bloccherebbe di fatto eventuali slanci di singoli amministratori verso le nuove politiche di trasparenza e diffusione.

La tecnologia però ci può esser d'aiuto.

Proponiamo qui un esperimento di integrazione di cinque portali Open Data (Firenze, Bologna, Provincia di Roma, Toscana, Lombardia e Piemonte) che, attraverso le tecnologie Linked Open Data e non più di due o tre giorni di lavoro, è in grado di dimostrare come si possa creare una rete informativa di accesso intuitivo a tutte le risorse pubblicate, senza che coloro che pubblicano debbano adeguare i propri sistemi o modificare le scelte già prese.


Triple RDF prodotte per ogni portale (agg. 26/05/2013)


EndPoint SPARQL - per la ricerca e l'accesso integrato


Le ontologie RDF utilizzate per la descrizione


I cataloghi navigabili via Pubby e LodLive


Alcuni esempi di integrazione


I progetti OpenSource realizzati in nodejs utili a convertire le varie fonti in RDF

Indagine sull'uso degli Open Data

In vista dell'Open Data Day proponiamo questo questionario per individuare le categorie di dati che la comunità italiana dell'open data ritiene immediatamente utilizzabili e che vorrebbe vedere online al più presto.
Il questionario rimane in forma anonima.

Per partecipare all'indagine: http://opendataday.it/questionario/

Per consultare i risultati in tempo reale è sufficiente accedere al seguente google doc
una più gradevole rappresentazione dei risultati è visualizzabile qui (agg. 21/02/2013)