VII Workshop ArcheoFOSS 2012

Palazzo Massimo alle Terme, 11-12-13 giugno 2012

Abstracts delle relazioni e dei posters presentati

NB: gli Autori possono utilizzare i web links presenti negli abstracts per il download dei propri files dalla piattaforma di MyReview ArcheoFOSS 2012 


Martedì 12


La crisi del settimo anno. Sei rassegne di progetti Open source per l'archeologia italiana

Augusto Palombini (CNR - ITABC), Stefano Costa (Università degli Studi di Siena)

Giunti alla settima edizione del workshop, gli autori (entrambi testimoni sin dal primo evento) provano una sintesi e un bilancio di quanto sin qui presentato, parallelamente a una classificazione delle proposte nelle sei edizioni. Quali progetti hanno avuto una ricaduta concreta ed hanno portato significativi sviluppi nel panorama dell'archeologia italiana? Quanti i caduti sul cammino, di cui si è persa ogni traccia? Quale la sorte e il percorso di queste applicazioni?

Ci si propone sostanzialmente una riflessione su come è evoluta l'archeologia in questo periodo dal punto di vista del software libero, cioè come le proposte di ArcheoFOSS hanno inciso (ove ciò è accaduto) sull'organizzazione del lavoro e del rapporto con le istituzioni.

La cultura di un'informazione aperta e del software libero hanno in qualche modo fatto breccia e migliorato la pratica archeologica?

Se sì, dove, e perché? E' possibile qualche ipotesi sulle prospettive che si delineano oggi in questa direzione, alla luce di questi sette anni di tentativi?

File .Zip Download

File .Pdf File non presente

File .Txt File non presente


Sessione Open data in Archeologia


Open data: alcune considerazioni sulla Pubblica Amministrazione e sui Beni Culturali e Paesaggistici in Italia

Marco Ciurcina (Studio legale Ciurcina), Piergiovanna Grossi (Università di Verona)

 E' sicuramente pleonastico ribadire come l'avvento di internet abbia rivoluzionato l'accesso alle informazioni, consentendo l'accesso ad enormi quantità di dati nel momento e nel luogo in cui ci si trova. E' però altrettanto innegabile che alla rapidità dell'evoluzione delle modalità di accesso all'informazione e alla repentinità della messa a disposizione dei dati non ha corrisposto un'evoluzione del diritto di autore e delle leggi che in generale regolano la privacy e la tutela dei beni immateriali. Si assiste pertanto in questi anni a un processo di riforma delle regole che normano i contenuti digitali. In questo contesto nasce il movimento degli Open data (cf. per una definizione di Open data (Open Content e Open Services): http://opendefinition.org/ http://opendefinition.org/okd/italiano/ ). Esso trae origine da precedenti movimenti quali il movimento per il Software libero (nato ufficialmente nel 1983 con il progetto GNU), il movimento dell'Open Access (nato ufficialmente nel 2001) e dell'Open Knowledge (nato ufficialmente nel 2004 con la Open Knowledge Foundation) e mira sostanzialmente a favorire la distribuzione, condivisione, riuso delle opere sul web. In particolare il movimento degli Open data è promosso dalle iniziative di numerosi governi, quali ad esempio quello americano o inglese, sotto la guida di Obama e Cameron, i quali mirano all'apertura e alla massima condivisione dei dati pubblici. Anche in Italia il movimento ha avuto recentemente una spinta da parte degli organi governativi, si pensi ad esempio alla creazione del portale dedicato all'apertura dei dati della pubblica amministrazione (www.dati.gov.it) o alla legge regionale piemontese, che promuove a sua volta l'apertura dei dati regionali (www.dati.piemonte.it) o alla apposita licenza creata dal Formez per i dati pubblici (www.formez.itiodl). A questa tendenza all'apertura, si contrappone la situazione alquanto complessa del settore dei Beni Culturali, dove alle normative sulla tutela della privacy si sovrappongono le normative sulla tutela dei beni, sul loro studio e uso, sui diritti di riproduzione. Nella fattispecie gli archivi delle Soprintendenze per i Beni Archeologici raccolgono documenti di tipo amministrativo e documenti di tipo scientifico. Nel primo caso i documenti possono essere soggetti a problemi di tutela di privacy di persone o tutela di beni cui il documento fa riferimento. Nel secondo caso possono aggiungersi anche problemi di tutela dei beni immateriali, di chi ha prodotto una rielaborazione di dati o ha fornito una valutazione di dati “grezzi”. In tutti questi casi i dati pubblicati, su testo cartaceo come su web, sono soggetti alle norme che regolano la privacy (Garante per la protezione dei dati personali: D. Lgs. n. 196/2003 - http://www.garanteprivacy.itgarante/doc.jsp?ID=1311248), la tutela dei Beni (Codice dei Beni Culturali e del Paesaggio: http://www.beniculturali.itmibac/export/MiBAC/sito-MiBAC/MenuPrincipale/Normativa/Norme/index.html), il diritto d'autore (Legge sul diritto d'autore: Legge 22 aprile 1941, n. 633 www.interlex.ittesti/l41_633.htm). Nei casi invece di dati non soggetti a tutela, ad esempio i dati di scavo o i dati relativi a beni conservati presso Musei e Soprintendenze, la divulgazione può essere soggetta al diritto del costitutore di Banche Dati (Diritto sui generis ex art. 102-quater lda). In tali casi l'ente o chi per esso può pubblicare e divulgare i propri dati regolandone l'uso in base all'applicazione di una licenza. Esistono per le banche dati diverse licenze libere, le quali garantiscono il libero accesso e il libero utilizzo dei dati contenuti nella Banca dati: PDDL http://opendatacommons.org/licenses/pddl/, ODC-by http://opendatacommons.org/licenses/by/, ODC-ODbL http://opendatacommons.org/licenses/odbl/, CC0 http://creativecommons.org/publicdomain/zero/1.0/. Se da un lato manca forse allo stato attuale una normativa solida e chiara di favore per la libera disponibilità delle Banche di Dati pubbliche, che possa mettere i funzionari nelle condizioni di optare per tale scelta senza incertezze, dall'altro lato esistono gli strumenti (norme e licenze) per aprire le banche dati dei Beni Culturali al pubblico. Gli obiettivi sono principalmente quelli di snellire la macchina burocratica favorendo l'accesso ai dati da parte di studiosi e tecnici addetti alla tutela dei beni o alla pianificazione territoriale e urbanistica; di ridurre i costi di gestione di licenze d'uso e licenze di riproduzione, spesso gravosi per l'ufficio preposto; di favorire la trasparenza dell'informazione sul valore del bene al fine di incentivarne la tutela da parte dei cittadini.

Software Licenses: no

Dati utilizzati: no

Open Data utilizzati: no

Web Links: no

File .Zip File non presente

File .Pdf File non presente

File .Txt File non presente


MOD (Mappa Open Data)

Conservare, disseminare, collaborare: un archivio open data per l’archeologia italiana

Francesca Anichini, Maria Letizia Gualandi, Valerio Noti, Gabriele Gattiglia

(Università di Pisa - Dipartimento di Scienze Archeologiche)

  Negli ultimi mesi si è fatta sempre più accesa la discussione a livello internazionale - e fortunatamente anche nazionale - sugli open data e sull’importanza dell’accessibilità dei dati pubblici. Per promuovere la diffusione dei dati prodotti dalla ricerca finanziata con denaro pubblico, in Europa sono stati avviati due distinti progetti, denominati rispettivamente OpenAIRE e OpenAIREplus: il primo è dedicato all’open access, il secondo (avviato nello scorso dicembre 2011) all’open data. Le dinamiche della rete, in particolare quelle legate all’idea dello sharing, cioè della legittimità e dell’utilità della condivisione dei lavori digitali non commerciali per scopi culturali, rappresentano del resto un potente incentivo verso l’apertura degli archivi. Per converso, chi vi si oppone, lo fa in nome del principio della “proprietà intellettuale” che però, così come viene di norma [mal]intesa nel settore umanistico (e quindi anche nel mondo archeologico), finisce con il costituire un freno allo sviluppo non solo culturale, ma anche economico. La condivisione collaborativa, che nell’archeologia anglosassone è stata condensata nel volume Archaeology 2.0, sta finalmente facendo breccia (sia pure fra mille difficoltà e distinguo) anche in Italia, dove peraltro i dati archeologici sono prodotti da ricerche che, nella maggior parte dei casi, sono finanziate con denaro pubblico. È a questa filosofia che si riallaccia il progetto MAPPA (Metodologie Applicate alla Predittività del Potenziale Archeologico), teso a realizzare un archivio archeologico open data, premessa anche per quell’archeologia predittiva che rappresenta la risposta più innovativa alla necessità di far convivere la tutela dei resti del nostro passato con le esigenze di vita del nostro presente e del nostro futuro. Il termine open data ha un significato preciso. I dati aperti hanno infatti caratteristiche determinate e definite, dovendo essere: -completi: devono cioè comprendere tutte le componenti che consentano di esportarli, utilizzarli online e offline, integrarli e aggregarli con altre risorse e diffonderli via web; devono riportare le specifiche adottate per la loro realizzazione; -primari: cioè grezzi, in modo da poter essere integrati e aggregati con altri dati e contenuti in formato digitale; -tempestivi: gli utenti devono essere messi in condizione di accedere e utilizzare i dati presenti sul web in modo rapido e immediato, massimizzando il valore e l’utilità derivanti dall’accesso e dall’uso di queste risorse; -accessibili: devono essere accessibili a tutti, direttamente attraverso i protocolli internet, senza alcuna sottoscrizione di contratto, pagamento, registrazione o richiesta ufficiale; devono essere trasmissibili e interscambiabili tra tutti gli utenti direttamente via web; -leggibili da computer: è necessario che i dati siano machine-readable, ovvero processabili in automatico dal computer; -non proprietari: gli utenti devono poter utilizzare e processare i dati attraverso programmi, applicazioni e interfacce non proprietarie e aperte Al contempo, i dati devono essere pubblicati e riutilizzabili in formati semplici e generalmente supportati dai programmi più usati dalla collettività digitalizzata, liberi da licenze che ne limitino l’uso. Inoltre, i dati sono aperti se liberi da restrizioni che ne impediscano l'uso e il riuso, anche a scopo commerciale; -riutilizzabili: gli utenti devono essere messi in condizione di riutilizzare e integrare i dati, fino a creare nuove risorse, applicazioni, programmi e servizi; -ricercabili: è necessario assicurare agli utenti l’opportunità di ricercare con facilità e immediatezza i dati, mediante strumenti di ricerca ad hoc, come database, cataloghi e search engine; -permanenti: le peculiarità descritte devono caratterizzare i dati nel corso del loro intero ciclo di vita sul web. In campo archeologico i dati primari o grezzi sono i dati archeografici prodotti in seno a un’indagine, vale a dire la documentazione grafica, fotografica, compilativa e la quantificazione dei reperti mobili, debitamente collocati nello spazio geografico. Solo la libera accessibilità ai dati grezzi, secondo il paradigma dell'open data, consentirà di fare un ulteriore passo in avanti verso un archeologia veramente 2.0. Il futuro della ricerca archeologica è, infatti, interconnesso alla conservazione dei dati e al loro libero riutilizzo per ulteriori indagini ed analisi. Eseguire uno scavo o un survey archeologico vuol dire documentare in maniera analitica ogni evidenza individuata, tradurre in documenti scritti, grafici e fotografici quanto emerge nelle operazioni di scavo o di ricognizione. Questo processo archeografico è quello che permette a coloro che hanno direttamente eseguito l'indagine di procedere all’interpretazione storica e, successivamente, consente a qualunque altro studioso di riutilizzare la documentazione raccolta nel corso delle indagini sul campo per formulare ulteriori ipotesi e ricostruzioni storiche. È quindi fondamentale che il dato archeografico sia affidabile, disponibile, aperto e riutilizzabile. Se, infatti, non si possono fare buoni ragionamenti critici senza una buona descrizione dei dati di partenza, non si può fare archeologia senza archeografia. Lo scavo archeologico, e in parte anche il survey, sono pratiche non ripetibili. L'unico elemento di riproducibilità e di ri-analisi è costituito dalla continua possibilità di utilizzare i dati grezzi. Pertanto la loro condivisione è l’unico modo che permette alla comunità scientifica la comprensione e l'eventuale rilettura del processo interpretativo. Ma non solo: la condivisione permette anche il riutilizzo dei dati su scale differenti, per fornire risposte a domande diverse in relazione a nuove indagini. I dati grezzi sono infatti il vero e unico «codice sorgente» dell'archeologia. «La proprietà intellettuale è un male inutile», hanno scritto recentemente Boldrin e Levine: si tratta di un’affermazione forte, ma è certo che, così come la si intende generalmente nelle scienze umanistiche -ovvero come il diritto, da parte di chi li ha prodotti, di appropriarsi dei dati, facendone un uso esclusivo per anni e talvolta per decenni (quando non disperdendoli, senza che nessuno ne abbia mai potuto prenderne visione) - la proprietà intellettuale rappresenta un freno all’innovazione e allo sviluppo della ricerca, impedendo, di fatto, l’apertura di nuovi filoni di studio e di nuove e più accurate sintesi. D’altra parte, questa prassi si basa su una malintesa interpretazione del principio di «proprietà intellettuale», che non va confusa con la «paternità intellettuale», che al contrario va tutelata e valorizzata più e meglio di quanto non si faccia oggi, attraverso quel sistema di corrette citazioni che la ricerca scientifica ben conosce. Se si parte dalla considerazione che la pratica archeografica, sia essa frutto del lavoro di professionisti o di ricercatori afferenti a strutture pubbliche, come le Università e le Soprintendenze, è sempre e comunque un'attività di ricerca (dal momento che produce dati unici e irripetibili) e che non vi è ricerca fino a quando non vi è pubblicazione del dato, appare evidente come la condivisione dei dati grezzi debba essere considerata come una pubblicazione scientifica a tutti gli effetti, salvaguardando sia le competenze che la capacità professionale e l’impegno, anche temporale, profuso da chi quel dato ha prodotto con il suo lavoro sul campo. Il web rappresenta il supporto ideale per pubblicare i dati archeografici giacché consente, grazie alle attuali tecnologie, di distribuire conoscenza a costi ridotti. La pubblicazione dei dati grezzi (archeografica) deve, quindi, essere garantita e riconosciuta nella sua paternità, così come la pubblicazione dei dati interpretati (archeologica) deve essere regolamentata da un diritto di prelazione, da parte di chi ha prodotto i dati, limitato e definito nel tempo (sei mesi dalla fine dello scavo? un anno? due anni?), lasciando contestualmente liberi i dati per altre analisi attraverso l'uso di licenze come, ad esempio, CC BY e l’uso di DOI (Digital Object Identifier). Per rendere i dati aperti ricercabili (e quindi fruibili), questi devono essere inseriti all’interno di archivi aperti (open archive). È ormai consuetudine della pratica archeologica creare archivi digitali, più o meno complessi, nei quali inserire i dati archeografici, siano essi di tipo testuale (report, schede, diari di scavo), grafico (immagini, piante, sezioni) o digitale (database, CAD, GIS, ecc.). Alla serie di standard, atti a normare l’attività di registrazione delle indagini sul campo

Software Licenses: PHP 5.x - PHP license MySQL Open source 5.x - GNU GPLv2 compatible Apache HTTP Server 2.x - GNU GPLv3 compatible

Dati utilizzati: Dati provenienti da alcuni scavi urbani di Pisa

Open Data utilizzati: Nessun dato

Web Links: www.mappaproject.org/mod

File .Zip Download

File .Pdf Non presente

File .Txt Non presente


Wiki Loves Monuments e archeologia: condividere la conoscenza

Saverio Giulio Malatesta, Marina Milella (Wikimedia Italia)

 Wiki Loves Monuments è un concorso fotografico nato nel 2010 in Olanda, esteso nel 2011 anche ad altri paesi e al quale quest'anno parteciperà anche l'Italia. Consiste nello scattare foto dei monumenti e nel caricarle con licenza libera su Commons, l'archivio di contenuti multimediali di Wikipedia e degli altri progetti della Wikimedia Foundation. Non si tratta solo di un concorso fotografico, ma di un tentativo di rendere consapevoli un maggior numero di persone di cosa siano le licenze libere e del fatto che sia possibile aggiungere contenuti ai progetti Wikimedia. Il patrimonio culturale, di cui l'Italia è ricchissima, deve essere curato costantemente, con sollecitudine e affetto, mentre oggi rischiamo di vederlo sbriciolarsi tra le nostre mani, perché siamo talmente abituati a vedercelo intorno che ci è diventato invisibile. Andare in cerca di monumenti magari poco noti per fotografarli e condividerli con tutti, è una occasione per vederli, per apprezzarli e per farli vedere, un'occasione di riaprire gli occhi e di squarciare quel velo sottile e soffocante di abitudine. La tutela dei nostri beni culturali passa dalla valorizzazione e questa non avviene senza conoscenza. Wikimedia Italia, l'associazione partner in Italia della Wikimedia Foundation statunitense, sta organizzando il concorso in Italia. Fulcro del progetto è una lista di monumenti, raccolti in un database appositamente progettato in collaborazione con la comunità di OpenStreet Maps, nel quale ogni punto di interesse è catalogato per tipologia e georeferito. Tale lista, di pubblico accesso, permetterà agli utenti di scoprire quali monumenti si nascondano vicino casa, per poi fotografarli e caricare le immagini su Commons, taggandole in maniera semplice e aggiungendo un tassello in più a quello che si presenta come un vero e proprio censimento collaborativo del patrimonio culturale dell’Italia. Il tutto nello spirito che anima da sempre la comunità open, quello della divulgazione e della condivisione senza restrizioni di alcun tipo, in un circolo virtuoso che rigenera ed accresce sé stesso. L’esempio costituito da Wikipedia è in tal senso il caso più emblematico: un’intera enciclopedia in continua crescita grazie all’unione di tanti volontari che, in modo disinteressato e gratuitamente, aggiungono il loro piccolo granello di sapere . Più persone, più controllo della qualità, minori errori, più progressione. Tutto il contrario di quanto troppo spesso accade nel mondo archeologico, dove l'accento sembra più essere posto sul controllo e la protezione dei dati, tenuti gelosamente conservati, piuttosto che sulla loro diffusione e la loro condivisione. Rischiando di rendere sterile la ricerca, invece che farne un elemento vivificante per la comunità. Occorre dunque cambiare mentalità, effettuare un radicale ripensamento sulle finalità della ricerca e sulle modalità con cui il sapere prodotto possa essere ancor prima che condiviso, conosciuto, con un sistema integrato e capillare di comunicazione in ottica open, di apertura verso nuovi apporti e nuove energie, senza tema di vedersi sottratto il proprio lavoro. Ecco allora che Wiki Loves Monuments, che per definizione si appoggia alla comunità più grande di tutte, quella degli appassionati della condivisione del sapere tout court, può divenire qui, nel nostro Paese, un primo importante passo per la creazione di un sistema virtuoso, che veda coinvolti utenti profani, specialisti ed istituzioni.

Software Licenses: Software open generici

Dati utilizzati: Lista monumenti georeferenziati provenienti da diverse fonti

Open Data utilizzati: DB di Open Street Maps

Web Links: www.wikilovesmonuments.it wlm.wikimedia.it www.wikimedia.it www.wikiurbis.it www.openstreetmap.org

File .Zip Download

File .Pdf Download

File .Txt File non presente


Archeologia e Open Data. Stato dell'arte e proposte sulla pubblicazione dei dati archeologici

Ilaria Jovine (SSBAR), Valeria Boi, Milena Stacca (SITAR)

 Con questo contributo si vuole proporre una riflessione sullo stato dell'arte in Europa riguardo alla reale condivisione dei dati archeologici nei processi di governance del territorio, attraverso un'analisi delle licenze eventualmente utilizzate per la pubblicazione dei dati, le informazioni chevengono rese pubbliche dagli enti produttori, i destinatari di tale pubblicazione, l'accessibilità dell Banche Dati.

Si intende poi fare una riflessione sulla pubblicazione dei dati archeologici da parte del progetto SITAR, in relazione al dovere di rendere pubblici i risultati della ricerca e allo stesso tempo tutelare i diritti scientifici degli aventi diritto.

Software Licenses: non necessari, software libero di elaborazione testi e foglio di calcolo

Dati utilizzati: verranno utilizzati i dati editi relativi alle altre realtà prese in esame e i dati relativi al Progetto SITAR

Open Data utilizzati: la ricerca verterà sullo stato della pubblicazione di Open Data archeologici in Europa.

Web Links: Ricerca sul web relativamente alla pubbicazione online dei dati archeologici, specialmente in relazione alla gestione dell'archeologia preventiva.

File .Zip File non presente

File .Pdf File non presente

File .Txt File non presente


Futouring. Cartografia Open e Licenze Creative Common.

Maria Rita Minelli (Filas - DTC)

 

Relazione invitata a cura della FILAS - DTC (Distretto tecnologico per i Beni e le Attività culturali del Lazio).


POSTER

Wiki = beta, il modus vivendi di un sistema

Alessandro Carabia (Università degli Studi di Siena)

 Il web è ormai uno strumento quotidiano in qualsiasi campo, compreso il lavoro dell'archeologo. Tuttavia proprio in quest'ultima categoria il web è rimasto, almeno in alcune realtà, più un optional, un passaggio che volendo può anche essere saltato, quando invece dovrebbe essere un puntp obbligatorio di un lavoro di ricerca. In particolare sono anni che in Italia la realtà informatica e del web è rimasta rilegata allo stato di “fenomeno sperimentale”, del quale ci sono ancora da indagare le possibilità e le potenzialità. Occorre prendere coscienza che ormai così non è più, il web ha smesso di essere un interessante esperimento, ma è una realtà complessa e variegata che invade ogni ambito del sapere e offre una vasta gamma di opportunità, opportunità che ormai dovrebbero far parte del bagaglio culturale di ogni archeologo. Forse proprio la natura estremamente dinamica e in continuo mutamento delle capacità della rete è alla base di questo atteggiamento un po' disorientato, ma proprio questo è il suo punto di forza, l'essere in qualche modo sempre in beta, non bisogna farsi spaventare. In questo panorama le strade da intraprendere possono essere molte, anche a seconda delle esigenze che si hanno. La mia ancora breve esperienza di lavoro mi ha messo in contatto soprattutto con il mondo dell'open source, in particolare con la realtà di Wikipedia, MediaWiki e simili. Proprio di questi programmi andrò a parlare illustrando alcune delle novità del settore. MediaWiki e altri software wiki infatti hanno prodotto una rivoluzione nella diffusione del sapere libero via web e hanno contribuito notevolmente alla divulgazione della cultura del copyleft e del software open source. Strumenti come questi si sono rivelati ottimi anche per quanto riguarda la produzione di nuovo sapere, ossia la ricerca, nello specifico sono molto adatti nella trasposizione del processo di ricerca dai vecchi mezzi cartacei o semi-informatici a quelli web. Il segreto di tale successo sicuramente risiede nell'idea di base del concetto wiki, l'idea di una comunità di utenti che, utilizzando la medesima piattaforma, decidono di condividere e creare conoscenza da rendere pubblicamente accessibile e migliorabile da parte di chiunque, tutto ciò tramite tutta una serie di strumenti propri di ogni wiki che consentono un lavoro di gruppo praticamente in tempo reale sui dati. La cosa interessante è che questa dinamicità che si riscontra nella produzione di informazioni, che sono in qualche modo la facciata e il prodotto di un lavoro su un wiki, si riscontra altrettanto bene anche nel software che è perennemente in beta, perennemente in aggiornamento e in miglioramento. Anche in questo caso è la comunità stessa che in base alle esigenze che sorgono via via durante il lavoro mette mano al programma di base con continue migliorie e aggiunte. In questo intervento il mio scopo è quello di presentare alcune delle novità che si affacciano all'orizzonte e che potrebbero facilitare di molto il lavoro della ricerca e della divulgazione in archeologia. In particolare le novità introdotte dalle nuove possibilità di scrittura, semplificata e collaborativa in tempo reale, di condivisione e di ricerca delle informazioni all'interno dei wiki e della rete più in generale, fino alla possibilità di una maggiore sicurezza riguardo alla paternità dei dati prodotti direttamente in rete.

Software Licenses: GNU General Public License

Dati utilizzati: Mediawiki

Open Data utilizzati: Mediawiki

Web Links: www.mediawiki.org

File .Zip File non presente

File .Pdf File non presente

File .Txt File non presente


POSTER

Wikipedia e dintorni, riflessioni sull'utilizzo del Web 2.0 per la gestione e la diffusione dei dati archeologici

Arjuna Cecchetti (SITAR)

 

 Le piattaforme, i contenitori e siti social del Web 2.0 sono sempre più utilizzati per la trasmissione di contenuti storici e archeologici, e i modi e i tempi di questa migrazione verso forme di condivisione più ampie sono in continuo divenire. Esistono possibilità di utilizzo tanto ampie da rendere difficile la scelta di utilizzare una soluzione oppure l'altra. Spesso se ne utilizzano diverse tutte contemporaneamente. Altre volte se ne utilizza una sola e in modo parziale, altre ancora nessuna. I social network possono ospitare pagine informative e gruppi di discussione, profili personali dove presentare le proprie pubblicazioni e gli studi in corso. Tra i social, il più adatto alla gestione e trasmissione di contenuti archeologici è Academia.edu, che nasce proprio per ospitare profili e pubblicazioni di ricercatori e accademici. Anche il generalista Facebook, oggi ospita pagine informative di progetti scientifici, tra cui quella di SITAR, oltre a gruppi di discussione su temi propri della ricerca archeologica. Altri social tematici meriterebbero di essere esplorati per verificarne le possibilità di gestione e comunicazione dei dati storico-archeologici. Tra questi cito Anobii.com, che nasce con l'obiettivo di mettere in comunicazione gli utenti appassionati di libri e letteratura, offrendo la possibilità di costituire biblioteche virtuali con recensioni e commenti personali sui testi e autori. In questo caso potrebbe essere interessante provare a sfruttarlo per la redazione di bibliografie archeologiche commentate. Flickr e Youtube, sono invece le piattaforme più utilizzate per la presentazione di file multimediali, immagini per Flickr e video per Youtube, e esattamente come per i social sempre più usati anche per la trasmissione di contenuti archeologici. Il merito principale di questi contenitori 2.0, è essenzialmente quello di mettere in comunicazione gli utenti, le loro idee, e di dar luogo a punti di incontro virtuali come i gruppi di discussione. La questione è che non sono liberi, sono gratuiti ma non liberi, offrono un servizio che viene pagato con le inserzioni pubblicitarie, e per funzionare prevedono una deroga alle norme sui diritti di autore che permetta loro di utilizzare liberamente i contenuti immessi dagli utenti all'interno del social. Generalizzando si può dire che se questi contenitori vengono utilizzati solo per la comunicazione di contenuti sviluppati e archiviati altrove, non dovrebbero sussistere gravi controindicazioni. Ogni dipartimento o gruppo di ricerca, nonché le istituzioni culturali, possono accedervi ed utilizzarli per comunicare e diffondere i propri contenuti. Spesso l'organizzazione dei social non è adatta alla gestione dei dati scientifici, e non è agile nella gestione di documenti e pubblicazioni. Probabilmente questi sono alcuni dei motivi per cui alcuni gruppi di ricerca utilizzano Facebook per comunicare e discutere, e un classico sito internet per la diffusione dei documenti e la gestione organizzata delle informazioni scientifiche. Per quanto riguarda la qualità dei contenuti e l'attendibilità delle fonti primarie dei dati proposti nei social, credo che le perplessità al riguardo siano facilmente superabili. Infatti l'autorevolezza e il tracciamento del flusso informativo, dalle fonti primarie ai contenuti interpretati, dovrebbero fare riferimento direttamente agli autori delle pagine e agli intestatari dei profili. Al momento una pagina social o un gruppo di discussione, non sono molto diversi nella struttura logica da una bacheca appesa in dipartimento o da uno spazio di discussione a margine di un convegno che non abbia avuto problemi di tempo. Le piattaforme multimediali, Flickr e Youtube, hanno più o meno stessi pregi e simili difetti dei social, permettono di veicolare grandi quantità di file e ne facilitano la consultazione on-line. Sono anch'esse sistemi soggetti a copyright e in cambio dei servizi offerti chiedono una deroga ai diritti d'autore e alla licenza propria del contenuto ospitato. Un discorso a parte invece va fatto per Wikipedia, che tra gli altri pregi ha quello, invece, di presentare tutti i contributi utilizzando esclusivamente licenze aperte Creative Commons BY-SA, e sotto questo profilo risulta assolutamente idonea per aiutare la migrazione di contenuti scientifici, anche di elevata qualità, da contesti ristretti verso modalità di gestione aperte, libere e condivise. In Wikipedia è possibile inserire argomenti archeologici come contributi enciclopedici, quindi compilare voci relative a monumenti, siti archeologici, processi storico-archeologici e argomenti correlati. Wikipedia poi è solo il contenitore più famoso di una lista di progetti che va ampliandosi di anno in anno. Wikiversità, è il contenitore nato per accogliere contributi wiki in tutto simili a lezioni universitarie e dispense scientifiche. Si propone quindi di accogliere contenuti qualitativamente superiori a quelli delle pagine dell'enciclopedia; Wikisource, che accoglie testi che rappresentano fonti primarie di informazione che abbiano almeno una pubblicazione isbn, e che siano liberi da vincoli di copyright ; Wikibooks, permette la scrittura condivisa di testi digitali di tipo manualistico, tra cui potrebbero essere inseriti testi del tutto simili a pubblicazioni scientifiche archeologiche. Wiki Commons, banca di file multimediali con licenza CC BY-SA, dove sono presenti già migliaia di immagini di ottima qualità dedicate al patrimonio archeologico. Non male sarebbe sfruttare questo contenitore per donare alla collettività le foto archeologiche di monumenti inaccessibili, reperti non esposti nei musei o foto di evidenze archeologiche rimosse per sempre come le necropoli. Altro contenitore wiki è il GIS Open Street Map, mappa del mondo a contributo libero che potrebbe rivelarsi adatta come base per tematizzazioni archeologiche. Però sono ancora molte le riflessioni che Wikipedia e gli altri contenitori con filosofia wiki, suscitano nei produttori di dati archeologici e scientifici in genere. Alcune mi sembrano davvero imprescindibili per una buona trasmissioni dei contenuti scientifici, come quelle sull'attendibilità delle informazioni, sulla rintracciabilità delle fonti primarie, sulla coerenza dei set di dati, e sulla qualità dei contributi e degli autori. Andando con ordine. Tutti i progetti Wikimedia, dedicano una parte delle relative introduzioni al trattamento delle fonti, con l'invito costante a citare sempre almeno una fonte attendibile esterna come riferimento della bontà dei contenuti. In realtà è però possibile scrivere intere pagine dell'enciclopedia completamente a braccio. Ed è anche possibile che queste voci rimangano prive di fonti per lungo tempo, nonostante le continue revisioni volontarie operate dalla comunità. Ovviamente Wikimedia è consapevole di questa, al momento, grande lacuna nel metodo di contribuzione collettiva ai suoi progetti, e, ad esempio, non manca di sottolineare in una delle pagine introduttive di Wikisource che: Wikisource non può garantire, in qualsiasi forma, la validità delle informazioni trovate al suo interno . Questa affermazione appare emblematica, tanto più che Wikisource (wiki-fonte, appunto) è il contenitore dove si intende far confluire i testi che abbiano già una pubblicazione cartacea, e che quindi possono essere utilizzati proprio come fonti dei contenuti proposti in Wikipedia. Al momento per garantire l'affidabilità delle fonti proposte in Wikisource è stato sviluppato un percorso di revisione dei testi immessi chiamato Stato di Avanzamento del Lavoro (SAL), che attribuisce un valore qualitativo al testo che aumenta con l'aumentare delle revisioni a cui il testo viene sottoposto. Quando il testo risulta aderente alla forma cartacea viene bloccato ed editato come: Edizioni Wikisource. Questo metodo porta alla certificazione ufficiale da parte di Wikimedia sull'attendibilità della fonte trattata, ed è quindi una buona risposta, anche se parziale, alla questione delle fonti. In generale la questione resta aperta su tutti gli altri progetti, perché anche quando le fonti esterne sono citate e ben riferite all'interno del contributo, non possono rappresentare da sole sono una garanzia dell'attendibilità delle informazioni, in quanto è possibile citare in nota praticamente qualsiasi cosa. Altra questione è rappresentata dalla coerenza dei dati presenti nelle versioni in lingua delle stesse pagine enciclopediche. Ad esempio la pagina sul Colosseo in italiano non è del tutto coerente con la sua versione in lingua inglese o francese, e questo perché le pagine inglesi sono redatte da utenti di norma anglofoni, quelle italiane da utenti di lingua italiana e cosi via, utenti che non sono chiamati a confrontare i loro contenuti. Anche in questo caso continue revisioni da parte degli utenti più operosi tendono nel tempo ad omogenizzare tutte le versioni, ma questa tendenza non è affatto una certezza di coerenza dei set dati presentati in Wikipedia. Come esempio si possono confrontare le pagine riguardanti il Colosseo, nella pagina Inglese si legge che la costruzione del Colosseo iniziò sotto l'imperatore Vespasiano intorno al 70-72 d.C. e conclusa nel 79 d.C, mentre in quella Italiana la sua costruzione comincia con Vespasiano nel 72 d.C. E fu inaugurato da Tito nell'80 d.C. Nel caso di un monumento e di un bene archeologico dovrebbe essere presa in considerazione l'idea di prevedere un set minimo di dati anagrafici che sia coerente in tutte le pagine di Wikipedia, per evitare che un bene univoco possa inutilmente fluttuare tra una possibilità e l'altra. Per questi dati di tipo anagrafico si potrebbe far riferimento all'ente istituzionale che ha il compito di tutelare il bene in questione. Per esempio la SSBAR descrive sinteticamente la cronologia del Colosseo, all'interno della scheda sul monumento: The construction of the Flavian Amphitheatre, which is named after the Gens Flavia, began in AD 72 under the emperor Vespasian and was financed with the spoil of the conquest of Jerusalem of AD 70. The amphitheatre, inaugurated by Titus in AD 80 and completed by his brother Domitian in AD 82. Questa soluzione rimanderebbe ad altre sezioni della pagina di Wikipedia le discussioni sulle cronologie proposte e le interpretazioni a cui inevitabilmente è soggetto qualsiasi evidenza archeologica. In generale gli autori delle voci di Wikipedia non sono specialisti degli argomenti trattati, ma degli appassionati. È altrettanto probabile che siano sempre di più gli studenti di archeologia, i professionisti, i ricercatori e i docenti, che contribuiscono in modo diretto all'enciclopedia. Tuttavia non è immediato risalire all'autore del singolo contributo per verificarne la competenza e la affidabilità. Il software garantisce la registrazione delle modifiche in ordine cronologico permettendo di individuare la modifica apportata in ciascuna versione e l'autore della stessa, ma non è affatto un percorso immediato. Al momento non c'è modo di selezionare una parte di testo e individuare immediatamente l'autore. Se si vuole si può procedere a confronti tra versioni diverse fino ad intercettare chi ha apportato la modifica in questione. Una volta individuato l'autore della porzione di contributo, si può arrivare alla pagina di presentazione dell'autore stesso. Però, un altro difetto è che in genere gli autori registrati non hanno l'abitudine di presentarsi in modo sobrio e curricolare. È evidente che Wikimedia non riesce a garantire sempre la qualità e la coerenza dei contenuti presentati. Parte di questa incapacità è intrinseca all'idea stessa che è alla base dei suoi progetti, Wikipedia e gli altri, hanno già delle regole e dei propositi, una filosofia che si può discutere ma che si dovrebbe accettare in parte o del tutto se si vuole partecipare. Allo stesso tempo è anche vero che gli utenti internet che cercano informazioni in rete utilizzano Wikipedia sopra ogni ragionevole dubbio senza porsi le domande che intendiamo porci noi ma meritando ugualmente una qualità dell'informazione condivisa tra chi immette contributi e chi li consulta. Alcune risposte più articolate provengono invece dalla stessa comunità alla base dei progetti di Wikimedia. Infatti è stato avviato anche in Italia il progetto GLAM (Galleries, Library, Art, Museum). Questo progetto intende coinvolgere le istituzioni culturali nella costruzione dell'enciclopedia libera, partecipando alla costituzione delle voci dei beni che custodiscono, siano essi monumenti, oggetti d'arte, libri, manufatti archeologici e altro. Scorrendo la lista dell collaborazioni in Europa, si nota subito la massiva collaborazione del British Museum e della Britsh Library, che hanno contribuito alla compilazione di numerose voci. In questi casi è possibile partire quindi dall'elenco delle pagine redatte con la collaborazione del British e tramite i collegamenti ipertestuali raggiungere direttamente i contributi in questione che quindi possono essere considerati validati dalla prestigiosa istituzione. In ogni caso Wikimedia ha il diritto di proseguire sulla propria strada, seguendo le proprie linee guida e le regole di cui si è dotata o intende dotarsi in futuro. La questione è semmai quale ruolo vogliano avere le istituzioni culturali, e in special modo di ambito archeologico, nello sviluppo di questi progetti che con in testa Wikipedia, rappresentano il luogo di libero accesso alla conoscenza più frequentato della rete, milioni di dati culturali vengono aggiunti ogni giorno dagli autori più disparati, un bazar che dà vita all'esperimento visionario di rendere completamente libero e accessibile il patrimonio di conoscenza dell'umanità.

Software Licenses: -

Dati utilizzati: -

Open Data utilizzati: -

Web Links: -

File .Zip Non presente

File .Pdf Download

File .Txt Non presente


Martedì 12

Sessione Strumenti e Sistemi FLOSS nella gestione, tutela e valorizzazione


RAPTOR 1.0. Archeologia e Pubblica Amministrazione: un nuovo geodatabase per la tutela

Matteo Frassine, Ambra Betic (Soprintendenza per i Beni Archeologici del Friuli Venezia Giulia) - Giuseppe Naponiello (Arc-Team)

 Il progetto RAPTOR, acronimo di Ricerca Archivi e Pratiche per la Tutela Operativa Regionale, nasce dall’idea di avere a disposizione un sistema informativo versatile che consenta di rispondere alle diverse esigenze quotidiane dei funzionari archeologi della Soprintendenza, gestendo in una struttura unitaria ed integrata la parte burocratica e quella topografica; tale aspetto è infatti imprescindibile, soprattutto per la tutela del patrimonio archeologico, in qualità di ricaduta tangibile del procedimento amministrativo nella realtà territoriale. La necessità di fornire ai funzionari uno strumento di facile utilizzo, che non richiedesse un elevato grado di alfabetizzazione informatica e di consuetudine con dispositivi più complessi (come i GIS), ha indotto alla creazione di un software, ancora in fase di sviluppo, che, seppur basato su un geodatabase decisamente articolato (PostgreSQL e PostGIS), permette all’utente un’interazione semplice grazie ad un’interfaccia web user friendly (PHP, JavaScript, GeoServer e OpenLayers). L’esigenza di avere gli strumenti presenti in altri software di analisi spaziale, che permettano di avvicinare il più possibile il nostro sistema ad un desktop GIS, ha inoltre reso indispensabile lo sviluppo di funzioni specifiche. L’attenzione posta all’implementazione degli aspetti prettamente tecnici è stata condizionata dall’idea che la struttura dovesse essere profondamente calata nella realtà lavorativa quotidiana, onde consentire a ciascun funzionario, soprattutto in carenza di risorse umane e finanziarie adeguate, uno svolgimento comunque più rapido e autonomo dei propri compiti, sia per ottimizzare la performance istituzionale, sia per ottemperare alle normative riguardanti la dematerializzazione della pubblica amministrazione. Questo sistema se da un lato permette dunque un’informatizzazione delle pratiche attuali, dall’altro prevede anche una sezione dedicata al recupero del materiale pregresso, ponendo le basi per un riordino graduale degli archivi cartacei “storici”. Tale modus operandi consentirà quindi di aggiornare in tempo reale e multiutente non solo lo stato delle procedure amministrative, ma soprattutto la mappatura delle presenze/assenze archeologiche emergenti a seguito degli interventi condotti sul territorio; conseguenza diretta di ciò sarà la pressoché “automatica” revisione della carta del rischio o del potenziale archeologico, a cui sarà direttamente collegata una sezione, in corso di definizione, funzionale ad accogliere la documentazione di scavo (che non sostituisce quella cartacea). Per questo motivo si è previsto un accesso diretto e personalizzato delle ditte archeologiche al sistema, affinché possano riversare, secondo standard precostituiti e possibilmente condivisivi, il materiale digitale pertinente alla documentazione, implementando dinamicamente sia i dati alfanumerici, sia geografici. Con ciò si vuole tendere ad una progressiva uniformità nella consegna del post-scavo, anche dal punto di vista qualitativo, sperando di contribuire, insistendo proprio su merito e qualità, al riconoscimento della figura professionale dell’archeologo nel nostro paese. Infine, l’accesso diretto al sistema, ospitato su server ministeriale ma non legato alla rete intranet, consentirà la consultazione, secondo parametri definiti e ristretti, da parte di utenti esterni, con particolare attenzione agli enti pubblici, che richiedono sempre più spesso di conoscere le zone a rischio archeologico per poter programmare e pianificare gli interventi, anche alla luce della normativa sull’archeologia preventiva. A tal proposito un aspetto di primaria importanza riguarda la scelta delle licenze da adottare, che verosimilmente ricadrà su quelle di tipo “virale”, come la GPL per il software e la Creative Commons Share Alike per i contenuti, così da allinearsi il più possibile al nuovo CAD.

Software Licenses: GPL, Creative Commons Share Alike

Dati utilizzati: GoogleMaps, OpenStreetMap

Open Data utilizzati: Nessun Open Data utilizzato

Web Links: Nessun web link da segnalare

File .Zip Non presente

File .Pdf Download

File .Txt Non presente


Pianificazione e salvaguardia del territorio attraverso l'analisi di fonti in ambiente GRASS-GIS. Il paesaggio a prato-bosco di Sagron Mis: aspetti vegetazionali, storici e archeologici diventano azione partecipata

Alberto Cosner, Simone Gaio (Cooperativa di ricerca TeSto)

 Il paesaggio a prato-bosco di Sagron Mis: aspetti vegetazionali, storici e archeologici diventano azione partecipata. Oggetto dell'intervento è un progetto pluriennale di ricerca mirato alla comprensione delle dinamiche evolutive ed involutive del sistema prato-bosco di media-alta quota caratteristico di una micro-comunità montana (Sagron Mis, Parco Paneveggio Pale di San Martino, Dolomiti, Trentino orientale). Scopo del progetto è l'attivazione di interventi mirati alla conservazione e salvaguardia di tale sistema. Il territorio L'area di studio è situata nell'alta valle del Mis (46° 11’N, 11° 56’ E), tra i 1000 e i 1600 metri di quota, anticamente caratterizzata da una gestione in gran parte basata sulle pratiche agro-silvo-pastorali. La dismissione di tali pratiche negli ultimi trent'anni ha comportato un abbandono generalizzato della maggior parte del territorio comunale (prati, prati-pascoli, arativi, infrastrutture). E' stata presa in esame l'intera superficie del territorio comunale, di circa 1200 ettari, che comprende due nuclei urbani principali (i paesi di Sagron e Mis) e diversi piccoli nuclei rurali sparsi. La scelta dell'area territoriale di indagine è dovuta, in questo caso, alla coincidenza tra confini comunali e “confini” geografici: i primi racchiudono infatti, in buona parte, un “territorio-comunità”, ossia un comprensorio d'azione dei soggetti che lo abitano, circoscritto da valici montani a nord-est e torrenti a sud-ovest. Su questi ultimi, inoltre, passa il confine che, oggi, separa il Trentino dal Veneto, un tempo frontiera tra Regno d'Italia e Tirolo. Il profilo di territorio di frontiera tra due entità statali è un dato importantissimo, dal quale la ricerca storico-territoriale non può prescindere: esso ha infatti segnato profondamente la società, l'economia, le infrastrutture, le vie di comunicazione dell'area presa in considerazione. La dimensione risulta inoltre coincidente con la scala di dettaglio a cui il progetto mira. La raccolta dati: il metodo Il sistema prato-bosco è stato analizzato entro una dimensione storica inquadrabile tra l'inizio del '700 e il primo decennio del ventunesimo secolo, in ambiente GRASS-GIS attraverso l'utilizzo incrociato della cartografia catastale storica, di ortofotografie, dell'analisi archeologica di dettaglio sul paesaggio antropizzato, dell'analisi vegetazionale di dettaglio sugli habitat prativi-boschivi. Questa fase di ricerca ha previsto, in prima istanza, l'analisi incrociata dei dati sulle superfici a prato-bosco con i dati relativi all'andamento demografico della popolazione antropica e animale (fattori di origine “sociale”). Ciò è risultato indispensabile per poter individuare eventuali trend di pressione-depressione e definire la presenza o meno di correlazioni tra i fattori. La differenziazione dell'analisi per nuclei abitativi è stata necessaria per permettere una valutazione comparativa tra le micro aree antropizzate comprese nel territorio. Grazie ai dati raccolti è stato possibile analizzare le caratteristiche geografiche e “fisiche” che negli ultimi due secoli hanno influenzato le modalità di utilizzo e l'eventuale abbandono delle superfici prato-bosco. Questo tipo di approccio, che privilegia le dinamiche antropiche rispetto alle dinamiche naturali, si è reso necessario alla luce dell'andamento notato nell'arco cronologico esaminato: a differenza di altre situazioni studiate il comportamento delle comunità a bosco-prato è il risultato quasi esclusivo, in fase di crescita della superficie prativa, di interventi a messa in coltura di nuove porzioni di territorio, sulla base di scelte di carattere prettamente economico-funzionale. Le fasi di crescita della superficie boschiva, invece, derivano quasi esclusivamente dall'abbandono indifferenziato delle attività connesse all'allevamento e alla gestione dei prati per produrre foraggio. Le dinamiche di riforestazione naturale si sono quindi evolute sulla base di fattori essenzialmente derivati da non-azioni antropiche muovendo, a differenza di altri casi analizzati, da un contesto unitario costituito da poche, ma molto estese, superfici prative, che mai hanno attraversato periodi di utilizzo “frammentario”, ossia un utilizzo concomitante ad una distribuzione nello scenario come patch erbacee. La situazione così configurata ha suggerito di limitare l'analisi vegetazionale ad un'indagine qualitativa degli ambienti e delle distribuzioni spaziali come oggi si presentano, escludendo quindi l'utilizzo di attributi puramente vegetazionali nell'indagine storica (che sarebbe invece stato opportuno, oltre che possibile, qualora l'utilizzo delle superfici prative fosse stato, in passato, frammentario). Oltre ai dati prettamente geografici (superficie prato/bosco, differenziazione prato/bosco a monte/valle, pendenza, esposizione, presenza d’acqua) sono stati pertanto analizzati gli elementi antropici che caratterizzano le superfici boschive e prative, visti nella loro dimensione di evoluzione-trasformazione (nascita, esistenza, abbandono). In particolar modo, la ricerca si è rivolta agli edifici produttivi legati all’allevamento (quali fienili, stalle, “casère”) alle strutture produttive (piazze da carbone, dette ”carbonère”, e fornaci da calce, dette “calchère”) collegate allo sfruttamento del bosco, alle infrastrutture viarie atte alla colonizzazione e sfruttamento delle aree. Questi dati sono risultati necessari anche come informazioni puramente geografiche all’interno dell’analisi costi. Raccolta dati: georeferenziazione della superficie dei prati, 1802 (parziale, da documenti d'archivio); georeferenziazione della superficie dei prati, 1814 (parziale, da catasto di epoca napoleonica); georeferenziazione della superficie dei prati e boschi, 1859 (da catasto asburgico); georeferenziazione della superficie dei prati e boschi, 1910 (da carta IGM 022 I-SE, Fiera Di Primiero, e 023 IV-SO, Gosaldo, anno: 1910); georeferenziazione della superficie dei prati e boschi, 1932 (da IGM 022 I-SE, Fiera Di Primiero, e 023 IV-SO, Gosaldo, anno: 1932); georeferenziazione della superficie dei prati e boschi, 1954 (da Volo GAI 1954, fogli 22-17C-4634, 22-17C4635); georeferenziazione della superficie dei prati e boschi, 1969 (da Volo EIRA); georeferenziazione della superficie dei prati e boschi, 1970 (Carta forestale del Trentino, Assessorato per l'Economia Montana e le Foreste, Trentino-Alto Adige, Camera di Commercio, Industria, Artigianato e Agricoltura, Trento, Ufficio Duplicazioni della C.C.I.A.A, 1970); georeferenziazione della superficie dei prati e boschi, 1994 (da Volo Italia CGR); georeferenziazione della superficie dei prati e boschi, 2006 (da Volo Terraitaly TM CGR); raccolta dei dati sull’andamento demografico degli ultimi due secoli differenziata per nuclei abitativi (da documenti d'archivio); raccolta dei dati sulla popolazione animale degli ultimi due secoli differenziata per specie (da documenti d'archivio); georeferenziazione diacronica dei toponimi qualitativi del suolo (da fonti orali e analisi territoriale); antropizzazione delle superfici a bosco (analisi archeologica territoriale); antropizzazione delle superfici a prato (analisi archeologica territoriale). Analisi specifiche: analisi della estensione di prato/bosco dal 1802-1814 al 2006; analisi dell’andamento demografico; analisi dell’andamento della popolazione animale; analisi dell’antropizzazione delle superfici a bosco e prato (analisi diacronica delle infrastrutture che scompaiono o compaiono extramuro, edifici, strutture, strade). Analisi tramite l’incrocio dei dati: analisi del buffer di approvvigionamento dei nuclei abitati calibrati sugli abitanti presenti in un determinato periodo storico; analisi del buffer di approvvigionamento dei nuclei abitati calibrati sulla popolazione animale presente in un determinato periodo storico; analisi delle dinamiche evolutive di prato/bosco, ricerca delle costanti geografiche che caratterizzano i territori di nuova conquista, (differenziazione prato/bosco a monte/valle, slope analysis, cost-benefit analysis (CBA), aspect analysis, presenza d’acqua); confronto fra approvvigionamento (sociale) dinamiche evolutive (geografico). L'analisi territoriale delle dinamiche evolutive ed involutive ha consentito di identificare i singoli processi di utilizzo e successivo abbandono occorsi nei differenti contesti ambientali. In seconda battuta, l'analisi vegetazionale ha permesso di qualificare lo stato di conservazione dei differenti habitat prativi determinando, per ogni singola postazione, all'interno di un inquadramento vegetazionale generale dell'area di studio, la specificità (specie floristiche di maggior valenza locale, per rarità e per distribuzione/carattetizzazione dell'habitat), le dinamiche evolutive e la resistenza alla successione di ogni singolo ambiente. Questo tipo di descrizione puntuale ha permesso di individuare degli elementi discriminanti, sia come valenza ecologica (ad es. prati magri) che come valenza paesaggistica (ad es. vicinanza a nuclei abitati), per la stesura di un manuale di buone pratiche per il restauro ecologico e la conservazione di ambienti ruderali, fornendo in questo modo una griglia di interventi possibili per la salvaguardia. La raccolta dati: i risultati. I dati raccolti hanno dimostrato come il tipo di abbandono riscontrato nell'area analizzata sia strettamente connesso alla dismissione delle attività antropiche, piuttosto che essere dovuto a processi di rinaturalizzazione. Questi ultimi infatti, pur avendo sensibilmente agito sulle modalità di involuzione del sistema bosco-prato, non ne rappresentano certo la principale causa. I dati archeologici, ossia oltre 600 emergenze d'epoca postmedievale che popolano l'intero territorio esaminato, hanno consentito di contestualizzare cronologicamente tali processi in dettaglio; è stato quindi possibile ricostruire uno spaccato cronologico e geografico dell'intero territorio (circa 1200 ha) e le modalità di utilizzo dello stesso nell'arco di tempo indagato. L'insieme dei dati ha permesso di creare dei protocolli d'intervento mirati alla salvaguardia, conservazione e in alcuni casi recupero, e quindi valorizzazione e “riscoperta”, del patrimonio storico-archeologico-naturalistico individuato. La possibilità di indagare per esteso il territorio, e quindi di identificare, oltre alle singole emergenze, anche il quadro d'insieme in cui esse sono inserite, ha costituito la premessa indispensabile per la stesura di un piano generale di interventi di recupero e salvaguardia efficacemente calibrato, che tenesse conto della rappresentatività di ogni singola emergenza all'interno del suo contesto più ampio. Gli interventi-azione partecipata sul territorio I risultati emersi, ossia la ricostruzione storico-territoriale del paesaggio, l'analisi vegetazionale e delle dinamiche di abbandono, la stesura di protocolli di intervento per la salvaguardia degli habitat e delle emergenze archeologiche, hanno consentito alla locale amministrazione comunale di pianificare azioni partecipate volte alla conservazione, e in alcuni casi al parziale recupero, di caratteristiche insediative e gestionali in parte scomparse ma che, storicamente, hanno modificato profondamente il territorio. La possibilità di lavorare all'interno di un quadro generale ha permesso di valutare più precisamente le singole azioni e i differenti soggetti preposti ai diversi interventi. È evidente che senza un approccio di questo tipo, ossia l'utilizzo di numerose fonti di varie tipologie, interpretate in prospettiva fortemente territoriale, i risultati conseguiti non sarebbero stati possibili. Sottolineare e valorizzare la dimensione storico-territoriale anche di fonti normalmente lette solo, o prevalentemente, in prospettiva storica (si pensi ad esempio alle numerose testimonianze materiali collegate agli insediamenti temporanei di media montagna, spesso lette esclusivamente come testimoni ruderali di processi storico-economici, o ancora più infelicemente come tipi di edilizia storica), anche attraverso il confronto con le informazioni derivanti da fonti diverse, ha fatto procedere la ricerca verso una delle direzioni auspicate, ossia l'attualizzazione del problema della riforestazione naturale causato dalla scomparsa di attività fortemente incidenti sul territorio e, quindi, sul paesaggio. Importante si è inoltre rivelato l'apporto della visione percettiva del territorio e del paesaggio da parte della comunità locale (percezione che spazia dal concetto di abbandono a quello di utilizzo consapevole) emersa dall'indagine antropologica. Vantaggio di quest'ultima è stato, all'interno di un rapporto biunivoco tra ricercatori e testimoni, la possibilità di informare e rendere partecipi gli abitanti di un processo analitico mirato ad un successivo e conseguente intervento gestionale e normativo del territorio. I testimoni intervistati sono stati quindi allo stesso tempo “informatori” e “attori” degli eventuali interventi di salvaguardia del loro territorio. La banca dati L'insieme dei dati raccolti è poi confluito all'interno del progetto “Le fonti per la storia. Per un archivio delle fonti su Primiero e Vanoi”: un progetto pluriennale di ricerca promosso e coordinato dalla Fondazione Museo Storico del Trentino e dalla Comunità di Primiero, ideato e realizzato da un gruppo di ricercatori al quale appartengono anche gli scriventi, che consiste nell'individuazione, censimento, schedatura e inserimento in un apposito database di tutte le fonti (archeologiche, archivistiche, architettoniche, storico-artistiche, bibliografiche, orali, fotografiche, cartografiche e della cultura materiale) relative alla storia territoriale del comprensorio di Primiero (Trentino orientale), nel quale è inclusa, appunto, anche l'area di Sagron Mis. La premessa euristica del lavoro è che, per affrontare efficacemente lo studio storico di un territorio, il punto di partenza privilegiato debbano essere le testimonianze create, lasciate, conservate o distrutte dalle comunità che in quel territorio hanno vissuto o instaurato delle relazioni. Questo insieme di fonti geografiche (in quanto portatrici di informazioni sul territorio) se organizzato in un sistema omogeneo, non gerarchico, facilmente e liberamente consultabile, può diventare lo strumento da cui muovere per una corretta lettura ed analisi di un territorio. Non solo: il caso di Sagron Mis dimostra come un approccio di questo tipo sia funzionale anche alla pianificazione della salvaguardia mirata alla protezione e valorizzazione del territorio e delle tracce storiche in esso individuate nel corso della ricerca. Il progetto ha creato un complesso sistema di banche dati organizzate per livelli di approfondimento (raccolte e collezioni, singoli documenti, immagini o beni, riproduzioni grafiche e audio, visualizzazioni raster e vettoriali) e campi di indagine (corrispondenti alle varie tipologie di fonti) strettamente interconnesse: un sistema basato su programmi di gestione dati Open source (psql, phpPgadmin, PgAdmin, Qgis, Mapserver, OpenOffice) e reso disponibile ed implementabile su WEB. La fonte storico-territoriale, principale strumento di analisi, studio e ricostruzione di un'archeologia dei paesaggi, viene così ricondotta ad una dimensione spaziale e geografica.

Software Licenses: GRASS, psql, phpPgadmin, PgAdmin, Qgis, Mapserver, OpenOffice

Dati utilizzati: Dati progetto "Le fonti per la Storia. Per un archivio delle fonti su Primiero e Vanoi" - documenti d'archivio, fonti orali, fonti storico-territoriali (XVIII - XXI secolo) Catasti storici e attuali (IXX secolo - XXI secolo) Aereofotografie e cartografia storica (XX-XXI secolo) Analisi vegetazionali (XXI secolo)

Open Data utilizzati: dati progetto "Le fonti per la Storia. Per un archivio delle fonti su Primiero e Vanoi"

Web Links: http://www.museostorico.tn.itindex.php/Le-fonti-per-la-storia-per-un-archivio-delle-fonti-su-Primiero-e-Vanoi http://www.primiero.tn.itCultura-Memoria/Storia/Rete-Storia-e-Memoria/Progetti-in-corso/Progetto-di-ricerca-storico-archivistica-nel-Comune-Sagron-Mis

File .Zip Download

File .Pdf Download

File .Txt Non presente


Verso una metodologia condivisa per la ricostruzione del paesaggio antico: il progetto Valle del Tevere

Augusto Palombini, Eva Pietroni, Valentina Sanna, Sara Zanni (CNR - ITABC) - Antonia Arnoldus-Huydzendveld (Digiter) - Fabio Remondino (Fondazione Bruno Kessler) 

 Il progetto Valle del Tevere, finanziato dal programma ARCUS e in corso di elaborazione da parte del VHLab del CNR-ITABC, si propone la realizzazione di una serie di applicazioni per la ricostruzione 3D, visualizzazione e navigazione del paesaggio e dei contesti archeologici dell'antica valle del Tevere (in particolare Villa dei Volusii e Lucus Feroniae) in quattro epoche differenti (età del ferro, romana, medievale, odierna). In questa prospettiva, la prima necessità che si è posta è stata l'elaborazione di una metodologia valida per la ricostruzione del paesaggio antico dal punto di vista delle presenze vegetali prima ancora che da quello delle articolazioni urbane e monumentali. A valle di una fitta discussione interdisciplinare, anche alla luce delle precedenti esperienze del VH Lab, si espongono i risultati del processo elaborato, partendo dai dati geologici frutto delle diverse fonti disponibili, e da quelli altimetrici ottenuti mediante procedimento fotogrammetrico a partire da foto storiche. Il tutto viene successivamente elaborato in ambiente GRASS-Gis con un procedimento generalizzabile per la confluenza e il trattamento matematico dei dati geografici finalizzato alla definizione delle aree per le diverse presenze vegetali (naturali o frutto di coltivazione) e la creazione delle mappe base su cui impostare le successive ricostruzioni con software di simulazione paesaggistica procedurale (Vue). Con l'occasione, si sottolineano le carenze del software Open source su quest'ultimo fronte e la possibilità di avviare un progetto che colmi questa lacuna.

Software Licenses: Open (GIS) and Commercial (Landscape modeling)

Dati utilizzati: mappe geomorfologiche, mappe archeologiche

Open Data utilizzati: ??

Web Links: archeologia del paesaggio, modellazione procedurale, palaeoeconomy

File .Zip Download

File .Pdf File non presente

File .Txt File non presente


Il WebGIS del SITAR - Sistema Informativo Territoriale Archeologico di Roma: riflessioni, approcci e percorsi metodologici per la pubblicazione e la rappresentazione analitica dei dati territoriali archeologici

Mirella Serlorenzi (SSBAR), Andrea De Tommasi (SITAR) - Raniero Grassucci, Andrea Vismara  (Gruppo Caprioli - TAE) 

 

 Il Progetto SITAR finalizzato alla realizzazione del Sistema Informativo Territoriale Archeologico di Roma, è stato avviato nel 2007 ad opera della Soprintendenza Speciale per i Beni Archeologici di Roma, istituzione statale preposta alla tutela, salvaguardia ed alla valorizzazione del denso patrimonio archeologico dell’Urbs per antonomasia. Il SITAR rappresenta per questo Istituto una sfida istituzionale e tecnologica importante: coniugare un sistema informativo ancora in costruzione ed in evoluzione, con la gestione pressante di moli considerevoli ed eterogenee di dati relativi all’immenso, prezioso contesto storico e metropolitano della Capitale, sempre in rapida e frenetica evoluzione [1]. Il Progetto SITAR si inquadra, oramai da tre anni, nel più ampio contesto istituzionale e tecnologico del costituendo Sistema Informativo Territoriale Archeologico Nazionale, progetto varato nel 2008 dal MiBAC con l'obiettivo primario di stabilire un "minimo comun divisore" per mettere in relazione sistemi informativi archeologici differenti per finalità e impostazione, e orientato dalle attività delle due Commissioni paritetiche Ministero - Università su SIT/IDT e sull’Archeologia preventiva, ai cui lavori la Soprintendenza archeologica di Roma ha partecipato attivamente [2]. Con tali presupposti, anche grazie ad alcune specifiche collaborazioni istituzionali con altre Soprintendenze archeologiche italiane, il Progetto SITAR si pone come una prima esperienza pilota nella costruzione allargata e condivisa di un SIT archeologico di un territorio metropolitano, nel caso proprio quello della Capitale e, con maggiori ambizioni, nella realizzazione di un’IDT pubblica compartecipata con la Regione Lazio, il Comune di Roma e il Comune di Fiumicino, l’Archivio di Stato di Roma, alcuni Dipartimenti universitari dell’Università “Sapienza” e della III Università di Roma. Come già esplicitato in dettaglio in altre sedi, l’architettura informativa del sistema consta di quattro livelli logici ed informativi generali, necessari alla costruzione di un Catasto dinamico delle informazioni scientifiche e amministrative. Altri livelli tuttora in corso di progettazione riguardano il “potenziale archeologico”, ovvero la determinazione di coefficienti che permettano di attribuire ad ogni singola area territoriale un grado di rischio predittivo delle possibili interferenze tra le presenze storico-archeologiche e le nuove espansioni urbanistiche, oltreché di evidenziare alcuni elementi di valutazione indiretta in ordine alla ricostruzione progressiva dei paesaggi antichi [3]. La logica procedurale fondante del SITAR è articolata, dunque, in quattro momenti consecutivi che rispondono anche ad esigenze trasversali tra differenti settori operativi dell’Istituto, e che coincidono con i quattro livelli informativi seguenti (tra parentesi gli acronimi convenzionali definiti nel SITAR): 1. le Origini dell’Informazione (OI), gli identificatori univoci di tutti i contesti amministrativi e scientifici entro i quali continuano ad essere generati, giorno dopo giorno, i nuovi elementi parziali o complessivi della conoscenza archeologica e topografica della Città antica; 2. le Partizioni Archeologiche\analitiche (PA), i veri e propri rinvenimenti materiali di carattere storico-archeologico e geologico, ma anche le prime ipotesi ricostruttive (quelle parziali) basate su di essi; ciascuna partizione archeologica (o analitica) scaturisce da una singola origine informativa e ne rappresenta una parte specifica del contenuto conoscitivo di valore scientifico, pur trattandosi a volte di entità oggettive solo frammentarie e spesso disallineate rispetto a quelle già note e a quelle che verrano scoperte in seguito; le partizioni analitiche vengono identificate e distinte sempre secondo criteri inscindibili di coerenza cronologica e funzionale; 3. le Unità Archeologiche (UA), gli aggregati logici che derivano dal processo di correlazione interpretativa delle diverse PA che, una volta analizzate nell’ambito di uno specifico contesto e sempre secondo criteri inscindibili di coerenza cronologica e funzionale, conducono all’identificazione ed alla definizione univoca degli insiemi storico-topografici che hanno costituito i tessuti insediamentali storici della Città e del suo territorio; 4. i Dispositivi di Tutela archeologica, monumentale e paesaggistica (DT), che rappresentano l’esito intermedio tra l’azione di salvaguardia immediata e puntuale, nel più dei casi, del patrimonio antico e la più ampia progettazione della valorizzazione del territorio urbano e extraurbano, condivisa tra gli Enti ed i soggetti istituzionalmente preposti, quali il Ministero BB.AA.CC., la Regione, la Provincia, i Comuni, le Associazioni, i Cittadini. Questi livelli primari corrispondono nell’architettura informativa del SITAR ad altrettanti archivi digitali ben strutturati e tutti provvisti della corrispondente dimensione spaziale, espressa nella mappatura cartografica delle diverse classi di entità. La modalità web mediante la quale viene supportata la logica operativa e procedurale appena sintetizzata, costituisce per il SITAR un carattere tecnico ed infrastrutturale fondamentale ed essa intende rappresentare l'opportuna garanzia della trasmissione dei dati e delle informazioni del Sistema. Pertanto, è sulla Rete, tanto interna quanto esterna, che si è scelto fin dall’inizio di strutturare i flussi di lavoro e gli strumenti operativi del SITAR in costante sviluppo e per tale ragione il WebGis dedicato rappresenta il punto di forza primario della dotazione strumentale del Progetto, volta con sempre maggiore decisione anche al supporto ed alla gestione degli archivi digitali della Soprintendenza archeologica romana. Il WebGis si sta trasformando, inoltre, da set di strumenti e funzioni di pubblicazione dei dati e delle rielaborazioni operate su di essi, a vero e proprio portale cartografico del Progetto SITAR, integrando progressivamente in sé sia le attività di data-entry e di gestione dei dati di base (back-end), sia gli aspetti di comunicazione e di disseminazione dei contenuti culturali da questi derivati. Lo sviluppo corrente del WebGIS SITAR si sta focalizzando, difatti, sull’integrazione effettiva tra alcuni tools tipicamente GIS-oriented e molte delle caratteristiche proprie di un web site istituzionale pubblico, basandosi sulle tecnologie web e open-source correntemente in uso e tenendo sempre in primo piano l’impegno verso la semplificazione e l'ergonomia delle interfacce utente. Difatti, l'approccio user-friendly ed il processo di graduale familiarizzazione degli Utenti con gli strumenti web del SITAR è costantemente presente tra gli obiettivi primari dello sviluppo tecnologico delle sue componenti operative, in modo tale che il sistema si possa evolvere anche tenendo conto di tutti gli orientamenti che connotano le diverse anime del progetto e le diverse Utenze che coincidono con i diversi ambiti operativi dell’Istituto. In particolare, l'orientamento primario è quello rivolto ad una pubblicazione dinamica dei dati di base che sia in grado di valorizzare l'intera "catena informativa" che va da ciascuna Origine dell'Informazione, passando per le numerose Partizioni Archeologiche, fino all'identificazione di Unità Archeologiche più o meno semanticamente mature, procedendo in parallelo alla consultazione degli strumenti giuridici di salvaguardia e Tutela specifica di aree, complessi e singoli monumenti archeologici. Per conseguire dei risultati ottimali in termini di ergonomia e di prestazioni tecniche dell'ambiente operativo WebGIS, è stata attuata una specifica fase di analisi delle esigenze necessarie ai diversi Utenti. Di qui, ne discende lo sviluppo software che è tutt'ora in corso di attuazione e che in breve condurrà alla definizione delle caratteristiche funzionali delle seguenti aree funzionali principali: 1) la pubblicazione dei dati primari in forma di listing dinamici, di forms anagrafici e di reports dedicati ai singoli oggetti logici del SITAR ed alle loro correlazioni immediate, basate sulle relazioni logiche predefinite nel modello dati; 2) la prima analisi approfondita e la tematizzazione dinamica delle classi di entità, al fine della costruzione di nuovi oggetti a partire dai livelli primari (ad es.: identificazione delle UA a partire dalla tematizzazione analitica delle PA; individuazione di nuove aree di Tutela territoriale a partire dall'analisi delle presenze archeologiche e monumentali e dal riesame dei Dispositivi giuridici pregressi; etc.); 3) lo sviluppo di un ambiente operativo specificamente dedicato alla gestione dei Dispositivi di Tutela territoriale; 4) l'editing web-based delle classi di entità e dei relativi oggetti geo-spaziali e attributi descrittivi specifici, direttamente all'interno del browser dell'Utente; 5) l'implementazione di un modulo gestionale dedicato alle entità logiche ed agli allegati digitali pertinenti alla documentazione dello scavo archeologico stratigrafico. Un approccio che da esito a soluzioni particolarmente funzionali, è la c.d. Collection, ovvero un sistema avanzato di gestione e pubblicazione dei dati, facilmente personalizzabile ed adattabile a ciascun oggetto del modello dati, particolarmente utile nell'estrazione di informazioni anagrafiche, liste di dati, statistiche strutturate, diagrammi di diverse tipologie, implementazione ed integrazione di viste tridimensionali e/o pictometriche quali Virtual Earth, Google Street View, etc. [4]. Dal punto di vista dell’utente, si tratta di una serie di finestre di dialogo personalizzabili nelle quali è possibile pubblicare anche differenti set di dati tra loro correlati, dal momento che tecnicamente la Collection è in grado di recuperare infromazioni di qualsiasi tipologia e formato dal geodatabase SITAR, formattandoli secondo numerosi schemi tipici come liste e tabelle, immagini ed elenchi di immagini, link a documenti di qualsiasi natura e link a database anche esterni al sistema (via Intranet o via web), tra i quali risultano particolarmente utili i collegamenti dinamici al servizio Virtual Earth di Bing (Microsoft). Nel nuovo WebGIS SITAR vengono implementate tre tipologie di Collection: Collection Base, Collection Avanzata e Collection Personalizzata. Alcuni esempi di Collection Base che pubblicano informazioni di primo livello (rispetto a ciascun oggetto del geo-database SITAR), sono la scheda anagrafica dell'Origine dell'Informazione, la vista aerea assonometrica (pictometries 3D) degli areali delle OI, dei sedimi delle Partizioni Archeologiche, o ancora la scheda anagrafica di un Dispositivo di Tutela, la relativa definizione dimensionale in cartografia, o l'estratto di mappa di un'area sottoposta a vincoli giuridici. Le Collections Avanzate sono ad esempio la scheda anagrafica del Dispositivo giuridico, integrata con i dati catastali degli immobili da esso vincolati e degli intestari degli stessi all'atto dell'emissione del DT; oppure, il raffronto tra l'elenco degli immobili catastali citati in un Dispositivo di Tutela, pertanto ad esso soggetti a far data dall'emissione dello stesso, e l'elenco attuale degli immobili che ricadono entro lo stesso areale complessivo di Tutela; in questa Collection, pertanto, vengono pubblicati dati di primo livello (informazioni anagrafiche e descrittive del Dispositivo di tutela) insieme ad informazioni di secondo livello, ovvero estratte dal sistema in base al dataset informativo geografico di livello inferiore (dati catastali storici e/o attuali, dati anagrafici di persone fisiche e giuridiche, etc.). Infine, le Collections Personalizzate sono strumenti di pubblicazione dedicati a particolari ricerche e analisi basate soprattutto sulla tematizzazione dinamica dei dati primari, e sulla loro interazione mirata; l’Utente può effettuare differenti percorsi di analisi e salvarli a proprio piacere in specifiche configurazioni ed ipotesi di lavoro, da archiviare per ogni successivo utilizzo personale o condiviso con altri Utenti. In tal senso, le Collections Personalizzate si presentano quali definizioni più articolate e specialistiche rispetto alle Collections Avanzate. Un altro strumento utile ad aumentare l'ergonomia del WebGIS è il c.d. Intellipick, ovvero una funzione altrettanto facilmente personalizzabile, che permette di estrarre informazioni, produrre ricerche e creare tematismi direttamente dalla selezione delle features geo-spaziali sulla mappa. Questo strumento operativo consiste, in sostanza, di specifici menù contestuali che filtrano sempre per l’Utente solo le procedure attivabili rispetto a ciascuna specifica classe di entità e/o oggetto selezionato sulla mappa. Un'applicazione tipica dell’Intellipick, basata nel caso sulla selezione di una particella catastale, è rappresentata dall'attivazione di un menù contestuale contenente, ad esempio, solo il link alla corrispondente visura e all'estratto di mappa, l’elenco interattivo delle Unità Archeologiche che eventualmente insistano nell'area dell'immobile catastale selezionato, e/o delle Partizioni Archeologiche in esso ricomprese, o, ancora, la lista dei Dispositivi di Tutela che nel tempo hanno interessato la particella catastale. L'Intellipick può richiamare per ogni elemento selezionato a video anche tutte le eventuali ricerche ed analisi salvate dall’Utente e basate su Collections personalizzate, replicabili con un semplice click del mouse. L'altra area funzionale che si sta implementando nel WebGIS SITAR è quella dedicata al tracciamento delle geometrie operato direttamente all'interno del browser web. Il modulo che inizialmente sarà implementato in via sperimentale per le Origini dell'Informazione e per i Dispositivi di Tutela, potrà consentire in un secondo momento di affrontare anche il disegno delle classi del SITAR più articolate e complesse sul piano della risoluzione grafica e del dettaglio rappresentativo, delle dimensioni spaziali, dei tipi geometrici e delle regole topologiche, che richiedono sia le Unità che le Partizioni Archeologiche. Semplici procedure utilizzabili anche da personale privo di particolari competenze in ambito CAD\GIS, permetteranno in tal modo il tracciamento e la definizione di aree 2D e 3D (OI, DT, sedimi ed elementi volumetrici per le UA e PA), e di elementi grafici lineari (grafi stradali ed infrastrutturali attuali e storici, ad es.) e puntuali (punti altimetrici di UA e PA, ad es.), memorizzati nel geodatabase SITAR. Infine, basandosi sugli sviluppi software implementati a supporto delle classi di oggetti fondanti del SITAR, verrà integrato nel sistema anche un modulo gestionale dedicato alle entità logiche ed agli allegati digitali pertinenti alla documentazione di dettaglio dello scavo archeologico stratigrafico, aprendo di fatto la strada alla completa integrazione nel WebGIS SITAR tanto delle funzionalità di data-entry e di pubblicazione dei dati, quanto dei livelli di analisi scientifica specialistica dalla scala territoriale fino a quella stratigrafica locale.

Note

[1] M.Serlorenzi, A.De Tommasi, S.Ruggeri, La filosofia e i caratteri Open Approach del Progetto SITAR - Sistema Informativo Territoriale Archeologico di Roma. Percorsi di riflessione metodologica e di sviluppo tecnologico, in Atti del VI Workshop ArcheoFOSS - Napoli, 9-10 giugno 2011, c.s.

[2] Con il D.M. 24 gennaio 2007 il Ministro per i Beni e le Attività Culturali ha istituito la prima Commissione Paritetica per la realizzazione di un Sistema Informativa Archeologico delle città italiane e dei loro territori (in A.Carandini, Archeologia Classica. Torino 2008, pp.199-207), e con il D.M. 22 dicembre 2009 è stata istituita la seconda Commissione Paritetica per lo sviluppo e la redazione di un progetto per la realizzazione del SITAN, il Sistema Informativo Territoriale del Patrimonio archeologico italiano.

[3] Su tali argomenti cfr. i contributi dedicati in M.Serlorenzi (ed.), Atti della Giornata di Studio sul SITAR, Roma - Palazzo Massimo alle Terme, 26 ottobre 2010. Roma 2011.

[4] Sull'argomento specifico cfr. il contributo dedicato di R.Grassucci, SITAR - MPic: un primo tentativo di interoperabilità tra sistemi, in M.Serlorenzi (ed.), Atti della Giornata di Studio sul SITAR, Roma - Palazzo Massimo alle Terme, 26 ottobre 2010. Roma 2011.

Software Licenses: Map Guide Server OS e Map Guide Server Enterprise 2011; PostgreSQL\PostGIS; Php; Ajax; JScript; Open Layers. Licenze in uso: BSD, GPL

Dati utilizzati: Banca Dati del Progetto SITAR della Soprintendenza Speciale per i Beni Archeologici di Roma (set di dati: Origini dell'Informazione, Partizioni Archeologiche, Unità Archeologiche, Dispositivi di Tutela archeologica); - Base catastale vettoriale; - Base aereofotogrammetrica dei Comuni di Roma e di Fiumicino; - Nuova Carta Tecnica Regionale del Lazio; - Dati PTPR Regione Lazio (2007); - Grafo stradale dei Comuni di Roma e di Fiumicino; - Ortofoto Progetto CENSUS del Comune di Roma (2008)

Open Data utilizzati: -

Web Links: http://95.110.198.127/sitar/login.php [credenziali temporanee di accesso: sitar, sitar]

File .Zip Download

File .Pdf Download

File .Txt Non presente


Una volta era il WebGIS, la cartografia archeologica sul web, interpretazione o divulgazione? Passato, presente e prospettive future

Anna Maria Marras (Soprintendenza per i Beni Archeologici per le province di Cagliari e Oristano)

 Una volta era il WebGis, ora si usano i termini webmapping, webcartography, geoportali; l'informazione geografica veicola libera e si condivide grazie al web. Lo sviluppo di piattaforme open source (per avere un quadro aggiornato delle applicazioni è sufficiente visitare il sito http://www.osgeo.org) ha visto un fiorire sempre maggiore di WebGIS in archeologia. Questi progetti sono animati da modalità differenti, modalità che dipendono dalle motivazioni stesse che hanno concorso alla creazione della piattaforma (esito finale di un progetto con la divulgazione dei risultati o contestuale all'evoluzione del progetto stesso), dalle competenze informatiche, dai dataset utilizzati. In linea generale tali sistemi consentono di rappresentare, visualizzare e modificare progetti GIS direttamente sul web, le funzionalità principali sono: archiviazione, inserimento, modifica ed analisi dei dati, creazione di tematismi e filtri, visualizzazione delle informazioni. Una delle maggiori potenzialità di queste piattaforme è caratterizzata dalla possibilità di gestire le gerarchie degli utenti, che hanno privilegi di accesso differenti; generalmente un utente “ospite” può consultare la banca dati e gli sfondi cartografici, ricercare per parole chiave, visualizzare tematismi, selezionare le entità sulla mappa; alcuni sistemi consentono anche funzioni base di disegno entità e di stampa, nei casi più virtuosi di condivisione è prevista anche la possibilità di esportare le informazioni (generalmente in formato shape o csv). Gli utenti amministratori, invece, hanno accesso alla modifica e aggiornamento delle banche dati. I WebGIS sono dunque degli strumenti potenti sia di divulgazione sia di analisi dei dati (è implicito che a livello di analisi spaziali non si possa paragonare ad un GIS desktop), ad ogni modo presentano alcune criticità che si possono individuare principalmente nelle seguenti: -visualizzazione (spesso la cartografia e i tematismi caricati di base rendono “pesante” il sistema) -vita breve dei progetti che non sono più aggiornarti -qualità e quantità delle informazioni rilasciate all'utente finale -necessità di installazione di plugin (a dire il vero sempre meno richiesti) Spesso le logiche di accesso alle informazioni di questi WebGIS sono lontane dallo spirito di condivisione che il dato sul web implicherebbe, allora viene spontaneo chiedersi il perché di tanto successo del WebGIS archeologico, se poi i dati non vengono condivisi o sono resi solo parzialmente. Quando nascono i WebGIS e come si sono evoluti? Questa presentazione vuole offrire un quadro dell'evoluzione dei progetti GIS sul web, perché i progetti sono stati e sono in continuo aumento, in una selva di standard e formati che non comunicano tra loro. Essi possono realmente rappresentare un mezzo ideale per avvicinare alla ricerca anche i non addetti ai lavori e diffondere la conoscenza? Che tipo di conoscenza? Una conoscenza “grezza” o già interpretata? Inoltre, quali dati vengono condivisi? E ancora a chi sono rivolti? solo ad una tipologia di utenti specialistica? In ultima analisi si affronterà il futuro della cartografia archeologica sul web, in base anche alla "complessità" delle ontologie semantiche che hanno sempre più applicazioni in archeologia, in "contrapposizione" alla semplificazione del mapping offerta da progetti online come geocommons (http://geocommons.com/) o scribblemaps (http://www.scribblemaps.com/).

Software Licenses: Openoffice, xmind, vue

Dati utilizzati: I dati utilizzati sono quelli dei progetti WebGIS online che si sono visionati per il survey

Open Data utilizzati: I dati utilizzati sono quelli dei progetti WebGIS online che si sono visionati per il survey

Web Links:

http://www.osgeo.org; http://www.scribblemaps.com/; http://geocommons.com/; http://hypermedia.research.glam.ac.uk/publications/;

File .Zip Download

File .Pdf Download

File .Txt Non presente


Mercoledì 13

Sessione Strumenti e Sistemi FLOSS nella ricerca archeologica


Pyarchinit, python, Qgis e postgreSQL per l'Archeologia: nuovi sviluppi e prospettive

Enzo Cocca (Università di Ferrara e Pyarchinit Team), Luca Mandolesi (Pyarchinit Team)

 Il progetto "PyArchinit-python per l'archeologia" nasce nel 2005 dal Dr. Luca Mandolesi con lo scopo di sviluppare un plug-in, scritto in Phyton per Qgis, al fine di gestire dati da contesti archeologici in un ambiente opensource e quindi personalizzabile dai singoli utenti in base alle proprie necessità. Infatti, dalla sua nascita, la struttura è stata migliorata sotto vari aspetti: sono state aggiunte nuove schede per la gestionde della stratigrafia, per l'archeologia funeraria, per l'archeozoologia, ricognizione del territorio e per la gestione di dati storici (al momento sperimentata solo all'esterno del plugin); sono state migliorate alcune routine di controllo ed sportazione dei dati: check di immissione del dato, matrix di harris, creazione dell'ordine stratigrafico, esportazioni in formato pdf, stilizzazione automatica dei layer, ecc.. Inoltre sono stati realizzati collegamenti con moduli esterni a pyArchInit, come Rmanager, che permette di fare analisi statistiche e geostatistiche sui dati dei materiali raccolti. Dal 2011 il progetto sopra citato si è costituito in un piccolo gruppo di sviluppatori che mantiene e implementa tale sistema. pyArchinit nasce principalmente dal bisogno, sempre più presente nella comunità archeologica, di informatizzare i documenti archeologici utilizzando un software che permetta di gestire i dati alfanumerici, multimediali e topografici in un'unica soluzione. Questo plug-in mira a soddisfare queste esigenze e cerca di garantire nel tempo la stabilità, lo sviluppo, la facilità di installazione e aggiornamento. L'obiettivo finale è la creazione di una piattaforma GIS con una elevata interoperabilità tra sistemi operativi diversi, in cui le tabelle alfanumeriche, dati vettoriali e dati multimediali sono in un unico sistema. Ciò permette di mantenere il più possibile l'integrità dei dati grezzi, fornendo agli archeologi sia un approccio molto veloce e robusto e al contempo un sistema aperto a cambiamenti e personalizzazioni da parte di altri sviluppatori e/o utenti. Ad oggi le Soprintendenze tendono a richiedere ancora la documentazione di scavo in formato cartaceo e non dettano leggi in materia di informatizzazione dei dati; si giunge così ad avere supporti disomogenei e banche dati spesso poco allineabili oppure realizzate con software a pagamento che obbligherebbero gli enti ad acquistarne le licenze per poterli gestire. Per tali motivi l’archeologia guarda ormai da anni con interesse all’uso di software open source gratuito, che offre una serie di vantaggi imprescindibili per lo sviluppo di applicazioni: codice aperto e modicabile a seconda delle esigenze, licenze gratuite che abbassano i costi di installazione e permettono ad un gruppo di sviluppo un libero uso del software su più macchine, possibilità di ridistribuire il proprio prodotto liberamente ottenendo in feedback; la crescita della propria soluzione da parte di terzi, favorendo l’omogeneità delle soluzioni adottate. Rispetto alla versione di pyArchInit presentata all’ArcheoFOSS del 2009, le novità sono molteplici; a livello di codice sono state snellite le procedure di implementazione delle nuove tabelle, in modo da favorire il più possibile utenti esterni nella realizzazione e personalizzazione del database. Sono state aggiunte nuove tabelle per la gestione dei dati stratigrafici (Sito, Periodizzazione, Strutture, inventario materiali). Nel campo dell’archeologia funeraria, anche se in maniera altamente sperimentale son ostate aggiunte 4 nuove schede: tafonomica, scheda di individuo, sistema di calcolo dell’età e del sesso. Le routine aggiunte riguardano soprattutto la generazione del matrix in vari formati, con la possibilità di suddividere le US nei singoli periodi e fasi. E’ stato realizzato un primo sistema di controllo sull’immissione dei rapporti stratigrafici che restituisce un report con le incongruenze a livello del singolo rapporto. Novità importante è la gestione dell’ordine stratigrafico basato sulla successione reale degli strati: uno script permette di creare un indice numerico che dispone gli strati e le relative caratterizzazioni nell’ordine fisico, basandosi sui rapporti stratigrafici. Infine è in corso di elaborazione il sistema di caratterizzazione in automatico degli strati in funzione della stampa finale.

Software Licenses: GPL

Dati utilizzati: Dati pubblici

Open Data utilizzati: Nessuno

Web Links: https://sites.google.com/site/pyarchinit/

File .Zip Download

File .Pdf Download

File .Txt Download


Architetture scalabili per l'analisi, condivisione e pubblicazione di dati

Diego Guenzi, Rodolfo Boraso (CSP)

Con l'incremento esplosivo della quantità di informazioni nel mondo, la capacità di analizzarle in maniera relativamente semplice e veloce sta diventando un elemento fondamentale. Informazioni in enormi quantità, delle più svariate tipologie e formati:  sono queste le caratteristiche dei cosiddetti Big Data, un binomio che è recentemente entrato nell'uso comune, sebbene le sue prime introduzioni risalgano addirittura all'inizio del nuovo millennio. Quando i computer hanno iniziato a diffondersi come strumenti di business, oltre che di ricerca e di analisi, la prima sfida è stata quella di riuscire ad archiviare e gestire le informazioni aziendali e legate ai vari ambiti di ricerca. Le limitazioni tecnologiche del tempo hanno portato alla creazione dei database così come li conosciamo, e il passo successivo è stato quello di iniziare a utilizzare concretamente questi dati. Poiché i database sono composti da righe e colonne, i computer erano assolutamente in grado di gestirli senza particolari requisiti prestazionali. Le informazioni costituiscono una vera e propria ricchezza per le aziende, e la possibilità di organizzarle all'interno dei database ha permesso di sfruttarne le potenzialità lasciando ai computer il compito di eseguire attività essenziali di analisi e automazione. Oggi la nuova sfida riguarda invece i volumi di dati - la pura quantità (e velocità di crescita) delle informazioni che vengono prodotte quotidianamente e che risultano problematiche da gestire anche per il database più potente al mondo. Dal momento che la produzione dell'informazione avviene tramite mezzi che sono i più variegati (dagli smartphone, ai social network, fino a tutto ciò che può rientrare nell'Internet delle cose), altrettanto variegato è il tipo di informazione che viene prodotta. Siamo lontani dall'informazione fatta solo di parole e numeri, in quest'epoca dove anche immagini e video sono sempre più importanti, nella nostra vita. Tutto è informazione, tutto è correlabile e sempre meno è trascurabile, anche in archeologia. Quindi, la gestione dei Big Data, in passato, è stata un semplice problema tecnologico. Oggi, non è più cosi: esistono framework scalabili come Hadoop che nascono proprio per la gestione di grosse moli di dati e, addirittura, database “ad hoc” (che rientrano sotto il cappello di NoSQL e di NewSQL) che nascono con l'obiettivo di superare i limiti strutturali e intrinseci dei database tradizionali (i database relazionali o RDBMS). Settori quali il data warehousing e la business intelligence stanno convergendo sempre più verso nuove metodologie di analisi dei dati (in quantità sempre crescenti) che prendono il nome di Big Data analytics. Esattamente come per il data warehousing e la business intelligence, questa tecnica permette di gestire grandi quantità di dati e di estrarre informazioni preziose per il business o per la ricerca quali, ad esempio, le tendenze tra i consumatori o correlazini di dati che potevano sembrare slegati. Ovviamente, le organizzazioni più grandi (sicuramente quelle tecnologiche quali Google, Yahoo e Microsoft ma anche altri grossi nomi nel settore automotive, farmaceutico e statistico) sono le principali che hanno dimostrato interesse in questo settore ma anche aziende più piccole e enti di ricerca, che si trovino a gestire qualche terabyte di dati potranno trarre grossi vantaggi da tecniche di analisi evolute, adatte ad ambienti eterogenei. Secondo alcune stime, i dati contenuti nei grandi data warehouse cresceranno tra il 10 e il 20 per cento nel prossimo anno, complicando e rendendo sempre meno efficiente e rapida l'analisi dei dati tramite questi tool. La necessità di tecniche di analisi di Big Data attraversa tutti i segmenti industriali: classiche analisi e segmentazione della clientela, gestione delle reti di trasporto e di distribuzione dell’energia, iniziative antiterrorismo e molto altro ancora. Ovviamente, però, nel caso in cui i dati rientrino nella categoria dei Big Data, non è immediato fare il passaggio dalle metodologie tradizionali di analisi alla Big Data analytics: si parla, infatti, di un cambio radicale di paradigma legato alle modalità di analisi e, di conseguenza, le skill richieste al personale IT dedicato a questa funzionalità sono totalmente diverse da quelle che sono spesso possedute da chi si occupa di analisi in ambito tradizionale I tool stessi, sia per la memorizzazione dei dati, sia per l'analisi, sono diversi: raramente si parla di database relazionali (principalmente per via dei loro limiti di scalabilità) ma, sempre più frequentemente, si parla di structured storage, file system distribuiti e DBMS di tipo NoSQL e NewSQL. Questi fattori, però, non devono essere visti come problematiche o barriere all'ingresso ma come opportunità: riqualificando il proprio personale IT (creando anche nuove figure professionali) e adottando queste tecniche e questi strumenti, ci si rende immediatamente conto dei notevoli vantaggi ottenibili con queste tecniche di analisi avanzata. I risultati così ottenuti permettono di avere dei vantaggi competitivi notevoli su chi adotta le tradizionali tecniche di analisi, più lente e macchinose e, potenzialmente, meno accurate, oltre a permettere l'ottenimento di risultati migliori in meno tempo. I database relazionali (RDBMS), come abbiamo già detto, non rendono semplice e immediata la gestione di grosse moli di dati, specie se devono essere distribuiti su cluster composti da diversi nodi di calcolo. Basti pensare ai principali social network quali Facebook, Digg o Twitter e agli enormi sforzi che, in passato, hanno dovuto compiere per gestire tutti gli iscritti e i dati da loro prodotti. Questi sforzi crescono in base alla quantità di informazioni da memorizzare e sono incentrati sulla gestione di basi dati replicate e distribuite, alle quali vengono richieste caratteristiche di sicurezza, affidabilità, tolleranza ai guasti e performance. Scalare orizzontalmente (cioè incrementare il numero di macchine per incrementare la potenza a disposizione, sia essa di calcolo, sia di memorizzazione all’interno della base dati), in queste situazioni, è sempre stato un problema per i database relazionali in quanto richiedono l’utilizzo di tecniche ad-hoc (sharding, replicazione…) spesso complicate e/o costose, sia in termini prestazionali, sia in termini economici. Proprio per risolvere questo problema, Facebook ha deciso di sviluppare internamente un proprio database che permettesse di scalare senza problemi, mantenendo alcune delle caratteristiche tipiche dei RDBMS. Questo software, dopo poco tempo, è stato reso open source ed è tutt'ora conosciuto con il nome di Cassandra. In seguito a questo episodio, molti altri social network hanno deciso di migrare verso Cassandra per la gestione dei loro dati, sebbene esso non sia il solo database “specializzato”, nato per uno scopo ben preciso. Infatti, sono stati sviluppati molti prodotti, ognuno con caratteristiche differenti: alcuni di questi database sono ottimizzati per escludere i single point of failure tramite svariate tecniche di replica dei dati (fra rack differenti, fra data center differenti…), altri puntano ad ottenere prestazioni elevate nonostante la struttura distribuita (magari, basandosi su strutture dati allocate interamente in memoria), altri ancora puntano alla semplicità di utilizzo e di gestione. Oltre ai social network citati in precedenza, moltissime altre aziende hanno avuto necessità analoghe e hanno fatto ricorso a prodotti specializzati, spesso abbandonando gli RDBMS general purpose che adottavano in ambienti di produzione da anni; alcuni esempi possono essere Sourceforge che ha scelto MongoDB, Yahoo che ha sviluppato PNUTS o LinkedIn con l’adozione di Voldemort. Fattore che accomuna questa moltitudine di database, evidenziato anche dall’appartenenza ad una famiglia chiamata NOSQL (o, come più correttamente si dovrebbe definirla, “Structured storage”), è proprio il fatto che non sfruttano il classico linguaggio di interrogazione SQL e che utilizzano una rappresentazione dei dati spesso slegata dal consueto concetto di tabella. Il movimento NOSQL, al contrario di quello che il nome sembrerebbe indicare, non nasce in opposizione alla “tradizione” dettata dal linguaggio SQL ma come valida alternativa per la risoluzione di problematiche differenti, proprio legate alla continua crescita dei dati e alla loro eterogeneità, tipica dei Big Data. Infatti, NOSQL è acronimo di Not Only SQL ed è un movimento che sostiene l’utilizzo dei database di questo tipo laddove i tradizionali RDBMS risultino carenti o troppo complessi/costosi, seguendo la filosofia “the right tool for the right job”. I campi di applicazione ideali per le basi dati NOSQL sono, come già detto in precedenza, quelli dove è necessario gestire ambienti distribuiti e replicati, specie se si è disposti a “sacrificare” alcune delle caratteristiche tipiche dei RDBMS (ACID - Atomicity, Consistency, Isolation, Durability) verso un insieme di caratteristiche differenti (BASE - Basically Available, Soft state, Eventually consistent) permettendo, a discapito di una diversa gestione della consistenza dei dati e della loro disponibilità, un notevole incremento della scalabilità (come esplicitato anche dal teorema CAP, per il quale non si può avere Consistency, Availability e Partition tolerance al tempo stesso). Inoltre, uno degli obiettivi dei sistemi informativi distribuiti odierni è di poter garantire una disponibilità elevata, persino quando alcuni nodi non sono raggiungibili a causa di guasti improvvisi; è importante, quindi, che il servizio possa continuare a funzionare anche in presenza di una failure che determini un partizionamento della rete e che ogni richiesta ricevuta sia comunque esaudita, anche se il sistema presenta al suo interno dei nodi non operativi. Le basi di dati NOSQL, fra le altre cose, cercano di risolvere (almeno in parte) la suddetta problematica. Inoltre, il fatto che molte di esse siano open source, permette di avere un’elevata adattabilità alle problematiche specifiche che si vogliono risolvere, oltre ad un costo nettamente inferiore rispetto all’utilizzo di soluzioni ad-hoc abbinate ai tradizionali RDBMS (sia per prodotti proprietari, sia per prodotti free), alla possibilità di conservare nel tempo i propri dati e di utilizzare “commodity hardware” come nodi della propria infrastruttura di memorizzazione. A tutto questo si aggiunge una fervente community di sviluppatori che offrono costantemente nuove caratteristiche e contribuiscono al supporto dei vari prodotti. Questi database sembrano sposarsi perfettamente con la crescente metodologia di computazione cloud-based, che richiede l’utilizzo di ambienti fortemente distribuiti, scalabili e dinamici, all’interno dei quali il numero di macchine (virtuali o meno) è in continua variazione. Inoltre, molti di questi prodotti sono in grado di gestire più o meno facilmente i Big Data e permettono l'integrazione con tool di Data Analytics. Oltre alla categoria dei database NOSQL esiste anche la famiglia di DBMS nota con il nome di NewSQL. Questi database cercano di prendere i pregi del mondo del NOSQL e di unirli con i pregi del mondo dei RDBMS. Normalmente, quello che fanno è nascere per funzionare in ambienti distribuiti e supportare la gestione di grosse moli di dati, pur mantenendo gli standard dominanti nel mondo dei RDBMS, cioè l'ACIDità delle transazioni e la possibilità di utilizzare il linguaggio SQL. Il cuore dell'infrastruttura da noi assemblata è dato da Hadoop. Quest'ultimo è un framework che supporta applicazioni distribuite con elevato accesso ai dati, fino a permettere alle applicazioni di lavorare con migliaia di nodi e petabyte di dati. Hadoop, ispirandosi alla tecnologia Map/Reduce di Google e al Google File System, è un progetto top-level di Apache, costruito e usato da una comunità globale di contributori, che usano il linguaggio di programmazione Java. Hadoop è usato anche da alcune grosse società come AOL, Ebay, Facebook, IBM, Imageshack, Joost, Linkedin, The New York Times, Twitter e Yahoo; quest'ultimo è il più grande contribuente al progetto, oltre a farne un uso massiccio. Intorno a questo cuore ruotano tutta una serie di altri strumenti come Fuse, Apache web server (con il modulo WebDav), Hbase, HAproxy, Keepalived e R. Fuse, acronimo di File system in USErspace, è un progetto open source, rilasciato sotto la licenza GPL e LGPL, volto alla realizzazione di un modulo per il kernel Linux che permetta agli utenti non privilegiati di un sistema di creare un proprio file system senza la necessità di scrivere codice a livello kernel. Fuse è divenuto ufficialmente parte del codice del kernel Linux a partire dalla release 2.6.14 ed è particolarmente utile per scrivere file system virtuali. A differenza dei file system tradizionali, che si preoccupano principalmente di organizzare e memorizzare i dati su disco, i file system virtuali non memorizzano realmente i dati per conto proprio; agiscono infatti come un tramite fra l'utente ed il filesystem reale sottostante. Fuse è un sistema molto potente: virtualmente ogni risorsa disponibile ad essere implementata sfruttando Fuse può divenire un file system virtuale. Apache HTTP Server, o più comunemente Apache, è il nome dato alla piattaforma server web modulare più diffusa (ma anche al gruppo di lavoro open source che ha creato, sviluppato e aggiornato il software server), in grado di operare da sistemi operativi UNIX/Linux e Microsoft. Apache è un software open source che realizza le funzioni di trasporto delle informazioni, di internetwork e di collegamento ed ha il vantaggio di offrire anche funzioni di controllo per la sicurezza come quelli che compie il proxy. Questo applicativo, grazie all'installazione di un piccolo modulo, supporta anche il protocollo WebDav (Web-based Distributed Authoring and Versioning). WebDav si riferisce a un set di istruzioni del protocollo HTTP, che permettono all'utente di gestire in modo collaborativo dei file in un server remoto. Questo protocollo ha lo scopo di rendere il World Wide Web un mezzo di lettura e scrittura, seguendo le linee guida dell'idea originale di Tim Berners-Lee. Offre delle funzionalità che permettono la creazione, la modifica lo spostamento di documenti situati in un server remoto. Molti sistemi operativi moderni hanno un supporto integrato per il protocollo WebDav ma, con il giusto client ed una rete veloce, la gestione dei file su server WebDAV è facile quasi quanto una gestione dei file in locale, anche da smartphone e PDA. HBase è una base di dati NOSQL distribuita open source modellata sull’idea di BigTable di Google e scritta in Java. Per usare Hbase è necessario adottare un cluster Hadoop sul quale sia configurato HDFS (Hadoop Distributed File System) come sistema di storage. HAProxy è una soluzione gratuita e open source per ottenere l'alta affidabilità e il load balancing di un servizio basato su protocollo TCP (come accade per il protocollo HTTP) e replicato su più macchine. E' particolarmente adatto per i server web che devono gestire migliaia di connessioni e, come tale, calza a pennello con la nostra architettura. Keepalived è un altro software open source che ci permette di costruire un'architettura active-passive dove al fallimento di una macchina, un'altra ne prende immediatamente le veci, in modo da non interrompere mai il servizio e offrire continuità operativa. R è un ambiente di sviluppo specifico per l'analisi statistica dei dati; è un software libero, distribuito con la licenza GNU GPL, ed è disponibile per diversi sistemi operativi. Questo linguaggio offre molte funzionalità per l'analisi dei dati, sia in campo statistico che in moltissimi altri campi (anche grazie ad una notevole estendibilità basata su pacchetti aggiuntivi) quali da manipolazione dei dati e la loro rappresentazione grafica. Mettendo insieme tutti questi applicativi open source, si può ottenere un web-based file storage collaborativo che può essere raggiungibile da qualsiasi punto e con ogni dispositivo (PC, smartphone, tablet...); questo sistema integra già alcune metodologie adatte ad effettuare operazioni di Big Data Analytics ma si presta in maniera molto semplice ad interagire con sistemi di analisi avanzata già esistenti (es.: Solr) o creati ad hoc (grazie alla semplice integrazione di Hadoop con molti linguaggi di programmazione, Java in primis). Un dimostrativo dell'architettura è stato ricreato su di un server HP ProLiant DL360 G5 con due processori Intel Xeon E5430 da 2.66Ghz, 18 Gb RAM e due hard disk SAS da 146 Gb in configurazione RAID 1 (mirroring). Su questa macchina è stato installato Ubuntu server 10.4.3 LTS abilitando la virtualizzazione con KVM e i vari software descritti in precedenza sono stati installati e configurati sopra a queste virtual machine, al fine di offrirci un'idea di massima delle caratteristiche della nostra architettura. La maggior attenzione è stata prestata alle caratteristiche di fault tolerance e di scalabilità a caldo, oltre alla capacità di memorizzare ed analizzare dati eterogenei provenienti da diversi device, permettendo di ottenere un sistema resistente e affidabile al tempo stesso. Per la limitatezza dell'hardware e la gestione dell'intera infrastruttura in virtuale, non ci è stato possibile addentrarci in analisi particolarmente interessanti (es.: moli di dati veramente enormi) ma i primi test ci hanno offerto risultati piuttosto interessanti. E' inoltre da segnalare che l'architettura in questione funziona perfettamente su commodity hardware e non ha dei requisiti tecnici particolari.

Software Licenses: Apache Web server - Apache license v2.0 FUSE - GPL e LGPL Hadoop - Apache license v2.0 R - GPL v3 HAproxy - GPL v3 Keepalived - GPL

Dati utilizzati: Non sono state utilizzate banche dati specifiche: essendo un'architettura general purpose per l'analisi, condivisione e pubblicazione web di dati, essa si può utilizzare con qualsiasi tipologia di dato.

Open Data utilizzati: Non sono state utilizzate banche dati specifiche: essendo un'architettura general purpose per l'analisi, condivisione e pubblicazione web di dati, essa si può utilizzare con qualsiasi tipologia di dato.

Web Links: http://httpd.apache.org/ http://hadoop.apache.org/ http://www.r-project.org/ http://haproxy.1wt.eu/ http://www.keepalived.org/ http://fuse.sourceforge.net/

File .Zip Download

File .Pdf Download

File .Txt File non presente


Towards a free and open database for excavation data recording

Girolamo F. De Simone (University of Oxford)

 Although the debate on archaeological databases is as old as the invention of the first RDBMS itself, still today the panorama is quite fragmented. On the one hand, all archaeological teams which operate in Italy (i.e. both Italian and foreign ones) need to fill in the paperwork required by the Superintendencies, like the standard context sheet (US), which ultimately leads to more or less elaborate electronic versions of these forms (text files, spreadsheet tables, databases which mutuate the US form fields). On the other hand, over time most of the teams developed their own independend data management system, which are claimed to be free and open, but in reality just very few of them really are. So far, academic debate on RDBMS mostly focused on how to integrate different sorts of data and what kind of software to implement, while other aspects of database creation, namely the most strictly archaeological ones, have been exploited less. This contribution focuses on the most theoretical part of database creation: the entity-relationship model, the definition of the fields, and the definition of thesauroi. In the first part, this paper reviews the requirements from the Ministry of Culture (ICCD forms), it analyses the theoretical structure behind them, and stresses the issues in developing a database from them (i.e. fuzziness of the data, information redundancy, unstructured fields). In the second part, the data structure of the most prominent Italian and foreign systems (e.g. OpenArcheo2, pyArchInit, Syslat, ARK, etc.) are compared between each other in order to understand similarities and differences. In the last part, the paper provides a new entity-relationship model and its realization through fields with defined attributes, thesauroi, and relations.

Software Licenses: A free and open database model will be provided. Some of the software discussed in the paper is free and open, other is under proprietary license.

Dati utilizzati: The most relevant data come from OpenArcheo2, pyArchInit, Syslat, ARK, the "paperless archaeology" database, and others.

Open Data utilizzati: -

Web Links: http://ark.lparchaeology.com/ http://pyarchinit.blogspot.it http://paperlessarchaeology.com/the-database/ http://i.syslat.net/

File .Zip File non presente

File .Pdf File non presente

File .Txt File non presente


ArchaeoSection. Uno strumento “artigianale” per il rilievo delle sezioni archeologiche

Denis Francisci (Università di Padova - Dipartimento di Beni Culturali)

 Il disegno delle sezioni di scavo costituisce uno degli elementi fondamentali della documentazione archeologica al pari delle piante, delle fotografie e delle schede ministeriali. Le tecniche di rilievo delle sezioni possono essere oggi molto varie: dalle più tradizionali basate su cordella metrica e/o livello ottico, alle più evolute che utilizzano come supporto modelli digitali delle superfici di strato o rappresentazioni volumetriche (voxel) degli stessi. Un metodo intermedio è quello che rileva i profili di sezione tramite stazione totale registrando le coordinate X, Y, Z dei punti presi lungo una linea di taglio prestabilita. Scaricati dalla stazione e importati in qualsiasi programma GIS o CAD, i punti non restituiscono una visione immediata e “verticale” dei profili di sezione, ma si presentano semplicemente come una successione di marker allineati lungo la medesima direttrice sul piano definito dagli assi X e Y. Al fine di visualizzare le sequenze dei punti in verticale e poterli utilizzare come traccia per disegnare le linee di sezione l'una sotto l'altra sono necessarie alcune ben note operazioni di rotazione, traslazione ed inversione di coordinate. ArchaeSection è un semplice tool che permette di automatizzare proprio queste operazioni di modifica, in modo da velocizzare il processamento dei dati raccolti a stazione e da ridurre il rischio di errore insito nelle trasformazioni di coordinate. A livello procedurale il software svolge le seguenti operazioni: importa le triplette di valori X, Y, Z scaricate dalla stazione all'interno di un geodatabase; trasla e ruota le coordinare calcolando i rispettivi parametri metrici e angolari di spostamento; allinea i punti su un asse definito dall'utente a seconda del quadrante in cui cadono gli allineamenti di punti registrati; inverte le colonne di coordinate in modo tale che la quota Z sostituisca il valore Y. A questo punto ArchaeSection permette o di produrre un semplice file di output in formato .csv contenente le coordinate modificate oppure consente di lanciare il software QGIS [http://www.qgis.org/] dove è possibile caricare le geometrie dei punti modificati e iniziare l'elaborazione grafica della sezione mediante il disegno delle linee e dei poligoni. La gestione in ambiente GIS del rilievo delle sezioni, inoltre, permette di sfruttare tutti gli strumenti di analisi spaziale propri dei sistemi informativi geografici, la connessione ad altri dati gestiti nel geodatabase, l'interfacciamento diretto con altri software, come ad esempio R [http://www.r-project.org] per l'analisi statistica, etc. Oltre che per il disegno di sezioni volanti e cumulative, ArchaeSection può essere utilizzato anche nella pipeline di geo-rettificazione di immagini verticali, in particolare per il rilievo fotogrammetrico di prospetti murari. ArchaeSection è scritto completamente in Python (2.6) [http://www.python.org/] pur integrando qualche linea di codice in SQL; utilizza PyQt4 [http://www.riverbankcomputing.co.uk/software/pyqt/] (un set di bindings per le librerie Qt in Python) per la realizzazione dell'interfaccia grafica e PySQLite2 [http://code.google.com/p/pysqlite/] per la connessione con il geo-RDBMS SpatiaLite [http://www.gaia-gis.itgaia-sins/] di cui sfrutta, oltre agli strumenti classici di gestione dei dati alfanumerici, le funzioni spaziali e trigonometriche. Il software è attualmente in fase di sviluppo e testing; sarà distribuito, a partire da giugno 2012, sotto licenza GNU GPL v3 sia nel formato sorgente in Python sia come pacchetto debian, entrambi scaricabili da http://www.uselessarchaeology.com. Accanto alla descrizione delle specifiche tecniche e delle funzionalità dell'applicativo ArchaeSection, questo intervento mira anche a presentare un ulteriore esempio di come il software libero consenta anche ad archeologi privi di formazione informatica di costruirsi i propri strumenti di lavoro, magari non perfetti sul lato tecnico, ma funzionanti sul lato pratico e convenienti dal punto di vista economico. In un settore, quello dell'archeologia, sempre più povero di finanziamenti e praticamente privo di aziende che producano strumenti hardware e software specifici per la disciplina, è necessario a nostro avviso conferire una dimensione artigianale alla professione, dimensione nella quale è normale costruirsi i propri “attrezzi del mestiere” laddove questi manchino o risultino troppo costosi. Su questo versante quindi il codice aperto e disponibile a tutti, la condivisione dei risultati, dei problemi e delle soluzioni tramite la rete, l'utilizzo di linguaggi relativamente semplici ed intellegibili anche da parte di utenti non particolarmente esperti rendono il FLOSS il miglior alleato di questa figura nuova e allo stesso tempo antica dell'"archeologo-artigiano".

Software Licenses: ArchaeoSection: Licenza GNU GPL v3; Python: Licenza Open-Source (OSI); Spatialite: Licenze MPL, GNU GPL, GNU LGPL; QGIS: Licenza GNU GPL; PyQt4: Dual license: GNU GPL e licenza commerciale; PySQLite: MIT license (OSI); Sqlite Database Browser: Public Domain;

Dati utilizzati: Non sono stati usati dati

Open Data utilizzati: Non sono stati usati dati

Web Links: ArchaeoSection: http://uselessarchaeology.com (sezione programming)

File .Zip Non presente

File .Pdf Download

File .Txt Non presente


La migrazione dei dati geospaziali dai sistemi di riferimento catastali a Gauss-Boaga: un confronto sperimentale tra gli strumenti software di proiezione cartografica e le librerie proprietarie, free e open source

Andrea Vismara (Gruppo Caprioli - TAE), Fabio ZONETTI (e42.it)

 

 Nel presente lavoro si mettono a confronto, attraverso un caso di studio locale, le librerie di diversi software proprietari, free e open source, nella trasformazione di coordinate dal sistema catastale a Gauss-Boaga. L' analisi si è basata sul confronto delle coordinate Gauss-Boaga riportate nelle monografie dei trigonometrici catastali e i risultati delle trasformazioni effettuate con le librerie prese in esame. Nello specifico sono stati scelti i trigonometrici catastali “rete IGM” e quelli di “dettaglio, della rete catastale”. In ultima analisi, si sono messe a confronto le coordinate Gauss-Boaga riportate in monografia catastale con quelle riportate in monografia IGM, per la stessa materializzazione. Scopo del lavoro, è stato di valutare la bontà delle trasformazioni effettuate e avere dei valori numerici che ci consentono di scegliere o scartare le librerie, per la zona in esame (Roma), nelle trasformazioni dei sistemi da Cassini-Soldner a Gauss-Boaga.

Software Licenses: Trasforma2000 (proprietario),CartLab (Free), borneo (free), proj4 (Floss), CS-MAP (Floss)

Dati utilizzati: monografie trigonometrici Catastali e IGM

Open Data utilizzati: null

Web Links: null

File .Zip Download

File .Pdf Non presente

File .Txt Non presente


ArcheOS v. 4 - Caesar. Le novità dell'ultima release

Luca Bezzi, Alessandro Bezzi (ArcTeam) -  Denis Francisci (Università di Padova - Dipartimento di Beni Culturali) - Fabrizio Furnari

 

 In questo intervento verranno presentate le caratteristiche tecniche e le novità dell'ultima release di ArcheOS. ArcheOS è l'acronimo di Archaeological Operating System, il sistema operativo GNU/Linux pensato per la ricerca archeologica e giunto ormai alla quarta release. Il sistema è sviluppato da una comunità di volontari, prevalentemente archeologi, ma con il fondamentale apporto di sistemisti ed esperti di grafica. E' rilasciato da Arc-Team s.n.c. (http://www.arc-team.com/) sotto licenza GPL ed è scaricabile dal sito http://www.archeos.eu/. ArcheOS nasce nel 2005 con la prima versione denominata “Akhenaton” e basata su PCLinuxOS 0.92. A questa seguono altre due releases: “Sargon” nel 2007 e “Xenophon” nel 2009, entrambe basate su Kubuntu (rispettivamente 7.10 e 9.04). Nel 2011 esce, in versione alpha, l'ultima release del sistema operativo, “Caesar”, radicalmente innovata rispetto alle precedenti. Il nuovo ArcheOS si basa su Debian 6.0 Squeeze (la stable release di Debian) ed utilizza come Desktop manager Gnome (GNU Object Model Environment) al posto di KDE (K Desktop Environment) impiegato fino alla versione 3. Una delle principali novità del sistema consiste nell'implementazione di un repository dedicato (http://repos.archeos.eu/apt/) contenente i pacchetti .deb di numerosi software utili (e talvolta indispensabili) in archeologia. Nel repository, in particolare, trovano posto i pacchetti costruiti dagli sviluppatori di ArcheOS e relativi a quei programmi che non dispongono di pacchetti precompilati. Questa struttura di gestione del software permette di installare facilmente gli applicativi necessari e di mantenere il sistema aggiornato e “pulito”. L'obbiettivo primario è tuttavia quello di raggiungere una piena conformità agli standard e alle policy Debian per la gestione dei pacchetti. Queste sono particolarmente stringenti sia dal punto di vista della qualità (il pacchetto deve superare dei controlli molto severi per quanto riguarda sia la qualità del codice che l'integrazione all'interno del desktop environment, in questo caso GNOME), sia dal punto di vista della “libertà” del software: un punto d'onore di Debian come sistema operativo è quello di scoraggiare fortemente l'uso di software la cui licenza non sia completamente aderente ai principi del free software. L'uso inoltre dei repository ufficiali di Debian Squeeze, oltre a quelli dedicati di ArcheOS, offre la possibilità per ogni utente di aver sempre accesso a centinaia di migliaia di pacchetti software precompilati e semplici da installare, sempre aggiornati dal punto di vista delle funzionalità e della sicurezza. Il lavoro di sviluppo generale del sistema è gestito attraverso la piattaforma di project managment Redmine che consente di organizzare il lavoro “a più mani” dell'intera comunità di sviluppatori. La costruzione dei singoli pacchetti .deb è delegata ai singoli sviluppatori che generano i debian packages mediante procedure riconosciute e standardizzate. Oltre agli applicativi “generici” tipici di ogni sistema operativo (suite di scrittura, calcolo e disegno; web browser; lettori audio e video; etc.), all'interno di ArcheOS trovano spazio anche tutti quei software ritenuti necessari all'attività archeologica, organizzati in diverse sezioni: software di grafica raster e vettoriale (GIMP, Inkscape, etc.); tools per il disegno automatico di reperti archeologici (Stippler e Stippler GUI); software GIS (GRASS, QGIS, OpenJUMP, etc.) e CAD (QCAD, FreeCAD); suite di fotogrammetria (E-FOTO); applicativi per modellazione 3D (Blender), per Structure from Motion ed Image-Based Modelling (Bundler, PMVS, Python Photogrammetry Toolbox e PPT-GUI); strumenti per la gestione e l'editing di nuvole di punti, mesh (MeshLab) e volumi (ParaView); RDBMS per la costruzione e la gestione di database e geodatabase (PostgreSQL, PostGIS, SQLite, etc.); programmi di analisi statistica (R, LabPlot, etc.); e molto altro ancora. Per il futuro è già in progetto la versione 5 di ArcheOS, denominata “Theoderic” e basata su Debian Wheezy. Tra le novità della prossima release si segnala in particolare la predisposizione all'installazione non solo su macchine a 32bit, ma anche su macchine ad architettura AMD 64bit.

Software Licenses: GNU GPL

Dati utilizzati: Non sono stati utilizzati dati

Open Data utilizzati: Non sono stati utilizzati dati

Web Links: http://www.archeos.eu/

File .Zip Non presente

File .Pdf Download

File .Txt Non presente


POSTER

Raccolta e gestione dei dati archeologici tramite software open source: il sito di Adulis (Eritrea)

Giulio Bigliardi, Sara Cappelli (Università di Siena - Centro di GeoTecnologie) - Enzo Cocca (Università di Ferrara e Pyarchinit Team)

 

Adulis Project è un progetto quinquennale avviato nel 2010 dal Centro di GeoTecnologie dell’Università degli Studi di Siena, il Ce.R.D.O (Centro Ricerche sul Deserto Orientale) e il National Museum of Eritrea (e con la collaborazione iniziale del Museo Civico di Rovereto), che ha l’obiettivo di riportare alla luce e valorizzare il sito archeologico di Adulis in Eritrea. La città portuale di Adulis, 50 chilometri a sud di Massawa, è uno dei più importanti siti storici del paese per i suoi edifici monumentali e il valore dei reperti archeologici scoperti finora. Secondo le fonti classiche era uno dei principali porti per il commercio nel Mar Rosso durante l'antichità: localizzata in un punto di snodo tra il Mar Rosso e l'Oceano Indiano, questa città ha un'importanza fondamentale per la comprensione dei contatti commerciali antichi tra il Mediterraneo e l'Oriente. Un lavoro di rilievo delle strutture integre e dei crolli ancora visibili in situ, lo scavo e la documentazione prodotta da tre nuovi settori, hanno reso necessario la raccolta tutti i dati pregressi e nuovi in un Sistema informativo territoriale che permettesse l’analisi, la gestione e l’interrogazione delle informazioni. In questa sede si mostreranno parte dei risultati delle prime due campagne di scavo effettuate nel 2011 e nel 2012. In particolare, si intende presentare la gestione dei dati di scavo effettuata attraverso applicazioni GIS opensource. I dati di scavo, vettoriali ed alfanumerici, sono stati gestiti utilizzando Pyrchinit, un plugin per Qgis che sfrutta le potenzialità del database PostgreSQL con estensione Postgis. Tale scelta è stata fatta per mettere a disposizione dell’intero team del progetto, composto da ricercatori italiani ed eritrei, un sistema di gestione libero dai costi di licenza software. L’applicazione consente l’analisi e la relazione tra elementi stratigrafici, piante di strato e di fase, permettendo interrogazioni e ricerche sulle classi di materiali e sulle strutture rinvenute, con la finalità di catalogare e ordinare la documentazione raccolta durante lo scavo, ma soprattutto di aiutare a comprendere le dinamiche del sito e ad interpretarne la successione stratigrafica e cronologica. Tra le particolarità di tale applicazione vi sono la possibilità di creazione automatica ed esportazione di matrix, piante di scavo e pdf, oltre a quella di essere gestibile anche in remoto attraverso internet: il sistema potrà in questo modo essere fruibile da tutti i componenti del team del progetto nei propri ambienti di lavoro, ovvero sia sul campo che in laboratorio, e può in tal modo essere aggiornato in tempo reale.

Software Licenses: No

Dati utilizzati: Inediti

Open Data utilizzati: Nessuno

Web Links: No

File .Zip Download

File .Pdf File non presente

File .Txt File non presente


POSTER

Analisi spaziali intra-site: soluzioni Gis open source per lo scavo archeologico del sito di Montecorvino (Fg)

Luca d'Altilia, Pasquale Favia, Roberta Giuliani, Felice Stoico

(Università degli Studi di Foggia - Dipartimento di Scienze Umane)

 Nell'ambito di questo lavoro l'attenzione è stata posta principalmente sulla tipologia di analisi definita intra-site , riguardante nello specifico l'insediamento medievale abbandonato di Montecorvino, nell'area dei Monti Dauni Settentrionali, in provincia di Foggia. Dopo quattro campagne di scavo (dal 2008 al 2011) condotte sul campo dal Dipartimento di Scienze Umane dell'Università di Foggia, è ormai possibile delineare i caratteri principali di un sito che per storia e caratteristiche insediative si pone tra i più significativi per la ricostruzione del paesaggio medievale della Capitanata. Per la creazione di un Sistema Informativo Territoriale del sito archeologico di Montecorvino, sin dall'inizio è stata messa a punto una metodologia basata esclusivamente su software libero. Il procedimento adottato ha inizialmente previsto l'importazione in ambiente GIS del rilievo e delle piante di strato (overlay) redatte manualmente durante le campagne discavo. Dopo aver proceduto alla georeferenziazione di questi dati, all'interno del software Qgis si è provveduto alla creazione di un singolo shapefile per ogni unità stratigrafica, al fine di ottenere una visione globale dell'indagine archeologica svolta nell'area, organizzata per cromatismi e visualizzabile in funzione dell'area di interesse. Al fine di effettuare agevolmente analisi di tipo statistico, è stato successivamente creato un ulteriore layer shapefile in Qgis. Ciascuna US, con i suoi limiti spaziali, è diventata in questo modo selezionabile e visualizzabile all'interno della tabella attributi del suddetto shapefile. Qualsiasi campo inserito nella tabella attributi e debitamente compilato in corrispondenza di ciascuna US può essere quindi utilizzato per visualizzare in modo selettivo e analitico i dati corrispondenti a determinati criteri di ricerca Tramite l'utilizzo del GIS GRASS è stato possibile estendere il raggio di analisi alle tipologie più strettamente legate al contesto spaziale del sito: è risultato possibile tracciare sezioni altimetriche tra due punti qualsiasi del modello digitale del terreno utilizzato ed ottenere una restituzione grafica del profilo della sezione stessa. Dal punto di vista archeologico, rilevante è stata la possibilità di ottenere un profilo morfologico dell'area ai piedi della motta su cui sorge la torre, nell'area in cui si è ipotizzata la presenza di un fossato. Ulteriori tipologie di analisi spaziali e soluzioni per la divulgazione dei dati archeologici in prospettiva "open" sono attualmente in fase di realizzazione. Software utilizzati: Quantum GIS v. 1.7; GRASS GIS v. 6.4; LibreCAD v. 1.0.1; GIMP v. 2.6 Il contesto archeologico, le metodologie impiegate e le finalità del lavoro saranno presentati sotto forma di poster e breve comunicazione scritta.

Software Licenses: GPL

Dati utilizzati: Sito archeologico di Montecorvino - documentazione di scavo. Dipartimento di Scienze Umane - Università degli Studi di Foggia.

Open Data utilizzati: Digital Terrain Model - Regione Puglia

Web Links: www.archeologia.unifg.it; www.sit.puglia.it

File .Zip Download

File .Pdf Download

File .Txt Non presente


POSTER - An open source osteological database proposal

Alessandro Canci, Giovanni Magno, Maurizio Marinato, Maria Letizia Pulcini, Marina Zago, Pamela Corsi (Università degli Studi di Padova)

 At University of Padua, since 2005, a osteo-archaeology study team is active, whithin the Archaeology degree teaching, to which pertain a class of Human Paleontology. In order to record in a comprehensive and systematic manner data relating to palaeobiological researches, it was developed an open source osteological database: open source is the right choice for university research, as it allows release data from software solutions that may become outdated or incompatible and that can block the use of their data. The open formats will ensure the most functional and free use of such data. The database is based on LibreOffice Base, versatile and easy to use software, as well as multi-platform. For its compilation is still possible to use OpenOffice Base or NeoOffice Base. The data is entered and stored in a table within the software, freely exportable and in an easy manner, for example through the application of LibreOffice Calc provided in the software package. The table is visually expressed through eight forms created into LibreOffice Base. The first section collects all information relating to the general biological profile (sex, age at death, stature, etc..) of each individual. In the same space is also shown the image of a skeleton type which, through different colors that visually describes the state of conservation and the analyzed quantitative characteristics of the skeleton. This section was structured in four different types, according to the specific needs of various classes of age at death (0-2, 3-12, 13-20 and adults). The next section, developed only for adults, is intended for the recording of palaeobiological data and it consists of two different parts. The first one is a summary reporting of the possible presence or absence of trauma and/or pathologies, also graphically indicated by a related image. In the second, instead, all pathologies, alterations and bones characteristics are listed in a detailed form and it detects the presence or absence on each single bone. The final form is intended to recording data about the state of dental health of adult and child subjects. The database is currently available in a beta version already usable, but still being tested and subject to further changes or add on. It's also planned over the next months, the development of two more form for the collection of data from multiple and/or collective burials and for the study of cremated ones. Currently the database is distributed under a Creative Commons Attribution

Software Licenses: LibreOffice, OpenOffice, CreativeCommons BY-NC-SA 3.0 Italy

Dati utilizzati: Excavation and laboratory data

Open Data utilizzati: Actually not used

Web Links: Actually not used

File .Zip Download

File .Pdf Download

File .Txt Download


Ricostruzioni, 3D e narratività: strategie diversificate per la comunicazione dell'archeologia

Francesco Ripanti, Maria Sole Distefano (Università degli Studi di Siena)

 Come per girare un buon film anche per comunicare uno scavo archeologico servono sia un set che una storia. Mentre in un film la storia è il punto focale, per comunicare uno scavo viene fatto troppo spesso affidamento su inanimate ricostruzioni 3D. Queste si limitano a riproporre elementi architettonici, mancando la comunicazione del contesto archeologico nel suo complesso. Questo intervento vuole riflettere sull'utilizzo di strategie diversificate, ovvero nel combinare più mezzi per arrivare ad una comunicazione efficace. L'obiettivo è quello di far andare di pari passo narratività (la riflessione portata avanti sullo scavo) e geometria (ricostruzioni 3D) nella comunicazione. È noto che il panorama open source offre ottimi software di modellazione 3D (Blender in primis) mentre sono meno noti i software di video editing, come Open Shot Video Editor, che per funzionalità e potenza permettono di realizzare filmati semi-professionali. Una possibilità è quella di utilizzare il docudrama, genere video che cerca di fondere documentario e cinema di finzione attraverso la ricostruzione più realistica e circostanziata possibile di eventi realmente accaduti. Il docudrama permette quindi di fissare in una storia la riflessione che si è portata avanti sullo scavo mentre le ricostruzioni 3D, integrate nella timeline del video, costituiscono una ambientazione per la storia raccontata. Combinare in questo modo narratività e geometria significa anche procedere nella direzione di una comunicazione unica per le diverse categorie di pubblico interessato all'archeologia, dagli specialisti agli appassionati.

Software Licenses: Open shot video editor e Blender - GNU GPLv3

Dati utilizzati: -

Open Data utilizzati: -

Web Links: http://www.youtube.com/user/UominieCoseaVignale

File .Zip Non presente

File .Pdf Download

File .Txt Non presente


Archeologia e Informatica di base: sperimentazione di approcci non trasmissivi in Open source

Francesca Cantone (Università di Napoli)

 Il contributo propone una riflessione sull’introduzione di approcci aperti nella didattica dell’informatica per l’archeologia, sulla base di sperimentazioni condotte negli ultimi cinque anni presso gli atenei partenopei Federico II e l’Orientale: saranno presentati, dunque, i temi affrontati, l’impianto metodologico adottato, i primi risultati progettuali, le conclusioni derivanti dalla valutazione dell’esperienza e i futuri sviluppi attesi. Lo scenario: informatica di base e archeologia nel contesto accademico. L’articolata e oramai consolidata evoluzione delle applicazioni informatiche in archeologia ha condotto a realizzazioni di raffinata ed estrema specializzazione sia dal punto di vista metodologico che tecnologico, frutto di stratificazioni di competenze e di interventi individuali o di equipe attraverso gli ultimi decenni. Le innovazioni disciplinari si riscontrano in ogni fase della filiera archeologica, dalla progettazione all’archiviazione alla gestione, visualizzazione, analisi, comunicazione, condivisione dei dati culturali . Nella ricchissima mole di realizzazioni nei decenni si è verificata anche la sperimentazione e lo sviluppo di software estremamente variegati, con il progressivo definirsi di temi chiave . Conseguentemente, le competenze informatiche necessarie nell’ambito dei beni culturali e in particolare dell’archeologia sono divenute oramai estremamente complesse e strutturate, tanto che si profila nella progettazione curricolare la necessità di un’articolazione in diversi gradi di approfondimento. Il rapido sviluppo della ricerca archeologica impatta, dunque, anche il mondo accademico, della formazione istituzionale, dell’aggiornamento professionale, lanciando nuove sfide per la preparazione degli esperti del mondo culturale, ai quali in maniera sempre crescente si richiede di affiancare una solida conoscenza umanistica e settoriale con competenze fortemente interdisciplinari . In proposito l’offerta delle facoltà umanistiche generalmente prevede l’inserimento di moduli di informatica di base o di laboratori nei corsi di laurea triennale e di moduli di approfondimento nei livelli successivi. Ampio dibattito si è sviluppato, inoltre, sull’accreditamento del livello di base dell’ECDL, e sulla più opportuna collocazione in ambito curriculare delle relative competenze . L’evoluzione degli inquadramenti generali sulle teorie della conoscenza, del sapere, dell’apprendimento, inoltre, arricchiscono la riflessione proposta di ulteriori elementi: nella società della conoscenza il sapere appare distribuito, mobile, in continua trasformazione, oggetto di ricombinazioni continue . In tal senso appare opportuno proporre interventi per ripensare anche l’articolazione dei saperi informatici in ambito archeologico: da un lato, dunque, sembra utile supportare la nascita ed il consolidamento di approcci condivisi interdisciplinari, con linguaggi comuni e skills integrate; dall’altro emerge l’ esigenza di strutturare ed articolare in più livelli l’accesso alle conoscenze e alle specifiche capacità informatiche connesse all’archeologia. La sperimentazione condotta: approcci, progettazione, implementazione. L’esperienza maturata in ambito didattico, in corsi e laboratori di nuove tecnologie per l’archeologia e per i beni culturali nei vari livelli della triennale, specialistica e master presso l’ateneo Federico II di Napoli evidenzia come in molti casi emerga la necessità di integrare la maturazione di competenze avanzate (ad es. GIS, Realtà Virtuale) con interventi di formazione su contenuti di base della multimedialità, del web 2.0 e dell’Office Authomation, lasciando aperta la possibilità individuale di approfondire da singoli aspetti, concetti, nozioni, competenze fino a trattare interi applicativi. L’evoluzione disciplinare, infatti, ha condotto alla realizzazione di pacchetti specialistici, in alcuni casi anche di estrema efficienza e raffinatezza, ai quali nei primi approcci strumentali ai temi dell’informatizzazione dei beni culturali si affiancano spesso tools generalisti (come ad esempio nei database, nel trattamento immagini, etc.). In tal senso appare utile affrontare tale esigenza di integrazione di competenze di livelli eterogenei attraverso la progettazione di interventi con caratteristiche di flessibilità, personalizzazione, modularità, riuso e ri-combinabilità. Tali caratteristiche, peraltro, appaiono tipiche della formazione in età adulta, come prospettata dagli inquadramenti nazionali ed internazionali sui temi della formazione continua e permanente e del lifelong learning . Le tecnologie didattiche consentono la necessaria ristrutturazione dei contenuti formativi e la loro trasformazione in pillole di conoscenza assemblabili, riusabili, modulari, articolate, fruibili on demand, nei tempi e luoghi desiderati e attraverso diversi devices (pc, laptop, smartphone, etc). Parallelamente anche il settore archeologico e dei beni culturali manifesta l’esigenza di continua formazione e aggiornamento delle competenze ed identifica proprio nell’e-learning una delle tecnologie chiave destinate a caratterizzare gli sviluppi futuri del settore . La notata opportunità di un’articolazione dei livelli di competenze informatiche in ambito culturale rende opportuna una riflessione sia su contenuti specialistici e di ambito avanzato , sia su livelli di base. In questo contesto si è impostata negli ultimi anni una sperimentazione didattica sui contenuti della multimedialità, web 2.0 e dell’Office Authomation in Open source, implementando approcci non trasmissivi, e proponendo interventi di carattere blended, supportati dalle tecnologie didattiche. Parallelamente alle sperimentazioni condotte sui livelli della formazione avanzata nei master e nei moduli specialistici , l’organizzazione di corsi di informatica di base presso i corsi di laurea triennale di Cultura e Amministrazione dei Beni Culturali e Archeologia e Storia delle Arti (Federico II) e dei corsi triennali della Facoltà di Lettere all’Orientale ha costituito l’occasione per approfondire ulteriormente la riflessione metodologica e strumentale. Centinaia di studenti universitari di livello triennale sono stati coinvolti in una sperimentazione sul tema dell’informatica di base e alfabetizzazione multimediale su software Open source attraverso approcci didattici non erogativi. Si è impiantata, dunque, una filiera cooperativa di strutturazione dei contenuti, e un laboratorio permanente aperto per la realizzazione di materiali multimediali (testi, immagini, video, audio) attraverso software a codice aperto. Dopo un’analisi preliminare sulle competenze in ingresso e sulle aspettative di apprendimento della platea studentesca, il livello della sperimentazione è stato dunque impostato stavolta sulle competenze di base, con particolare riferimento all’Office Authomation. Il software selezionato come focus per la sperimentazione è stato Open Office, strutturato, come è noto, negli applicativi Writer per la videoscrittura, Impress per la presentazione, Calc per i fogli di calcolo e Base per la progettazione e gestione di basi di dati: la scelta è stata determinata dalla crescente affermazione del pacchetto negli ultimi anni, seppure non sono stati esclusi approfondimenti su altri simili pacchetti a codice aperto, tra cui il principale LibreOffice. La scelta strumentale per la produzione di materiali multimediali è stata discussa e negoziata dalla comunità dei partecipanti sulla base delle necessità operative che man mano emergevano, giungendo alla selezione e scelta di un pacchetto di applicativi che comprende tra l’altro software per l’acquisizione e l’editing di immagini (Firefox con plug in FireShot, GIMP), video (Camstudio e Virtualdub), audio (Espeak e Audacity). La familiarizzazione con le attività di authoring multimediale è stata impostata eminentemente sul software sperimentale IDEA, che interviene nella filiera di costruzione di materiali didattici per l’e-learning: si sono applicate dunque linee guida metodologiche derivanti dal progetto, consolidate e testate in ambiti eterogenei . La costruzione e lo sviluppo della community è stata supportata dalla piattaforma Campus, nata in ambiente di ricerca come impulso e sostegno alle sperimentazioni sull’innovazione didattica attraverso l’uso delle tecnologie informatiche; in particolare, tra i vari servizi offerti dalla piattaforma, sono state utilizzate le caratteristiche di base di messaggistica interna e costruzione condivisa di contenuti didattici (figura 1) . Ulteriori strumenti sono stati utilizzati soprattutto per consentire agli studenti di sperimentare le implicazioni metodologiche di ulteriori approcci tipici del web 2.0: youtube, ad esempio, per la pubblicazione di video tutorial, e willyou.typewith.me, notepad on line che a differenza di campus consente la scrittura condivisa in maniera immediata, senza procedere preliminarmente alla costruzione della community e al conferimento dei privilegi di lettura/scrittura. Gli allievi sono stati indirizzati a costruire conoscenze multimediali in gruppo, partendo dall’identificazione e discussione degli obiettivi da raggiungere, attraverso la valutazione e il testing di strumenti open source, la selezione e applicazione delle funzioni necessarie, in un processo in cui il contributo del singolo è stato inteso metaforicamente come il suono del singolo strumento e dei singoli gruppi di strumenti in un’orchestra. Tutte le fasi del lavoro sono state oggetto di definizione condivisa, sia in forma scritta sia in comunicazioni e discussioni collettive. Dal punto di vista metodologico l’impianto didattico implementato si inquadra nell’ambito della riflessione sulle comunità di pratica e sull’applicazione dei principi dell’apprendimento cooperativo ai corsi in modalità blended . È possibile, infatti, identificare nel percorso alcune delle caratteristiche descritte dalla riflessione scientifica come elementi cardine di questo tipo di sperimentazioni: • la presenza di individui mutuamente impegnati (la metafora dell’orchestra, la responsabilità dei singoli nei confronti del gruppo); • un’impresa comune (la realizzazione di prototipi di materiali didattici su Open Office); • un repertorio condiviso (il repository e i materiali didattici presenti sulla piattaforma Campus); • la reificazione (la realizzazione di materiali multimediali); • la partecipazione (la presenza fisica e mediata dalla community); • la negoziazione del significato (la discussione pubblica delle scelte, degli obiettivi, degli strumenti, dei materiali); • le modiche degli individui, del repertorio condiviso, dell’impresa comune (la maturazione di competenze informatiche e relazionali, la realizzazione di contenuti multimediali, la ridefinizione continua dei risultati attesi, la disposizione manifestata dai partecipanti a proseguire simili esperienze). L’impianto valutativo. L’impianto valutativo impostato è stato orientato da un lato ad una verifica della qualità dei processi implementati e dei materiali realizzati, dall’altro allo sviluppo della consapevolezza dei percorsi intrapresi e delle scelte effettuate, in maniera da incoraggiare una progressiva autonomia nella costruzione dei percorsi di apprendimento nell’ottica del lifelong learning. In tal senso si sono supportate in primo luogo logiche di valutazione tra pari, attraverso azioni tese alla pubblica discussione dei risultati raggiunti dai singoli gruppi, la negoziazione delle scelte e delle impostazioni, la responsabilizzazione dei comparti alla definizione di materiali complementari ed integrati. Inoltre sono stati progettati e somministrati questionari di valutazione anonimi, orientati ad incoraggiare la metacognizione del percorso seguito, del processo intrapreso e delle problematiche affrontate e delle competenze acquisite , nonché a verificare gli aspetti qualitativi dei materiali prodotti . Il primo questionario di valutazione: scelte metodologiche, analisi e discussione. Un primo questionario di valutazione, dunque, proposto al termine dell’esperienza condotta ad un campione di 100 studenti, consta di due parti delle quali una più generale di valutazione dell’esperienza e l’altra di riflessione metodologica. La prima sezione, dunque, rileva in generale la percezione di interesse e soddisfazione nei confronti della sperimentazione condotta, la valutazione qualitativa del percorso, la sua coerenza con le aspettative in ingresso e con i bisogni formativi espressi e concertati nel corso del primo incontro in presenza. Nella seconda sezione gli allievi sono sollecitati esplicitamente a riflettere sulla specificità dell’esperienza vissuta, a compararne gli esiti se confrontati con parallele esperienze impostate su modelli didattici tradizionali a carattere trasmissivo/erogativo; infine essi vengono spinti ad esprimere la propria eventuale percezione dell’impatto del modello didattico adottato sugli esiti del proprio percorso di apprendimento (figura 1). Ulteriori domande sono tese a verificare gli aspetti di coinvolgimento e di motivazione, infine viene chiesto di esplicitare un eventuale interesse ad ulteriori simili sperimentazioni, su approfondimenti o su ulteriori temi. L’analisi dei questionari di valutazione anonima somministrati ex post ha confermato come gli approcci didattici implementati abbiano soddisfatto in maniera esauriente le ipotesi progettuali di una crescita di interesse nella comunità costituita verso i temi trattati e di una più intensa maturazione di competenze interdisciplinari. Non solo, dunque, la platea studentesca mostra di aver imparato meglio ed in maniera più approfondita, ma soprattutto matura una consapevolezza e fiducia nell’uso degli strumenti e nelle proprie capacità in futuro di continuare ad approfondire ed allargare le proprie competenze informatiche. Migliorano, inoltre, le capacità relazionali, e la disponibilità a ulteriori esperienze simili è espressa con pienezza. Per quanto riguarda le criticità evidenziate, è emersa la richiesta e l’interesse verso laboratori e attrezzature multimediali sempre più ricche, aggiornate e performanti. Il tema è particolarmente interessante in quanto, in ottica gestionale generale, l’ipotesi di un equipaggiamento software completamente open source consente di destinare maggiori risorse alle esigenze emerse. La seconda fase di valutazione: analisi sulla qualità dei prototipi e dei processi. Le attività laboratoriali e i loro outcomes sono stati poi sottoposti ad ulteriori fasi analitiche, che supportano l’approccio critico alla filiera multimediale e valorizzano gli aspetti meta cognitivi del processo didattico. Dunque parte del materiale didattico multimediale realizzato è stato allestito in formato html per essere sottoposto ad una prima fase di verifica. Un nuovo gruppo di 30 studenti è stato guidato all’apprendimento dell’intero pacchetto OpenOffice, utilizzando come supporto il materiale realizzato nella fase precedente. Successivamente agli studenti è stato somministrato un questionario realizzato sulla base delle indicazioni ISFOL sulla valutazione della qualità dell’e-learning . In questo caso l’adozione di tale impianto si propone di fornire una griglia metodologica per una analisi critica nella comunicazione multimediale. Sono state in particolare sondate le aree relative all’esaustività, correttezza, strutturazione (figura 2), piacevolezza ed interesse (figura 3), corretto uso dei media (figura 4). Le percentuali di soddisfazione espresse appaiono generalmente elevate (figura 8), con una percezione generale di chiarezza della trattazione, buona strutturazione degli argomenti, uso appropriato dell’apparato multimediale. Sono invece rimandate a fasi implementative successive le aree relative all’incremento dell’interattività, delle attività esercitative e l’impianto di valutazione e autovalutazione. I risultati progettuali e le prospettive di sviluppo futuro. Le sperimentazioni descritte si collocano nell’ambito di un più ampio approccio alla costruzione condivisa di contenuti multimediali per la comunicazione e la didattica nel settore dei beni culturali. Si è affrontato, dunque, in questo caso, il tema delle competenze informatiche di base, con particolare riferimento agli orientamenti aperti e agli strumenti open source. Tale fase è considerata come una integrazione imprescindibile nella definizione di percorsi interdisciplinari e multilivello che si vanno delineando tra nuove tecnologie e beni culturali, con esperienze e realizzazioni parzialmente presentati in precedenza . Nell’impostare le linee di intervento si è notato, peraltro, come, a fronte di una recente opportuna apertura degli strumenti di accreditamento internazionale delle competenze informatiche di base alle possibilità del software libero, non corrisponde attualmente una ricca offerta di strumenti e materiali didattici paragonabile a quella sviluppatasi negli anni passati su strumenti proprietari . In tal senso l’esperienza condotta appare destinata ad ulteriori implementazioni sia nella community di supporto, sia nei contenuti prodotti. In particolare anni di sperimentazione hanno prodotto un prezioso know how e una quantità di contenuti di alta qualità che possono essere riusati e ricondotti ad una filiera unica nel settore culturale. I contenuti sviluppati, infatti, coprono un vasto repertorio culturale, che va dall’informatica di base alle applicazioni a singoli ambiti disciplinari dei beni culturali, con contributi interdisciplinari derivanti da discipline economiche, giuridiche, gestionali, etc. Si delinea, dunque, la progressiva costruzione di una filiera modulare di competenze di livelli articolati ricombinabili in infiniti modi, con la costruzione distribuita e condivisa di una federazione di repository di conoscenze e competenze pubbliche a supporto delle sempre più articolate esigenze di formazione e aggiornamento nel settore dei beni culturali .

Elenco figure Figura 1: Valutazione generale dell’esperienza. Figura 2: Valutazione dei materiali. Esaustività, correttezza, strutturazione.. Figura 3: Valutazione dei materiali. Piacevolezza ed interesse. Figura 4: Valutazione dei materiali. Uso dei media.

Linkografia: Audacity: audacity.sourceforge.net/ Campus: http://www.campus.unina.it Camstudio: camstudio.org Espeak: espeak.sourceforge.net/ Gimp: www.gimp.org/ Idea: http://www.dol.unina.it LibreOffice: http://www.libreoffice.org/ Open Office: www.openoffice.org Virtualdub: http://virtualdub.org/ Abbreviazioni Bibliografiche ALFONSI et alii 2007 C. R. Alfonsi, E. Breno, M. C. Calzarossa, P. Ciancarini, P. Maresca, L. Mich, F. Sala, N. Scarabottolo, La Certificazione ECDL negli atenei italiani, Mondo Digitale, 3, 2007, pp. 48-61. http://www.mondodigitale.net/Rivista/07_numero_3/Calzarossa%20p.%2048-61.pdf ALFONSI et alii 2011 C.R.Alfonsi, E.Breno, M.Calzarossa, P. Ciancarini, M. Genoviè, L. Mich, F. Sala, N. Scarabottolo, Certificazione ECDL nelle scuole secondarie di 2° grado: Opinioni degli studenti certificati, Torino, in Didamatica 2011, Informatica per la didattica, atti del convegno, Torino, 4-5-6 Maggio. http://didamatica2011.polito.it. ANDRONICO et alii 2002 A. Andronico, A. Chianese, B. Ladini, E-Learning. Metodi, strumenti ed esperienze a confronto, in AAVV., Didamatica 2002. Informatica per la didattica, Napoli 2002. BONAIUTI 2006 G. Bonaiuti, E-Learning 2.0. Il futuro dell’apprendimento in rete, tra formale e informale, I quaderni di Form@re 6, Trento. CALVANI 2011 A. Calvani, Principi dell'istruzione e strategie per insegnare. Per una didattica efficace, Carocci, Roma, 2011 CANTONE 2012 F. Cantone, Open workflow, cultural heritage and university. The experience of the Master Course in Multimedia Environments for Cultural Heritage, in ArcheoFOSS Open source, Free Software e Open Format nei processi di ricerca archeologica, F. Cantone (ed), Atti del VI Workshop (Napoli, 9-10 giugno 2011), in press. http://www.archeo.unina.itarcheofoss CANTONE 2012b F. Cantone, Low cost/high quality: un binomio possibile? Un modello di filiera per la formazione continua a supporto dell’innovazione, in T. Roselli, A. Andronico, F. Berni, P. Di Bitonto, V. Rossano (Eds.): DIDAMATICA 2012, ISBN: 978-88-905406-7-7 CANTONE 2012c Il progetto MOSTRAMBIENTE. Pompei e il suo territorio tra conoscenza e valorizzazione multimediale, in T. Roselli, A. Andronico, F. Berni, P. Di Bitonto, V. Rossano (Eds.): DIDAMATICA 2012, ISBN: 978-88-905406-7-7 CANTONE et alii 2011 Cantone F., Chianese A., Moscato V., Serafino S., La Casa dei Pithoi a Serra di Vaglio. Una sperimentazione di ambiente 3D Open source per la fruizione di beni archeologici, in ARCHEOFOSS. Open source, Free Software e Open Format nei processi di ricerca archeologica, De Felice G., Sibilano, M. G. (eds.), Bari 2011. CANTONE et alii 2009a F. Cantone, A. Chianese, G. Cirillo, V. Curion, Una piattaforma di servizi integrati per la didattica universitaria. L'esperienza di Campus all'Università degli Studi di Napoli Federico II, in Si-El 2009, VI congresso della società italiana di E-Learning 2009. Atti su cd-rom. CANTONE et alii 2009b F. Cantone, A. Chianese, V. Moscato, Archeologia Virtuale in Blended Learning. Esperienze, metodologie e strumenti all’università “Federico II” di Napoli, in ArcheoFOSS Open source, Free Software e Open Format nei processi di ricerca archeologica, P. Cignoni, A. Palombini, S. Pescarin (eds), Atti del IV Workshop (Roma, 27-28 aprile 2009), Archeologia e Calcolatori, Supplemento 2, 2009, 309-319. http://soi.cnr.itarchcalc/indice/Suppl_2/31_Cantone_et_al.pdf CANTONE et alii 2009c. F. Cantone, S. Castanò, P. Paladino, M. G. Ronca, Una IDEA per le biblioteche. Esperienze, strumenti e metodi per supportare, facilitare e diffondere la formazione continua e l’aggiornamento, in A. Andronico, L. Colazzo (Eds.): DIDAMATICA 2009. http://services.economia.unitn.itdidamatica2009/Atti/lavori/cantone.pdf CASAGRANDA et alii 2009 M. Casagranda- A.Molinari- S. Tomasini, Formare all’ e-Learning: contenuto, metodologia e valutazione nelle relazioni didattiche, in A. Andronico, L. Colazzo (Eds.): DIDAMATICA 2009. http://services.economia.unitn.itdidamatica2009/Atti/lavori/casagranda.pdf CHIANESE et alii 2010 A. Chianese, V. Moscato, A. Picariello, I fondamenti dell'informatica per gli umanisti. Un viaggio nel mondo dei BIT, Napoli 2010. CNIPA 2007 Vademecum per la realizzazione di progetti formativi in modalità e-learning nelle pubbliche amministrazioni, II edizione, in I Quaderni Centro Nazionale per l’Informatica nella Pubblica Amministrazione, 32, Aprile, 2007. http://www2.cnipa.gov.itsite/_files/cnipa_quad_32.pdf GHISLANDI

Software Licenses: pacchetto di applicativi open source che comprende software di office authomation (OpenOffice), software per l’acquisizione e l’editing di immagini (Firefox con plug in FireShot, GIMP), video (Camstudio e Virtualdub), audio (Espeak e Audacity).

Dati utilizzati: costruzione condivisa di materiali didattici

Open Data utilizzati: costruzione condivisa di materiali didattici

Web Links: http://www.campus.unina.it

File .Zip Non presente

File .Pdf Non presente

File .Txt Non presente


Corso base di free software ed open source in archeologia: bilancio di un'esperienza di divulgazione pratica

Luca Bezzi, Kathi Feistmantl (Arc-Team) - Simone Deola, Valeria Grazioli, Simone Pedron (Studio Associato Sestante), Maura Stefani (Parco Archeologico didattico del Livelet)

 Il 25-26 febbraio 2012 ha avuto luogo, presso il Parco Archeologico didattico del Livelet di Revine Lago (TV), un corso base di free software ed open source per l'archeologia con il preciso scopo di fornire agli interessati una panoramica delle molteplici possibilità che tali programmi informatici possono offrire in ambito archeologico. A tale iniziativa, organizzata da membri dello Studio Associato Sestante e dell'Arc-Team e supportata dal Parco Archeologico stesso, hanno partecipato numerosi studenti e professionisti in campo archeologico, oltre ad alcuni appassionati ed a qualche addetto in altri ambiti lavorativi (attirato dalla possibilità di entrare in contatto con software open source ampiamente utilizzabili anche in attività estranee all'archeologia), provenienti da varie zone del nord-est e del centro Italia. La risonanza che l'evento ha avuto sul web è andata ben oltre le aspettative ed ha riscontrato notevole interesse da parte di un'utenza variegata per quanto riguarda età, provenienza, tipo di esperienza in archeologia e livello di conoscenza in campo informatico ed open source, aspetti che si rispecchiano nell'eterogeneità dei partecipanti. Il corso ha avuto un carattere prettamente pratico al fine di introdurre concretamente al mondo dell'open source, eliminando l'iniziale esitazione che molti nutrono verso questo genere di software e che spesso, purtroppo, fa sì che si rinunci a farne uso prima ancora di averli potuti conoscere e testare; per ragioni di praticità e per evitare operazioni più invasive, per dei neofiti (quali la partizione del disco fisso o l'installazione di ArcheOS come unico sistema operativo), si è scelto di installare sul portatile di ciascun partecipante una virtual machine su cui è stato installato, a sua volta, ArcheOS (versione 4). Una volta introdotti brevemente il significato della filosofia open source e le caratteristiche di ArcheOS e dei software GIS, ci si è concentrati su laboratori pratici di fotomosaicatura (metodo Aramus ideato dall'Arc-Team), vettorializzazione, semplici query, applicazione di filtri grafici alle fotografie aeree, georeferenziazione, creazione di layout di stampa e di ricostruzioni 3D mediante structure from motion. Il programma del corso è stato volutamente molto intenso per permettere ai partecipanti di avvicinarsi al mondo open source ed individuarne, attraverso un utilizzo pratico in fase di laboratorio, i possibili aspetti che più possono soddisfare le proprie esigenze. In base ai feedback ricevuti, sia durante il corso stesso sia grazie alla compilazione di un questionario al termine delle due giornate, quanto appreso è risultato di grande interesse ed applicabilità in ambito lavorativo archeologico ed ha stimolato molti, soprattutto fra chi non aveva ancora avuto nessun contatto con software open source, a proseguirne l'uso anche dopo il termine del corso ed a richiedere di poter ulteriormente approfondire le tematiche in iniziative future.

Software Licenses: Kate, efoto, GIMP, OpenJUMP, Quantum GIS, Python Photogrammetry toolbox su sistema operativo ArcheOS 4 (utilizzato, durante il corso, sulla virtual machine Oracle VM Virtual Box).

Dati utilizzati: Dati di scavo, fotografie aeree.

Open Data utilizzati: -

Web Links: -

File .Zip File non presente

File .Pdf File non presente

File .Txt File non presente


Sessione Sistemi GIS/SIT provvisti di funzionalità 3D


Sperimentazioni per la fruizione via web di modelli GIS 3D per l’Archeologia

Andrea Scianna (ICAR - CNR)

 Ad oggi, la fruizione di modelli dati Gis 3D costituisce un aspetto non sufficientemente sviluppato a causa di una complessità di aspetti. Gli attuali software GIS non sono dotati di motori grafici e gestori di database in grado di gestire modelli dati 3D consistenti che implementano anche e pienamente topologie 3D. In generale l’implementazione di modelli GIS 3D navigabili ed interrogabili, o più in generale aderenti alle specifiche di un GIS inteso come sistema per gestire, visualizzare anche su interrogazione i dati geografici) è agli esordi. La modellazione 3D può essere libera, basata cioè sulla modellazione 3D di oggetti descritti come semplici insiemi di facce 3D che visti insieme costituiscono oggetti o elementi dello spazio modellato, ma quando è necessario definire insiemi di primitive grafiche 3D costituenti oggetti dello spazio modellato è necessario il ricorso a degli ‘schema file’. Inoltre, al fine di poter archiviare correttamente gli oggetti dello spazio modellato, il gestore di database deve essere predisposto alla gestione di tali oggetti, archiviabili come insiemi di primitive grafiche, definibili all’interno del db geografico, insieme con i relativi attributi qualitativi e/o quantitativi. Esistono solo pochi esempi di modelli cartografici 3D sperimentali (es. CityGML) e visualizzatori specifici per tali modelli. Sin’ora le applicazioni per la fruizione di modelli dati 3D con possibilità di esecuzione di semplici query o di apertura di link esterni sono state basate sulla scrittura di specifiche applicazioni scritte con Macromedia Director e più recentemente con Flash o nella predisposizione, praticamente manuale, di modelli VRML dotati di hyperlink a documenti multimediali esterni. L’attività di ricerca, che si intende illustrare, condotta da alcuni anni presso il GISLAB (CNR-UNIPA), tende a definire modelli cartografici 3D, assumibili come standard e fruibili attraverso internet, basati su schema file che possono anche essere adattati o estesi ai casi tipici del settore archeologico. Saranno in particolare trattate le diverse possibilità di archiviazione di dati geografici 3D tramite gestori di db con estensioni spaziali e le possibili modalità di fruizione insieme con i problemi incontrati.

Software Licenses: postgres, postgis

Dati utilizzati: dati di esempio

Open Data utilizzati: -

Web Links: http://gislab.geomatica.unipa.it, http://gislab.dirap.unipa.it

File .Zip File non presente

File .Pdf File non presente

File .Txt File non presente


Archeo3D. Per una gestione tridimensionale dei dati archeologici. Una prospettiva open?

Giuliano De Felice, Andrea Fratta, Cristiano Moscaritolo (Università degli Studi di Foggia)

 Introduzione L’archeografia digitale è ormai una realtà affermata nell’archeologia di questo millennio; lo dimostrano le sempre più numerose esperienze di integrazione fra tecnologie digitali e attività di documentazione nei diversi settori della ricerca archeologica. Nel settore della documentazione visuale le più interessanti novità provengono sicuramente dalla crescente consapevolezza delle possibilità offerte dalle tecnologie di rilievo tridimensionale, il cui utilizzo a “fini archeologici” pone non pochi problemi, sotto molteplici punti di vista. • Le tecnologie di rilievo tridimensionale, a cominciare dalla scansione laser, hanno avuto l’indubbio merito di portare il 3D nel dibattito metodologico, ma non è ancora iniziata una stagione di riflessione orientata a importare nella metodologia di ricerca sul campo le potenzialità di un processo di documentazione tridimensionale. • Risulta evidente una questione di fondo, relativa alla sostenibilità dell’utilizzo di strumentazioni quali il laser scanner all’interno dei processi di documentazione se si considera la mole di dati prodotta da questo tipo di strumenti per caratterizzare gli oggetti rilevati. A nostro avviso rimane ancora da avviare una riflessione sui termini di utilizzo, all’interno di quel percorso di “alleggerimento” affidato alla documentazione, che conduca verso la sintesi. • Gli output prodotti dai sistemi di scansione tridimensionale non rappresentano, dal punto di vista “di dominio” archeologico, oggetti interessanti per se, ma necessitano di un lungo processo di adattamento, la cui onerosità a volte mette in discussione persino l’utilità stessa di un rilievo tridimensionale. In altre parole il rilievo, in quanto operazione funzionale all’intero processo conoscitivo, è una componente fondamentale nei processi archeografici, e pertanto ogni innovazione tecnica e tecnologica deve essere sempre vagliata dal punto di vista archeologico, e non della innovatività fine a se stessa. • Negli ultimi anni si è discusso moltissimo, ad esempio, di uso di strumenti innovativi, misurando la loro innovatività in base alla tecnologia di funzionamento, che pure rimane una caratteristica assolutamente astratta e secondaria se considerata dal punto di vista dell'operatore sul campo. Il progetto ArcheO3D Oltre agli aspetti citati sussiste un altro aspetto problematico che impedisce una piena utilizzabilità dei dati tridimensionali, collegato alla mancanza di un workflow completo che gestisca i dati dal momento della loro creazione fino alla loro fruizione: mancanza di condivisione, scarsa circolazione dei dati, difficoltà nella replicabilità delle esperienze sono tutti aspetti che derivano da questa mancanza di prospettiva, e sono a loro volta da ricondurre alla mancanza di processi integrati per la creazione, gestione e diffusione di dati 3D di diversa origine. Creazione, gestione e diffusione sono infatti aspetti spesso tenuti distinti nella ricerca, con il risultato che si registra nella metodologia corrente una sostanziale distanza fra l’evoluzione delle tecniche, delle tecnologie e delle soluzioni per il rilievo da un lato e la compressione su supporti per la fruizione che non si stenta a definire obsoleti. Per intenderci, l’innovazione dei processi di documentazione dei Beni Culturali si è evoluta, prendendo in considerazione strumenti sempre più potenti, in grado di effettuare rilievi direttamente 3D, ma le possibilità di fruizione degli elaborati è rimasta sostanzialmente immutata, ancorata alla visualizzazione cartacea bidimensionale. Questo divario rende di fatto poco interessanti queste tecnologie, il cui impatto scenografico non produce poi alcun miglioramento effettivo delle procedure conoscitive. E’ invece necessario intraprendere un percorso che porti al progressivo affrancamento dallo “spazio carta” della documentazione tridimensionale, come è già avvenuto nel recente passato grazie alla diffusione delle tecnologie CAD e GIS nei progetti di ricerca archeologica. Un percorso che risolva il problema della perdita di informazioni dei supporti bidimensionali, e superi la semplificazione di una realtà estremamente complessa. Ancora una volta sembra mancare un “approccio archeologico” al problema dell'integrazione di queste tecnologie e dei relativi strumenti in un metodo di documentazione sicuramente lontano da essere perfetto, dal quale dipende in modo univoco la possibilità di interpretare i dati e in ultima istanza “narrare il racconto”. Nello specifico anche il rilievo, o l’apparentemente semplice disegno dei materiali può essere suscettibile di miglioramenti grazie all'applicazione dell'informatica, a patto di ricordare le istanze che governano la pratica del disegno stesso e sviluppare soluzioni e risposte adeguate. Il progetto ArcheO3D si inserisce in questo solco, con l’obiettivo dello studio e l’implementazione di un workflow completo che descriva le possibili strade per garantire la piena fruibilità dei dati tridimensionali. Il punto di partenza del progetto è la scelta di un approccio methodology driven, concepito come il superamento di una visione technology driven, che ha invece dominato nelle prime esperienze di avvicinamento del 3D alla pratica della ricerca archeologica. Il paper presenta i risultati finora raggiunti e descrive le linee del progetto finora realizzato presso il Laboratorio di Archeologia Digitale dell’Università degli studi di Foggia. Concepito unitariamente all’interno del laboratorio, il progetto si snoda attraverso un percorso complesso, che al momento ha interessato la stesura di due tesi del corso di laurea magistrale in archeologia dell’Università di Foggia. Una discussa pochi giorni fa, un’altra prevista per la sessione di luglio. L’idea-guida è quella di elaborare un processo unitario, legato alle istanze metodologiche (di dominio e di processo) ed elaborare dei sottoprocessi in cui ogni tipologia di reperti sia considerata come una categoria a se stante, in base alle diverse sollecitazioni provenienti dai tanti modi di “fare archeologia”, nel pieno rispetto delle tante tradizioni di studio. Elaborazione di processi per la resa 3D di manufatti e oggetti archeologici Architetture, ceramica, metalli, stratigrafie, reperti faunistici, ecc. ecc. Non è detto che un’unica tecnologia sia la soluzione migliore per documentare tutti i tipi di oggetti, e metodologicamente è preferibile capire quali sono le necessità conoscitive legate ad ogni singola classe di materiali. Non è scontato, ad esempio, che un rilievo tramite scansione laser sia il procedimento migliore per documentare (e pubblicare) i reperti ceramici. Al momento sono stati studiati processi per la realizzazione di rilievi di: 1. Stratigrafie e stratigrafie murarie 2. Alcune tipologie di reperti 1. Stratigrafie I casi di studio hanno riguardato diverse tipologie di unità stratigrafica, e diversi processi per la restituzione tridimensionale dei dati archeografici. Per le stratigrafie murarie il contesto che ha costituito il caso di studio è quello della torre di Montecorvino (FG), oggetto d’indagine sistematica dal 2008. La sperimentazione di tecniche 3D laser scanning si è focalizzata sull’obiettivo di giungere ad un processo di documentazione tridimensionale di scavo e ad una elaborazione grafica della torre con l’intento di archiviare e divulgare i dati archeologici, consentendo una fruizione completa delle informazioni, dagli addetti ai lavori fino al grande pubblico. Dopo aver registrato le diverse nuvole di punti, la prima operazione di elaborazione è stata compiuta in Cyclone 6.0, il software proprietario di gestione dello strumento. Dopo la rimozione degli elementi superflui la point cloud è stata tagliata nelle diverse unità stratigrafiche che compongono la struttura del corpo di fabbrica e suddivisa in layer, ciascuno dei quali è diventato il contenitore di queste sotto-parti. Esportato ogni modello nel formato .ptx, si è scelto di operare, per la successiva fase di meshing, in MeshLab. Le nuvole di punti sono state convertite in superfici triangolari sfruttando gli appositi filtri per il re-meshing di cui dispone il software. In particolare è stata adoperata la ricostruzione della superficie secondo l’approccio Poisson, un metodo volumetrico che permette di fondere diversi set di punti o triangoli in un’unica mesh. Successive operazioni di semplificazione delle mesh, come ad esempio la decimazione delle facce triangolari, sono state eseguite con l’intento di esportare modelli più leggeri. Un altro caso di studio è stata la digitalizzazione dell’archivio della documentazione archeologica degli scavi di Faragola (2003-2010). In questo caso è stata sperimentata una procedura articolata su più livelli, per il trattamento di dati di formato diverso: il rilievo delle strutture della villa era stato realizzato tramite scansione laser 3D, mentre il resto dell’archivio era in formato cartaceo. Il procedimento di restituzione delle strutture murarie ha seguito lo stesso percorso finora descritto, mentre la resa in 3D delle stratigrafie documentate solo su supporto cartaceo ha richiesto l’implementazione di un processo separato, che ha previsto la modellazione delle singole unità stratigrafiche per trasformare le informazioni spaziali da una forma analogica ad una digitale, restituendo le informazioni tridimensionali. All’interno del progetto è in corso di elaborazione una revisione del processo, finalizzato all’uso di software libero in sostituzione delle soluzioni proprietarie utilizzate precedentemente. Questa revisione è stata intrapresa per aggiornare e valorizzare ulteriormente le procedure di digitalizzazione della documentazione d’archivio che costituiscono una nucleo importante di good practices, entrate a pieno titolo nelle attività di documentazione delle équipe di archeologi dell’Università degli Studi di Foggia. 2. Reperti metallici Il campione che si intende presentare nell’ambito del rilievo tridimensionale di reperti archeologici riguarda un gruppo di oggetti in ferro provenienti da un ambiente della villa di Faragola, particolarmente interessato da una frequentazione di età altomedievale. Gli attrezzi da lavoro metallici provengono dagli strati formatisi in seguito ad un incendio che distrusse le capanne lignee, sigillando un contesto dall’enorme potenziale informativo. Lo stato di conservazione e le caratteristiche morfologiche di questi reperti hanno indotto a considerare il laser scanner come strumento ideale per riprodurre copie virtuali high-fidelity, caratterizzate cioè da un elevato livello di dettaglio. In particolare è stato adoperato David Laser Scanner, uno strumento low-cost per la scansione tridimensionale di piccoli oggetti (h 60 cm al massimo), il cui funzionamento si basa sul principio della triangolazione attraverso la tecnica delle sezioni luminose. La facilità di utilizzo e la possibilità di realizzare modelli di buona qualità avvalendosi di dispositivi relativamente economici, costituiscono indubbiamente i punti di forza di questa strumentazione. D’altra parte il grosso problema di questo come di tutti i sistemi di scansione laser 3D resta quello di funzionare esclusivamente con software proprietario, allo stato attuale uniche soluzioni imposte dalle case costruttrici. Le successive elaborazioni dei dati sono state eseguite utilizzando MeshLab e Blender, software liberi ben noti nel panorama della Computer Graphics, dotati di validissimi strumenti per la gestione delle mesh da laser scanner. Sono state adoperate procedure parallele per il trattamento dei dati che hanno permesso di creare non solo modelli ad alta “risoluzione” dei reperti, ma anche versioni che pur se caratterizzate da una geometria estremamente semplificata potessero mantenere il dettaglio cromatico delle texture originali. A tal proposito sono state adoperate procedure di remeshing, vale a dire di fusione delle diverse scansioni in un unico corpo composto da una topologia ordinata e priva di elementi non-manifold. Per ciascun modello è stata creata una copia a bassa densità di facce triangolari sulle quali sono state trasferite le informazioni cromatiche dalle mesh originali, sfruttando la procedura di iso-parametrizzazione in MeshLab e di baking texturing in Blender. La finalità di questo trattamento è quella di preparare modelli realizzati con il laser scanner, e dunque ricchi di informazioni geometriche, ad essere esportati verso una molteplicità di piattaforme in base al tipo di fruizione che si intende proporre. Sarebbe impensabile sfruttare modelli tridimensionali così complessi, ad esempio in applicazioni di real-time, perché i motori grafici di rendering esistenti impongono limiti al numero di primitive geometriche degli oggetti da importare all’interno delle proprie scene. Lo stesso vale per le modalità di fruizione testuale e ipertestuale descritte in questa sede. Infatti, pur se gli strumenti utilizzati non pongono alcun limite numerico di dimensione e complessità, è preferibile ottimizzare la “pesantezza” dei dati per garantirne una maggiore condivisibilità. Fra le altre classi di oggetti che saranno oggetto di ricerca: • Reperti ceramici • Reperti zoologici Pubblicazione e divulgazione L’utilizzo di MeshLab ha permesso l’esportazione nel formato U3D, un formato libero scalabile finalizzato alla condivisione e visualizzazione di progetti 3D interattivi. Al modello in formato u3d è stato associato un file .tex con una breve pre-impostazione testuale, nella quale sono presenti i parametri del pacchetto movie15, necessari alla composizione del viewer interattivo. La compilazione dei PDF, ottenuta mediante pdflatex, comando presente nelle distribuzioni LaTeX, ha permesso di realizzare documenti che illustrassero l’intero modello della torre di Montecorvino, i singoli prospetti (Nord, Est ed Ovest) e ciascuna unità stratigrafica muraria, seguendo il percorso logico e scientifico che ha caratterizzato l’intero progetto. Il PDF3D, in un’ottica di maggiore condivisione e integrazione di dati archeologici in formato digitale, può essere un valido strumento nella gestione degli archivi, rendendo accessibili e visualizzabili i modelli tridimensionali, includendo all’interno dei documenti testi ed annotazioni strutturate secondo gli standard di ricerca, di divulgazione e fruizione dei beni culturali. Lo studio e la selezione dei metodi possibili per l’implementazione dei modelli 3D finalizzati alla pubblicazione è stato ripartito in due percorsi che riguardano da una parte la visualizzazione in formati testuali di ampia diffusione come i PDF e dall’altra la condivisione via web. La possibilità offerta da MeshLab di esportare oggetti tridimensionali in formato U3D ha spinto ad utilizzare i PDF come veicolo per la divulgazione, soprattutto scientifica. In fase di editing è stato adoperato il movie15 package , una risorsa per LaTeX che consente di inserire contenuti multimediali all’interno dei documenti . Nonostante la semplicità di implementazione e per quanto le specifiche PDF siano state rese open già da qualche anno , va ricordato che questo strumento impone l’adozione delle versioni più recenti di Adobe Reader per la visualizzazione dei documenti prodotti. L’uso di PDF costituisce dunque un punto critico in un’ottica FLOSS-oriented, ma allo stato attuale risulta essere uno dei formati maggiormente diffusi per la pubblicazione testuale. Certo il crescente ricorso a formati di documenti testuali aperti, soprattutto per quanto riguarda la categoria degli ebook, sta conoscendo un periodo di rapido sviluppo. In questo senso il formato ePub ha già creato i presupposti per una forte innovazione nel settore dell’editoria digitale, ed è in atto la sperimentazione di introduzione di contenuti 3D interattivi all’interno di questi documenti per mezzo di linguaggi di programmazione object oriented come Javascript. In particolare la più recente versione di questo formato, ePub3 , prevede l’uso del nuovo linguaggio di markup ipertestuale HTML5 , che promette risultati di notevole interesse per la visualizzazione interattiva di contenuti multimediali. L’altro percorso preso in considerazione è quello che riguarda la pubblicazione di modelli 3D direttamente sul web. Senza voler entrare nel dettaglio della descrizione dell’intero panorama delle potenzialità della rete, bisogna ricordare come questo mondo si stia rapidamente evolvendo verso nuove forme che modificheranno con tutta probabilità il settore della comunicazione. Sono sempre più numerose le sperimentazioni di applicazioni di realtà virtuale, visualizzazione di scene ed oggetti tridimensionali, videogiochi e film realizzate grazie alle opportunità offerte da nuove frontiere come quelle di HTML5 e WebGL . Fra gli strumenti più interessanti in questo nuovo scenario è da segnalare p3d.in , un servizio online di sharing per contenuti 3D. Questo tool permette a ciascun utente, dopo aver effettuato la registrazione gratuita, di disporre di uno storage di 100 Mb da utilizzare per l’upload dei propri modelli 3D. Inoltre per ciascun modello viene fornito un codice HTML per incorporare un viewer interattivo nei propri siti, blog o forum. Al di là della natura chiusa di p3d.in, potrebbe essere il caso di un modello a cui ispirarsi per immaginare modalità innovative per la condivisione di dati archeologici interattivi. Il ruolo del FLOSS L’intero progetto è stato creato con l’intenzione di utilizzare la filosofia FLOSS, come presupposto per garantire la libera circolazione dei dati e delle informazioni, e di proporre un processo alla portata di tutti. I punti cardine del processo sono stati strumenti open per la produzione e per la diffusione, open data e licenze d’uso. Permangono ovviamente problemi; finora il problema maggiore è quello dell’hw e dei sw proprietari necessari a far funzionare l’hardware (vedi scanner, sia Leica che David), mentre sul versante del software di produzione e dei formati di condivisione esistono tools e soluzioni pienamente mature e affidabili. I dati del progetto ArcheO3D saranno liberamente accessibili su un repository online, di cui al momento è attiva una versione sperimentale, che sarà attiva in tempo per il workshop. Al di là degli strumenti e delle soluzioni, ciò su cui crediamo di dover porre l’attenzione è la discussione sul concetto di servizio di sharing per l’archeologia come strumento per iniziare quella tanto auspicata condivisione dei dati e delle conoscenze. In altre parole, possiamo forse cominciare ad immaginare degli strumenti open, al momento assenti, per la creazione e la gestione di un repository di modelli tridimensionali di oggetti di interesse archeologico? In una prospettiva di arricchimento delle innovazioni che la filosofia FLOSS può apportare nell’ambito della ricerca archeologica, riteniamo indispensabili le riflessioni incentrate sulla libera circolazione di dati e sulle possibili forme che i loro contenitori debbano assumere.

Software Licenses: Il workflow che si intende presentare è basato prevalentemente su software FLOSS. Gli unici strumenti software proprietari sono quelli di gestione degli strumenti, per i quali non esistono al momento alternative.

Dati utilizzati: i set di dati utilizzati sono quelli dell'équipe di archeologia dell'Università di Foggia. I modelli realizzati nel progetto sono pubblicati con licenza Creative Commons Attribution-NonCommercial-ShareAlike.

Open Data utilizzati: I modelli realizzati nel progetto sono pubblicati con licenza Creative Commons Attribution-NonCommercial-ShareAlike.

Web Links: www.archeologiadigitale.it

File .Zip Non presente

File .Pdf Download

File .Txt Non presente


Utilizzo di strumenti free e open source per la fruizione di modelli di siti archeologici 3D basati PDF

Andrea Scianna (ICAR-CNR), Rosanna Sciortino (Università di Palermo)

 Negli ultimi dieci anni sono stati fatti diversi passi avanti verso il GIS 3D, in particolare nell’ambito della visualizzazione di oggetti 3D all’interno di un GIS; pochi invece sono i prototipi di sistemi GIS 3D (per la maggior parte dedicati alla modellazione urbana). L’attività di ricerca svolta dal gruppo di ricerca del CNR presso il DICA è iniziata con lo studio di un modello di cartografia tridimensionale per GIS e analisi sulle modalità di gestione di oggetti geografici tridimensionali attraverso l'uso del GML. Successivamente si è approfondita la problematica dell'allocazione delle informazioni di modelli di dati 3D per GIS in un database geografico gestito tramite Postgres con estensione spaziale PostGIS ed è stato definito un sistema per la fruizione del modello tramite WebService 3D e Browser Internet. La ricerca del gruppo sta proseguendo nell’ottica della sperimentazione di sistemi GIS 3D basati su web services. L'obiettivo di questo paper è quello di definire una procedura per l’interazione tra un modello 3D ed un database, tutto ciò al fine di rendere il sistema informativo facilmente adattabile alla complessità del mondo reale. In particolare, il software applicativo utilizzato per la sperimentazione è stato Blender per la modellazione tridimensionale e PostgreSQL per l'allocazione dei dati. Questa procedura è stata utilizzata nel caso studio del Castello di Maredolce sito in Palermo. L'interazione tra i due software avviene tramite degli script in linguaggio Javascript. Gli script Javascript, inseriti e lanciati all'interno di Adobe Acrobat, permettono la memorizzazione dei dati all'interno del database implementato con PostgreSQL, che può essere allocato sullo stesso elaboratore o su un elaboratore remoto; tutte le informazioni geometriche contenute nel modello tridimensionale, sono pertanto trasferite nel database. Su queste basi si è sperimentato l’uso del PDF 3D di Adobe accoppiato alla possibilità del PDF1 di essere collegato ad un database per la fruizione di beni culturali. Acrobat può inglobare all'interno dei documenti PDF modelli grafici 3D creati con alcuni tra i più diffusi applicativi di CAD. Tali documenti possono essere condivisi tramite Adobe Reader, che consente la possibilità di visualizzazione, navigazione 3D ed interrogazione degli oggetti archiviati, anche con la visualizzazione di sezioni; inoltre è possibile modificare la luce d'ambiente, aggiungere texture e materiali, e riprodurre animazioni. Tutto ciò senza la necessità, per gli utenti, di disporre di programmi CAD o di specifici visualizzatori. L'autore del documento ha la facoltà discegliere quali informazioni rendere accessibili all'utente per una eventuale fruizione via web.

Software Licenses: postgres, blender, acrobat

Dati utilizzati: rilievo del Castello di Maredolce effettuato dal settore geomatica del DICA

Open Data utilizzati: nessuno

Web Links: http://gislab.dirap.unipa.it, http://gislab.geomatica.unipa.it

File .Zip File non presente

File .Pdf File non presente

File .Txt File non presente