8 PER UN APPROCCIO NEO PROCESSUALISTA AL DATO ARCHEOLOGICO di Marco Valenti 1. P Negli ultimi anni, pur con un certo ritardo, l’archeologia del medio evo italiano ha iniziato ad interessarsi del dibattito teorico; la discussione, senza occasioni di confronto congressuali o seminariali speciiche, ha avuto luogo soprattutto attraverso rilessioni scritte. Si inseriscono in questo ilone “speculativo” anche le posizioni inerenti il rapporto-(ormai) connubio fra ricerca archeologica e informatizzazione, che fanno parte della discus- sione teorica e metodologica a pieno titolo e forse, allo stato attuale, ne rappresentano la punta più avanzata. Questo mio intervento nasce infatti da una serie di produttive discussioni di recente avute con alcuni colleghi, in particolare nelle fasi preparatorie e successive al seminario “Punti di vista – Lo scavo e il web 2.0. Percorsi/pratiche/rilessioni” a Siena il 3 febbraio 2011 (consultabile al seguente indirizzo http:// archeologiamedievale.unisi.it/mediacenter/video/seminari/ seminari-di-archeologia-medievale-2010-2011/lo-scavo-web- 2-0-percorsi-pratiche-riles); inoltre con gli stimolanti con- fronti “partecipativi” a più voci nei documenti del gruppo FB “Miranduolo in Alta Val di Merse – Il progetto” (https://www. facebook.com/groups/136449023512/docs/). 2. I Io penso che il dato archeologico, per sua natura, deve essere misurabile dal punto di vista quantitativo e qualitativo quando si intenda utilizzarlo in modelli di narrazione storica confutabili. Tale via, che richiede la totale trasparenza del processo di pro- duzione del dato e quindi la sua giudicabilità, ha stretti legami con le basi teoriche del processualismo. Proprio la misurabilità, che oggi non può che provenire da una documentazione digitale il più possibile completa e mostrata al pubblico in progress (si veda in questo volume il mio intervento sulla live excavation), nonché l’esito inale verso la costruzione di modelli veriicabili, mi accostano a tale corrente di pensiero; la quale, dopo il lungo e difuso attacco del post processualismo, sta iniziando a ripren- dere il suo posto anche ad un livello più generale. Non è infatti casuale che su scenari di ben maggiore riso- nanza dei nostri, dalla scorsa primavera, si sia aperto un serrato dibattito sul tema Postmodernismo o New Realism? Pensiero debole o pensiero forte? Realtà o interpretazione dei fatti? Dibattito che sta andando avanti, basandosi sullo splendido pamphlet di Zygmunt Bauman e la sua società liquida ovvero priva di punti fermi (Baumanz 2011) e nella critica dell’idea che tutto sia socialmente costruito (già anticipate in Searle 1995 ed Eco 1997, dove il reale è visto come uno “zoccolo duro” con cui si deve fare sempre i conti). Punti fermi quindi; questo è il concetto da recuperare nelle società in cui viviamo ed anche nello speciico del nostro lavoro, proponendo dati e narrazioni che da essi derivano, radicandoli sulla possibilità, reale, di una veriica generalizzata. La tecno- logia digitale, con le capacità rese disponibili per costruirsi il proprio sistema di documentazione e veicolarlo universalmente, rendendolo partecipativo, attraverso le sconinate risorse del web 2.0, costituisce lo strumento principe di trasparenza: l’archeologia, non può certo farne a meno. A guardare bene, il rapporto fra archeologia e digitale è ben datato; già dalla seconda metà del secolo scorso, la teo- ria archeologica è stata infatti inluenzata anche dall’avvento dell’informatica, consciamente o inconsciamente; si tratta di un lungo rapporto. Ponendo in parallelo l’evoluzione del dibattito speculativo e le routine che imponeva il progresso informatico, si notano alcune signiicative convergenze. In particolare col- pisce come i primi passi dell’approccio quantitativo, basato su metodi statistici, inizino ad essere proposti da Albert Spaulding contemporaneamente allo sviluppo, proprio a partire dagli anni ’60, delle basi di dati organizzate secondo schemi gerarchici, rimanendo comunque nell’ambito dei database lineari (in pro- posito il testo web molto ben fatto di Alberto Calvelli http:// www.antiqui.it/archeologiaquantitativa/sommario.htm. Sul contributo di Spaulding invece Cowgill 1977, pp. 325-329). Lo stesso afermarsi dell’epistemologia processuale, in cui l’aspetto quantitativo era centrale nell’ambito del trattamento del dato, emergeva tra gli anni ’60 e ’70 mentre l’industria informatica concentra molte energie sulla nascita e lo sviluppo dei database relazionali; con una fruttuosa stagione di ricerche che porta pochi anni dopo allo sviluppo prima dei modelli gerarchici, poi di quelli reticolari e relazionali nell’ambito del database management, nonché a molte delle soluzioni tecnolo- giche tuttora in uso. Non mi sembra neppure casuale che dopo la pubblicazione di Ted Codd nel 1970 (un ricercatore IBM) del primo articolo sui database relazionali (nel quale delinea i principi del calcolo e dell’algebra relazionale per permettere ad utenti non esperti di archiviare ed interrogare grandi quantità di dati) nonché la formazione del gruppo di ricerca noto come “System R” (con l’obiettivo di sviluppare un database relazionale commercializza- bile, poi approdato ad elaborazioni dell’attuale DB2, il prodotto di punta di IBM per il database management), Hodder e Orton pubblichino il loro ben noto Spatial Analysis in Archaeology (Hodder, Orton 1979). Assonanze poi, anche a partire dalla metà degli anni ’80-inizi ’90. Nell’informatica comincia ad essere chiaro che i database relazionali non rappresentano il modo più pratico per gestire dati complessi, sentendo l’esigenza di una maggiore lessibilità nella gestione e interrogazione del dato; gli interessi dei ricercatori si concentrano sui database “object oriented”, nei quali l’utente deve essere in grado di deinire metodi di accesso, manipolazione e rappresentazione del dato sviluppati in proprio. Nell’archeologia quantitativa, allo stesso tempo, si sente la necessità di innovare i propri metodi dedicati dietro il ine di integrare maggiormente le procedure tradizionali della disciplina con strumenti che erano stati sviluppati in altri am- biti per cercare soluzioni al trattamento ed alla risoluzione di problemi di ben altra natura. In deinitiva in ambedue i campi si ricercava un approccio dedicato e guarda caso Fletcher e Lock pubblicavano il loro Digging Numbers fornendo un’in- troduzione alla statistica scritta da archeologi per gli archeologi (Fletcher, Lock 1991). Ma non solo; sono questi anni di furore scientista che proprio sul ricorso all’archiviazione e, a seguire, del processamento statistisco, basava la validazione di quanto si elaborava. Insomma la proposta di modelli o di sistemi, accostando sempre di più l’archeologia alle scienze, dovevano fondarsi su argomentazioni logiche suscettibili di veriica; «il modello non è una semplice ipotesi, ma è una costruzione articolata e dinamica, che deve essere capace di rispondere alla ricchezza di elementi che fanno parte integrante del contesto» (Bietti Sestieri 2000). Credo quindi che l’informatica, strumento imprescindi- bile dell’odierna società, veda connaturata in sé, nella sfera archeologica, la dimensione processuale; the loss of the Innocence di Clarke (Clarke 1973), ci viene ancora oggi riproposta dalle attuali capacità di calcolo, di archiviazione, di difusione e di interrelazione totale dei computer, facendo riemerge proprio quella prospettiva teorica che dopo gli anni ’90 del secolo scorso tanta denigrazione se non demonizazione ha trovato nella vasta massa di fautori dell’impressionistico post processualismo. Al riguardo mi ha sempre colpito un passo di Terrenato: «Le recenti formulazioni postmoderne vanno rapidamente smantellando il mito di una conoscenza oggettiva del passato e di un procedere imparziale dell’archeologo. L’impianto re- lativista dell’archeologia postprocessuale lascia sempre meno spazio ai metodi matematici e statistici, che sono visti come potenzialmente riduttivi e meccanicistici» (T errenato 2000).