Date post: | 01-Nov-2014 |
Category: |
Documents |
Upload: | lorenzo-ruzzene |
View: | 245 times |
Download: | 8 times |
UNIVERSITÀ DEGLI STUDI DI TRENTO
FACOLTÀ DI SOCIOLOGIA
CORSO DI LAUREA SPECIALISTICA IN
SOCIOLOGIA E RICERCA SOCIALE
Computer Assisted Qualitative Data Analysis Software (CAQDAS)
Opportunità, problematiche e potenziali sviluppi
Relatore: prof. Giolo Fele
Candidato: Lorenzo Ruzzene
Anno accademico 2008/2009
2
Computer Assisted Qualitative Data Analysis Software (CAQDAS)
Opportunità, problematiche e potenziali sviluppi
Parole chiave: CAQDAS, qualitative analysis, software, computer-assisted
Relatore: prof. Giolo Fele
Candidato: Lorenzo Ruzzene
3
Tutti i marchi e i software menzionati in questo elaborato sono da intendersi di proprietà dei rispettivi detenenti diritto.
Data dell’ultima revisione: 24 agosto 2009
Ringraziamenti
Ringrazio il dott. Maurizio Teli, il prof. Vincenzo D’Andrea e il dott. Luigi Lissandrini per avermi dato la possibilità di collaborare al progetto QDA-UniTN, ai quali porgo i migliori auguri che il progetto arrivi ad un soddisfacente compimento. Ringrazio inoltre Paolo D’Incau per avermi fatto comprendere le difficoltà degli sviluppatori nel soddisfare le numerose richieste degli scienziati sociali. Un ringraziamento va anche al personale della Facoltà di Scienze Sociali della Budapesti Corvinus Egyetem (Corvinus University of Budapest) per l’iniziale supporto alla mia ricerca nel corso del periodo trascorso come studente Erasmus nel loro istituto.
Un ringraziamento va anche ai ricercatori e docenti da me interpellati, per la loro pazienza e grande disponibilità nel darmi suggerimenti e le loro opinioni riguardo il processo di ricerca. Grazie anche agli studenti del primo anno della laurea magistrale in Sociologia e Ricerca Sociale per avermi fornito le loro considerazioni e soprattutto i dubbi riguardo all’utilizzo del software per la loro esperienza di ricerca. Ringrazio anche il mio relatore, il prof. Giolo Fele, per tutta l’assistenza fornitami, per i suggerimenti riguardo i ricercatori da contattare e la possibilità di insegnare ATLAS.ti agli studenti del suo corso; un grazie anche alle sue due collaboratrici, Veronica Dei Rossi e Michela Ventura per avermi aiutato nella non facile attività dell’insegnamento. A tutti un augurio di un felice proseguimento (o di un inizio) di carriera di ricerca, nella speranza che le questioni di questo mio elaborato possano essere di valido aiuto nel loro lavoro.
Ringrazio Daniel per tutto l’aiuto e il sostegno che è stato in grado di darmi, e Luca per I validi consigli che mi ha fornito. Ringrazio di cuore José per avermi supportato oltre il ragionevole soprattutto in campi non propriamente accademici. Un grazie anche ad Alessandra e Veronica per il loro sostegno, in particolare negli ultimi mesi di stesura. Ringrazio mia sorella Maddy per essermi stata vicina e per i suoi consigli sull’inglese. Un ultimo e sentito ringraziamento a Lucia per avermi fatto comprendere tante cose importanti, aiuto nel quale mi auguro di poter contare ancora in futuro.
4
Computer Assisted Qualitative Data Analysis Softwar e (CAQDAS)
Opportunities, risks and potential development
Abstract The subject of my dissertation is Computer Assisted Qualitative Data Analysis Software (CAQDAS). These packages are important tools to support researchers in universities, research institutions and companies, but their use is criticized and not so widespread. Traditionally, while cataloguing, analysing and writing results, a manual method has been used: underlining, markers, scissors, involving every kind of problem which is related to working on large amounts of paper. Later, the spreading of personal computers and the first text editors eased some of these processes. CADQAS is a more powerful tool, compared to a traditional text editor: it is possible to work on a «project» which digitally contains all data. Into this project it is possibile to catalogue all the research's material, to easily assign labels in text parts which are considered relevant, to link other parts of text, etc. It is important to remark that many researchers argue that using computer to interpretate data implies more transparency and traceability, avoiding the risk of bias in the explanation construction or testing a theory. From these starting points, my research deals with a general overview from literature, about CAQDAS, trying to understand its role, explaining the phases of its development, and analysing its strengths and weaknesses. Then I analyse the practical possibilities of the three most widespread software available at the moment, ATLAS.ti, MAXqda and NVivo, including a short review of the software programmes that are still up to date. This is important to understand the reasons for choosing a particular software or another one, and even if choosing not to use any of them. Subsequently I investigate the ways in which computer assisted research is carried out by researchers and professors of the University of Trento and others Italian universities. I interviewed several researchers and I also taught how to use a software (ATLAS.ti) to a group of students to investigate their opinion. This is relevant to understand the problems encountered, to record the demands and to observe the ways in which software is experienced. Secondly is also important to consider qualitative researchers who don't utilise software for their researches, and why. Finally I deal with the potential development of CAQDAS, such as open source and web-based packages. A particular remark will involve the QDA-UniTN Project (open source, multiplatform, in real-time collaborative and web-based). in which I collaborated to write the feasibility study. It involves a team of Sociology and Computer Science students. The project is supposed to care more about the researchers' demands, considering at first the user-friendly issue. It is also supposed to be collaborative, helping in this way the transparency of the research process.
5
Sommario
Introduzione....................................... ............................................................... 7
1. Il ruolo del software nella ricerca qualitativa . .......................................... 11
1.1 L’analisi qualitativa computer-assisted.........................................................11
1.2 Storia......................................... .......................................................................15
1.3 Diffusione ..................................... ...................................................................18
Diffusione internazionale .....................................................................................18
Meccanismi di diffusione tra utenti ......................................................................20
1.4 Possibilità offerte dai CAQDAS................. .....................................................25
Vicinanza e prossimità ai dati ..............................................................................26
Applicazione di codici a segmenti di dati .............................................................27
Realizzazione di uno schema di codifica .............................................................31
Esplorazione e visualizzazione dei dati semplice ................................................35
Organizzazione della scrittura .............................................................................36
Mappare idee e collegare concetti.......................................................................40
Organizzazione dei dati su caratteristiche note ...................................................42
Interrogazione dei dati (esplorazione complessa)................................................44
1.5 Criticità dei CAQDAS ........................... ...........................................................48
Il problema tecnologico .......................................................................................48
Il rapporto tra ricercatore e software....................................................................52
Utilizzo di software non specifici..........................................................................60
Ortodossia nel metodo ........................................................................................62
1.6 Campi d’applicazione ........................... ..........................................................66
1.7 Il mutamento delle tecniche di analisi qualitat iva.........................................80
1.8 Osservazioni finali ............................ ..............................................................83
2. L’utilizzo del software per la ricerca qualitati va ...................................... 85
2.1 Accorgimenti per l’utilizzo dei CAQDAS ......... ..............................................85
Formato dei dati ..................................................................................................86
Operazioni pratiche preliminari............................................................................88
2.2 Una panoramica dei tre principali pacchetti .... .............................................90
Vicinanza e prossimità ai dati ..............................................................................92
Applicazione di codici a segmenti di dati .............................................................96
Realizzazione di uno schema di codifica .............................................................98
6
Esplorazione e visualizzazione dei dati semplice ................................................99
Organizzazione della scrittura ...........................................................................100
Mappare idee e collegare concetti..................................................................... 101
Organizzazione dei dati su caratteristiche note .................................................103
Interrogazione dei dati (esplorazione complessa)..............................................107
2.3 Altri software disponibili ..................... .........................................................110
2.4 Osservazioni finali ............................ ............................................................111
3. L’apprendimento e l’esperienza con i CAQDAS ..... ............................... 113
3.1 L’insegnamento agli studenti del corso di Metod i qualitativi ....................113
La preparazione ................................................................................................113
L’insegnamento e la consulenza .......................................................................115
La ricezione degli studenti.................................................................................117
3.2 L’esperienza dei ricercatori ................... .......................................................120
Approccio al software........................................................................................121
L’atteggiamento nei confronti del software ........................................................126
Apprendimento e campi d’applicazione .............................................................138
Condivisione e trasparenza...............................................................................142
Le funzionalità dei software...............................................................................148
3.3 Osservazioni finali ............................ ............................................................154
4. Potenziali sviluppi ............................. ....................................................... 155
4.1 Mutamenti nei software più diffusi............. ..................................................155
4.2 Alcune recenti proposte ........................ .......................................................156
4.3 Il progetto QDA-UniTN.......................... ........................................................158
Open source .....................................................................................................160
Web-based, e quindi multipiattaforma ...............................................................161
Condivisione e collaborazione...........................................................................161
Riservatezza dei dati.........................................................................................162
Feature da tenere in considerazione .................................................................163
4.4 Osservazioni finali ............................ ............................................................166
Conclusioni........................................ ........................................................... 168
Riferimenti bibliografici .......................... ..................................................... 172
7
Introduzione
L'oggetto di questo elaborato sono i software per l'analisi dei dati qualitativi
assistita da computer (anche chiamati CAQDAS, ovvero Computer Assisted
Qualitative Data Analysis Software). Si tratta di programmi finalizzati ad
assistere i ricercatori nelle analisi di tipo qualitativo di dati qualitativi.
Nelle scienze sociali sono presenti due tradizioni metodologiche di ricerca: la
ricerca quantitativa e quella qualitativa. Per quanto riguarda la prima, sono ben
noti e accettati i pacchetti software in grado di fornire supporto ai ricercatori. Si
tratta di programmi commerciali come SPSS o Stata, o del progetto open
source R. Questi software sono uno strumento di importante rilievo in
università, istituti di ricerca e aziende. Anche i ricercatori che intendono
avvalersi della metodologia qualitativa hanno a disposizione numerosi pacchetti
software. Il loro utilizzo tuttavia è stato, ed in parte lo è tuttora, oggetto di
resistenze e critiche, a causa di alcune importanti differenze tra i due tipi di
ricerca.
Le differenze principali sono insite nelle radici epistemologiche dei due
approcci, che sono anche ben delineate dal tipo di dati a cui si fa riferimento.
Nella ricerca quantitativa si ha a che fare con dataset ottenuti mediante
somministrazione di survey o panel a un campione rappresentativo per il caso
studiato. Questi dataset contengono variabili che sono prevalentemente in
formato numerico, sotto forma di categorie o scale di misurazione. Nella ricerca
qualitativa le tecniche di ricerca impiegate possono essere l’osservazione
partecipante, interviste in profondità o focus group, mentre l'analisi può essere
svolta ispirandosi alla grounded theory, alla frame analysis, all'analisi della
conversazione o narrativa, eccetera. I dati sono principalmente in forma
discorsiva e testuale (ma anche audiovisiva), e possono essere costituiti da
interviste (solitamente trascritte), note di campo, diario della ricerca, tracce
audio e video e fotografie.
Per questa ragione nella ricerca qualitativa è fondamentale uno stretto rapporto
tra il ricercatore e i dati oggetto di studio (in molti casi sono gli stessi ricercatori
8
che li hanno ottenuti ad analizzarli). Ancora più importante è la loro
interpretazione, che per sua natura riflette il punto di vista del ricercatore e il
modo in cui è stata effettuata la ricerca (osservazione esterna o partecipante,
covert o overt).
Tradizionalmente, nella fase di catalogazione, analisi e scrittura dei risultati, si
usava un metodo manuale: sottolineature, evidenziazioni e note a margine, con
tutte le difficoltà che si ponevano al ricercatore lavorando su grandi quantità di
carta. La diffusione del personal computer e i primi elaboratori di testo hanno
reso successivamente più semplici alcuni di questi processi. I CAQDAS sono
uno strumento più potente rispetto ad un tradizionale editor di testo in quanto
consentono di avere normalmente tutti i dati raccolti in un singolo contenitore
elettronico, spesso definito «progetto»; all'interno di questo è possibile la
catalogazione di tutto il materiale della ricerca, una comoda applicazione di
etichette (codici) a parti del testo ritenute rilevanti (citazioni) e collegamenti di
parti del testo tra loro (link ipertestuali), in aggiunta a una serie di funzionalità
più avanzate. In particolar modo, molti studiosi ritengono che mediante l'utilizzo
del computer l'interpretazione dei dati risulti più trasparente e tracciabile,
scongiurando il rischio di bias nella costruzione di spiegazioni o nel testare una
teoria.
Veniamo dunque alle ipotesi di ricerca. Ritengo che molta della letteratura
critica nei confronti dei software sia stata in gran parte superata grazie alla
maggiore diffusione, anche tra i ricercatori qualitativi, del computer come
strumento di ausilio per alcune fasi della ricerca. Questo dovrebbe aver portato
ad una maggiore propensione all’utilizzo dei software specificamente realizzati
per l’analisi qualitativa, portando ad una diminuzione dei pregiudizi nei loro
confronti.
Un’ulteriore ipotesi vede tali pregiudizi, quando ancora presenti, dovuti in larga
parte all’assenza di consapevolezza da parte dei ricercatori del reale scopo e
funzionamento di tali strumenti, in parte dovuto anche a lacune in competenze
informatiche. Tale situazione si riscontra in particolar modo per una concezione
negativa del computer, il quale limiterebbe l’ampia dose di creatività e
produzione di conoscenza necessaria nella ricerca qualitativa.
9
Intendo inoltre dimostrare che sebbene alcuni approcci non traggano particolare
beneficio dai CAQDAS, tali software non limitano il loro apporto per un solo
approccio (la grounded theory), come sostenuto da molti studiosi. La loro utilità
è data dalla creatività e confidenza che viene dimostrata dai ricercatori
nell’essere in grado di trarne vantaggio per le loro ricerche e nell’averne visto
un utile strumento da adattare alle proprie esigenze.
Resta successivamente da rilevare se le lacune in termini di competenze
informatiche di alcuni ricercatori qualitativi siano davvero sufficienti a spiegare
la ritrosia nell’utilizzo dei software, oppure se effettivamente essi non risultino
realizzati a misura di quelli che dovrebbero essere gli utenti di riferimento.
Ritengo che l’interfaccia e alcune procedure siano inutilmente complesse,
portando a sottoutilizzare i programmi nel comprensibile timore che
l’apprendimento di tali procedure porti a porre in secondo piano i reali obiettivi
della ricerca.
Infine, mi domando se i CAQDAS possano, come sostengono alcuni loro
sostenitori e promotori, aumentare la trasparenza e la tracciabilità nella ricerca
qualitativa, con particolare attenzione alla possibilità di condividere il proprio
lavoro di analisi con altri ricercatori. La questione è se tale opportunità sia o
meno compatibile con gli assunti della ricerca qualitativa e se potrebbe portare
a problemi riguardanti la particolare riservatezza da tenere nei confronti dei dati
qualitativi.
Partendo da queste premesse, la mia ricerca presenta nella prima parte una
panoramica generale dei CAQDAS, cercando di coglierne il ruolo, delineandone
le fasi di sviluppo (ovvero la storia) e analizzandone i punti di forza e criticità. Si
tratta di un capitolo incentrato maggiormente sulla letteratura presente
sull'argomento, dagli albori ai più recenti contributi disponibili. La mia intenzione
è quella di mostrare i numerosi vantaggi che possono portare i CAQDAS in
diverse fasi della ricerca qualitativa, ma allo stesso mondo anche fornire le
motivazioni che potrebbero portare a non utilizzare questi strumenti. Sono
inoltre presenti diversi riferimenti ai campi d’applicazione dei software e il ruolo
che possono avere nel far mutare favorevolmente il riconoscimento della ricerca
qualitativa.
10
Successivamente, nel secondo capitolo, sono intenzionato ad analizzare le
possibilità di analisi computer-assisted disponibili dal punto di vista pratico,
concentrandomi in particolare sui tre pacchetti software più diffusi (ATLAS.ti,
NVivo, MAXqda), mostrando l’effettivo funzionamento delle loro principali
funzioni, anche paragonandole tra i tre programmi. Cercherò di evidenziarne i
punti in comune e le differenze, tentando di comprendere quali potrebbero
essere i fattori determinanti nella scelta di un programma in particolare.
Conclude il capitolo una veloce rassegna delle altre soluzioni software
disponibili (tralasciando quelle non più sviluppate).
Il capitolo successivo è dedicato all’esperienza di insegnamento e alla ricerca
da me compiute. In primo luogo esporrò le mie riflessioni riguardanti
l’esperienza d’insegnamento del software ATLAS.ti agli studenti del primo anno
della laurea magistrale in Sociologia e Ricerca Sociale. Saranno presenti inoltre
le loro considerazioni sull’analisi dei dati qualitativi assistita dal computer,
rilevate dalle lezioni, mediante un questionario semi-strutturato e da incontri di
consulenza riguardo l’uso (in particolar modo le problematiche riscontrate) del
software. In secondo luogo esaminerò le osservazioni, i dubbi e le esigenze dei
ricercatori dell’Università degli Studi di Trento di alcuni atenei italiani al fine di
rilevare la diffusione e le loro opinioni sulla ricerca qualitativa computer-assisted
in base alla loro esperienza.
L'ultimo capitolo è incentrato sui potenziali sviluppi dei CAQDAS, con un occhio
di riguardo al progetto denominato temporaneamente QDA-UniTN (open
source, multipiattaforma, collaborativo in tempo reale e web-based), al quale ho
collaborato nella fase della stesura dello studio di fattibilità. Il progetto
prosegue, portato avanti da un'équipe di studenti di scienze sociali e di studenti
del corso di informatica della facoltà di Scienze. Le caratteristiche del progetto
permettono di tenere maggiormente conto delle esigenze dei ricercatori,
volendo privilegiare l’usabilità ed offrendo una maggiore trasparenza nel
processo di ricerca grazie alla sua declinazione collaborativa.
11
1. Il ruolo del software nella ricerca qualitativa
In questo primo capitolo inquadreremo i software per l’analisi qualitativa
computer-assisted, esaminando la letteratura sull’argomento. Saranno presenti
brevi cenni riguardanti la storia e la diffusione di questi programmi tra i
ricercatori. In seguito saranno analizzate in dettaglio le possibilità che questi
pacchetti consentono, per poi spostarsi sulle critiche che sono tradizionalmente
volte ad essi. Infine vedremo i molteplici campi d’applicazione in cui è possibile
avvalersi del supporto del software, e dei mutamenti che tale utilizzo può
portare alle tecniche di analisi qualitativa.
1.1 L’analisi qualitativa computer-assisted
Trattando di analisi qualitativa, una parte dei sui sviluppi recenti è quella che è
stato fatto in campo software per questo tipo di analisi. Cerchiamo perciò di
capire prima di tutto come inquadrare questi software. I CAQDAS (Computer
Assisted Qualitative Data Analysis Software1) hanno lo scopo di assistere il
ricercatore in diverse fasi dell’analisi qualitativa. Essi sono in grado di rendere
più agevole, trasparente e tracciabile l’analisi, andando oltre quello che può
essere il semplice supporto di un elaboratore di testi2 (word processor).
Una prima questione è che cosa caratterizza questi software. Che tipo di
pacchetti fanno riferimento all’acronimo CAQDAS? In prima analisi possiamo
dire che si tratta di software che permettono un approccio qualitativo a dati
qualitativi. Non si tratta perciò di strumenti per effettuare la content analysis,
1 Nell’acronimo CAQDAS talvolta il termine «assisted» viene reso dal termine «aided», non modificandone tuttavia il significato. In altri casi nella letteratura si può trovare riferimento all’attività di analisi computer-assisted, portando all’omissione del termine «software». Infine, è possibile trovare riferimenti al software per l’analisi qualitativa con l’acronimo abbreviato “QDAS” (si veda di Gregorio & Davidson, 2008). 2 Si veda anche la definizione "CAQDAS (Computer-Assisted Qualitative Data Analysis Software)." Encyclopedia of Social Science Research Methods..
12
ovvero uno studio statistico sulle frequenze di parole e frasi, o occorrenze di
parole e frasi con altre. Sebbene anche alcuni CAQDAS lo permettano in vario
modo, non è il loro scopo principale3 (Lewins & Silver, 2007; 6-7). Non si tratta
nemmeno di strumenti finalizzati all’analisi dei testi in chiave di «grammatica
semantica» (Franzosi, 2006), in quanto anch’essi hanno come obiettivo
un’analisi numerica sui dati testuali codificati in un sistema relazionale.
Paragoniamo per esempio i software statistici e quelli per l’analisi qualitativa
assistita dal computer, allo scopo di meglio focalizzare lo scopo di questi
programmi. In entrambi i casi il ricercatore deve essere sempre al centro, è lui
infatti che interpreta i dati da analizzare. Perciò, tanto quanto SPSS non effettua
la regressione da solo (anche perché c'è comunque bisogno di sapere quello
che si sta facendo), i CAQDAS non sono pensati per, né possono fare l’analisi
al posto del ricercatore. Il software è uno strumento, anzi un insieme di
strumenti (toolbox). Bisogna essere in grado di saperli usare, in quanto non
tutto serve, e magari si preferisce fare a mano alcune operazioni. Ma bisogna
conoscere quali sono e cosa sono in grado di fare. Per fare un primo esempio,
si può pensare alla funzionalità del conteggio delle parole nei dati appena
menzionata: molti programmi effettuano questa operazione, ma sarà il
ricercatore a determinare se gli sarà davvero utile; potrebbe rivelarsi infatti
molto utile per i linguisti, interessati alla ricorrenza delle parole in diversi periodi
o in differenti aree geografiche (per valutare l’evoluzione o la scomparsa di un
insieme di termini), mentre lo stesso strumento assumerà un valore e un
significato diverso in un’etnografia.
Chiarito che per dati qualitativi si intendono dati testuali (in maniera prevalente),
e il tipo di ricerca è basato su di essi ed è intenzionato a descrivere o
interpretare criticamente i dati (Tesch, 1990; 3), si solleva un problema. Se ogni
ricercatore costruisce un metodo personale per analizzare i dati, è difficile
descrivere la metodologia a livello generale. Un accordo possibile potrebbe
essere quello che vede l’analisi come l’attribuzione di significato a dati narrativi,
3 QDA Miner, presenta un maggiore supporto statistico; MAXqda un conteggio parole interattivo; NVivo e ATLAS.ti, presentano approssimazioni a tale tipo di analisi, con un conteggio parole non interattivo o interattivo solo parzialmente. Per dei riferimenti sui software per l’analisi numerica dei testi si veda Giuliano e La Rocca (2008).
13
mantenendo però un certo numero di correnti e, soprattutto, all’approccio
individuale del ricercatore. Che ruolo ha allora il computer? Non si tratta della
quintessenza della precisione e dell’ordine? L’analisi qualitativa non è troppo
personale e flessibile? Non c’è il rischio che standardizzi i processi? (ibid; 6) Nel
capitolo vedremo che questi sono in gran parte falsi problemi. Per intanto basti
dire che i computer non analizzano i dati, sono le persone a farlo. Ma come nel
caso delle pistole (ci si riferisce al detto “non sono le pistole a uccidere le
persone, sono le persone a farlo”), è vero per metà. Le pistole rendono molto
facile uccidere le persone, e i computer rendono più facile alle persone pensare
al significato dei loro dati. Non sono un sostituto alla riflessione umana, ma
sono un forte aiuto per essa (Weitzman & Miles, 1995; 3). Come ben
sintetizzato da Wolcott (1990; 35) “The critical task in qualitative research is not
to accumulate all the data you can, but to ‘can’ (i.e. get rid of) most of the data
you accumulate”. Per questo sono stati sviluppati i CAQDAS.
Un primo accenno al problema della metodologia è doveroso farlo sin da ora.
Gobo (2005) rileva che il primo tentativo di definire la metodologia qualitativa
risale agli anni ’60, sebbene conti più di un secolo di storia. Questa lacuna è
stata causata dal fatto che la formalizzazione di una metodologia veniva vista
come un elemento troppo vicino alle survey, ovvero ai metodi quantitativi (si
può dire che in un certo senso la ricerca qualitativa nasce e si rafforza in
opposizione a quella quantitativa). Lo stesso è avvenuto per i manuali, sempre
visti come non opportuni per la ricerca qualitativa. Gobo osserva però che negli
ultimi decenni il catalogo Sage vede una forte crescita di manualistica: tra il
1980 e il 1987 erano presenti solo 10 manuali, tra il 1988 e il 1994 quelli
disponibili erano 33, mentre tra il 1995 e il 2002 erano più di 125. Il trend, anche
se non in continua crescita, è di sicuro stabile per quanto riguarda questi ultimi
anni. L’autore vede cinque prospettive per la ricerca qualitativa: una maggiore
formalizzazione del metodo, uno sviluppo nell’analisi dei dati, il (tanto ostacolato
e oggetto di questo elaborato) matrimonio tra computer e ricerca qualitativa, la
necessità di effettuare ricerca qualitativa in una società multiculturale e le
implicazioni per la ricerca applicata. Per quanto riguarda il difficile matrimonio
tra il computer e la ricerca qualitativa, anche Gobo osserva che mentre la
14
content analysis ha lasciato a desiderare anche per i ricercatori quantitativi, i
CAQDAS possono essere in grado di fare qualcosa per i ricercatori qualitativi.
La letteratura sui CAQDAS è prevalentemente proveniente dagli sviluppatori,
dagli utenti o è basata sull’esperienza degli utenti (Flick, 2006). I CAQDAS sono
inoltre presenti in numerosi manuali di ricerca qualitativa. Almeno un capitolo è
a loro dedicato, mostrando come possano essere parte integrante del processo
di ricerca4. In certi casi però tendono a dire ben poco, specie per quanto
riguarda la scelta del software più opportuno, e sono magari troppo orientati a
quello usato, o più conosciuto da chi ha scritto il manuale.
Non reputo opportuno presentare la tipologia di Weitzman e Miles5 (1995) allo
scopo di introdurre l’argomento. È una scelta applicata in diversi manuali (quelli
di Creswell (2003) e di Lewins e Silver (2007), per citarne alcuni). La
suddivisione dei software sulla base delle loro funzioni, a tale livello di
generalità, è ormai datata e priva di reale utilità, anche se intenzionata ad avere
solamente finalità esplicative. Vedremo che la commercializzazione dei
software ha portato i programmi ad essere di più ampia portata rispetto a quelli
presenti al tempo in cui quella tipologia è stata concepita. Sia le limitazioni oggi
presenti sono inferiori, sia gli utenti desiderano che ve ne siano meno.
Prima di iniziare ad addentrarci nella questione, un’ulteriore precisazione: ha
senso parlare di «stato dell’arte» dei CAQDAS? I manuali, i testi, come anche
questo elaborato, non possono che essere anacronistici, in quanto la tecnologia
muta rapidamente, e si sono rese disponibili nuove risposte a vecchi problemi,
mentre se ne pongono di nuovi (Fisher, 1997; 123). Si pensi all’ottimo testo di
Lewins e Silver (2007) a cui faremo spesso riferimento: molte delle osservazioni
specifiche che sono presenti nel testo erano già sorpassate dall’uscita delle
nuove versioni di due software da loro analizzati (MAXqda e NVivo, meno per
4 Tra i più recenti manuali che dedicano almeno una sezione ai CAQDAS vi sono Flick (2006), Silverman (2005), Denzin & Lincoln (2003), Creswell (2003), Lindlof & Taylor (2002), Gibbs (2007). I CAQDAS compaiono per la prima volta in maniera estesa in un manuale metodologico in Miles & Huberman (1994). 5 Si tratta di una tipologia di programmi composta da software per: recupero testo, gestione del testo, codifica e recupero, costruttori di teoria basata sui codici, costruttori di mappe concettuali (Weitzman & Miles, 1995; 6). Le stesse Lewins e Silver (2009) riconoscono quanto si tratti di una tipologia ormai obsoleta.
15
quanto riguarda ATLAS.ti). Questo però avviene a quel genere di recensioni
sullo stato dell’arte intenzionate a concentrarsi sulle ultime versioni dei
programmi. Sarà la stessa procedura che applicherò, anche se non a livello
manualistico, nel secondo capitolo. È tuttavia bene chiarire che in questo
capitolo la mia principale intenzione è quella di delineare le principali possibilità
di utilizzo dei software, puntando agli effetti, sia positivi che negativi, provocati
dalla sua integrazione con la ricerca.
1.2 Storia
Qualche cenno riguardante la storia dei CAQDAS può essere utile ai fini
dell’elaborato. L’acronomo «CAQDAS» è stato coniato da Nigel Fielding e
Raymond Lee, nella prima Surrey Research Methods Conference nel 1989, la
quale raccolse un cospicuo numero di pioneri nel campo. Nel 1994, la
creazione del «CAQDAS Networking Project» (finanziato dai fondi
dell’Economic Social Research Council britannico), ha fissato l’acronimo
(Lewins & Silver, 2007). Torneremo più avanti sulle funzioni di questo
importante progetto.
Le fasi di sviluppo differenziate tra i programmi per l’analisi statistica e i CAQDAS, tratto da Fielding e Lee (1998; 12)
16
Tradizionalmente i ricercatori qualitativi conducevano le loro analisi «a mano»,
scrivendo le trascrizioni e le note di campo, fotocopiandole, codificandole
tramite pennarelli ed evidenziatori, ritagliando e incollando i segmenti di testo
selezionati in schede, e mischiandole e ordinandole per l’analisi. A partire dalla
metà degli anni ’80 la situazione ha iniziato a cambiare, con la possibilità di
avvalersi di, seppur rudimentali, editor di testo sui primi personal computer.
Successivamente hanno iniziato a comparire programmi specificamente pensati
per l’analisi qualitativa assistita da computer, di cui i più rilevanti sono The
Ethnograph e Nud*ist. Si trattava di software ostici quanto gli altri disponibili a
quel tempo, dove la codifica del testo poteva avvenire solo tramite tastiera,
indicando i numeri di riga d’interesse. Rispetto alla tecnica tradizionale, pochi vi
avevano visto un reale miglioramento (Weitzman, 2003; 311).
La schermata di una delle prime versioni di The Ethnograph, tratta da Weitzman e Miles (1995; 199)
L’offerta si è fatta più vasta negli anni a seguire, tant’è che Weitzman e Miles
(1995) a metà degli anni ’90 recensiscono ben 24 programmi, di cui metà era
stata sviluppata precipuamente per l’analisi qualitativa (quelli della restante
metà offrivano un supporto generico per la gestione e l’organizzazione dei
testi). La situazione si è sviluppata ulteriormente, portando alla
commercializzazione del settore, che ha condotto ad un continuo
17
aggiornamento ed estensione dei pacchetti esistenti e alla scomparsa di quelli
meno utilizzati. I software hanno iniziato anche a divenire simili tra di loro, in
quanto alla comparsa di una nuova funzione in un programma segue
rapidamente l’omologazione da parte dei concorrenti.
Vedremo che il dibattito riguardante gli effetti di questi software ha
accompagnato il loro sviluppo sin dall’inizio. Per intanto basti rilevare come
questo abbia provocato uno sviluppo tardivo e controverso di questi pacchetti, a
differenza della rapidità ed entusiasmo con cui si sono sviluppati i pacchetti
statistici. Non solo, Seale (2005; 188-189) fa notare che da metà degli anni ’60
hanno iniziato a comparire anche i primi strumenti per la content analysis.
Prima della comparsa dei CAQDAS, vent’anni dopo, non era possibile proporre
una soluzione simile a quella per le analisi statistiche, ovvero la realizzazione in
automatico di operazioni matematiche (che possono essere eseguite anche di
notte con elaboratori lenti, visto che non richiedono intervento umano).
Inoltre bisogna ribadire che se la ricerca qualitativa nasce in opposizione alla
quantitativa, di conseguenza si è trascinato per anni un ripudio della tecnologia,
vista come «cosa da statistici», disumanizzante, un ambiente iper-controllato e
che porta ad un’ossessione per questioni tecniche piuttosto che per le vere
questioni in analisi. Questo conduce Seale (ibid.; 189) a concludere che “The
computer symbolized these things, and many qualitative researchers remain
distanced from this technology because of feelings that it may impose an alien
logic on their analytic procedures.”, rendendo per lungo tempo difficile avere
una visione equilibrata sui CAQDAS.
Non si è trattato comunque della prima comparsa della tecnologia nell’analisi
qualitativa. Gibbs, Friese e Mangabeira (2002), nell’introduzione ad un
importante numero di «Forum: Qualitative Social Research» per il campo dei
CAQDAS, rilevano che il primo avvento della tecnologia nella ricerca qualitativa
è stato il registratore audio, il quale ora è pienamente accettato, se non
indispensabile ai fini della ricerca. Il registratore in un’intervista aiuta, e non
comporta delegare l’intervista alla tecnologia, in quanto si ha infatti modo di
prendere più appunti durante l’intervista.
18
La tecnologia ha due possibili impatti: da una parte permette nuovi modi per
registrare e raccogliere i dati, dall’altra offre nuovi modi per condurre l’analisi.
La maggior parte dei ricercatori riconosce che nella maggioranza dei casi
l’utilizzo delle nuove tecnologie ha ripercussioni per entrambi. Ora i software
offrono nuove possibilità, trattando immagini, documenti audio e video, e
consentono agevolmente l’analisi del materiale che proviene da Internet.
Bisogna perciò constatare che ormai i ricercatori qualitativi hanno a che fare
prevalentemente con dati in formato digitale. Nonostante questo, i CAQDAS
non sono ancora pienamente riconosciuti, e gli autori dell’articolo considerano
non sia sufficiente inserire un capitolo a parte nei manuali (i software non
vengono considerati veramente parte integrante dell’analisi). Concludono
sostenendo, e come vedremo nel capitolo non solo i soli, che una maggiore
facilità nell’importare ed esportare i dati, una maggiore offerta di insegnamento
e una maggiore comprensione dei vantaggi da parte dei committenti potrebbero
portare a una maggiore istituzionalizzazione dei CAQDAS nella ricerca
qualitativa.
1.3 Diffusione
Diffusione internazionale
Un altro numero di « Forum: Qualitative Social Research» (del 2005 in questo
caso), e alcuni altri paper, sono in grado di offrirci una panoramica sulla
diffusione internazionale (con un occhio di riguardo all’Europa) dei CAQDAS. Si
tratta di articoli riguardanti lo stato della ricerca qualitativa, e ritengo rilevante la
presenza o meno di almeno un paragrafo esplicitamente riguardante i software
per la ricerca computer-assisted.
Si riscontra un generale trend di espansione dei software per l’analisi computer-
assisted nella ricerca qualitativa. Trend rilevato da Flick (2005), che sebbene
evidenzi delle differenze tra la Germania e i Paesi anglosassoni per quanto
riguarda le tradizioni di ricerca, non riscontra diversità nell’utilizzo. Henwood e
19
Lang (2005) si interessano al Regno Unito, dove riscontrano interesse (anche
motivato dalla presenza del CAQDAS Networking Project), ma osservano
anche la presenza di limiti tecnologici in alcune università, i quali limitano la
diffusione dei CAQDAS. Spostandoci su Paesi non anglofoni (ma considerando
solo la letteratura in lingua inglese), vediamo una certa diffusione anche in
Francia, dove Dargentas (2006) rileva un interesse per quanto concerne le
analisi secondarie (di cui parleremo più ampiamente nel paragrafo dedicato ai
campi d’applicazione); sempre in Francia, Angermüller (2005) parla della
diffusione di un programma maggiormente automatizzato nell’analisi
(Prospéro), contrastante l’approccio della grounded theory (a cui fanno
storicamente riferimento molti dei CAQDAS). Da rilevare il fatto che in entrambi
gli articoli gli autori facciano riferimento a dei software appositamente sviluppati
per i Paesi francofoni. In Spagna, Valles e Baer (2005) ci mostrano la diffusione
nel Paese, con alcuni esempi, in diverse istituzioni. Lo stesso avviene con il
Cile, come mostrato da Osorio (2006), dove i CAQDAS vengono utilizzati in
università, organizzazioni non governative e aziende, sebbene vi sia (ma come
avviene dappertutto) chi è riluttante ad utilizzarli. Un altro problema sollevato
dall’autore è la difficoltà che ha incontrato (lo stesso vale per altri suoi colleghi)
nello svolgere l’insegnamento dei software, che in prevalenza offrono
interfaccia e documentazione solo in inglese. Per quanto concerne l’Africa,
Kikooma (2006) rileva che sarebbe senza dubbio vantaggiosa una maggiore
diffusione nel continente, ma per il momento i CAQDAS restano confinati in
alcuni Paesi (Sudafrica, Uganda, e alcuni del Nord Africa), Infine, tornando in
Europa, Adam e Podmenik (2005) confermano l’importanza della ricerca
computer-assisted per il futuro della ricerca qualitativa al fine di migliorarne il
riconoscimento accademico, ed evidenziano come si stia diffondendo anche in
Slovenia, grazie alla diffusione di testi (scritti da ricercatori nazionali o tradotti)
concernenti il campo.
La situazione della ricerca qualitativa in Italia (Bruni e Gobo, 2005) vede, in
particolare a partire dal 2000 un maggior ricorso alla ricerca empirica e
un’accresciuta istituzionalizzazione dell’approccio. Una delle strade che hanno
portato a una maggiore attenzione e formalizzazione dei metodi e delle tecniche
qualitativi è anche quel «matrimonio» tra ricerca e computer cui si faceva
20
riferimento sopra. Assieme ad altri fattori può aiutare i ricercatori qualitativi
italiani a combattere il senso di inferiorità provato nei confronti dei ricercatori
anglosassoni, e a una maggiore attenzione al di fuori dei confini nazionali (e
scalfendo il tradizionale provincialismo del secolo precedente).
Meccanismi di diffusione tra utenti
Esaminata la letteratura riguardante la diffusione dei CAQDAS a livello
internazionale (si potrebbe dire a livello «macro»), ritengo utile porre l’accento
sui meccanismi di diffusione tra gli utenti. Si tratta infatti di un elemento centrale
per comprendere alcune delle problematiche che presentano i software per la
ricerca computer-assisted.
Abbiamo visto che i CAQDAS sono stati fino ad ora poco supportati dalle
strutture informatiche universitarie (Fisher, 1997; 5). Un altro rilevo su cui è
bene concentrarsi è lo scopo per cui vengono utilizzati i software. La questione
è stata particolarmente affrontata da Fielding e Lee analizzando le istituzioni del
Regno Unito (1998). Tenendo conto che la maggior parte dei software era stata
sviluppata soprattutto tenendo conto della grounded theory, gli studiosi
scoprono che due terzi degli utenti non usavano i CAQDAS per questo tipo di
approccio. In molti casi il processo di acquisizione del software è mosso dalla
riflessione dei ricercatori sintetizzabile nella frase “mi aiuterà a gestire i dati”,
che a qualunque ricercatore sembra una grossa mole (Lee & Fielding, 1996;
31).
Mangabeira, Lee e Fielding (2004) ampliano il discorso, anche se sempre
confinato alle istituzioni e alle aziende del Regno Unito, mostrando come nel
campo dei software per la ricerca computer-assisted da quando si trattava di
semplici strumenti di codifica e recupero, si sono sviluppati tre trend: una
maggiore sofisticazione, ovvero è possibile effettuare operazioni che senza
l’ausilio del computer sarebbe altrimenti arduo compiere; la
commercializzazione, ossia lo sviluppo di software commerciali, con il rischio
della chiusura a particolari metodologie e procedure, oltre ai limiti posti nella
21
condivisione tra i ricercatori (vista quindi sotto certi aspetti come un bene
commerciabile); infine, gli autori osservano un aumento degli utenti, sia in
diversità, che in ampiezza.
Nel corso degli anni è cambiata la composizione degli utilizzatori, vedendo la
nascita degli utilizzatori non accademici. Questo è stato anche grazie alla
maggiore complessità e completezza raggiunta dai programmi. La domanda è
perciò: come sono cambiate le pratiche degli utenti? (Fielding & Lee, 2002).
Per quanto concerne l’ambito accademico, viene ripresa una ricerca di
Mangabeira risalente alla metà degli anni ’90. Egli intraprese un’etnografia dalla
durata di sei mesi in una rinomata università britannica, osservando che i
software sono impiegati grazie a network di studenti e incontri informali tra gli
accademici. Tra i motivi che spingono a subire i costi e non abbandonare il
software vi è il fatto che “utilizing software is a way of performing community,
using technology and its associated symbolism of rigor and robustness to add
an additional layer of credibility to their work” (ibid.).
Gli autori realizzano una sintesi dei fattori che influenzano l’utilizzo del software:
(a) la generazione degli utenti in termini di età, competenze informatiche e
l’esperienza come ricercatori qualitativi; (b) la loro precedente esperienza con
metodi di ricerca non basati sul computer e/o un insieme di pacchetti CAQDAS.
Più giovani saranno gli utenti, maggior saranno le loro competenze
informatiche. Non sorprende inoltre che l’esperienza pregressa con i computer
e i software che non sono CAQDAS aiuti a superare i problemi iniziali e a
familiarizzare con i CAQDAS in un tempo minore. Tuttavia, nonostante gli alti
livelli di competenze informatiche e la loro percezione dei CAQDAS come una
tecnologia non minacciosa, questi utenti solitamente hanno lacune nei confronti
dei punti di forza e di debolezza del software da loro usato. Gli autori
definiscono questi utenti “fedeli al programma”, quelli che credono in quello che
trovano scritto nella brochure dei software. Questi utenti fedeli possono essere
contrastati da un gruppo di utenti più di lunga data, critici e familiari a un
insieme di CAQDAS. Gli autori li definiscono “appropriatori critici”, i quali
interagiscono con il programma all’interno di un quadro di riferimento e che
sono fortemente coscienti dei problemi epistemologici e metodologici. Questo
22
gruppo di utenti manifesta esplicitamente richieste per gli sviluppatori, riguardo
alle capacità del programma. (Mangabeira et al., 2004; 170)
Gli autori rilevano poi un terzo gruppo di utenti sono ricercatori più vecchi,
esperti nell’analisi dei dati qualitativi, e che hanno acquisito competenze
informatiche successivamente nella loro vita. Questo gruppo si può chiamare le
“mani esperte”. Sono più esitanti dei giovani utenti nell’interazione con il
software (e con l’hardware). La loro caratteristica è quella di essere molto critici
e scettici. Appare dunque che più il quadro di riferimento a disposizione è ampio
(che sia metodologico, di esperienza analitica, o di utilizzo dei CAQDAS),
maggiore è l’opportunità che prenda spazio della flessibilità interpretativa
(Mangabeira et al., 2004; 172).
Gli autori distinguono successivamente un quarto gruppo, che tende a non
avere un quadro interpretativo di riferimento a disposizione. Tale gruppo è
costituito dagli utenti non accademici. I CAQDAS nascono nella comunità
accademica, ma con il tempo si sono poi sempre più diffusi in altri ambiti, e ciò
porta ad avere due nuove categorie di utenti, relativamente recenti: quelli
impiegati nella ricerca applicata e quelli coinvolti in ricerche il cui focus primario
non sono le scienze sociali.
Nel Regno Unito si osserva una crescita della domanda di training. Gli autori
citano il “CAQDAS Networking Project”, fondato nel 1994. Finanziato dal UK’s
Economic and Social Research Council, fornisce corsi di training per i software,
help line telefoniche per gli utilizzatori, un gruppo di discussione via mail,
seminari avanzati per metodologi, sviluppatori e utenti. Nei training i partecipanti
provengono da scuole mediche e dentistiche, enti di beneficienza, associazioni
di volontariato, dipartimenti governativi sia britannici che esteri, un istituto per
persone con problemi mentali e un’agenzia governativa per il controllo delle
spese governative. La maggior parte dei partecipanti è ovviamente composta
da studenti postgraduate (considerando come il progetto è finanziato), anche se
un quarto del totale fa comunque riferimento al settore privato. (Mangabeira et
al, 2004; 172-3)
La crescita dell’utilizzo nel settore privato è legata al crescente interesse
nell’analisi di focus group nel settore delle ricerche sociali e di mercato, dalla
23
crescita degli studi che presentano più metodi, e anche le ricerche basate su
materiale proveniente da Internet. Il problema degli utenti non accademici è che
loro non problematizzano particolarmente la scelta del software. La scelta
potrebbe essere una questione casuale, grazie al contatto di qualcuno nel loro
network, una telefonata a un conoscente nell’università, un evento dedicato a
un particolare programma, o la pubblicità di un corso comparsa dopo una
ricerca su Internet.
Il problema è che i metodi qualitativi vengono apprezzati a partire dalla natura
del software usato. Possono quindi da un parte accrescere l’interesse nei
confronti di questo approccio (per gli utenti al di fuori delle scienze sociali, come
agenzie governative, organizzazioni mediche, e aziende). Quelli che si possono
chiamare gli “adottatori strumentali”, i quali hanno uno scarso background in
analisi qualitativa, saranno più soggetti ad accettare scomode e strane
procedure, o addirittura portati a credere che si tratti di qualcosa di intrinseco
nella ricerca qualitativa. Essi potrebbero essere più soggetti, similmente ai
“fedeli al programma”, ad adottare un particolare approccio d’analisi senza
essere completamente a conoscenza dell’ampio ventaglio di approcci
effettivamente disponibili, in quanto un particolare pacchetto che loro hanno
scelto di usare punta in una particolare direzione. Quindi è importante sia capire
quali sono i nuovi modi in cui il software viene usato (al di fuori di ambienti
accademici), sia aiutare gli utenti e il pubblico a evitare i problemi fin troppo
familiari a quelli con un background di ricerca qualitativa (ibid.; 174-5).
I non accademici sono prevalentemente caratterizzati da un interesse
puramente strumentale, mancando gran parte di loro di basi sociologiche. Essi
si possono suddividere in utilizzatori non accademici con basi metodologiche,
ma che non pubblicano su riviste accademiche, e quelli che lavorano con i
CAQDAS nella propria professione. Il fatto che sia presente una diversità tra gli
accademici e i non accademici non è di per sé un pericolo: anche questi ultimi
possono contribuire allo sviluppo dei software e a quello della ricerca
qualitativa, come è già successo nelle scienze sociali. Il problema degli
utilizzatori non accademici è che hanno difficoltà nella scelta del software.
Inoltre, mentre i ricercatori accademici talvolta vedono in certe funzioni
complesse qualcosa di lontano dall’approccio che intendono applicare per
24
analizzare i dati, i non accademici mancano di riferimento. Ciò porta anche
all’applicazione di un approccio senza realmente e criticamente tenere conto
delle alternative. Ciò detto, è bene ribadire che i CAQDAS per i non accademici
possono migliorare, grazie al loro contributo con pensieri originali e diversi,
stimolando applicazioni innovative nel campo: “Nonacademic users are
especially likely sources of innovation, being more likely to address problems
that academic users take as given and, through the professions in which they
are placed, having the opportunity to make fresh applications of CAQDAS to
issues that anthropologists and sociologists have not examined”. Inoltre anche
loro stessi possono trarne vantaggio, ma è importante comprendere quali sono i
loro problemi. La commercializzazione ha portato ad un maggiore utilizzo dei
software; sono presenti anche un maggior numero di corsi e workshop, ma non
sono né costanti, né diffusi. Per questo è importante osservare come
effettivamente vengono usati i CAQDAS, non tanto come dovrebbero esserlo
(Fielding & Lee, 2002).
Le conclusioni degli autori mostrano la considerazione che quando i CAQDAS
erano confinati in una piccola cerchia di entusiasti e adottatori iniziali, era
piuttosto semplice applicare le richieste degli utenti e capire i processi sociali
che facilitavano o inibivano l’adozione dei software. Dall’analisi degli autori è
possibile dire che la crescente porzione di nuovi utenti dei CAQDAS sarà
costituita di giovani scienziati sociali e utenti impegnati nella ricerca applicata. In
questo caso, l’accentuazione del trend verso l’utilizzo strumentale,
dell’approccio come mero strumento, aprirà nuove sfide, in particolare per due
gruppi nella comunità dei CAQDAS. Il primo, costituito dagli sviluppatori,
dovrebbe allontanarsi dalle sue origini di ricerca qualitativa, accentuando
ancora di più la versatilità del programma. Ciò dovrebbe bilanciare la differenza
tra il tenere il loro sostegno da e in concerto alla comunità qualitativa e il milieu
accademico che fornisce la loro fonte di credibilità e legittimità, mentre
espandono le attività commerciali che prendono forma lontano da questi luoghi.
Il secondo gruppo, costituito dagli scienziati sociali esperti, potrebbe dover
attendere impazientemente e osservare la riappropriazione da parte degli
adottatori strumentali di una tecnologia inizialmente confinata ad una particolare
disciplina accademica. Se questi utilizzatori strumentali apprendono l’utilizzo del
25
software senza apprezzare il metodo qualitativo, c’è il rischio che le possibilità
analitiche offerte dal loro software per loro costituiranno l’analisi qualitativa.
Ovvero, il loro apprezzamento del metodo qualitativo diventa confinato e
definito da il software adottato. Detto questo, la sfida per gli scienziati sociali
entusiasti riguardo ai CAQDAS è quella di continuare ad educare gli utenti
(tramite training, diffusione di informazioni e help line) riguardo la relazione tra
le possibilità tecniche integrate in particolari software e le procedure analitiche
basate in una varietà di approcci metodologici. Questo dovrebbe essere in
grado di proteggere, per quanto in maniera indiretta, la pluralità di approcci
qualitativi e stili analitici.
1.4 Possibilità offerte dai CAQDAS
Tratteremo ora delle potenzialità offerte dai CAQDAS. Una precisazione
terminologica: preferisco usare una terminologia generale per le funzioni (non
legata a un particolare software). I termini specifici verranno utilizzati nel
secondo capitolo, nelle sezioni dedicate a un pacchetto software in particolare.
I CAQDAS permettono di racchiudere interamente in un unico spazio tutti i dati
su cui si intende lavorare. Essenzialmente nel «progetto» è possibile inserire
tutto ciò che è digitalizzato o digitalizzabile. L’utilizzo di un software ha senso
solo se tutto il materiale è stato posto assieme, comprendendo tutti i formati di
cui si intende avvalersi (testi, fotografie, tracce audio, filmati video). Vedremo
che in molti casi non è il caso di tralasciare la praticità del formato cartaceo, in
questo caso stampato. Una importante parte delle funzioni è proprio quella di
stampare lo stato in cui è arrivato il progetto.
Le principali possibilità offerte dai CAQDAS sono a nostro avviso sintetizzabili in
otto operazioni: (1) la vicinanza e prossimità ai dati, (2) l’applicazione di codici a
segmenti di dati, (3) la realizzazione di uno schema di codifica, (4)
l’esplorazione e la visualizzazione dei dati semplice, (5) l’organizzazione della
scrittura, (6) la possibilità di mappare idee e collegare concetti, (7)
l’organizzazione dei dati e (8) la loro interrogazione (esplorazione complessa).
26
In questo capitolo esamineremo a livello generale le possibilità offerte dai
CAQDAS rispetto ai metodi tradizionali d’analisi. Per quanto riguarda le
caratteristiche specifiche dei principali software si rimanda al secondo capitolo.
Vicinanza e prossimità ai dati
Prima di iniziare l’analisi computer-assisted occorre determinare cosa è
digitalizzabile e cosa non lo è. Praticamente ogni tipo di dato è digitalizzabile,
ma in caso fosse impraticabile è comunque possibile usare un riferimento per
ciò che non è possibile digitalizzare (Lewins & Silver, 2007; 16-19).
Un grande vantaggio dei CAQDAS è quello di poter includere tutti i tipi di dati
che si sono raccolti o che si stanno ancora raccogliendo, nella ricerca. Essi
possono includere: informazioni di background (preliminari), ovvero appunti,
osservazioni tratte da incontri con altri componenti del gruppo di ricerca, o
anche semplici scambi di opinioni via e-mail tra ricercatori; dati primari, e quindi
interviste, note di campo, ecc.; dati secondari, come articoli e statistiche; infine
informazioni di supporto, come ad esempio la propria raccolta bibliografica, siti
di interesse, e così via. Sta al ricercatore comprendere quali elementi della sua
ricerca potrebbero essere utili all’analisi. Un esempio potrebbe essere
l’eventualità di inserire nel progetto anche la griglia dell’intervista, per vedere se
ci sono delle particolari lacune tra i punti che si volevano toccare.
Una volta associato il proprio materiale al progetto, è possibile commentarlo ed
annotare in modo che le proprie osservazioni siano collegate ai dati. Inoltre è
possibile collegare tra loro parti rilevanti dei dati, come ad esempio resoconti
che nella narrazione non sono espressi ordinatamente. Sarà successivamente
possibile ricercare termini direttamente nel contesto in cui si trovano, anche tra
le proprie annotazioni. L’apporto del ricercatore non viene mai a mancare, ma la
facilità con cui riesce a ritrovare quello cercava può essere migliorata. Ciò
significa che sarà maggiormente pronto e facilitato a farlo, e questo è un
importante miglioramento nella ricerca qualitativa.
27
Applicazione di codici a segmenti di dati
Questa operazione e la prossima di cui tratteremo riguardano la codifica. Un
particolare interesse motivato dal fatto che anche se l’analisi non si esaurisce
nel processo di codifica, ritengo sia la caratteristica distintiva più rilevante dei
CAQDAS (Lewins & Silver, 2007; 117-20). Il termine «codice», congiunto
all’operazione di «codifica» potrebbero apparire termini prettamente informatici.
In realtà, come ben sanno i ricercatori qualitativi che lo sono da prima
dell’avvento dei software per l’analisi qualitativa, si tratta di un procedimento
utilizzato anche su carta (Kelle, 1995; 4-8). Lewins e Silver (2007, 81), alla
domanda riguardante cosa si debba intendere per «codifica qualitativa»,
rispondono sostenendo che si tratta del processo in cui dei segmenti di dati
sono identificati come legati a (o come un esempio di) un’idea più generale, un
esempio, un argomento, una categoria. Quello che si ottiene è una serie di
segmenti di dati, o tutto l’insieme di dati, sistemato assieme, al fine di essere
ritrovati raggruppati in un secondo momento6.
Per capire come generare i codici e come essi possono assistere l’analisi,
bisogna pensare che essi servono per facilitare, permettendo di contrassegnare
il significato sottointeso dei rispondenti a particolari situazioni sociali,
esperienze, e a identificare modelli (patterns) in atteggiamenti, investigare
processi d’interazione. È possibile creare sia veri e propri codici, sia semplici
«cose interessanti» che comunque aiuteranno, in quanto portano a riflettere sul
fenomeno che intendiamo studiare.
L’applicazione di codici è influenzata quelli che sono i fini della ricerca del
ricercatore, la sua metodologia e l’approccio che è intenzionato ad utilizzare,
dalla quantità e i tipi di dati che si sono raccolti (o che si stanno ancora
raccogliendo), dal livello e dalla profondità d’analisi, la disponibilità di tempo e di
6 Lewins e Silver (2007; 82) sintetizzano i termini usati nella letteratura per riferirsi alla codifica: (a) aperta, assiale (axial) e selettiva (Strauss & Corbin, 1998); (b) descrittiva, per soggetto e analitica (Richards, 2005); (c) sperimentale, con codici centrali e satelliti (Layder, 1998); (d) letterale, interpretativa e indicizzazione riflessiva (Mason, 2002); (e) descrittiva, interpretativa e schematica (Miles & Huberman, 1994); (f) oggettiva ed euristica (Seidel, 1998).
28
risorse, se il ricercatore lavora individualmente o come membro di un team, e
da quello che sarà l’audience ricerca. Sono basati su temi o argomenti, idee o
concetti, linguaggio o terminologia. Possono essere più descrittivi o più analitici,
dipende dalla fase dell’analisi in cui ci si trova, e ovviamente dall’approccio
utilizzato. Anche se in termini differenti in base all’approccio utilizzato, si può
dire che non sono già concetti, ma una via di mezzo tra dati e i concetti. Si tratta
di un processo analitico importante, in quanto porta al dover selezionare delle
parti significative rilevanti, e la scelta di quei segmenti che davvero contano per
l’analisi può risultare difficoltosa.
L’applicazione di codici avviene definendo la quantità di testo da essere
codificata (parola, frase, paragrafo, intero documento), la quale ovviamente sta
al ricercatore. Egli assegnerà i codici rilevanti a una porzione o a delle porzioni
sovrapposte, con la possibilità di vedere il risultato della sua codifica ai margini
del testo. I codici possono essere applicati in tre modi: a priori, ovvero per ogni
argomento/tematica chiave in cui si sarà interessati e che può essere
genericamente indipendente dai dati in ogni fase. Possono essere vaghi e/o
identificati dalla teoria/letteratura esistente; possono essere creati codici
grounded nei dati, che possono essere sia descrittivi che interpretativi; si
possono creare mentre si leggono i dati, e legare immediatamente con il
preciso segmento che ha dato quell’idea, concetto o categoria; infine è possibile
la creazione di codici in vivo, qualora si sia particolarmente interessati nel
linguaggio usato nei dati, o se un termine è identificato come contenente
un’idea o un argomento. È bene evitare di mantenere troppi codici che
presentano come denominazione esattamente il contenuto del testo. È più
qualcosa di temporaneo, poi vanno interpretati, al fine di produrre idee più
analitiche sui dati. (Lewins e Silver, 2007, cap. 7).
L’applicazione può seguire l’approccio induttivo, teso a generare teoria dai dati.
Si tratta di un procedimento ciclico (ricorsivo). È utilizzato per evitare che
concetti teorici esistenti evitino o nascondano la possibilità di svilupparne di
nuovi. Un tipico esempio è la grounded theory, dove inizialmente la codifica è
aperta (da stralci di testi, “apre” i dati, dandogli nuovi significati), poi assiale
29
(axial, fase caratterizzata da raggruppamenti e confronti e nel mettere insieme i
frammenti), infine selettiva (selezione di quanto realizzato nel seconda fase)7.
Seguendo l’approccio deduttivo invece, si intende testare una teoria esistente, o
un’ipotesi sui dati appena raccolti. Viene maggiormente utilizzato in ambiti non
accademici, in quanto ha fini più pratici. In questo caso le fasi sono costituite
dall’applicazione di codici descrittivi, poi interpretativi e infine modello (pattern).
Anche questo approccio è di carattere ricorsivo.
La distinzione tra approccio induttivo e deduttivo è comunque soprattutto
analitica. Non sono da vedere come complementari, come mutualmente
esclusivi; come sostiene Gibbs, (2002) “you do not have to do either one or the
other or even one and then the other”. Un esempio di questo approccio misto lo
si può trovare in Layder (1998), il quale propone la “adaptive theory”, ovvero un
approccio multi-strategy (sia dalla teoria che dai dati) d’analisi.
Qualunque approccio si usi, i CAQDAS comunque aiutano nel processo ciclico
e iterativo della ricerca. Offrono maggiore flessibilità (per esempio: analizzare i
dati dalla teoria, ma rilevare anche aspetti sorprendenti e contraddittori).
Comunque sia, l’obiettivo è quello di rivisitare i dati e ragionare su di essi. Per
questo Seidel & Kelle (1995) definiscono i codici come “heuristic devices for
discovery”. Non si tratta di catturare perfettamente un concetto, ma di
focalizzarlo meglio, e anche potersi ricordare di tornare indietro e pensare
ancora a un argomento e ai dati collegati. Quello che più conta con i CAQDAS
è effettuare una coerente e significativa assegnazione di codici, avvalersi della
funzionalità dei commenti e, se ricorre il caso, avvalersi della possibilità di
modellizzare idee e relazioni tra codici. I caratteri di un codice perciò sono: il
suo nome, la lunghezza della citazione associata (molto probabilmente sarà più
d’una), e i suoi collegamenti (e gli eventuali tipi di relazione).
Alcuni approcci (per esempio, come vedremo successivamente, quello
narrativo) oppongono resistenza nell’organizzazione e categorizzazione dei dati
attraverso i codici. In effetti il loro scopo è più quello di mantenere la struttura
7 Si vedano Strauss e Corbin (1998) per la codifica nella grounded theory.
30
latente dei dati, più che comparare temi tra i dati. Quindi vedono la codifica
come uno spezzettamento esagerato. (Mason, 2002). Per queste esigenze, la
necessità dei collegamenti ipertestuali (hyperlinking) inizia a esserci in Weaver
& Atkinson (1995) e Coffey et al. (1996). Essi non sono presenti in tutti i
programmi, e possono differire rispetto al tipo di collegamento che si può
stabilire (link a trigger con reazione, link sequenziali, link logici).
I CAQDAS sono anche stati biasimati perché tenderebbero a far prevalere la
codifica al posto di altri processi analitici. Oppure perché visti troppo influenzati
dalla grounded theory, e sarebbero promotori di ortodossia nella ricerca
qualitativa (Coffey et al., 1996). Fielding & Lee (1998) invece argomentano al
contrario: qualsiasi collegamento tra i software e la grounded theory è
sovrastimato, e il fatto che i CAQDAS siano disponibili non significa ortodossia
nel metodo, o nell’utilizzo dei software. Insomma, i CAQDAS non sono un
metodo. Forniscono semplicemente un grande insieme di strumenti che
possono essere usati per semplificare diversi processi analitici. I ricercatori
devono capire quali strumenti utilizzare, quali sono appropriati e che possono
corrispondere alle loro esigenze (Lewins e Silver, 2007; 83). Torneremo più
avanti sul punto. Per intanto rilevo che le autrici sostengono anche che nel
generare i codici si debba trovare un compromesso tra quello che si vuole fare
e ciò che i CAQDAS permettono di fare. Parrebbe un controsenso con quanto
sostengono ampiamente nel resto del loro lavoro, ovvero che non si deve far
decidere al software il modo in cui si vuole lavorare. Questo significa che quindi
qualche limitazione è presente, nonostante i numerosi vantaggi portati dai
CAQDAS.
Infine, diamo un rapido sguardo alla possibilità di auto-coding. Qualora si abbia
a che fare con dei dati inerentemente strutturati (interviste strutturate o semi-
strutturate, focus group, domande a risposta aperta, più alcuni campi delle note
di campo e qualche dato secondario), è possibile farvi ricorso. Non si deve però
far sì che la preparazione dei dati influenzi troppo la trascrizione: deve essere
una feature, non un vincolo, un’ossessione. Il rischio è perdere la dimensione
qualitativa. E comunque la presenza dell’auto-coding non significa che si debba
necessariamente usarlo.
31
Realizzazione di uno schema di codifica
Strettamente connesso alla questione dei codici vi è la realizzazione di uno
schema di codifica. Da molti l’analisi qualitativa (o per lo meno una parte
importante di essa) viene vista come l’attività di frammentare e poi rimettere
assieme diversi segmenti di dati, in quanto si tratta di un ottimo modo per far
emergere temi, emozioni, azioni, risultati, ecc (Lewins & Silver, 2007; 91-100).
Alcuni software offrono al ricercatore la possibilità di realizzare schemi di
codifica gerarchici (MAXqda e NVivo sono tra questi, come vedremo nel
prossimo capitolo). Ciò non significa che se ne debba necessariamente fare
uso. Il loro vantaggio è dato dal fatto che consentono di tenere un maggior
ordine nella codifica. Hanno tuttavia più limiti (ad esempio dubbi di
assegnazione). Si rivelano invece molto pratici per il lavoro di gruppo (se sullo
stesso argomento, o tematiche simili).
Gli schemi di codifica non gerarchici invece (come quello offerto da ATLAS.ti),
portano ad avere i diversi codici tutti sullo stesso livello. Anche in questo caso
l’impostazione sta all’utente, in quanto si possono comunque creare dei gruppi
di codici (famiglie), relazioni tra i codici, oppure più semplicemente aggiungere
suffissi ai vari codici al fine di raggrupparli.
Alcuni ricercatori pensano che gli schemi gerarchici siano una distrazione
inutile. Ma magari un po’ di ordine fa davvero comodo e ad esempio le relazioni
e i gruppi possono dimostrarsi fondamentali. Tra i fattori che influenzano gli
approcci allo sviluppo degli schemi di codifica vi sono: il fatto che si tratta di
un’operazione che è riflessiva del proprio modo di lavorare; nel caso in cui si
utilizzi l’approccio della grounded theory, prima si procede particolarmente
bottom-up, e in seguito si cerca di combinare i codici per generare concetti più
grandi, temi o categorie; altri invece insistono molto su uno schema a priori, e
quindi chi è intenzionato a testare un quadro teorico si concentrerà più su
questo aspetto; altri ricercatori, più influenzati ad espandere una teoria,
opereranno prima in modo deduttivo, poi aperto a nuovi risultati; infine, nei
gruppi di lavoro l’operazione sarà probabilmente meno flessibile, e risultato di
negoziazioni e accordi precedenti.
32
Non necessariamente il quadro teorico riflette gli schemi di codifica: dipende
dall’approccio (per la grounded theory è ben difficile che lo faccia, si tratterà più
di un’organizzazione efficiente dei codici). In più non è necessario,
generalmente, utilizzare uno schema di codifica troppo ampio: non sempre
potrebbero essere necessari tre livelli gerarchici. Per questo Miller (2006) mette
in guardia dalla così detta «trappola della codifica», ovvero il perdersi con un
numero esagerato di codici e con uno schema di codifica più elaborato di
quanto realmente necessiti l’analisi. In un caso si avrebbero troppi codici per
essere davvero considerati ai fini dell’analisi, nel’altro non si riuscirebbe ad
assegnare ad ogni codice dello schema dei segmenti di dati.
Come per altre funzionalità, può essere utile stampare la lista dei codici, in
modo tale da capire cosa manca, quali relazioni si possono fare, al fine di
razionalizzarla nel complesso. Infatti i CAQDAS consentono (più o meno
semplicemente) di unire codici che successivamente si rilevano avere lo stesso
significato, oppure porre i codici non molto rilevanti in una categoria residua (da
denominare, per esempio “non così significativi” o “ridondanti”); si può anche
assegnare un apposito suffisso a quelli non importanti, per farli stare in fondo
alla lista, cosicché non si confondano a quelli più importanti; oppure è possibile
sperimentare con i gruppi, per vedere come è possibile combinarli; fare query e
salvarle, realizzare una mappa e vedere come sono connessi; appuntarsi dei
memo per vedere come vanno le cose, elementi che si notano e prima non
erano venute in mente.
Non appena i codici sono stati generati, ha senso definire e ottenere l’elenco
dei codici applicati, al fine di definirne il significato, lo scopo e avere un riscontro
di quanto fatto. In questo modo si può avere (annotando) una traccia dei
cambiamenti, ottenendo maggiore trasparenza, e quindi una maggiore
potenziale qualità del lavoro.
La generazione di un report di codici, ovvero l’elenco dei codici e la loro
definizione è utile per ragioni analitiche e pratiche. Generare una lista di codici
può aiutare in diverse fasi, per esempio quando si pensa di raggruppare codici,
generare categorie di più alto livello, riorganizzare gli schemi di codifica, e così
via. L’elenco può essere insomma un’utile istantanea (snapshot) nel processo
33
d’analisi. Per esempio si può stampare, magari ci si trova meglio su carta, o si
trovano cose che non si vedevano sul monitor. È utile anche nei gruppi di
lavoro, per aumentare la coerenza della codifica.
Se si intende cambiare idea su come sono stati codificati i dati, uno dei vantaggi
dei CAQDAS è la possibilità di cambiare idea in ogni fase e riconsiderare i dati
alla luce di come sono stati precedentemente codificati. Oppure si può
semplicemente ridefinire la codifica, per decostruire ampie tematiche in concetti
più dettagliati e precisi. Si può dunque aumentare o diminuire la quantità del
testo codificato (riconsiderare la codifica, con più dettaglio, oppure alleggerirla).
Oppure rimuovere codici, o per meglio dire, scollegare un codice assegnato a
segmenti di dati. Magari un codice non è più utile, visto nell’insieme.
Può venire la voglia di riorganizzare lo schema di codifica per aggiornarlo al
modo di pensare che si è formato nell’analisi. Non che lo schema di codifica
debba essere per forza esattamente come le idee teoriche che si hanno (anche
se esse provengono dai dati), ma va comunque riorganizzato prima o poi. I
codici si possono dunque rinominare (per avere più precisione), si possono
unire (magari si vede che non sono poi così differenti come sembrava, o magari
possono fare riferimento ad un argomento più vasto); si possono raggruppare
(se si inizia in maniera induttiva, magari poi dopo si vogliono mettere assieme),
si possono muovere (se si inizia con un approccio deduttivo, magari si desidera
riorganizzare in base a nuove scoperte e riconcettualizzazioni); infine si
possono cancellare (perché sono diventati ridondanti; è meglio tuttavia
raggrupparli, come “varie”, altrimenti si perde lavoro e tutti i riferimenti che
hanno nel dataset). Anche in tutti questi casi, stampare, aiuta, ricordandosi
comunque di fare commenti strada facendo.
Ciò detto, se ne deduce che alcuni modi sono inventati dal ricercatore, altri
sono offerti dai software. I CAQDAS possono facilitare la gestione delle idee,
rappresentandole in uno schema di codifica in diversi modi, e tale strumento
può essere effettivamente usato per facilitare differenti approcci metodologici e
analitici, e requisiti pratici. Questo avviene sia che si tratti di uno schema di
codifica gerarchico, che non gerarchico. Differenti approcci possono essere
integrati manipolando le strutture dello schema di codifica, e utilizzando
34
strumenti per evitare la lista principale dei codici. Ciò riveste una particolare
praticità, perché permette di tornare indietro, riconoscere individualmente i
codici, i dati a loro collegati, e i gruppi di tematiche simili in un altro modo. Lo
schema di codifica cambierà, e la lista è solo una modalità selettiva di tutto lo
schema che andrà ad aiutare nell’analisi (collegamenti, gruppi, …).
Concludendo questa sezione, possiamo quindi dire che gli strumenti di codifica
sono solo strumenti: possono essere usati analiticamente, descrittivamente, o
solo come semplice connessione a certi punti del file. Come utente è importante
far sì che i codici siano un modo per rinforzare il contatto con i dati. Per meglio
chiarire la differenza tra un diagramma e lo schema di codifica, è utile fare
riferimento a Seale (202-3), il quale effettua un esempio sulla nota ricerca
riguardante la perdita sociale di Glaser e Strauss (1964).
Diagramma tratto da Seale (2005; 204)
Schema tratto da Seale (2005; 204)
Come si può notare dalle figure, il diagramma permette una maggiore flessibilità
e l’associazione multipla ai diversi elementi, mentre lo schema ad albero risulta
maggiormente legato alla gerarchia che si impone ai vari livelli.
35
Esplorazione e visualizzazione dei dati semplice
Una volta effettuata la codifica, successivamente lo scopo principale è quello di
recuperare il lavoro fatto, qualsiasi tipo di codifica sia stato realizzato. Questo in
quanto il così detto “code & retrieve” (codifica e recupero) è alla base dei
CAQDAS. È qualcosa che si dovrebbe fare anche durante la codifica, per
vedere come sta andando (per vedere modelli, relazioni, contraddizioni). Anche
qui, è sempre bene annotare le riflessioni che ne scaturiscono (Lewins & Silver,
2007; 143-45).
Vale la pena di ripetere che la codifica rinforza ciò che c’è nei dati: ma anche le
cose che non si trovano, quanto le persone non dicono, sono importanti. Se
codificare è un modo per organizzare le proprie idee sui dati, recuperare è un
modo per aiutare a sviluppare interpretazioni. Il recupero è semplice perché ci
sono vari modi per fare ricerche (e in caso query), ma a volte spaventa, a volte
ci si mette troppo, a volte non serve. Comunque è un modo per proseguire
nell’analisi, da descrittivo ad analitico. Anche solo per fare il punto della
situazione (da redarre nel proprio diario di lavoro), fase importante per
immergersi nel progetto.
È un’operazione utile per ridefinire, aiuta a capire se quel codice è quello che si
desiderava, se tutti i dati che cui è stato applicato un codice devono essere
interpretati in quel modo; oppure, ci sono grandi o piccole differenze su come i
rispondenti parlano delle stesse tematiche? Magari va suddiviso in più parti? O
messo insieme ad un altro?
Si possono recuperare i dati su un solo codice o su più codici (gruppi di codici).
Può servire per vedere/pensare solo ad un argomento, isolandolo da altri
aspetti, per poi magari rivedere particolari segmenti nel loro contesto originario
e continuare a codificare se necessario. Oppure può essere sempre utile farne
un output. Si può dunque vedere tutti i codici di un documento (sul margine, o
lista solo per quel documento - entrambe anche per la stampa, ma la forma
(layout) dipende dal software), per poi rivedere la codifica, e poi dopo
eventualmente ricodificare, o ottenere le frequenze (tendenze, prevalenze).
Potrebbe essere che dei valori quantitativi possano aggiungere qualcosa al
36
progetto. Inoltre è possibile salvare istantanee (snapshots) in momenti
significativi, vedere le varie fasi del lavoro. Per i gruppi di lavoro è utile
condividerli specie se tutti stanno usando il software. Un brainstorming (o anche
diversi) può rivelarsi utile, sia per i meno esperti che imparano da degli esperti,
che in generale per la condivisione di differenti prospettive. È comunque
sempre bene, in questo caso, che siano pianificate con i membri in anticipo.
Il recupero è l’operazione attesa dalla maggior parte dei ricercatori qualitativi. È
uno dei più importanti aspetti della gestione sistematica dei dati, che permette
un lavoro raggruppato e iterativo sui dati significativi.
Organizzazione della scrittura
Questa possibilità consente di gestire l’operazione di scrittura e le
interpretazioni effettuate nell’analisi. È bene distinguere: una cosa sono i
commenti, un’altra sono i memo indipendenti, che possono essere collegati a
vari oggetti. Questi ultimi sono infatti pensati per avere un carattere più astratto.
Si tratta di un altro strumento che va scelto in base ai bisogni e allo stile
personale. Vi si può scrivere riguardo ai documenti, ai codici, su determinati
argomenti, idee, ma anche sul processo di ricerca (gli aspetti pratici
dell’andamento dell’analisi) (Lewins & Silver, 2007; 163-71).
La scrittura è un processo importante nella ricerca qualitativa. Come ci fa notare
Gibbs (2005), cit. in Lewins e Silver, 2007, 164): “Writing is thinking. It is natural
to believe that you need to be clear in your mind what you are trying to express
first before you can write it down. However, most of the time the opposite is
true. You may think you have a clear idea, but it is only when you write it down
that you can be certain that you do (or sadly, sometimes, that you do not).
Having to communicate your ideas is an excellent test of how far you have a
clear understanding and how coherent your ideas are. Writing is an ideal way of
doing this.”
È quindi importante annotare pensieri, intuizioni, domande e teorie non appena
vengono in mente, in quanto potrebbero tornare utili, così si è sicuri che nulla
37
finisca perso, e in più viene tenuta traccia delle idee iniziali, cosicché si possa
riformularle meglio. Può essere complicato in effetti, pensiamo ad un sacco di
cose assieme, e su carta è arduo ritrovarle. Si possono avere dubbi se sia stato
scritto qualcosa nelle note precedenti: con i CAQDAS è possibile cercare tra le
note, con i link tra gli oggetti e i dati (mantenendo la diversità dei documenti:
documento, nota, commento, cose da fare…). Riflettendoci, cosa conviene fare
per le note di campo e gli appunti dopo un’intervista? Scriverle subito, appena
possibile (in aree private, se si ha timore che sia inopportuno). Ed è verissimo,
anche se in questo caso il software non può aiutare. Ma successivamente offre
subito possibilità di farlo per analisi, rendendo meno problematico l’operazione
di legare la nota a una parte dei dati, e collegare una riflessione ad un’altra (o
più di esse), e associarvi un riferimento temporale, importante per tenere traccia
di come si evolve una riflessione, o l’analisi più in generale.
È importante selezionare cosa c’è da scrivere, ma anche avere un aiuto, nello
scrivere. Con i CAQDAS si può gestire tutto in modo sistematico e utile, per poi
recuperarlo dopo, e avere l’output per il paper finale. Si tratta del processo in
cui l’organizzazione dei dati, la loro gestione e lo schema di codifica vanno
insieme (il progetto come un “tutto”). Meglio perciò che sia sistematico e
strutturato per lavorare con più efficacia.
Richards (2005) punta molto sul ruolo dei memo, dove è importante annotare
anche quelle riflessioni sui dati che non danno o non hanno fornito sbocchi
significativi. È possibile annotare anche informazioni che per esempio non
finiscono nelle note di campo, che comunque è meglio non perdere, e con
questo strumento è possibile. Per esempio, pensiamo a delle note su cosa è
avvenuto nel corso di un’intervista: possono essere già nella trascrizione, ma
volendo anche come note sul software (o magari la spiegazione più
approfondita di una nota). Talvolta nella ricerca qualitativa ci si può chiedere se
non sia che in realtà siamo noi stessi ad analizzarci, come se fosse una
psicanalisi. Questo è corretto, ma è importante che tutto questo sia tracciabile e
trasparente; noi stessi possiamo avere difficoltà a ripercorrere tutte le fasi da
noi affrontate. Le note e i commenti, se tenuti con ordine, rispettano l’assoluta
importanza di contestualizzare il materiale analizzato.
38
Capita spesso di sentire che si fanno “fasi” di ricerca separate (lo stesso può
apparire in questo elaborato). Ma in verità non è (o non dovrebbe) essere così.
Non si tratta di un processo sequenziale, ma iterativo, riflessivo e ciclico. Per
dimostrazione posso inserire ciò che mi aspetterei dai dati nei memo, per poi
vedere se si ritrova nei dati. Magari si smette di codificare, ma la scrittura parte
subito e termina solo con la pubblicazione. La scrittura è infatti l’importantissimo
processo di formalizzazione delle idee. A mio avviso la fase della stesura del
paper è la più difficile. Alcuni fanno più difficoltà, e non credo che
necessariamente non abbiano buone idee: i CAQDAS dovrebbero essere in
grado di aiutarli in questi casi.
Può essere utile tenere un diario di ricerca, dove riportare quello che si fa, con
le riflessioni aggiunte. È importante se si deve giustificare l’approccio
metodologico, e per il processo di verifica. Con i CAQDAS si possono
aggiungervi riferimenti incrociati con la letteratura, propositi di ricerca per
stimarne il progresso, tenere traccia delle varie fasi del progetto (significativi
cambi di direzione, ridefinizione dello schema di codifica), scrivere riguardo
aspetti pratici del software (cos’è stato utile e perché), vedere il progresso in
una mappa. Nei gruppi di lavoro è utile per definire responsabilità, tenere
traccia delle discussioni, degli incontri, e verbalizzare le decisioni prese (utile
soprattutto per chi coordina). È possibile realizzare un solo diario di ricerca, o
dividerlo in processo di ricerca e diario riflessivo. Una nota eccezione sono le
note di campo, che nell’osservazione partecipante e nell’etnografia sono dati
primari.
I memo possono essere analitici o teorici: nel primo caso si tratta dello sviluppo
dell’interpretazione; nel secondo di un aspetto centrale nella grounded theory: è
il posto dove teorizzare e commentare i codici (oppure i concetti) e sul processo
di codifica (usati molto nella fase axial). Gibbs (2002) sostiene che i CAQDAS
permettono di lavorare con i memo come proponeva Glaser (1978), ovvero in
modo completamente separato dai dati primari, ma sempre e comunque
facendo riferimento ad essi: li si può ordinare, ma anche collegare ad altri
oggetti. Layder (1998) parla di memo teorici in modo simile: un importante
modo per sviluppare concetti e idee; costruire un commento passo-passo sui
dati delle interviste: rimescolamento e ripensamento del significato dei dati
39
(cosa, come e perché), per produrre nuove idee e spiegazioni; e poi un
importante elaborazione, estensione, modifica dei concetti, idee che erano già
importanti. Per Charmaz (2000) i memo costituiscono lo stadio intermedio tra i
codici e la scrittura del paper. Inoltre si può aiutare la realizzazione di un
modello in contemporanea con la stesura dei memo.
È importante che i memo siano in un posto unico (come il diario di ricerca) o
inserite collegate agli oggetti, è indifferente dove. Meglio però non mischiare i
due modi tra loro. Rimane il fatto che il poter subito legare il memo ai dati lo
rende uno strumento molto più comodo del semplice appunto scritto a mano,
consentendo maggior rigore, trasparenza e qualità. Resta il fatto che i CAQDAS
offrono molti strumenti per i memo, ma non è detto che si debba usarli tutti.
Inoltre è meglio non disperdere troppo i memo, e se possibile iniziare sin da
subito a dividerle per argomento, datando ogni appunto, e creando gruppi di
memo (sulla base di domande di ricerca, scoperte empiriche, idee teoriche,
capitoli di tesi, sezioni di report,…). In tal modo l’output dei memo sarà costituito
da parti già o quasi pronte per il paper, o anche solo una stampa per riflettere
sui dati, ma lontano da essi (o meglio, lontano dal computer).
I memo possono essere parti del futuro paper, e si può decidere di tenerle
staccate dai dati (sebbene sia meglio fare collegamenti ad essi). Comunque è
diverso da fare tutto su un programma di elaborazione testi, dato che i memo
fanno parte del progetto, e sono quindi, come minimo, ricercabili. Inoltre si
possono eseguire più facilmente operazioni altrimenti difficili su carta, come il
collegamento tra i memo e i documenti (utile per le note di campo e per le
informazioni descrittive), il collegamento tra i memo e i codici (utile per ricordare
fili di pensieri, specie per le mappe), e la codifica dei propri memo (facendoli
diventare documenti primari). Ribadisco l’importanza della funzione di ricerca,
considerando quanto sia frustrante non ritrovare quello che si è scritto in
precedenza.
40
Mappare idee e collegare concetti
Come si è visto la realizzazione di mappe è un aspetto molto legato ai memo.
Le mappe possono aiutare a fare e visualizzare connessioni (Lewins & Silver,
2007; 179-83). La spiegazione teorica vede connaturata la realizzazione di
modelli. Layder (1998) propone la sua “adaptive theory”, per vedere se i dati
fittano, e per evolvere il modello. Strauss e Corbin (1998), nel campo della
grounded theory, in particolare per quanto riguarda la codifica assiale, ritengono
che i modelli siano importanti per disegnare connessioni e definire relazioni tra
codici, e questo processo può essere facilitato dalle mappe. Per Gibbs (2002)
con l’utilizzo delle mappe può essere rappresentato un più ricco e più
complesso insieme di collegamenti (condizioni intervenienti, condizioni causali,
strategie).
Ci sono software che si occupano solo di mappe, ma i CAQDAS offrono una
possibilità diversa: l’integrazione con gli stessi dati. In QDA Miner vengono
offerti strumenti utili per i costruttivisti e gli studiosi del linguaggio: mappe con
occorrenze di parole e connessioni tra parole e codici e la prossimità tra di essi
(dendrogrammi, cluster map). Al momento in ATLAS.ti, MaxQDA ed NVivo vi
sono solamente approssimazioni di queste procedure.
Ci si può chiedere se le mappe siano necessarie per l’analisi. È vero, non
producono l’analisi. Ma siccome aiutano a lavorare in maniera più astratta,
possono essere in grado di facilitare il processo d’analisi. Incoraggiano il profilo
visuale, richiamano brainstorming, e permettono la presentazione grafica di
idee (per il lettore o per il pubblico). Insomma, possono permettere e/o aiutare a
integrare e connettere idee astratte con gli stessi dati. Se usate assieme ad altri
strumenti, in particolare strumenti di scrittura (come i memo direttamente sulla
mappa) e aspetti dello schema di codifica, forniscono un modo visivo per creare
scorciatoie nel dataset, e riformulare pensieri. Per esempio la creazione di
mappe può essere un aiuto a razionalizzare e inquadrare l’evidenza empirica. Il
modello si può usare come lente teorica attraverso cui vedere la crescente
massa di dati empirici e a dare un senso alle interconnessioni viste tra di essi. I
dati non sono stati infatti «testati», o fittati in un modello, ma le idee teoriche ed
41
empiriche che stanno dietro il modello possono aiutare a evidenziare aspetti per
una successiva considerazione. Detto in altri modi, non si tratta di una semplice
trasposizione su schermo della mappa che è possibile disegnare su carta, ma
della possibilità di spostare gli elementi come se fossero ritagli e, soprattutto,
avere a che fare con oggetti dal contenuto «attivo».
Comunque le mappe possono essere usate per tanti scopi, non devono
necessariamente avere una base teorica. Per esempio: recuperare e
ottimizzare lo schema di codifica8; decostruire processi in esame; pianificare la
struttura del paper per riflettere adeguatamente su un argomento complesso.
Il limite dei CAQDAS, per il quale basta comunque l’accortezza del ricercatore
per essere evitato, è dato dal fatto che è l’utente a creare i link tra gli oggetti
(documenti, citazioni, codici, memo); molti software possono ricordare le
connessioni fatte prima (ed è quindi più difficile partire da zero, per provare
qualcosa di nuovo). Le possibilità dei CAQDAS invece sono l’aspetto visivo; la
definizione dei collegamenti (il tipo di relazione); la possibilità di vedere i dati a
cui fa riferimento un oggetto; il creare nuovi oggetti astratti (rappresentare un
processo o una nota, o una nuova idea astratta); migliorare/personalizzare
l’aspetto visivo della mappa; esportare per altre applicazioni (sempre per
considerare il lavoro anche lontano dal computer).
L’accorgimento da tenere è che chi realizza delle mappe deve sapere renderne
conto. Bisogna evitare di semplificare eccessivamente, e invece usare i dati (ai
quali si può accedere) per supportare le connessione. Insomma, migliorare la
trasparenza, anche in questo caso.
Alcune procedure che si possono fare, ricordando che non sono prescrittive: si
può usare se si lavora con codici a priori, per realizzare un modello di partenza;
farlo solo di un documento, con una mappa che modella quelle che si crede
siano le principali caratteristiche delle risposte di un’intervista; se si lavora
induttivamente, si possono utilizzare per sviluppare una teoria o una
spiegazione ongoing, portare nuovi codici in una mappa, iniziare a ponderare
8 Si veda Marshall (2002) per alcuni accorgimenti riguardo la codifica e l’utilizzo delle mappe per effettuare la ricodifica.
42
come le cose stanno assieme e legarle in nuovi concetti, codici, per poi
modellarle in concetti più ampi (o codici assiali). Seale (2005; 202-5) ricorda
che si possono anche usare i CAQDAS per costruire la teoria (se serve, non se
si opera un’indagine descrittiva), sia generare, che “testare”, che lo si attua
mediante mappe e relazioni di vari tipi.
Riassumendo, le mappe permettono di riprendere gli oggetti del progetto in
maniera schematica; danno modo di avere sotto controllo (o di poterci tornare)
con le complesse interrelazioni dei differenti elementi dell’analisi. Tuttavia, se
sono fatte male, il software non lo fa notare. È il ricercatore a doversene
accorgere. Possono avere un effetto benefico (pulizia del progetto), ma anche
semplificare eccessivamente. Oppure essere semplicemente superflue.
Bisogna inoltre stare attenti a non realizzarle troppo presto, al di fuori dei dati, in
base a idee precedenti, in quanto presenterebbero il bias del ricercatore. Una
mappa deve essere utile e significativa e non basata sul nulla, ma deve poter
essere controllata e basata sui dati. Come già detto: occorre essere sempre
critici sugli strumenti che si usano, ed autocritici sul modo in cui si stanno
usando.
Organizzazione dei dati su caratteristiche note
L’organizzazione dei dati permette di focalizzarsi su sottoinsiemi di dati, e
combinazioni di sottoinsiemi (Lewins & Silver, 2007; 194-99). Facilita la
comparazione, ed è particolarmente importante quando si lavora su un progetto
di larga scala, ma anche per quelli più ristretti (facilita l’identificazione di
strutture, relazioni e contraddizioni).
L’organizzazione dei dati permette un facile accesso al dataset, in quanto se
utilizzato assieme ai codici concettuali si possono recuperare dati ben specifici.
La comparazione, qualsiasi sia lo stato dello studio, è fondamentale. Nei
progetti corposi – vi saranno più tipi di rispondenti, ed è bene poterli
organizzare – è difficile ricordare tutte le caratteristiche dei casi, come dove
trovare parti interessanti.
43
L’organizzazione per caratteristiche socio-demografiche può essere un’idea, ma
è anche importante dividere i loro tipi, la loro origine (intervista, focus group,
articoli, scambio di e-mail,…). Si possono importare le categorie dall’esterno
(Excel, SPSS), ma è bene importare solo ciò che realmente serve ai fini della
ricerca.
Si realizza una query, collegando le famiglie (ATLAS.ti) e gli attributi (NVivo,
MAXqda) con i codici. Perciò serve raggruppare in base a quelle che saranno le
nostre domande, le idee che vogliamo testare, le parti del dataset che vogliamo
isolare. Per esempio: diverse persone che parlano dello stesso argomento,
oppure un argomento in un solo tipo di dato (interviste, atti legislativi, ecc.).
Serviranno due o più elementi per avere questo tipo di report.
C’è spesso confusione tra i ricercatori se sia appropriato usare gli attributi al
posto dei codici. Gli attributi (o famiglie) servono a catturare caratteristiche
fattuali, conosciute dei dati (maschio/femmina, residenza, soddisfazione per un
servizio): sono fattuali, ma comunque alcuni possono cambiare nel corso di
un’indagine longitudinale. La codifica concettuale invece è usata per mettere
assieme pezzi di dati che sono simili in un certo modo, dal punto di vista del
ricercatore: sono generalmente applicati a parti di dati, dove i rispondenti
stanno parlando di un particolare argomento, o dove il ricercatore identifica i
dati come una rappresentazione del concetto. In alcuni casi attributi e codici
possono essere di natura simile: per esempio in uno studio riguardante le
percezioni di genere utilizzando degli articoli di giornale, la famiglia/l’attributo
sarebbe il genere del/la giornalista, i codici l’argomento riferito al genere
nell’articolo. Successivamente si possono incrociare, per vedere in che modo il
genere dei giornalisti influenzi il modo in cui trattano dei generi negli articoli
(Lewins & Silver, 2007; 197). Non necessariamente l’organizzazione è
effettuabile all’inserimento dei dati, in quanto alcune categorie emergono solo
dopo la lettura dei dati. L’importante è che non si confondano, e quindi che le
categorie siano fattuali. Un altro esempio più essere la suddivisione degli
intervistati in base alla loro opinione su un particolare tema (molto soddisfatto,
poco soddisfatto, per niente soddisfatto) e poi ci si può chiedere chi ha più
informazioni su un tema in base al suo giudizio in materia.
44
L’organizzazione è ben fattibile se il documento è un elemento singolo dei dati
raccolti. Si può dare un attributo anche a parte o a parti di un documento, se
ricorre il caso (mediante l’auto-coding, per esempio assegnare un codice per
ogni soggetto che interviene in un focus group). Con i case studies, invece, la
questione è più complessa: si ha a che fare con una grande e disparata mole di
materiale (diverse istituzioni, diversi Paesi; diversi ruoli dei soggetti; interviste,
focus group, ecc.). È bene quindi usare diverse famiglie, che possono anche
sovrapporsi, permettendo di rilevare le diverse dimensioni dell’oggetto dello
studio.
Per concludere, si può affermare che organizzare i dati è utile con dataset
grandi e complessi, ed è possibile farlo in molti modi; può essere fatto all’inizio,
o nel corso dell’analisi, come tanti altri processi; l’elemento di maggior interesse
è la possibilità di combinare famiglie/attributi con i codici prodotti.
Interrogazione dei dati (esplorazione complessa)
L’interrogazione dei dati, in forma più complessa rispetto al semplice recupero
delle citazioni e dei codici associati è una delle funzionalità più raffinate offerte
dai CAQDAS (Lewins & Silver, 2007; 209-14). Si tratta di un’operazione che
può essere compiuta anche nel corso dell’analisi, non solo quando la codifica è
finita. Infatti, raggiunta una certa complessità con le codifiche e organizzando il
dataset, è facile aver chiaro come procedere. Ma se si è codificato una parte
dei dati, sapere come continuare può essere difficile; si possono allora usare gli
strumenti di ricerca per acquisire sicurezza nel maneggiare i dati e ad utilizzare
il software, a qualsiasi fase del lavoro.
Ci sono molti modi per ottenere lo stesso risultato. Inoltre una ricerca
preliminare può essere utile per aprire nuove strade di ricerca. Se la risposta ad
una domanda è già conosciuta, un risultato di conferma fornisce sicurezza nel
modo in cui la ricerca è stata fatta. Sono tutte operazioni che si possono
compiere anche per tentativi, in quanto non si danneggia il progetto facendo
delle ricerche al suo interno: non esistono scuse quindi per non provare.
45
L’unico pericolo è l’essere confusi o incerti su come costruire una ricerca, o
quando la codifica su cui dipende la ricerca è inconsistente, inappropriata. Le
conseguenze potrebbero essere risultati dubbi, che possono portare a
riflessioni fuorvianti. L’interpretazione delle ricerche sta, come vuole il nome, al
“ricercatore”, non ad una, seppur evoluta, funzione di ricerca.
La maggior parte degli strumenti si concentra su dove sono nei dati i termini
cercati, ma è importante ricordare che anche la loro assenza è significativa per
l’analisi, quanto la loro presenza. L’importante è essere critici: vedere i risultati
nel contesto, e riflettere su come le ricerche contribuiscono alla comprensione.
Gli strumenti di ricerca da soli non producono un’analisi di qualità.
Le operazioni di ricerca generiche possono essere riguardanti il contenuto
(ovvero il testo): una particolare frase o gergo che dimostra un atteggiamento;
un insieme di parole che raccoglie diverse ricorrenze di un simile argomento;.
Oppure si può essere interessati ad effettuare una ricerca di codici (per
l’applicazione dei codici ai dati), al fine di creare un nuovo, più ampio codice
(ovvero un concetto più ampio, senza perdere quelli dettagliati); comparare tra
casi (o gruppi di rispondenti, per considerare come hanno parlato di una
tematica o di più tematiche); trovare dove una persona ha parlato di diversi
argomenti, separati o legati tra loro; trovare dove alcuni intervistati hanno
parlato di un argomento; trovare dove gli intervistati hanno parlato di un
argomento vicino ad un altro; trovare dove due o più argomenti sono stati
codificati nello stesso, segmento di dati, o uno sovrapposto. Alcuni ricercatori
utilizzano il termine «testare» per quanto riguarda le interrogazioni complesse al
dataset. È comunque bene precisare che il significato del termine nella ricerca
qualitativa è diverso da ricerca quantitativa, ma non significa non si possa
utilizzare.
In Seale (2005; 204-5) troviamo un utile esempio per quanto riguarda il test di
ipotesi da uno studio sull’anoressia di Hesse-Biber e Dupuis (1995). Gli autori
hanno infatti potuto testare l’influenza di condizioni precedenti alla perdita di
peso, tramite questa ipotesi “If mother was critical of daughter’s body image and
mother-daughter relationship was strained and daughter experiences weight
loss then count as an example of mother’s negative influence on daughter’s self
46
image”. Una volta ottenuto il risultato, è stato loro possibile recuperare il testo
delle interviste corrispondenti per un’analisi più approfondita dei casi che
supportano tale ipotesi.
È poi possibile effettuare il conteggio parole, o utilizzo di parole in contesto: si
può per esempio analizzare anche la terminologia dell’intervistatore, non solo
dell’intervistato, verificando se sono stati trattati certi argomenti e quanto
ricorrono). Si può anche cercare nel testo un insieme di parole, per focalizzare
subito il punto (tramite l’utilizzo di «wild card»9, oppure atteggiamenti (“perdita di
tempo”, “spreco”) per vedere dove ricorrono e a cosa fanno riferimento.
Si può ancora generare la produzione di dati tabulari per ottenere informazioni
riassuntive. Si possono utilizzare per ottenere una lista dei documenti in cui un
argomento è menzionato in generale; trovare quanti e quali documenti si
riferiscono a un argomento; chiedersi quanti sono i passaggi che sono stati
codificati per ogni codice in certi documenti. Infine, è possibile la creazione di
«segnaposto» per le ricerche, per poi poterci ritornare in un secondo momento,
come già avviene per i memo, i codici speciali e le mappe, consentendo di
ritornare a un punto che si vuole momentaneamente abbandonare; similmente
si possono memorizzare anche con le ricerche, per essere usate in diversi
momenti o fasi dell’analisi, o per «testare» i dati; le espressioni di ricerca
salvate possono agire come domande dinamiche, ripetibili su una successiva
quantità di dati accumulati; possono per questo anche essere composte allo
stato iniziale, quando eseguendole si ottengono pochi risultati, per poi seguirne
l’andamento con il procedere dell’analisi.
Ci sono diversi modi per interrogare il dataset: è possibile filtrarlo, per trovare
un argomento specifico o un sottoinsieme di dati; si può effettuare una ricerca di
contenuto: il classico “find”, di cui l’evoluzione è l’auto-coding; oppure si può
effettuare una ricerca iterativa, incrementale e ripetibile di codici, la quale
dipende dalla codifica che si è effettuata. Inoltre, con le query e gli strumenti di
9 Si tratta di simboli che è possibile utilizzare per ricercare parole simili del testo. Per esempio, la chiave “ordin*” porta ai risultati “ordine”, “ordinato”. Si possono utilizzare sia come prefissi che come suffissi (oltre che all’interno del termine). Una combinazione può anche essere “*ordin*”, che porta ai risultati della chiave precedente e anche al loro significato contrario, come “disordine”, “disordinato”, ecc.
47
ricerca è possibile: combinare codici per rappresentare categorie più ampie;
trovare dove i codici si presentano assieme nei dati; trovare dove si
sovrappongono, o si presentano vicini nei dati (l’uno con l’altro); trovare dove
particolari codici si presentano con una sequenza particolare; trovare dati non
codificati da un codice particolare. Queste possibilità possono aiutare il
processo iterativo, per vedere in che direzione sta andando l’analisi. Possono
anche stimolare l’analisi incrementale, dato che altre ricerche possono prendere
forma dalle precedenti (per esempio un termine in una query che diventa poi un
codice da usare per altre ricerche). La varietà di modi per combinare il lavoro
fornisce un vasto potenziale nell’interpretazione del dataset; infine è possibile
ricavare una cross-tabulation qualitativa in forma di tabelle/matrici, per
osservare quante volte i codici appaiono nei documenti. Possono essere utili
per combinare la codifica qualitativa con i dati descrittivi (organizzativi) e se
sono connesse ai dati d’origine, permettono di vedere il sommario (frequenza)
delle informazioni, e i corrispondenti dati qualitativi allo stesso tempo, potendo
poi essere esportate e stampate.
A seconda delle preferenze del ricercatore anche le mappe sono un modo per
interrogare il proprio lavoro: sulla codifica effettuata, come si è detto, esse
aiutano a vedere più ampie connessioni tra gli oggetti; possono quindi anche
essere il punto di partenza per altre interrogazioni (si guarda la mappa, questa
porta a porsi una domanda, che poi è possibile porre in una query). Comunque,
ogni ricerca sarà esplorativa, in essi verranno fatti vari tentativi: poi è importante
focalizzare le interpretazioni (con i memo, per esempio). Tra tutte le operazioni,
non solo quelle di ricerca e di interrogazione, c’è anche l’output e il reporting
ovviamente, che è stato visto per ogni sezione.
48
1.5 Criticità dei CAQDAS
Il problema tecnologico
Come abbiamo detto, il dibattito concernente l’opportunità e l’adeguatezza
all’utilizzo di software specifici per l’analisi qualitativa risale sino agli albori della
comparsa di questi strumenti. È venuto ora il momento di fornirne una
prospettiva più approfondita, la quale è ben più complessa di quella che a prima
vista può sembrare una semplice contrapposizione tra apocalittici e integrati.
I possibili problemi concernenti l’adozione dei CAQDAS erano già stati ben
delineati da Renata Tesch (1990; 302-5). L’autrice di alcuni dei testi più
«classici» nell’ambito, e convinta sostenitrice dei vantaggi che il software
porterebbe all’analisi qualitativa, presenta anche alcuni rischi causati
dall’introduzione della tecnologia. In primo luogo osserva che se i ricercatori
inesperti pensano che il computer li guiderà nel processo di ricerca, il risultato
può essere disastroso; il computer non è un esperto, ma solo un servitore (un
computer senza guida è pure pericoloso); l’esperto deve essere quindi il
ricercatore. Secondo, Tesch ravvede il rischio che chi è esperto di computer
potrebbe cercare di sfruttare la sua praticità per fare prima, per convenienza;
l’autrice parla per esempio dell’auto-coding: può essere uno strumento utile, ma
può creare un sacco di elementi inutili; ancora peggio, il ricercatore potrebbe
impostare l’intera analisi su una funzione resa possibile dal software; l’analisi
sarebbe fatta in un certo modo perché il computer favorisce questo modo, in
maniera tale che il computer sarebbe lasciato invadere il territorio concettuale
del ricercatore, influenzando il processo d’analisi; come risultato, l’analisi
presenterebbe priorità invertite. Infine, quando i ricercatori hanno trovato un
modo efficace per effettuare l’analisi, potrebbero riutilizzarlo per i progetti
successivi, anche se sarebbe inappropriato. Succede spesso infatti con i
computer, soprattutto nell’usare sempre un particolare software. “Se uno ha un
martello, tutto gli sembra un chiodo”, diceva Mark Twain. Anche in questo caso,
il rischio è che ogni ricerca dovrà «passare» per il software. Il computer
arriverebbe a dominare, se il ricercatore dimenticasse la creatività che inspira
49
ogni progetto. Il ricercatore realizzerebbe un’analisi rigida, e il computer
rispecchierebbe la sua pessima reputazione.
Tesch precisa che comunque questi pericoli non sono dovuti al computer
stesso, ma agli atteggiamenti di chi lo usa (o non lo fa), che determinano come
la tecnologia ci influenzerà. Anche chi non lo usa, infatti, conta: meno vengono
usati, meno gli sviluppatori penseranno valga la pena di creare programmi o
migliorarli. L’autrice riprende l’auspicio di Robert K. Merton (1968; 444)
“codification [of methods of qualitative analysis] is devoutly to be desired both
for the collection and the analysis of qualitative (…) data, [a] canon of rules
delineated with something of the clarity with which quantitative methods have
been articulated”. Molti ricercatori qualitativi ritengono invece che non si debba
codificare il metodo, in quanto violerebbe l’essenza della ricerca qualitativa. Il
problema però è il seguente: la stessa analisi, con le stesse tecniche e risultati,
potrebbe essere fatta da chiunque, se usasse lo stesso programma, nello
stesso modo?
Tesch risponde alla domanda affermando che la ricerca qualitativa è in larga
misura come un’arte. La riproducibilità non dipende da quella del risultato.
Dipende dalla riduzione dei dati (sul processo con cui lo si fa), che altri trovino
rappresentativi dell’insieme, di ciò che si intende dire. Come l’artista che
disegna un volto: cattura comunque l’essenza, ma non è la realtà. Nella ricerca
qualitativa non ci sono due studiosi che producano lo stesso risultato, anche se
si facesse loro eseguire le stesse operazioni. La percezione dei fenomeni sarà
comunque diversa. Non c’è un modo corretto per fare analisi qualitativa, ma
non si significa si possa essere dilettanti (come il disegnatore di volti). Se le
ricerche sono condotte in maniera competente, ogni esplorazione individuale ci
fornirà una differente prospettiva del fenomeno studiato. Nessuno studio
fornisce una completa interpretazione. Ci aiuterà però a conoscere più
profondamente un fenomeno per una seconda analisi (ovvero le analisi future).
La riproducibilità di una ricerca può essere esterna, ovvero quando la stessa
ricerca viene riprodotta da un altro ricercatore; oppure può essere interna,
quando altri ricercatori possono controllare le procedure mediante cui le prove
sono state prodotte (Dey, 1993; 221). Fisher (1997; 18) propone un’analogia
50
con la fiducia che si ripone nell’esploratore: è per certi versi scientificamente
dubitabile l’affermazione “credetemi, sono stato lì”. Anche nei resoconti
qualitativi vi è importanza nelle «prove». I CAQDAS possono aiutare
l’esploratore a dire “credetemi, sono stato là, qui c’è quello che ho trovato e qui
come ho proceduto per trovarlo”.
Possiamo quindi dire che il computer resta e deve restare uno strumento nelle
nostre mani. E con questa conclusione arriviamo al «problema tecnologico».
Fisher (1997, 6) ci ricorda che la tecnologia non è mai libera dai valori. L’utilizzo
del computer nell’analisi qualitativa ha degli effetti positivi, in quanto consente
più rigore e porta la ricerca qualitativa ad uno status scientifico più elevato –
considerato che le discipline che lo hanno già utilizzano il computer; ma porta
anche ad effetti negativi, quali un bias sull’empirismo e il positivismo, e una
potenziale maggiore attenzione alle procedure tecnologiche piuttosto che a
quelle metodologiche. Per questo Weitzman e Miles (1995, 330) ci tengono a
puntualizzare che “it’s equally naïve to believe that a program is (a) a neutral
technical tool or (b) an overdetermining monster. The issue is understanding a
program’s properties and presuppositions, and they can support or constrain
your thinking to produce unanticipated effects”. Il ricercatore deve sapere cosa
è necessario fare e farlo. Il software fornisce degli strumenti per questo scopo. I
CAQDAS non fanno l’analisi. Non si tratta di inserire testi e vedere cosa ne
viene fuori. Ci sono alcune potenzialità automatiche, e in certi limitati casi
potrebbero andare bene, ma nella maggior parte dei casi non è per niente utile
all’interpretazione (ibid.; 315-6). La funzione di auto-coding, per esempio,
potrebbe diventare una scorciatoia per l’analisi. Ma il risparmio di energie non è
solamente un rischio, consente anche maggiore coerenza, se tutto il materiale
da analizzare si trova nello stesso posto; è possibile maggiore velocità, in
quanto il ricercatore ha più possibilità di percorrere nuove strade e sfruttare
meglio il tempo; infine vi sono i già visti vantaggi nella rappresentazione (report,
mappe, collegamenti) (ibid.; 316-7). La rigorosità del lavoro è tale se il
ricercatore usa il software per fare analisi più rigorose di quanto sarebbe in
grado, non è tanto che il software rende più rigorosa l’analisi. Non è detto che lo
sia, insomma, dipende dalle competenze del ricercatore (Weitzman, 2003; 335).
51
Effettivamente, ammettono Lewins e Silver (2007; 12-14) una volta che si
usano i programmi, magari poi si tende a tenere conto delle possibilità che
offrono per un prossimo progetto di ricerca. Non esiste un software migliore
degli altri, ed occorre essere selettivi e scettici al suo riguardo, come per ogni
strumento. Non bisogna lasciarsi sedurre dalla convenienza e credibilità
nell’attribuzione di senso del programma. I software permettono più
sistematicità e migliorano la gestione. Paradossalmente però “liberano” dal
dover essere sistematici nell’ordine di come si fanno le cose. Non esiste nessun
software che conduca l’analisi da solo. Nemmeno per le trascrizioni si arriva ad
un processo automatico, ma al massimo ad una dettatura da parte di una voce
configurata.
Il costo di transizione iniziale, ovvero l’organizzazione del materiale, le
impostazioni del programma e l’associazione efficace dei dati nel progetto, è
alto, e può costituire un blocco per i meno esperti. Si ottiene però un guadagno
in velocità, dato che l’analisi qualitativa era diventata come una routine d’ufficio,
mentre con i CAQDAS è possibile più creatività e processi intellettuali, ma con
un certo costo dovuto all’apprendimento. Nonostante l’incremento della qualità,
il maggior rigore (anche per un semplice conteggio, per vedere i diversi
significati di un termine, oppure come dimostrazione che si è cercato anche
altro dai propri stessi obiettivi, come per esempio le negazioni di quanto si è
trovato) e trasparenza (grazie ad altri ricercatori) e la convergenza in un unico
posto del materiale da analizzare.
Flick (2006; 344-6) ritiene che per un piccolo progetto non valga la pena di
utilizzare il software. Il fatto che alcune speranze e alcuni timori riposte nei
CAQDAS non abbiano fondamento, non significa che non ve ne siano alcuni
motivati. Il rischio è che una volta intrapreso questo sforzo, e dopo aver
dedicato risorse economiche all’acquisto del software, si resti vincolati a quel
particolare programma. Si tratta della così detta portabilità dei dati dell’analisi, e
il fatto che sia così difficile, se non impossibile, trasferire il progetto da un
software all’altro fa prevalere benefici di breve periodo (evitare problemi) a
quelli di lungo periodo (un programma più adatto o più moderno).
52
Ci sono stati casi in cui alcune feature non sono state appositamente inserite
nei software, col timore che facessero perdere il contatto con i dati (Weitzman &
Miles, 1995; 337). Si tratta di restrizioni inappropriate, in quanto gli sviluppatori
non dovrebbero pregiudicare come i loro prodotti saranno usati, anche
riducendone velocità e potenza. Dovrebbero dare agli utenti gli strumenti per
essere rigorosi, non forzare il rigore limitando i loro prodotti. Si può dire che
l’automatizzazione porti a condurre analisi superficiali e senza ragionamento.
Ma si può anche dire che l’automatizzazione promuove maggior rigore,
mediante la più semplice possibilità di riproducibilità, cross-checking e test degli
assunti e delle conclusioni. Non si può comunque dirlo a priori, in quanto queste
questioni vanno risolte empiricamente.
Gli sviluppatori possono temere che gli utenti utilizzino un tipo di file comune,
con il rischio che emigrino in un altro software. Fisher (1997; 132) pone due
sfide: per gli utenti, quella di usare maggiormente gli strumenti che consentono
una maggiore qualità d’analisi e rigore. Per gli sviluppatori: cogliere l’opportunità
di facilitare la collaborazione, creando un formato file aperto. Se fidandosi del
fatto che la comunità di ricerca espanderà l’utilizzo dei CAQDAS, e quindi
compensando gli sviluppatori per il loro sforzo tramite le vendite. Insomma, una
sfida tra competizione e collaborazione.
Il rapporto tra ricercatore e software
Abbiamo quindi visto che la concezione dei programmi come strumenti è
parzialmente fuorviante. Fisher (1997; 6) precisa che uno strumento, se
concepito solo come oggetto passivo, influenza il suo ambiente solo essendo
usato. Ma ogni strumento ha significato sociale, quindi anche il computer e i
programmi, i quali presentano l’impronta di chi li ha sviluppati, del loro
approccio. Per questo ne va appreso coscientemente il funzionamento, per far
sì che l’analisi sia dettata dai requisiti dei dati, non dalle capacità del software.
Un’altra utile precisazione concerne l’utilizzo di uno strumento, solitamente
distinto tra quello progettato e quello effettivo degli utilizzatori. Non ha senso
53
ignorare lo scopo intenzionale, in quanto fornisce importanti indicatori di come
un programma può essere usato come strumento. Ma non ha ugualmente
senso considerare l’utilizzo direttamente connesso all’intenzione degli
sviluppatori, in quanto questi ultimi potrebbero utilizzare con successo le
tecnologie in maniera diversa da quella prevista10. I programmi vanno valutati in
misura di quanto riescono a coincidere con le caratteristiche dell’analisi
qualitativa (ibid.; 11). L’adozione indiscriminata del computer per l’analisi
qualitativa ignorerebbe gli effetti che hanno sull’analisi. Non si può dire che il
ripudio sia un nuovo luddismo: è piuttosto ignoranza volontaria di uno strumento
che potrebbe ben assistere l’analisi. È necessario un approccio critico, dove i
supposti vantaggi sono messi alla prova e discussi. Il pensiero umano deve
essere al centro di ciò che cerchiamo nei CAQDAS in fatto di assistenza
nell’analisi, per apprezzare quelle costruzioni umane che i programmatori
hanno incluso nel software (ibid.; 19).
Tornando ai primi anni del dibattito sull’opportunità dell’utilizzo dei CAQDAS,
Tesch (1990; 168-9) ci ricorda che molti ritenevano che il computer potesse
essere dannoso per l’analisi qualitativa. Come se il computer avesse una sua
personalità, uno scopo intrinseco. Ma il computer si potrebbe anche più
propriamente chiamare “macchina per ogni scopo”, o “gestore di simboli”. Le
persone, anche molto istruite, si possono sentire stupide utilizzandolo. Il
problema, sostiene Tesch, sono le aspettative sbagliate, causate dal fatto che
l’evoluzione dei computer ha riguardato pochi eletti, lontano dalla vita
quotidiana. Poi i PC sono entrati nelle case, ma grazie a giovani nerd; in più i
personal computer (i manuali soprattutto) utilizzavano (e in certi casi utilizzano
ancora) un linguaggio ostico. Vi è un sentimento d’incompetenza, si crede che il
computer sia più intelligente di noi. Effettivamente sono prodotti complessi, ma
non è necessario conoscerne i più reconditi meccanismi di funzionamento per
saperli utilizzare.
10 Anche perché, parlando di strumenti nel senso comune del termine, basti pensare che il telefono nasce come radio via cavo (la città di Budapest l’aveva in funzione agli inizi del secolo, (Sterling, 1992, in Fisher, 1997; 11)), mentre la radio come telegrafo senza fili (Menduni, 2001).
54
Tutto sommato ogni programma non è niente di più e niente di meno che il
riflesso della mente delle persone che l’hanno creato. Quando viene aperto un
programma prende inizio un’interazione con un’altra mente, o per meglio dire
un insieme di altre menti. Tutto corrisponde ad una scelta umana, dal
concepimento del programma alla minima richiesta di conferma che esso pone.
Se si riscontrano dei problemi potrebbe essere dovuto al fatto che si hanno
differenti abitudini. O molto più semplicemente, il software è stato realizzato
male: la frustrazione ha quindi due cause. Occorre capire che la «mente» dei
computer è quella dei programmatori, che cercano di immaginare di cosa
avremmo bisogno, cosa vorremmo, e che dunque possono sbagliare (ibid.; 172-
3).
Con i software (e i computer e la tecnologia in generale) alcuni non hanno
voglia di rifarsi a manuali e corsi, ma desiderano loro stessi metterci le mani,
magari dopo solo una breve introduzione da chi già li usa. Questo può aiutare a
bilanciare le aspettative: non si deve pensare i software siano qualcosa di
impossibile, e soprattutto siccome si intende effettuare del lavoro intellettuale,
non può essere qualcosa di non impegnativo (ibid.; 174-5). Per quanto
concerne la scelta del software da utilizzare, vi sono le note sei domande che il
ricercatore dovrebbe porsi proposte da Weitzman e Miles (1995) e riprese in
diversi testi negli anni successivi (tra cui Flick, 2006; 348-9, e dallo stesso
Weitzman, 2003; 322-31). Ve ne sono quattro specifiche: (1) Che tipo d’utente è
il ricercatore? (inteso in senso di competenze). (2) Si usa il programma per una
sola ricerca (progetto) o per i prossimi anni di lavoro? (3) Che tipo di dati si
intende utilizzare (ovvero il tipo di progetto)? (4) Che tipi di analisi si intende
attuare? Le due domande generali sono: (5) Quanta prossimità ai dati è
necessario mantenere? (6) A quanto ammontano i costi sostenibili? Vediamo in
dettaglio le questioni di cui dovrebbero interrogarsi i ricercatori. Per quanto
concerne la prima questione, le competenze e le esigenze sono importanti
perché si tratta di una contrapposizione tra complessità e semplicità, che
possono essere positive per alcuni ricercatori, ma non per altri. La seconda
domanda è rilevante perché occorre porre attenzione ai rischi dello switch
(ovvero il passaggio da un programma ad un altro). La terza concerne il tipo di
dati: bisogna valutare se le sorgenti dati per ogni caso sono singole o multiple,
55
e se i casi considerati hanno un unico strato o più possibili strati o insiemi (i
progetti più complessi sono per esempio meglio gestibili da NVivo). Inoltre è da
valutare se i dati non sono modificabili o se è previsto che lo debbano essere, i
diversi tipi di file coinvolti e le dimensioni (spazio occupato) dai dati del progetto.
La quarta domanda tende a porre il problema di quale tipo d’analisi si intende
attuare, ovvero se esplorativa o confermativa, se lo schema di codifica è fisso o
da costruire nell’analisi, se i codici saranno singoli o multipli, se sarà iterativa o
lineare, la finezza dell’analisi, l’interesse dei dati nel contesto, la necessità di
particolari tipi di report, se sarà solo qualitativa o anche con alcuni dati numerici,
e se prevederà collaborazione tra ricercatori. Le ultime due questioni riguardano
rispettivamente la prossimità dei dati, di cui alcuni non vedono il bisogno (anzi
la considerano causa di confusione), e i costi, di cui i range sono molto ampi.
La questione tecnologica è ben riassunta da Pfaffenberger (1988; 14), da una
parte vede il determinismo tecnologico, ovvero il computer che detta in qualche
modo i pattern della vita umana; dall’altra il sonnambulismo tecnologico: il
computer è totalmente controllato. Nessuna delle due è applicabile ai CAQDAS
e al software in generale: si tratta di strumenti, e come tali sono frutto di
costruzione sociale (e il computer lo è senza dubbio). Se agli occhi dei
ricercatori di oggi questo può apparire poco, basta riprendere l’esempio di
Gerson (1984; 64) per spiegare le possibilità offerte dai software per l’analisi
computer-assisted: “Imagine a situation in which every researcher has a full-
time clerk with three exceptional capabilities: a perfect memory, the ability to
retrieve any document immediately, and the capacity of an untiring and very fast
typist”.
Come dovrebbe essere quindi i rapporto tra ricercatore e software? I ricercatori
manipolano, in differenti contesti, il software per farlo aderire alle loro esigenze.
Dovrebbero usare selettivamente e in maniera critica gli strumenti del software
per sviluppare le loro proprie strategie. È difficile, senza il software, che il
processo d’analisi avvenga linearmente e ordinatamente, e i CAQDAS ci
rendono liberi dal dover essere lineari. I tre principali aspetti del lavoro
(organizzare i dati, organizzare le idee sui dati, e lo sviluppo di interpretazioni
sui dati e la loro convergenza all’interno del contenitore software) sono i
56
benefici chiave dell’utilizzo dei CAQDAS. Non avviene spesso, però, e può
essere difficile capire e riuscire a combinare questi aspetti.
Roberts e Wilson (2002) motivano il loro scetticismo nei confronti dei CAQDAS
dalle differenti filosofie di pensiero tra ICT e ricercatori qualitativi. I computer
porterebbero l’analisi qualitativa a deviazioni positivistiche e a una
segmentazione eccessiva di dati fuori dal contesto. Si tratta di tipici preconcetti
nei confronti dei computer, a cui molti sociologi hanno dato seguito, e che
risalgono a vecchia data (Hinze, 1987; Anderson & Brent 1991, Blank, 1991).
Più di recente se ne è occupato Brent (2004), dove introducendo un numero
dedicato al tema di «Social Science Computer Review» osserva una maggiore
diffusione dei computer nella ricerca qualitativa e nell’insegnamento delle
scienze sociali.
La questione di un corretto insegnamento ha per lungo tempo interessato Lee e
Fielding (1991; 8): “[…] the untutored use of analysis programs can certainly
produce banal, unedifying and off-target analyses. But the fault would lie with
the user. This is why teaching the use of the programs to novice researchers
has to be embedded in a pedagogy which has a sense of the exemplars of
qualitative analysis, rather that as skills and techniques to be mechanically
applied”. Un esempio tra tanti: abbiamo visto che è possibile, in certi software,
realizzare schemi di codifica gerarchici. Il problema si può risolvere se i
ricercatori sono consapevoli della differenza tra uno schema gerarchico e uno
non gerarchico e sanno quale schema intendono utilizzare per la propria analisi.
Lewins e Silver (2007; 8) puntualizzano un’importante accorgimento riguardo
l’insegnamento, mettendo in guardia dal tenere solamente conto (o promuovere
unicamente) un modo ideale per usare il software; farlo sottovaluterebbe sia il
programma che l’indipendenza metodologica del ricercatore. L’omogeneità non
aiuta nessuno, salvo chi sta cercando di vendere un metodo. Il ricercatore è il
vero esperto, che controlla il processo interpretativo, e deve capire quale
strumento facilita il proprio processo di analisi (alcuni strumenti potrebbero non
essere indicati per tutti gli approcci qualitativi). Oltre all’apprendimento è
importante puntare anche sull’assistenza da offrire ai ricercatori. In alcuni
momenti loro potrebbero infatti sentirsi più isolati, e necessitare di aiuto sul
57
posto (non a distanza, via telefono, mail o forum), che non sempre possono
avere. Questo è quanto emerge da delle interviste condotte dall’Online Support
for QDA and CAQDAS11: il sito cerca di aiutare online, ma i ricercatori
interrogati sostengono che vorrebbero essere autosufficienti, trovando
spiacevole continuare a chiedere aiuto. Non riguarda comunque tutti i
ricercatori, e per questo Graham Gibbs, con l’Online QDA (University of
Huddersfield) e il CAQDAS Team (University of Surrey) offrono supporto just-in-
time, e risorse facilmente accessibili nel sito. Per via dell’emergere di una nuova
tecnologia e dell’aumento dei ricercatori, hanno riscontrato la necessità di
insegnare ed aiutare la crescente comunità di utenti.
Il lavoro di gruppo potrebbe ridurre la necessità di assistenza, in quanto è
diverso dal lavoro individuale: per i gruppi i progetti sono più complicati, e
dipendono molto dagli aspetti organizzativi dei CAQDAS, come dalle dinamiche
del gruppo, anche se è necessaria maggiore pianificazione. Per contro i
ricercatori che lavorano da soli hanno più scelte, e possono migliorare l’utilizzo
degli strumenti del software utilizzandolo in modo più organico. I CAQDAS
permettono la condivisione di (alcuni) dei significati da attribuire ai dati, specie
per i concetti più astratti (inter-rater reliability) (Seale, 2005; 189-195). Non è
tuttavia detto che il lavoro di gruppo esoneri il ricercatore dal puntare su
un’adeguata formazione. Un esempio in tal senso può essere il ricercatore che
sostiene di non essere sicuro della sua codifica, perché in un gruppo gli altri
hanno fatto diversamente (Lee & Fielding, 1996; 35). Anche il lavoro di gruppo
può presentare problematiche rilevanti (ibid.; 37-40).
Occorre demistificare il software qualitativo, mostrandolo semplicemente nelle
sue funzioni, mostrando come il software può riflettere e aumentare il processo
ciclico e iterativo dell’analisi qualitativa. Serve differenziare i processi per esporli
e spiegarli nell’insegnamento, ma in realtà l’analisi è più casuale, multitasking
(in cinque minuti si può leggere attentamente, codificare, cercare altre parti del
testo dove riporta di quell’argomento, vedere cosa si è codificato fino a quel
punto, annotare pensieri in memo, ecc…).
11 Si veda il sito Online QDA, onlineqda.hud.ac.uk .
58
Gibbs, Friese e Mangabeira (2002) ci dicono qualcosa riguardo lo scetticismo
sull’uso dei CAQDAS: alcune critiche possono andar bene, ma come si fa a dire
che pongono il ricercatore lontano dai dati? È qualcosa nato appena i CAQDAS
sono stati disponibili, e nonostante gli sviluppi, restano tali perplessità. Specie
tra i ricercatori qualitativi esperti, che continuano ad utilizzare tecniche
tradizionali (quindi senza i CAQDAS). Fielding & Lee (1998) avevano scoperto,
studiando gli utenti dei CAQDAS, che alcuni ricercatori si sentivano più vicini ai
dati se ci lavoravano sopra «manualmente». L’impressione è infatti che usando
un computer si ponga una barriera artificiale tra il ricercatore e i dati. Può
essere comprensibile allora la resistenza di alcuni a non cambiare routine e
sistemi sviluppati con attenzione. Atherton e Elsmore (2007; 66) si chiedono:
“Recent developments have produced software packages as a set of predefined
protocols that offer an additional rather than alternative means of working with
these data. So, why is it that a number of academics cannot accept the utility of
these protocols, as an additional method that is available to researchers and
students?”
Infatti, dopo la ricerca di Fielding e Lee, i CAQDAS sono migliorati di molto,
perfino sopra le aspettative degli utenti iniziali: più tipi di dati che si possono
includere, l’output è migliorato in quanto è più semplice (rende quindi anche il
lavoro concettuale più semplice). I memo, le mappe, le operazioni di recupero e
di ricerca, forniscono al ricercatore possibilità che non erano nemmeno
pensabili prima. I CAQDAS portano il ricercatore vicino ai dati in modi diversi:
nel software mediante collegamenti ipertestuali (hyperlinks) e note: consentono
di stare vicino ai dati, facendo astrazione, ma rimanendo su quelli; si evita di
usare evidenziatori e pile di carta per la codifica. Fuori dal software: con i vari
output si può essere vicini ai dati e lontano dal computer. La carta ha ancora un
ruolo importante per l’analisi qualitativa, ma il computer può aiutare a fornire i
«pezzi di carta» giusti, già selezionati, in maniera più accurata. Il contatto tattile
(fisico) con le stampe dei dati o le parti del progetto analizzate, permette di
vedere, pensarci sopra e annotare i dati in differenti modi. Spesso i pensieri, le
riflessioni più azzeccate e profonde avvengono quando meno ce lo si aspetta,
lontano dal computer, lontano dai dati. Tutto dipende da come si è abituati a
lavorare: potrebbe trattarsi di un orario e/o un luogo predefinito, nel corso di
59
spostamenti in treno per esempio, o rilassati a prendere quelle che Lewins e
Silver chiamano «armchair quotations». Può essere inoltre utile e rassicurante
avere una copia cartacea per evitare la perdita dei dati (ciò non elimina
l’importanza del backup, la quale vale genericamente quando si desidera
lavorare con il computer).
Si possono trovare dei ricercatori che usano i CAQDAS in maniera innovativa.
Ma anche chi usa proprio pochi strumenti, ma con grandi risultati. Non si deve
pensare di non usarlo nel pieno delle sue potenzialità, pensando che l’analisi
non sia altrimenti buona. Riguardo al rischio di convenzioni nel processo
d’analisi: si combatte questo preconcetto pensando che non esiste un modo
ideale per usare il software. Un’idea simile (l’ortodossia imposta nel metodo)
sottostima l’utilità dei CAQDAS e la capacità dell’utente di fare scelte selettive.
È il ricercatore a scegliere cosa è a lui utile. Ci saranno sempre modi diversi per
fare operazioni diverse ed ogni volta se ne impara uno nuovo.
Tutto sommato, a mio avviso, se il software non viene usato è perché le
competenze informatiche non sono così diffuse. I timori per il rischio dei principi
del metodo qualitativo sono infondati. Il mondo dell’informatica in parte riflette il
mondo reale: il punto di vista del ricercatore è sia sulla carta, che sul PC: non
esiste alcun sostituto all’accurata lettura dei testi. Il ruolo del ricercatore non è
mai neutro, e per questo la ricerca deve essere coscientemente riflessiva. Gli
strumenti possono risultare utili per essere espliciti riguardo ad ogni influenza.
Per esempio, le note: vi si può riportare una prima riflessione su un argomento,
per poi rivederlo dopo. Questo è positivo sia per la trasparenza, che per la
continuità, ed è un requisito, ad esempio, dell’analisi fenomenologia
interpretativa (interpretative phenomenological analysis, IPA) (Lewins & Silver,
2007; 59).
Il software cambia il metodo? Non esattamente. Il non trovare cosa si sta
cercando non ritengo faccia parte della ricerca qualitativa. Dimenticarsi di dove
può essere finito invece può succedere, ed essere significativo (è rilevante non
tanto che non si trovi, quanto il fatto che magari lo si è considerato meno
importante, secondario - e questo può essere messo in un memo). Valga come
esempio generale: l’azione più complessa da fare su Internet è proprio quella di
60
trovare informazioni, e i servizi di successo sono quelli che aiutano questo
processo.
Concludendo il punto, possiamo dire che magari le analisi statistiche si possono
fare acriticamente (ma senza giungere a risultati seri). Non è il caso della
ricerca qualitativa. L’uso dei CAQDAS non può essere una scusa per non
pensare approfonditamente sui dati, perché non lo consentono. È invece
plausibile aumentare l’attendibilità della ricerca, permettendo agli altri di vedere,
controllare e contribuire al proprio progetto, anche se con dei limiti legati ai suoi
assunti. La ricerca qualitativa può apparire poco sistematica, ma in verità ci
sono tracce e compiti molto precisi. La tecnologia può aiutare, ma senza troppe
illusioni però: “Using new technologies means that sometimes we have to
negotiate new ramifications of familiar methodological problems. For example,
an interview administered by Netcam allows a researcher in Ireland to do
“fieldwork” in Djakarta, but the researcher will still have to wrestle with rapport,
or its lack, when interpreting the data. However, software will enable us to tag
and recover instances when those effects intrude on the analysis and to retrace
analytic steps using “audit trails”, which may help the researcher weigh their
impact. With technology we can do more, but we also have more to do.”
(Fielding & Lee, 2002, 202).
Utilizzo di software non specifici
Senza entrare in dettagli tecnici troppo approfonditi, un’ulteriore critica consiste
non tanto nell’opportunità dell’utilizzo dei CAQDAS, quanto piuttosto sulla
necessità dell’esistenza di questi strumenti specifici. Alcuni studiosi propongono
l’impiego di altri software, già alla portata di tutti, i quali potrebbero permettere
lo svolgimento di tutte o quasi tutte le operazioni necessarie. Fermo restando
che sostenere che il ricercatore deve essere critico rispetto agli strumenti
software significa anche che è egli è libero di non utilizzare nessun programma
specializzato se per i suoi fini non lo ritiene necessario o ancor peggio,
fuorviante. Basta che ne sia consapevole, che sappia perché non desidera
avvalersi del software. Si può pensare che il motivo per cui non sono stati usati
61
possa essere che il ricercatore ritiene possibile ottenere gli stessi risultati
nell’analisi.
Effettivamente molte operazioni sono realizzabili mediante un editor di testo
(Seale, 2005; 195-200. Flick, 2006), solo che l’utilizzo di un word processor è
molto più una perdita di tempo che altro, specialmente se si pensa ai dati
multimediali. Il risparmio in termini di tempo, in particolare, con i CAQDAS viene
dopo, quando si cercano e si recuperano i dati desiderati. Se in un word
processor è possibile realizzare particolari macro (ed è stata una tecnica
utilizzata in passato), bisogna anche ammettere che esse sono troppo difficili
per la maggior parte dei ricercatori, e la loro preparazione può essere lunga.
Inoltre, se ricorresse il caso, non si può esportare parte dell’analisi in un
pacchetto statistico, e non si possono creare mappe concettuali legate ai dati.
Bisogna inoltre considerare che i CAQDAS non hanno costi così elevati,
rispetto a software statistici commerciali, da costituirne un deterrente all’utilizzo.
Discutibile inoltre se l’utilizzo di un semplice word processor possa considerarsi
un’introduzione all’analisi qualitativa per i ricercatori più scettici, come sostiene
Nideröst (2002), che comunque ammette che le operazioni realizzabili
sarebbero di grado più semplice. Ritengo che l’impiego sin da subito di un
software CAQDAS, se adottato con consapevolezza e l’introduzione da parte di
un utente più esperto, siano più opportuni ed efficaci. Anche i semplici word
processor, quando si sono diffusi, hanno fornito un aiuto. Ma perché usare uno
strumento non appositamente pensato per uno scopo? Più convincente la
proposta di Meyer, Grupper e Franz (2002), di usare un programma di gestione
di database (Microsoft Access) per l’analisi delle interviste. Effettivamente il
software permette molte delle possibilità offerte dai principali CAQDAS. In
quanto a interfaccia grafica ed usabilità, tuttavia, potrebbe risultare più ostico
dei vecchi programmi per l’analisi qualitativa.
Questa critica, o per lo meno dichiarazione di non necessità dei CAQDAS si
ritrova anche nella letteratura recente. Hahn (2008) dedica un intero manuale
teso ad indicare come sia possibile effettuare numerose operazioni sui dati
mediante il pacchetto Microsoft Office (Word, Excel, Access, e altri software
inclusi). Solo un breve cenno è dedicato ai programmi specifici “It is certainly
62
not necessary to use CAQDAS programs. They are expensive, they have their
own learning curve, and they are no match for a researcher’s brain” (ibid; 108).
Simile la prospettiva di Pretto (2008), che considera i word processor e i
programmi di indicizzazione (o i recenti sistemi di desktop search) più
opportuni, rientrando essi nella normale dotazione dei sistemi operativi e più
semplici da apprendere. L’autrice vede inoltre più una limitazione che una
possibilità nell’opportunità di condivisione del proprio lavoro vista
l’incompatibilità tra i diversi programmi specifici.
Per quanto riguarda i dati audio e video, la questione si fa più complessa. Per
esempio Koch e Zumbach (2002) dimostrano come il software THEME è stato
impiegato nell’analisi dei meccanismi della comunicazione interpersonale, a
partire da dati video. Secrist, de Koeyer, Bell e Fogel (2002) propongono
l’utilizzo di software sviluppati appositamente per l’editing video. In entrambi gli
articoli è presente però una critica ai CAQDAS che non è più possibile
considerare adatta. I programmi evolvono velocemente, e senza dubbio articoli
come questi hanno stimolato gli sviluppatori ad integrare funzioni audio-video
ora presenti nei principali software. Ci sono ancora problemi e in certi casi
(come vedremo nel secondo capitolo) l’analisi può assumere livelli di
complicatezza simili a quelli dei primi anni ’90. È possibile che i futuri sviluppi
dei software punteranno ad una più semplice interfaccia e tecnica di
manipolazione e commento dei file multimediali, fermo restando che in certi casi
potranno essere più opportuni software appositamente creati per il trattamento
di dati audio e video.
Ortodossia nel metodo
La supposta imposizione di un’ortodossia nel metodo è la critica più grave,
perché l’opposizione è a livello professionale, basata sulle proprie convinzioni
metodologiche. MacMillan e König (2004) analizzano approfonditamente i
preconcetti e le aspettative riposte nei CAQDAS. Gli autori, che hanno usato
per anni i software per analizzare il contenuto dei media, ritengono che il
software non possa costituire una metodologia. La loro comparazione riguarda
63
ATLAS.ti, MAXqda, NVivo e altri. In base alla loro esperienza ritengono che i
CAQDAS non sono molto citati nelle ricerche in cui sono stati usati (rispetto a
quanto accade con SPSS per esempio). In pratica i CAQDAS sono citati male,
o solo tramite un breve cenno (nei paper “nella ricerca è stato usato ATLAS.ti”,
nei progetti “per l’analisi dei dati intendo usare NVivo”) o non ne viene
nemmeno menzionato l’utilizzo. Si tratta di un segno di mancanza di criticità e
viene a mancare la trasparenza e il rigore, se non è espressamente esplicitato
l’impiego che ne è stato fatto. Sembra che una volta imparato ad usare il
programma si sia pronti a fare l’analisi. Questa osservazione è confermata da
Fielding (2000), il quale rileva che chi usa i CAQDAS ha poche esperienze
metodologiche, il che lo porta a concludere che c’è confusione tra ciò che è una
risorsa tecnica ed un approccio analitico. Il quadro che ne emerge è che
l’impressione di alcuni utilizzatori consiste nel pensare che meglio si lavora con
il programma, migliore sarà l’analisi. Se il rigore è trattato non come il prodotto
di una riflessione concettuale e l’esame del materiale secondo un determinato
approccio, ma come qualcosa del software che permette di trattare molti dati, è
un grave errore metodologico.
Come si vedrà nella prossima sezione, bisogna considerare che l’analisi
qualitativa non è una sola metodologia omogenea (sarebbe sbagliato dire che
un programma possa essere in grado di assistere nell’”analisi qualitativa” in
genere). Senza considerare la possibilità di combinare soluzioni ad hoc in cui
mettere assieme ricerca qualitativa e quantitativa, dove i confini tra le due resi
più sfumati. Non esiste solo la grounded theory nella ricerca qualitativa, e quindi
non è da considerare rappresentativa dell’analisi qualitativa. Per questo è
importante scegliere prima l’approccio, e poi il software, se ricorre il caso di
usarlo. Per alcuni sviluppatori bisogna avere cautela nel promuovere i
CAQDAS, per altri bisogna puntare sull’educazione e un miglior training.
Training che andrebbe fatto mostrando l’uso dei software per una particolare
metodologia. Questo perché le domande di ricerca devono provenire dal
metodo, non dal software (Brown, 2002).
In termini metodologici, il ricercatore dovrà porre l’enfasi su determinati
strumenti. Per esempio: un’analisi narrativa, di un numero di dati relativamente
piccolo, si potrebbe fare solo con l’uso di note (commenti) e memo; un’analisi
64
interpretativa di un grande insieme di dati potrebbe invece fare un uso intensivo
degli strumenti di codifica. Il relativo ruolo della teoria in ogni progetto cambia il
mondo in cui i codici sono creati, e i modi di usare il software. Con il risultato
che, in un modo o nell’altro, il software ci mette a stretto contatto con le
informazioni fondamentali e i dati.
Passiamo ora ad un contributo di Lonkila (1995), che si domanda se
l’introduzione dei computer nella ricerca qualitativa può essere legata alla
popolarità della grounded theory. Lonkila rileva che uno dei principali elementi,
ovvero la codifica, viene definito da Strauss e Corbin (1998) come “il processo
di analisi dei dati”. Inoltre, gli stessi, hanno anche seguito il dibattito scatenato
dall’introduzione del computer nella ricerca qualitativa, senza essere tuttavia
esplicitamente troppo coinvolti.
La connessione della grounded theory con alcuni CAQDAS è esplicita in
ATLAS.ti (Muhr, 1991) e Nud*ist (Richards & Richards, 1991), dove i ricercatori
hanno anche avuto contatti con Strauss. Anche altri software presentano
questo legame. Gli elementi che più caratterizzano questo legame sono la
codifica, la comparazione costante, i collegamenti, i memo, i diagrammi, la
verifica, la costruzione della teoria (Lonkila, 1995; 46-9).
Quello che prima di tutto bisogna considerare però è che molti sostengono di
applicare la grounded theory, ma non è detto che lo facciano veramente.
Interpellato da Lonkila, Strauss ribatte che alcuni effettuano solo la codifica,
pensando sia sufficiente. Inoltre il ricercatore, anche se riceve un
«suggerimento», non significa sia obbligato a condurre un’analisi nello stile
della grounded theory. Anche perché molti procedono in questa maniera: usano
i CAQDAS per altri fini, in base a necessità personali. Il rischio è per gli
inesperti o gli studenti, che mancano di riferimenti e che facilitano il rischio della
dominazione di un metodo, il che danneggerebbe la ricerca qualitativa in
generale (ibid.; 49).
La semplice presenza di uno strumento, non porta a doverlo utilizzare
necessariamente. Il problema di questi software è che è necessario giudizio,
essere dotati di senno (e stiamo parlando di persone che dovrebbero averne,
considerato il ruolo che rivestono). I CAQDAS non sono né da idealizzare, né
65
da demonizzare. Molta letteratura che ho letto, soprattutto degli anni ‘90 non ci
sarebbe stata tenendo conto di questo. Sono scettico di fronte a ricerche di
dieci anni fa sul computer. Non solo sono cambiati molto i programmi, ma a mio
avviso è cambiato molto anche il modo di considerare il computer. Vediamo
allora come Flick (2006) sintetizza la questione. Egli non ritiene convincente
l’accusa dell’imposizione di un’ortodossia nel metodo. Ma è anche vero che, per
esempio, il fatto di prevedere la gerarchia dello schema di codifica, porta ad
usarla maggiormente (in realtà, secondo me, basterebbe un’opzione chiara, in
cui permettere di scegliere se si è intenzionati ad utilizzare uno schema di
codifica gerarchico o uno non gerarchico). Non è da sottovalutare il timore che il
computer e il software distraggano il ricercatore dal reale lavoro analitico della
lettura, comprensione e riflessione sui testi. Come in altri campi, il tentativo è
quello di effettuare una trasposizione dalle tecniche tradizionali (carta e penna)
a digitale. Alcune caratteristiche saranno uguali, essendoci più o meno le
stesse necessità. Altre, com’è ovvio, cambieranno.
Anche Richards e Richards (1998, 211), nonostante siano gli sviluppatori di
Nud*ist/NVivo, ammettono la presenza di un’altra faccia della medaglia: “The
computer method can have dramatic implications for the research process and
outcomes, from unacceptable restrictions on analysis to unexpected opening
out of possibilities”. Tuttavia, dipende dall’utente quanto è in grado di fare del
computer e del software uno strumento utile per la ricerca, e come riflette su ciò
che sta facendo. Non si può dire che una completa rivoluzione dell’analisi
qualitativa sia già avvenuta. Può essere che il software funzioni meglio per la
grounded theory, dove la codifica è effettuata allo scopo di sviluppare categorie
dai dati. Ricordiamo però che sostenere, per esempio, “ho fatto uso di
ATLAS.ti” non vuol dire niente sulla metodologia, su come sono stati analizzati i
dati, e come ricorda Thompson (2002) serve fornire anche spiegazione dei
processi analitici meccanici e concettuali usati nell’analisi. Questo significa che
ogni dibattito sulla relazione tra grounded theory e i CAQDAS è complicato dal
fatto che la grounded theory è stata interpretata in molti modi diversi tra loro
(Fisher, 1997; 9-10).
Secondo Seale (2005; 195-200) il rilievo più intelligente alla domanda se i
CAQDAS impongono strettamente un approccio per l’analisi dei dati è di Coffey
66
& Atkinson (1996). Senza critiche demonizzatrici dei software, gli autori rilevano
che non esistendo solo la grounded theory anche l’analisi narrativa dovrebbe
essere aiutata dall’analisi con il computer. Essa si basa su analisi di micro
segmenti, non tanto all’attribuzione di significato a parti più o meno ampie del
testo. Questo perché spesso i rispondenti non trattano argomenti legati tra loro
in sequenza, ma più disordinatamente: “Given the inherently unpredictable
structure of qualitative data, co-occurence or proximity does not necessarily
imply an analytically significant relationship among categories. It is as shaky an
assumption as one that assumes greater significance of commonly occurring
codes. Analytic significance is not guaranteed by frequency, nor is a
relationship guaranteed by proximity. Nevertheless, a general heuristic value
may be found for such methods for checking out ideas and data, as part of the
constant interplay between the two as the research process unfolds” (ibid.;
181). Per questo, secondo gli autori, The Ethnograph e ATLAS.ti sono stati
sviluppati tenendo conto della grounded theory, e l’analisi narrativa non ne
trarrebbe molto vantaggio. Vedremo nel prossimo paragrafo che queste
considerazioni sono state superate, in gran parte, dagli sviluppi dei software.
1.6 Campi d’applicazione
I campi d’applicazione dei CAQDAS sono numerosi: scienze sociali, scienze
mediche/della salute, scienze umane, scienze della terra, discipline artistiche.
Offrono infatti ampia flessibilità e un approccio non lineare per trattare una
cospicua massa di dati. Sono utilizzabili anche per la stesura generale di paper,
vista la possibilità di integrare materiale testuale, audio e video in una forma di
database con tutto il materiale che si intende analizzare (articoli, appunti, ma
anche la bibliografia e le citazioni) (di Gregorio, 2000; Wickham e Woods,
2005). Quando capita di scrivere un elaborato è bene tenere un certo ordine ed
evitare soluzioni che, sebbene comunque efficaci, sono eccessivamente
laboriose. Interessante l’esempio pratico di Seale (2005; 193) in riferimento allo
stesso testo in cui spiega i CAQDAS (estrapola una citazione tramite una query
nel corso dell’esposizione del funzionamento dei software). Riprendendo il
67
discorso sui CAQDAS come strumento, si può anche immaginare la loro utilità
per l’apprendimento delle lingue, grazie alla costruzione di un database di
espressioni, codici e commenti. Questi esempi, non strettamente legati alla
ricerca qualitativa, possono valere a dimostrazione delle molteplici funzioni che
uno strumento può avere. Ora esamineremo l’utilizzo dei CAQDAS per gli
approcci qualitativi, in altre discipline, per le analisi secondarie, nelle
metodologie miste e con Internet come oggetto e/o strumento di ricerca.
Approcci qualitativi : gli approcci qualitativi per cui possono essere usati i
software per ottenere assistenza nell’analisi sono le etnografie, la grounded
theory, gli studi di caso, l’analisi fenomenologica, e l’analisi narrativa. Tesch
(1990) ne elenca molte di più, anche tenendo conto delle diverse inclinazioni tra
discipline (sociologia, psicologia12, pedagogia). Poi sono presenti anche le
strategie miste (comunque difficili da elencare, avendo un’impostazione
prevalentemente ad hoc) (Creswell, 2003; 14-15).
La grounded theory ha inspirato i CAQDAS, ma abbiamo visto che questo non
significa che effettivamente con essi si debba mettere in atto quell’approccio
(Bong, 2002). Ricordando che diversi tipi di ricerca non corrispondono ad
altrettanti tipi di analisi, in quanto molte tecniche sono condivise, o in caso simili
tra loro (Tesch, 1990; 299), vediamo cosa potrebbero necessitare i diversi
approcci a livello di assistenza del software software. Per quanto concerne la
grounded theory i software sono già ben predisposti, anche se magari potrebbe
essere utile una maggiore predisposizione al recupero e l’organizzazione dei
dati non digitali; per l’analisi narrativa potrebbe essere necessaria la possibilità
di recupero anche cronologica (non solo come nella sequenza del testo),
l’analisi interpretativa/ermeneutica potrebbe necessitare della possibilità di
realizzare più facilmente note, sottolineature ed evidenziazioni nel testo, oltre a
note multilivello (distinguendo, in un continuum, dai primi pensieri alle riflessioni
astratte); anche la teoria critica potrebbe aver bisogno di note multilivello per i
diversi strati dell’analisi (Weitzman & Miles, 1995; 333-4; Bringer et al., 2006).
12 Riguardo i CAQDAS si può trovare un recente riferimento in Silver e Fielding (2008).
68
Abbiamo ampiamente trattato della grounded theory, e dei vantaggi dei
CAQDAS per l’organizzazione dei casi studiati: tenere più agevolmente traccia
del processo d’analisi, fermo restando che l’obiettivo non è creare un campione
rappresentativo, ma creare una teoria. Per esempio il software agevola la
comparazione costante (constant comparison) proposta da Glaser e Strauss
(1967), che consiste nel comparare nei dati la presenza o l’assenza di un
fenomeno per vedere quali altre condizioni appaiono associate ad esso (Seale,
2005; 189-195). Il problema dello scarso aiuto quando si intende concentrarsi
su piccoli frammenti di dati e per l’analisi della conversazione e del discorso
(ibid.; 195-200) è ora parzialmente risolto dalla possibilità di gestire l’audio e il
video.
Vediamo ora l’utilità dei CAQDAS per le etnografie. In primo luogo si registra in
questi ultimi anni la comparsa di luoghi virtuali come oggetto d’analisi: “teatro di
un’interazione senza corpi: è il mondo dei forum, dei blog, delle chat cui
l’etnografia, di recente, si è avvicinata” (Tosoni, 2004, in Cardano, 2009).
Torneremo più avanti su Internet come oggetto e strumento della ricerca.
Cardano osserva inoltre che gli attacchi ai fondamenti metodologici
dell’etnografia, alla sua capacità di consegnare rappresentazioni accurate dei
fenomeni sociali, è stata proposta la soluzione dell’Evidence based research
movement. È un movimento che ha preso il via nei Paesi anglofoni e sostenuto
da molte agenzie pubbliche, con lo scopo di controllare la qualità della ricerca
sociale, specie in vista dell’impiego dei risultati a livello di politiche pubbliche. Le
proposte di questo movimento prevedono un controllo del processo di ricerca
tramite standardizzazione e proceduralizzazione delle pratiche di misurazione,
trial randomizzati e in particolar modo «trasparenza» dell’intero processo di
ricerca, anche da parte dei profani (Cardano, 2009; 10-11). Cardano è convinto
che non si possano usare strumenti di validazione tipici delle scienze naturali o
più semplicemente della ricerca quantitativa. Il riconoscimento della legittimità
va declinato in modo diverso a seconda del metodo di ricerca adottato. Non
siamo ancora vicini ad un metodo riconosciuto per la ricerca qualitativa, ma
sicuramente non è più sufficiente persuadere il pubblico che “siamo stati
davvero lì” (Cardano, 2009; 12).
69
Ecco dunque l’importanza degli strumenti informatici, impiegati per organizzare
dalle note etnografiche le risposte agli interrogativi da cui muove una ricerca sul
campo. Per questo motivo il saggio di La Rocca (2009) evidenzia come col
crescere delle osservazioni si sviluppa di converso la produzione di resoconti,
che sono sempre più dettagliati e nel contempo nasce la necessità di una
maggiore confrontabilità fra i lavori e i metodi adottati dai ricercatori. A questo
possono servire i CAQDAS, che non sono solo una traduzione in tecnologia
della grounded theory (anche se per certe discipline non sono ottimamente
utilizzabili, come per la linguistica). Non per niente vi sono due possibili
approcci per l’analisi tramite i software: bottom-up (riconducibile alla procedura
di analisi di cui si avvale principalmente la grounded theory) e top-down, (calare
sulla documentazione empirica una rete di relazioni tra concetti desunti dalla
teoria).
Nel percorso bottom-up, vi sono tre modalità di codifica dei dati: la codifica
aperta, la codifica assiale, la codifica selettiva. Le abbiamo già viste nella
sezione dedicata alla codifica di questo capitolo. Vediamo più in dettaglio il loro
significato. Per Corbin e Strauss (1996; 101) la codifica aperta è “il processo
analitico attraverso il quale i concetti vengono identificati e le loro dimensioni
emergono dai dati”. Codifica aperta vuole quindi dire «aprire» un testo e far
emergere da esso le idee, le forme comunicative che contiene. In questo senso
il primo passo di questo approccio è la concettualizzazione: un concetto è un
fenomeno etichettato (ibid.; 103). La codifica assiale è il processo che collega le
categorie alle sub-categorie, collegando le categorie alle proprie proprietà e
dimensioni (ibid.; 123). Nella codifica aperta si lavora sui concetti che emergono
dal testo, nella codifica assiale si lavora sulle relazioni fra categorie e loro
dimensioni. L’obiettivo della codifica assiale è ricostruire i dati frammentati
durante la prima operazione di codifica. Infine, la codifica selettiva è il momento
in cui si individua una categoria principale e si decide di far ruotare attorno a
essa l’interpretazione che dei dati si vuole fornire. Qui è necessario attenersi
alla comparazione costante tra questa categoria centrale e le altre o ulteriori
elementi che possono emergere dai dati qualitativi. (La Rocca, 2009; 135, nota
3).
70
La Rocca, considerato quanto il suo saggio è recente, osserva correttamente
che i pacchetti più usati sono ATLAS.ti, MAXqda, NVivo ed alcuni altri. Un
vantaggio dei software che riesce originalmente a mettere in luce è la cosi detta
«euristica della disponibilità», ovvero “uno dei modi di cui dispongono gli
individui per produrre delle inferenze parziali su quanto accade o su ciò che
viene preso in esame” (ibid.; 152). Solitamente si procede elaborando
informazioni parziali, che sono tali sia perché si è impossibilitati ad accedere a
una porzione di informazioni maggiore, sia perché il ricordo o la comprensione
che abbiamo dei fenomeni è, essa stessa, parziale. Questo perché la fallacia
del ricorso a tale struttura dipende dalla capacità degli individui di farsi
influenzare dalla disponibilità e dall’accessibilità di determinati eventi nella
propria memoria. Infine, La Rocca fa notare che nella possibilità di testare le
ipotesi di ricerca (le query, ovvero l’interrogazione dei dati secondo criteri o filtri
impostati dal ricercatore), si può ottenere il risultato sotto forma di matrice. In
questo caso i CAQDAS si avvicinano e fanno proprie alcune peculiarità dei
programmi per l’analisi quantitativa.
L’introduzione dell’uso del computer nell’analisi qualitativa viene messa in
rilievo anche da Fischer (2006), il quale osserva, in base all’esperienza di alcuni
antropologi, che l’analisi software-assisted aiuta il progresso dell’antropologia.
L’utilizzo del computer, prevede l’autore, sarà sempre più diffuso tra i giovani
antropologi per comunicare, collaborare, il lavoro sul campo e l’analisi, portando
a rinnovare l’antropologia del nuovo secolo.
Un’ulteriore approccio in cui è stato posto in evidenza il valore aggiunto
dall’utilizzo dei CAQDAS è la frame analysis, ovvero l’analisi del discorso. König
(2004) tratta delle possibilità per il ricercatore di analizzare particolari termini
(parole, espressioni) in differenti contesti in maniera facilitata. L’autore realizza
sia un confronto tra diversi software che una sintesi dei vantaggi in termini di
sistematizzazione e routinizzazione dei processi d’analisi portati dai software,
senza nulla togliere alla creatività del ricercatore, su cui risiede la qualità
dell’analisi.
Cousins e McIntosh (2005) parlano dei vantaggi dell’uso del computer
nell’analisi dei fenomeni politici (anche per una maggiore rilevanza nelle
71
scienze sociali), in termini della necessità di essere maggiormente espliciti per
quanto riguarda gli assunti e le ipotesi della ricerca. Non solo migliorano le
possibilità di filtraggio e trattamento di grandi quantità di dati (rendendo il lavoro
meno una sfida dal punto di vista pratico), ma vi sono le condizioni per
accrescere la trasparenza e riproducibilità della ricerca. Questo a patto che i
ricercatori siano ben formati metodologicamente e informati sulle possibilità e i
limiti degli strumenti.
Quando si parla di ricerca qualitativa si parla anche delle ricerche riguardanti il
contenuto dei media, i contesti di fruizione e più in generale la relazione tra i
media e il contesto sociale. Lindgren (2008), il quale si occupa del rapporto tra
violenza, media e cultura, offre degli spunti in materia. Per l’autore si tratta di un
tipo di ricerca che non può essere semplicemente attuato guardando la
televisione o leggendo i giornali e annotando note e riflessioni
disordinatamente. Il processo d’analisi può essere sistematizzato e reso più
preciso mediante i CAQDAS. L’autore ha lavorato combinando tecniche
quantitative e qualitative (content analysis e interpretazione), e nel saggio
spiega come ha operato per far sì che il resoconto della sua ricerca fosse il più
trasparente e credibile possibile. Rilievi differenti vengono fatti da MacMillian
(2005), che si è occupato dell’analisi del discorso nelle notizie. Se non si è
intenzionati a codificare il materiale, per l’autore i CAQDAS non possono essere
di alcun aiuto. Nella sua analisi ha aiutato alcuni processi, ma non di certo
ridotto i tempi dell’analisi. Non si è trovato a proprio agio con un particolare
software (NVivo), e si è sentito costretto nelle procedure proposte dal software.
Ritengo, come anzidetto, che i CAQDAS non debbano considerarsi
universalmente utili alla ricerca qualitativa, e in questo caso si riscontrano i
problemi rilevati da alcuni approcci. I problemi riscontrati potrebbero comunque
essere anche dovuti a preferenze e abitudini dei ricercatori, che non ritrovano
nei software da loro presi in esame.
Come abbiamo già detto, le possibilità in termini di analisi di dati audio e video è
migliorata notevolmente in questi anni, presumibilmente in base alle richieste
provenienti dai ricercatori (Irion, 2002). Parmeggiani (2009) presenta come
l’utilizzo delle nuove tecnologie possa essere un utile aiuto nella ricerca visuale.
Come in altri casi, trapela una non indifferente confidenza con l’uso del
72
computer da parte del ricercatore e questo gli ha permesso di sviluppare
tecniche di analisi personalizzate ed efficaci (si tratta di una combinazione di
software freeware e open source). Partendo dalla considerazione che in questi
anni molto del materiale si trova già in formato digitale (si pensi alle fotografie
digitali, che possono comunque essere oggetto di photo elicitation13), o più
generalmente su Internet, Parmeggiani ritiene che qualora si debba lavorare su
pochi dati, non convenga far ricorso ai CAQDAS. Altrimenti possono offrire un
valido aiuto, sebbene non siano ancora, a giudizio dell’autore, sufficientemente
sviluppati e in grado di sfruttare le possibilità hardware e software più recenti.
Vediamo ora l’utilizzo dei CAQDAS in ambiti non propriamente relativi alle
scienze sociali. Rettie, Robinson, Radke e Ye (2008) trattano l’uso dei
CAQDAS nella sfera delle ricerche di mercato in Regno Unito. Tramite un
questionario somministrato a 400 ricercatori di mercato, rilevano un basso
utilizzo (9%, anche se con un basso tasso di risposta in generale). Questo,
nonostante gli stessi autori dimostrino che i CAQDAS possono essere un valido
aiuto supplementare ai metodi tradizionali (e non solo come una risorsa
alternativa), per l’analisi delle trascrizioni, per esempio, di sessioni di focus
group. Intravedono la possibilità di rendere le analisi per i committenti più
complete e la creazione grandi database di informazioni per tracciare i
cambiamenti nelle opinioni dei consumatori, con un forte vantaggio nelle analisi
a lungo termine.
Un altro campo di applicazione è quello delle ricerche mediche e sulla salute,
dove ancora i CAQDAS possono essere usati per l’analisi di dati da focus group
(Wong, 2008), con la possibilità di realizzare modelli in grado di evidenziare
relazioni unidirezionali e influenze reciproche tra i temi provenienti dai dati.
Diverso il caso degli studi ambientali, (Schiellerup, 2008), dove comunque
anche i CAQDAS possono risultare un supporto per l’analisi di dati di
osservazioni partecipanti finalizzate allo sviluppo di politiche pubbliche.
Analisi secondaria : un ambito molto d’utilizzo molto dibattuto è quello delle
analisi secondarie. Si tratta infatti di una grande possibilità offerta dai CAQDAS.
13 Si vedano (Harper, 2002; Clark-Ibañez, 2004) riguardo alla photo elicitation.
73
Per analisi secondaria dei dati qualitativi intendiamo l’utilizzo di dati esistenti,
raccolti per una precedente ricerca, finalizzato a soddisfare interessi di ricerca
differenti da quelli originari. È un approccio non molto usato per i dati qualitativi,
in quanto vi sono problemi metodologici e questioni etiche da considerare
(ancora più problematico è il caso in cui il ricercatore non era parte
dell’originario gruppo di ricerca) (Heaton, 1998). I vantaggi possono essere
molteplici, e vanno dalla possibilità di sfruttare parti di materiale già esistente a
quella di evitare alcune difficoltà nella raccolta dei dati (come i rifiuti da parte
degli intervistati). Vale inoltre la pena di precisare che nella ricerca qualitativa,
considerandola dal punto di vista della ricorsività dell’analisi, può essere arduo
stabilire cosa sia realmente un’analisi secondaria. Potrebbe infatti darsi che la
collaborazione tra ricercatori dia vita a un’analisi secondaria de facto. Anche in
questo caso è evidente la facilitazione offerta dal software per l’analisi assistita
da computer per quanto riguarda la praticità nella condivisione dei dati, dei
codici e delle note (rispetto ai documenti di carta).
Corti, Witzel e Bishop (2005) ritengono che i dati qualitativi siano una fonte ricca
e unica inutilizzata di materiale che può essere rianalizzato, rielabolato e
comparato con materiale recente. Rilevano che lo stato dell’analisi secondaria
nella ricerca qualitativa è ancora in fase di sviluppo, mentre invece tale
approccio dovrebbe essere maggiormente integrato nei programmi
d’insegnamento e nei manuali, come complemento alle tecniche tradizionali.
Medjedovic e Witzel (2005) trattano di analisi secondaria di interviste. Gli autori
ritengono che lo scetticismo presente sia soprattutto dato da una mancanza di
esperienza pratica nel campo. Il lavoro da essi compiuto è consistito nell’analisi
secondaria di racconti di vita facenti parte di uno studio sul passaggio da scuola
a lavoro in Germania. Sotto specifiche condizioni metodologiche sono stati in
grado di compiere l’analisi non solo sui dati, ma anche sui codici e gli schemi di
codifica originari, riuscendo comunque a mantenere un approccio induttivo. I
CAQDAS si sono rivelati fondamentali, in quanto è stato necessario accedere ai
dati agevolmente (e la versione digitale si presta a questo bisogno), anche
grazie alla semplificazione operata nel software nella ricerca originaria. Altre
necessità riguardanti il software sono la spiegazione dei codici, dei memo e
delle tecniche adottate inserite nel progetto (e collegate ai dati). Dal punto di
74
vista metodologico è stato importante per gli autori lavorare su un precedente
progetto che presentasse domande di ricerca non troppo limitate (in modo da
poter interrogare i dati su differenti aspetti) e che l’approccio utilizzato
originariamente non fosse deduttivo ma bensì induttivo, in modo tale da poter
rielaborare l’analisi partendo da rilievi più prossimi dai dati, in quanto generati
da essi.
Fielding (2000) esamina il contributo dei CAQDAS per l’analisi secondaria,
considerato dall’autore poco sfruttato tra gli stessi utenti dei software. Per
Fielding la ricerca qualitativa sta diffondendosi e ottenendo riconoscimento in
molti Paesi europei e in Nord America, raggiungendo settori come la ricerca
applicata e nelle misure di valutazione delle politiche pubbliche (attraendo
committenti come i dipartimenti governativi). Nella ricerca qualitativa applicata,
la popolarità dei focus group ha aiutato molto la legittimità e l’aumento nel
ricorso della ricerca qualitativa. Fielding rileva anche, come in altri suoi lavori,
l’incremento nell’utilizzo dei CAQDAS, che in parte ha iniziato a migliorare il
riconoscimento della ricerca qualitativa, ma che è stato anche dovuto a una
maggior diffusione e facilità di utilizzo dei computer (e quindi all’aiuto offerto
nell’archiviazione del materiale oggetto d’analisi). Questi elementi dovrebbero
aver portato l’analisi secondaria ad essere più utilizzata, e Fielding si interroga
sui motivi di questa mancanza nella ricerca qualitativa. L’autore osserva che la
diffusione dei CAQDAS avviene in due ambiti: quello accademico e quello della
ricerca applicata e nelle ricerche di mercato. In quest’ultimo i software sono più
usati, in quanto sono i più prolifici in termini di analisi qualitativa. Per contro,
sono anche quei soggetti che meno probabilmente archiviano i dati delle proprie
ricerche14 (in parte perché per riservatezza commerciale, in parte perché non
sono così analisi approfondite quanto quelle accademiche). Sebbene questo sia
un gruppo di utilizzatori di CAQDAS, difficilmente si può pensare che da esso
provenga un impeto di cambiamento all’uso di questi software per l’analisi
secondaria. Piuttosto che puntare sugli utenti dei software con scarsa
14 Vi sono certamente eccezioni, come dimostrano Le Roux e Vidal (2000) e Dargentas e Le Roux (2005), i quali trattano di “Verbatim”, progetto della compagnia elettrica francese teso a mantenere un archivio delle interviste per una loro analisi secondaria.
75
esperienza metodologica, o che ne sono forniti ma raramente pubblicano le loro
ricerche, il cambiamento potrebbe avvenire dai nuovi ricercatori, i quali è più
probabile adottino nuovi metodi rispetto ai ricercatori affermati.
Hughes, Schmidt e Smith (2006) indirizzano il problema sull’interoperabilità tra i
file prodotti dai software. Gli autori rilevano che l’aumento d’importanza della
ricerca qualitativa si misura anche dalla presenza di banche dati in diversi Paesi
(Spagna, Russia, Germania, Regno Unito e Finlandia15). Senza dubbio la
ricerca qualitativa secondaria è ostacolata dalle questioni sulla privacy e della
scarsa conoscenza del contesto da parte dei potenziali ricercatori in cui sono
avvenute le rilevazioni originarie. Un terzo problema è però la difficoltà di
«passare» i progetti tra un software e l’altro. Gli autori propongono quindi un
formato universale, il QDIF (Qualitative Data Interchange Format). Sebbene
ancora allo stadio di progettazione, si tratta comunque di una possibile
direzione nella soluzione del problema dell’interoperabilità tra CAQDAS.
Metodologie miste : un’altra possibile applicazione dei software è l’aiuto nella
realizzazione di metodi misti di ricerca. De Gregorio e Arcidiacono (2008)
rilevano la necessità manifestata da alcuni ricercatori di porre in pratica
l’integrazione tra ricerca quantitativa e qualitativa. Questo nonostante il fatto
che fino ad ora si è trattato solo di buone intenzioni e ipotesi di come attuare
l’integrazione, mentre difficilmente sono stati realizzati buoni esempi di ricerche
con metodologie miste. Attualmente alcuni tra i più recenti CAQDAS
permettono di esportare alcuni elementi del progetto, al fine di potervi condurre
elaborazioni quantitative. I ricercatori quantitativi e qualitativi, tenendo conto
degli sviluppi della tecnologia, devono scegliere cosa è loro necessario, cosa li
potrebbe aiutare. Se è possibile non alterare le caratteristiche fondamentali di
una buona ricerca qualitativa (processo aperto, flessibilità, orientamento
induttivo finalizzato ad esplorare la costruzione dei significati da parte degli
esseri umani nel contesto), dovrebbe risultare possibile realizzare una ricerca
15 Non è citato nell’articolo, ma per il caso italiano è presente il progetto “Transizioni biografiche” (www.transizionibiografiche.it), dove è prevista la condivisione delle interviste anche a chi non fa parte dei membri del gruppo di ricerca.
76
con metodologia blended, anche se i canoni di quello che rende questo tipo di
ricerche di qualità non sono stati ancora formulati chiaramente.
Andrew, Salamonson e Halcomb (2008) ritengono che il ricorso a metodi misti
stia crescendo in termini di popolarità, sebbene la letteratura non tratti la
tematica in maniera approfondita. La ricerca da loro presentata unisce dati
quantitativi e dati qualitativi. A loro avviso, il fatto di aver utilizzato un software
per l’analisi computer-assisted (NVivo, congiunto ad SPSS) ha reso più
semplice beneficiare dell’applicazione di un metodo misto, e ha arricchito i loro
risultati aggiungendo una nuova dimensione ai dati. Le possibilità di svolgere
ricerche di questo tipo dovrebbero essere maggiori considerato lo sviluppo
tecnologico dei questi ultimi anni.
Driscoll, Appiah-Yeboah, Salib e Rupert (2007) mostrano la questione della
metodologia mista dal punto di vista dell’antropologia. Anche se si tratta di una
differente disciplina, confermano il fatto che l’integrazione dei due tipi di ricerca
è flessibile e scelta dai ricercatori in base alle loro domande di ricerca, i requisiti
e i limiti del progetto. Gli autori mostrano due possibili strade percorribili
utilizzando una metodologa mista, una in cui la rilevazione dei dati qualitativi e
quantitativi è concomitante, l’altra prevede una rilevazione sequenziale. Nel
primo caso è possibile validare una forma dei dati tramite l’altra, compararle e
per ottenere nuove domande di ricerca. Le rilevazione è stata effettuata
mediante un sistema web-based, capace di raccogliere sia dati strutturati che
non strutturati, riguardo la percezione di rischio di un vaccino in un esteso
gruppo di stakeholder (mediante un questionario semi-strutturato che alla
termine di ogni tematica offriva la possibilità di commentare e aggiungere
ulteriori informazioni alle domande strutturate). Questo metodo si è rivelato
pratico nel collegare le risposte strutturate ai commenti aperti, ma non ha
permesso l’approfondimento di alcune risposte da parte dei ricercatori. Il
disegno sequenziale invece ha previsto prima la rilevazione di dati tramite
survey, nella seconda delle interviste in profondità, intenzionate ad approfondire
alcune risposte del questionario. In questo processo iterativo è stato più
semplice integrare i dati qualitativi codificati nelle interviste con i dati del
questionario, visto che l’analisi statistica era già stata ultimata. Non è presente
un collegamento così stretto tra dati quantitativi e qualitativi come nel primo
77
disegno, e richiede più tempo per la rilevazione. Sinteticamente si può dire che
entrambi i metodi di rilevazione hanno come svantaggio di svalorizzare il lavoro
di codifica qualitativa, dovendo ridurre i codici multidimensionali in una semplice
variabile dicotomica (presente – non presente). Comunque, i metodi misti
possono permettere, quando si esplorano domande di ricerca complesse, una
comprensione approfondita delle risposte del questionario, e l’analisi statistica
può offrire una stima più dettagliata di un modello di risposte. Può essere
eccessivamente oneroso in termini di tempo, e non è indicato qualora si
intendesse effettuare complesse analisi statistiche sui dati quantitativi, o
un’approfondita analisi dei dati testuali. Ritengo tuttavia che la dicotomia
quantitativo – qualitativo non debba essere sovrastimata. I CAQDAS
permettono di trattare un maggiore numero di dati, e questo evita la
semplificazione eccessiva di una realtà sociale. Quando è possibile, anche se
con dei limiti e la dovuta attenzione, trattare un maggior numero di casi, non c’è
motivo (se non ideologico) di astenersene. Forse non è nemmeno corretto
stabilire sin da principio che la nostra analisi non dovrà contenere numeri, dato
che magari nel corso della ricerca potrebbe presentarsi la necessità di farne
ricorso. Un software ideale potrebbe essere quello che consente di far
scegliere, senza limitazioni, quali strategie di analisi ritiene più opportune.
Internet come oggetto e/o strumento di ricerca : Uno di questi casi riguarda
le nuove tecnologie, ovvero Internet come oggetto della ricerca, campo
d’applicazione per cui i CAQDAS possono avere utilità molteplici, come per i
blog, i commenti sulle pagine web e altri siti di comunicazione. Internet come un
nuovo campo di ricerca è presente da diversi anni nel dibattito accademico,
come ci mostra Paccagnella (1997), che pioneristicamente si è occupato di
un’etnografia delle comunità virtuali di quegli anni (originale e provocatorio
anche il titolo, “Getting the Seats of Your Pants Dirty”). L’autore, considerato
che la comunicazione su Internet sarebbe stata sempre più significativa, ritiene
che debbano essere sfruttate le possibilità date dai nuovi strumenti, potenti e
flessibili, per raccogliere, organizzare e esplorare i dati in formato digitale
(anche con un approccio longitudinale). Il fatto che, sebbene si riscontri un
notevole aumento di elementi multimediali in rete, le interazioni siano
prevalentemente in formato testuale non deve essere visto come un vincolo.
78
Prima di tutto consentono un’interazione tra un gruppo di persone più ampio (vi
è quindi la possibilità di «sentire» diversi attori), e inoltre puntualizza bene
Paccagnella “Shakespeare and the other classics of literature can teach us how
text is able to express emotions, experiences and complex ideas, and the fact
that filmmakers sometime still choose to shoot movies in black and white
demonstrates that narrowing the bandwidth often helps in focusing the
message” (ibid.).
Anche Holge-Hazelton (2002) vede Internet come un nuovo campo di ricerca.
Per l’autore è stato fondamentale nello stabilire un contatto con giovani danesi
affetti da diabete, al fine di somministrare loro delle interviste ad associazione
libera. Internet si è rivelato utile nel comprendere le prospettive dei partecipanti,
sviluppando con loro una relazione, seppur online, generatrice di ricchi spunti
delle esperienze di vita con la malattia, e come essa si sia integrata nella loro
vita quotidiana. Se inizialmente l’autore era intenzionato a una rilevazione più
«tradizionale» in un istituto scolastico, ha poi scoperto che Internet era una
fonte d’informazione molto importante per i malati e i loro genitori, dove reperire
informazioni riguardo ai farmaci e a nuove cure. Da un già presente sito di
riferimento per i diabetici (che già stimolava i giovani alla condivisione delle
proprie esperienze di vita) è riuscito ad ottenere, grazie ad un annuncio, 20
soggetti interessati a collaborare nella ricerca. L’autore fa specifico riferimento a
Burawoy (2002), su cui torneremo nell’ultimo capitolo, per giustificare il metodo
di rilevazione da lui scelto. Gli etnografi oggi hanno uno sguardo privilegiato
nell’esperienza vissuta della globalizzazione, e hanno sviluppato il concetto di
global ethnography, mettendo l’accento sulla necessità di ripensare il significato
di lavoro sul campo dal confinamento isolato, limitato in un determinato
intervallo di tempo e di spazio, verso un concetto più flessibile adattabile al
tempo e allo spazio. Per questo il lavoro di Hogel-Hazelton non è confinato in
un luogo e un intervallo precisi (in qualsiasi momento della giornata, nelle
festività, mentre si trovava in alberghi o Internet café). All’autore è stato
possibile mettersi in contatto con piccole isole della Danimarca in poco tempo.
Questo non permette di affermare che non si tratti di interazioni sociali, le quali
dovranno essere interpretate in modo in parte differente dalle interazioni offline
(linguaggio scritto, ma con proprietà tipiche del parlato: “an oral culture is
79
different from a written culture, and the culture of the Internet is different from
both” (ibid.)). È inoltre interessante rilevare quali caratteristiche vengono fornite
per definire sé stessi (genere, età, stato della malattia, ecc.)16. Considerato che
potrebbe sempre trattarsi di individui che non «fingono» di rispondere a quelle
caratteristiche, i dati sono stati valutati da un audit composto da diverse figure
professionali (assistenti sociali, infermieri e psicologi, in caso l’interazione
provocasse situazioni necessitanti assistenza). Senza dubbio non tutti gli
individui sono disponibili online, o hanno le competenze di Internet che
sarebbero necessarie alla ricerca. Ma grazie a Internet è possibile svelare nuovi
aspetti di individui o gruppi vulnerabili e spesso stigmatizzati.
Un altro esempio di interviste condotte via e-mail si trova in Bampton e Cowton
(2002), definita come «e-interview» (ma potrebbe anche essere un focus group
in una chat), più nell’ottica di una tecnica complementare, sia qualitativa che
quantitativa. Gli autori hanno infatti usato questa tecnica in seguito alla
somministrazione di un questionario, in cui il rispondente poteva indicare se
intendeva essere contatto per approfondire alcune tematiche. Le e-interview
sono suscettibili di essere asincrone, ma se questa diversità rispetto
all’intervista faccia a faccia non pare aver dato problemi ai ricercatori, è invece
importante mantenere la forma dialogica al fine di approfondire e «rilanciare» in
diversi momenti. Un problema è invece dato dal fatto che l’intervistato può
reperire informazioni di cui non era a conoscenza per rispondere in maniera
esaustiva all’intervistatore. Possono anche essere sollevati dei dubbi sulla
spontaneità dell’intervistato, anche se le stesse tradizionali trascrizioni sono ben
diverse dal parlato dell’intervista. Piuttosto il problema sta nel contenuto, che
potrebbe essere stato edulcorato da giudizi che l’intervistato, dopo avervi
riflettuto, potrebbe ritenere poco dignitosi (invece parlando faccia a faccia si può
rischiare di essere troppo spontanei). I ritardi nelle risposte vanno trattati con
cautela e tentando di comprendere a cosa siano dovuti (ed evitando eccessiva
insistenza nei promemoria spediti in seguito a una mancata risposta). Altri
accorgimenti vanno presi nel numero di domande poste per e-mail e la scelta
16 Si può fare riferimento all’articolo per alcuni stralci di conversazione (scambi di e-mail, instant messaging) tra il ricercatore e i giovani malati.
80
del momento conclusivo dell’intervista e altri problemi riguardano il limitato
registro comunicativo che consentono e la dipendenza dalla volontà e capacità
di accedere alla tecnologia, sia da parte del ricercatore che dell’intervistato.
Per risolvere il problema dell’asincronia della comunicazione, Fontes e
O’Mahony (2008) propongono l’utilizzo di un sistema di instant messaging, con
un occhio di riguardo ai recenti siti di social networking, anche al fine di rilevare
l’effetto che ha la tecnologia sulle relazioni offline esistenti. Gli autori, in seguito
a una esplorativa etnografia online, hanno realizzato 60 interviste semi-
strutturate via instant messaging. I vantaggi riscontrati risiedono nel limitato
budget richiesto (sicuramente molto basso), nella possibilità di raggiungere i
soggetti in molteplici zone geografiche e perché è stato ritenuto uno strumento
più coinvolgente rispetto all’e-mail (si ottengono spiegazioni più brevi, ma
difficilmente vi sono mancate risposte). La comodità principale è data dal fatto
che i dati sono già pronti per l’analisi (in molti casi con indicazioni sulla data e
l’ora di invio dei singoli messaggi), senza necessità di registrarli e trascriverli,
ma solamente codificare e commentare i segmenti che si ritengono rilevanti.
Inoltre gli intervistati possono partecipare da un ambiente a loro congeniale e
quando lo desiderano. Più sul piano pratico la proposta di Zalinger, Freier, e
Dutko (2009), che presentano nel loro paper un vero e proprio software di
instant messaging dedicato all’etnografia, “Ethnochat”, per aiutare i ricercatori a
condurre interviste mediate da computer, sia semi-strutturate e che non
strutturate.
1.7 Il mutamento delle tecniche di analisi qualitat iva
Con la ricerca computer assisted migliorano gli strumenti di ricerca; i modi per
lavorare con i dati qualitativi sono cambiati anche per questo, ovvero sviluppo
dei CAQDAS. In Fielding & Lee (1993) si può trovare un esempio del lungo
dibattito su questo cambiamento provocato dagli strumenti di ricerca. Usando
gli strumenti di ricerca in maniera flessibile si possono integrare nuovi processi
analitici, e si possono allargare i confini metodologici. Se si vuole basarsi solo
81
su un approccio metodologico, meglio un uso più limitato di questi strumenti,
per supportare specifici processi efficacemente.
Vi sono alcune cautele da considerare. Alcuni strumenti hanno un potenziale
maggiore di altri nel cambiare l’aspetto di come è condotta l’analisi dei dati
qualitativi (l’auto-coding è uno di questi). John Seidel, pioniere dei CAQDAS, in
quanto sviluppatore di The Ethnograph era preoccupato di un sacrificio
dell’attenta analisi dei dati, per una maggiore possibilità di risolutezza. Nei suoi
articoli e manuali è evidente cosa egli ritenesse più opportuno tra ore passate
su una piccola parte di dati rispetto a metodi veloci di esplorazione e
identificazione. Per lui infatti il valore dell’analisi proviene da un’attenta ed
accurata immersione in insiemi di dati relativamente piccoli. Era dunque
preoccupato che tale valore potesse scomparire a causa di CAQDAS sempre
più voraci, con dataset grandissimi (Seidel, 1991). Per questo non erano
presenti strumenti di ricerca di testo nel suo software. Richards & Richards
(1994) invece, hanno sostenuto attivamente all’inclusione della ricerca di testo
in Nud*ist. Loro pensavano che la ricerca del testo fosse “uno strumento
necessario per guadagnare accesso diretto ai record, piuttosto che accedervi
solo tramite i codici che rappresentano l’interpretazione del ricercatore”.
Similmente per Weaver & Atkinson (1995), gli strumenti di ricerca sono utili
mezzi per testare la validità delle analisi formate da altre strategie che la
codifica di segmenti nella ricerca interpretativa, o nella triangolazione di metodi.
Fisher (1997), infine, punta sulla sottile distinzione tra il fatto che la ricerca può
contrastare errori umani, rilevando errori nella codifica e quello di assicurare
che l’analisi sia comprendente il più possibile; si tratta di vantaggi, due
importanti dimensioni della ricerca qualitativa, che ci mettono all’erta di possibili
pessimi risultati di entrambe. Per Weitman & Miles (1995; 330) il software può
influenzare portando ad effettuare un’analisi troppo «fine», in cui sono presenti
troppi codici, che poi non servono e non si sa come affrontarli; per la capienza
illimitata offerta, visto che si può essere portati a raccogliere più dati di quanto si
sia in grado di analizzare. Oppure, se non si vedono segmenti nel contesto, si
possono generare false conclusioni e interpretazioni.
Un ulteriore esempio dell’utilità del dibattito ci viene fatto notare da Coffey,
Holbrook e Atkinson (1996) non si trovavano professionalmente d’accordo con
82
la semplice codifica testuale. Preferivano piuttosto la realizzazione di legami nel
testo (e con altri oggetti, note, e altri dettagli), ovvero di hyperlinks, in linea con
l’approccio post-moderno. Seale (2005; 205-6) ritiene probabile che la funzione
sia stata aggiunta per questa esigenza. Oltre alla funzionalità aggiuntiva, è un
indice dell’utilità del dibattito tra ricercatori e sviluppatori. E poi i collegamenti
sono come quello che avviene su Internet, in linea con l’esperienza quotidiana
delle persone. Ha ragione dunque Weitzman (2003; 337): “What else can we
hope will come out of this collaboration between users and developers in the
near future? More and better tools for sharing analyses and raw data, perhaps
by allowing posting of project databases, with analytic markups, links, and
memos, to the World Wide Web, (…) tools for building complex reports that
include analyses and data right in the report itself; and more and better tools for
supporting collaboration among research teams, and for involving informants in
the research process without intensive computer training.” Per l’autore (2003;
332-7), riguardo al dibattito concernente la prossimità ai dati, la carta è troppo
scomoda, ma non andrà a sparire. Le funzionalità del software risolvono
qualche problema, aggiungono strumenti all’analisi. Ci può essere influenza
nella metodologia, in quanto gli sviluppatori pongono assunti concettuali ai
software, ma non è necessariamente qualcosa di negativo. Gli sviluppatori
ritengono di fornire un utile apporto, e nella maggior parte dei casi sono anche
ricercatori sociali, o in contatto continuo con la comunità di ricerca. Nei software
vengono poste differenti enfasi, che possono rendere meno confortevole (ma
non impossibile) ciò che si vuole fare. Non si deve tuttavia considerare solo il
software per l’apprendimento: Weitzman (ibid.; 334) ha esperienza con studenti
che è bene operare anche secondo le tecniche tradizionali (anche solo semplici
codici), per comprendere il processo analitico prima di usare il software.
L’autore auspica per il futuro la presenza di recensioni regolari sui software
esistenti (si potrebbero recensire come se fossero nuovi testi disponibili). È
necessario un dibattito continuo tra ricercatori (metodologia vs. software), e
ricercatori e sviluppatori (cosa serve, cosa non piace). Questo perché anche gli
sviluppatori che sono ricercatori qualitativi potrebbero avere una prospettiva
ristretta, non essendo in grado di capire cosa necessiti una varietà di utenti (per
esempio ricercatori interessati alla grounded theory, orientati alla narrazione,
etnografi, ermeneutici, teoria critica, azione collettiva). Gli sviluppatori non
83
dovrebbero puntare solo a piccoli miglioramenti, a «frivolezze», solo perché gli
altri software li hanno inseriti, ma a sviluppi costruttivi, accessibili e utili, che
risolvono necessità reali. L’auspicio è che si arrivi a un maggior numero di
ricerche con i CAQDAS e ad una maggiore interoperabilità tra i programmi
(ibid.; 335-7).
Per Lewins e Silver (2007, 163) i meccanici strumenti di ricerca nei CAQDAS,
con le opzioni di auto-coding disponibili, possono aumentare la riflessività, ed
aiutare ad affrontare una grande massa di dati. Ma anche l’opposto: se si vuole
avere un approccio interpretativo, i risultati riguardano solo la superficie dei dati.
Ovviamente alcune parti dei dati possono fare riferimento ad un argomento
anche se non ci sono le parole chiave che ci si aspetterebbe di trovare, e che
quindi sono state utilizzate per effettuare la ricerca. Se le si usa
eccessivamente nell’analisi interpretativa, a scapito di analisi più dettagliate, si
commette un grave errore, e non si è compreso cos’è l’analisi qualitativa.
Occorre sempre essere critici sull’utilità degli strumenti, in questo caso di quelli
di ricerca. Nulla vieta di sperimentarli prima, per capire se e come possono
essere utili per l’analisi che si è intenzionati ad intraprendere.
1.8 Osservazioni finali
In questo capitolo abbiamo inquadrato i CAQDAS, osservando che sono
profondamente mutati rispetto ai primi anni della loro comparsa. Si tratta di
strumenti abbastanza diffusi tra i ricercatori qualitativi, e abbiamo visto che gli
utilizzatori sono suddivisibili in una tipologia che porta a chiarire alcuni aspetti di
quello che può essere il rapporto con tali software. Abbiamo successivamente
esaminato le diverse possibilità offerte dai programmi, mostrando a livello
generale diversi suggerimenti nelle tecniche d’analisi. È venuto poi il momento
delle critiche: l’utilizzo del computer nella ricerca qualitativa ha generato spesso
ingiustificati timori riguardanti la perdita di contatto con i dati e una limitazione
nella creazione di conoscenza da parte dei ricercatori. La letteratura inoltre
mostra che i CAQDAS sono utilizzabili in diversi approcci, anche se in alcuni
possono essere meno utili. Si tratta comunque prevalentemente dell’esperienza
84
e creatività del ricercatore, non tanto negli strumenti in sé. Esistono senza
dubbio dei rischi nell’utilizzo dei software per l’analisi computer-assisted, ma
essi sono risolvibili portando i ricercatori ad essere consapevoli di cosa è
possibile loro fare, e soprattutto cosa non è possibile fare, mediante tali
programmi.
Nel prossimo capitolo ci occuperemo più in dettaglio delle funzionalità pratiche
offerte dai principali software in circolazione. Vedremo perciò le soluzioni
software disponibili e come le otto procedure menzionate in questo capitolo
possono essere realizzate mediante i programmi più diffusi.
85
2. L’utilizzo del software per la ricerca qualitati va
Dopo aver fornito una panoramica riguardante le opportunità e il dibattito
metodologico riguardo i CAQDAS nel capitolo precedente, in questo capitolo ci
sposteremo su questioni più di ordine pratico. In primo luogo vedremo una serie
di accorgimenti e operazioni preliminari all’utilizzo dei software, per poi
spostarci sulle principali funzioni dei tre programmi più diffusi. Al termine del
capitolo saranno infine fornite alcune informazioni riguardanti altri software
utilizzabili in alternativa a quelli più diffusi.
2.1 Accorgimenti per l’utilizzo dei CAQDAS
Prima di iniziare a esaminare i tre principali software per l’analisi qualitativa,
riteniamo opportuno fornire una breve rassegna di accorgimenti preliminari
all’utilizzo del software, e che solitamente vengono svolti a livello di sistema
operativo e nell’elaboratore di testi utilizzato per trascrivere i dati.
Sebbene abbiamo visto che una certa influenza reciproca tra software e
metodologia è presente, preferiamo considerare distinte quelle che si possono
definire operazioni tecniche da quelle tecnologiche. Le prime fanno
maggiormente riferimento alle tecniche vere proprie della ricerca qualitativa,
mentre le seconde concernono operazioni specifiche effettuabili e da effettuare
con i software. A queste ultime faremo riferimento in questa sezione.
Quello che non vogliamo fare è fornire una serie di impostazioni. Fare ricerca
qualitativa non è avere una lista di operazioni da compiere, e da qui proviene la
difficoltà nella stesura di manuali al riguardo. Meglio quindi stimolare la criticità,
se costruttiva, nei confronti degli strumenti. Un manuale o una raccolta di
suggerimenti sono delle scatole degli attrezzi utili per capire quali tecniche
usano altri ricercatori, ma come si può essere sicuri che siano quelle giuste? Vi
è poi la divisione tra ricercatori e programmatori, aumentata dalla complessità
nella realizzazione di un software.
86
A seguire quindi vi saranno alcuni rilievi riguardanti i software (in special modo i
lati comuni, senza dimenticare le principali differenze), senza eccedere in
dettagli tecnici. Che comunque non sono da sottovalutare, in quanto tralasciare
le questioni tecniche può essere sconveniente, in quanto si considerano
acquisite a priori alcune competenze e opportunità e ciò può influire
negativamente per i meno esperti o gli esperti formati in un certo modo. È
importante sempre essere chiari su quello che si intende rilevare nei software.
Siamo dell'idea che è sempre bene far sì che la parte tecnica non
impedisca/renda difficile l’analisi. Non siamo informatici, i nostri problemi sono
altri.
Credo che parte dei rilievi specifici sui software saranno già out-of-date tra
pochi anni. Questo non mina la validità della dell’intero elaborato, che è
incentrata sulle resistenze, accumulate in decenni, all’utilizzo dei CAQDAS, e ai
motivi di tali resistenze.
Formato dei dati
La prima operazione che è necessario compiere se si è intenzionati ad
utilizzare I CAQDAS è la preparazione dei dati per l'introduzione nel progetto.
Nella ricerca qualitativa si ha prevalentemente a che fare con documenti di
testo. Ci sono varie ragioni per preferire il formato .RTF (Rich Text Format), tra
cui il fatto che esso è limitato nella formattazione. Questo perché è possibile, e
risolve molti problemi, essere semplici, senza ricorrere a formattazioni
complesse del testo.
Per quanto riguarda le trascrizioni si possono considerare vari suggerimenti.
Per alcuni è bene che esse siano già pronte e non più modificate dopo
l’inserimento nel software, mentre per altri non costituisce un problema
correggere gli errori che si riscontrano nella lettura, considerato che si tratta di
una funzione attivabile a piacimento. Può invece costituire un problema nel
lavoro di gruppo, dove è bene che i dati rimangano gli stessi tra tutti i
componenti del team di ricerca.
87
È consigliabile mantenere una struttura coerente per quanto riguarda gli
identificativi nelle interviste. Per esempio “GIADA:”, ovvero maiuscolo e i due
punti (:), da utilizzare solo quando l’intervistato interviene, non quando qualcuno
si riferisce all’intervistato. Questa è una possibilità che migliora la
visualizzazione e la ricerca nel testo, ma che può essere realizzata in un modo
diverso dal ricercatore. È tuttavia preferibile che vi sia uno stesso standard nei
lavori di gruppo. L’importante è che gli identificativi siano ricercabili
automaticamente, e perciò un altro esempio è G-22-STUD, dove si può
mantenere l’anonimato riportando l’iniziale del nome, l’età e l’occupazione
dell’intervistata (utile anche se ci si collega a dati quantitativi). Perciò coerenza
e semplicità facilitano molto, specie nel ritrovare gli identificatori facilmente – a
questo servono i due punti (:) dopo l’identificatore. Si possono poi utilizzare dei
colori, utili per identificare i vari intervistati. I software mantengono la
colorazione, ma non è detto che si possa farglieli riconoscere come elemento
particolare del testo (lo stesso vale per le evidenziazioni).
I paragrafi (ritorni a capo) possono essere utilmente sfruttati, eseguendone solo
uno quando si tratta dello stesso rispondente e due o più ritorni a capo quando
avviene un cambio di soggetto. I paragrafi sono importanti sia per semplificare
la lettura che per dare diversi significati ai passaggi nei dati. Si possono inoltre,
se si desidera, far riconoscere al software frasi, capoversi, paragrafi, ma non è
fondamentale (NVivo riconosce gli stili del testo, per l’auto-coding). Può
convenire tener conto delle possibilità di riconoscimento dei software, ma non
bisogna farsi influenzare troppo da esse, mantenendo quindi un equilibrio con il
formato che si preferisce fornire ai dati e le funzionalità di cui non si intende
avvalersi.
È consigliabile mantenere una codifica dei nomi dei file, in special modo quando
si lavora con molti dati o quando si ha intenzione di condividere il proprio lavoro
con altri ricercatori. Il riconoscimento di oggetti (tabelle e immagini) inseriti nei
file di testo avviene nella maggior parte dei casi senza problemi, anche se può
creare problemi (dimensione e perdita del formato). Conviene evitare
un’eccessiva complessità dei dati, e valutare caso per caso quanto è davvero
necessario mantenerli nel formato originario. Per sicurezza si può fare un testo
88
con un campione di pochi file, valutare se è possibile fare qualche
miglioramento e successivamente caricare l’intero dataset.
Per quanto riguarda le immagini e i dati in formato audio e video, tra i tre
software qui analizzati solo MAXqda non offre supporto per essi. Senza entrare
in questioni tecniche, è bene anche in questo caso mantenere una certa
semplicità nel loro formato, in termini di dimensioni (evitare grandezze non
necessarie) e tipo (formati più comuni).
Operazioni pratiche preliminari
Conviene acquisire maneggevolezza e fluidità nell’utilizzo del software,
imparando a conoscerne la logica tramite i vari menù e menù contestuali. Si
può, per esempio, fare pratica anche prima di iniziare a caricare i dati, creando
codici anche se non connessi a dati anche se si sarà intenzionati a un
approccio grounded. La difficoltà nel familiarizzare non è tanto perché i software
siano eccessivamente complessi, ma perché è necessario seguire la propria
strada, le proprie inclinazioni. Come ripetuto spesso nel capitolo precedente, è
possibile aspettarsi che il semplice utilizzo del programma permetta di sapere
condurre l’analisi. Considerando quanto con i software, e i computer in
generale, sia importante familiarizzare, «smanettare» per imparare, il fine
dev’essere quello di non diventare schiavi del programma, ma per poterlo
controllare e gestire in maniera più efficiente, ed essere in grado di compiere il
più possibile numero di operazioni come si sarebbe intenzionati a fare.
Vale quindi la pena di rilevare che con i software a poco serve la spiegazione
astratta delle caratteristiche. È meglio fare, capire perché e come si può fare
un’operazione. Non per niente i corsi brevi riescono a far apprendere poco.
Dovrebbero lasciare molto tempo per sperimentare e dare modo a chi sta
apprendendo di assimilare i concetti e provare le procedure. Inoltre, ripetiamo, il
software non si deve configurare come un vincolo: si può anche realizzare
l’analisi sulle stampe delle trascrizioni, dove è riportato il numero del paragrafo
89
ed è disponibile lo spazio per la codifica a penna, per poi riportare tutto sul
programma.
I software sono in grado di fare ordine nella confusione. Ma possono anche
essere in grado di crearla, specialmente quando si realizzano molti codici o si
lavora su molti documenti, importati inutilmente. È importante che i ricercatori
cerchino di usare la libertà concessa dal software per essere più limitati e
scegliere loro stessi i risultati che desiderano ottenere. Risulta difficile, se non
assurdo, stabilire limiti numerici alla quantità degli elementi prodotti dall’analisi.
Possono essere determinati unicamente dall’esperienza e dalla ponderatezza
del ricercatore.
Nel caso in cui ci si trovasse ad effettuare un lavoro collaborativo è importante
effettuare una programmazione su come si intenderà condividere il lavoro, sugli
aspetti teorici ed analitici, sperimentare le operazioni di merge (se non si
applica la collaborazione simultanea), e condividere il progetto (la lista dei
codici e altre osservazioni sui dati) in vari stadi. Occorre dunque lavorare come
un gruppo, coordinandosi nel vero senso del termine.
La mancanza di creatività nella ricerca qualitativa non la renderebbe più tale.
Questo non esclude sia necessaria anche precisione, al fine di prevenire
problemi e minare la profondità dell’analisi. Per questo abbiamo trattato di
questi accorgimenti. I ricercatori dovrebbero essere sistematici non solo
passivamente, grazie al software, ma aiutandosi con altri espedienti, come la
codifica dei nomi dei documenti associati anzidetta, utilizzando una strategia
intelligente (nei nomi dei file) anche per la cartella degli output. Inoltre si
evitano problemi anche salvando diverse copie (con data nel nome del file –
quella del sistema operativo non è sempre affidabile – o comunque con un
significato personale) del progetto. È possibile utilizzare in alcuni casi la
funzione “annulla”, ma non è il caso di farci troppo affidamento (come nei
database, dove solitamente non è prevista). Questo significa che è importante
effettuare backup frequenti, anche se alcuni software lo effettuano
automaticamente. Conviene sempre avere più di una copia del proprio
materiale digitale. Ricordandosi, ultima ma non per importanza, di proteggere i
propri dati: solo i membri del gruppo di ricerca devono potervi accedere.
90
Potrebbe ricorrere il caso di proteggerli con password, per renderli inaccessibili
in caso di furto o smarrimento, e prestare attenzione allo smaltimento dei vecchi
archivi, spesso pieni di dati personali dei soggetti, oltre che del ricercatore.
2.2 Una panoramica dei tre principali pacchetti
Il mondo dei CAQDAS non è come quello dei word processor dove è presente
un software dominante, o come è il caso di SPSS per l’analisi dei dati
quantitativi. Questo porta per certi versi a frammentare la comunità degli utenti,
mentre per altri ad offrire strumenti con funzioni base molto simili che i
ricercatori potranno valutare e scegliere il più idoneo alle loro esigenze.
Tra i vari software disponibili, tre di essi hanno ad oggi maggior diffusione e
completezza in funzionalità. Si tratta di ATLAS.ti, MAXqda e NVivo (Flick, 2006;
349-51; Gibbs, 2007; La Rocca, 2009; Lewins & Silver, 2007; di Gregorio &
Davidson, 200817).
In questa sezione saranno brevemente mostrate le possibilità offerte dai tre
software secondo le schema già visto nel primo capitolo, ovvero quelle che
considero le otto operazioni effettuabili sui dati. L’ordine di esposizione dei
software è prettamente alfabetico. Le versioni a cui viene fatto riferimento sono
quelle disponibili al momento dell’ultima revisione di questo elaborato (agosto
2009), e considerato quanto si sviluppano velocemente i software potranno
essere disponibili nuove versioni anche nel giro di pochi mesi. Le funzionalità
qui considerate non fanno tuttavia riferimento a nuove caratteristiche, mentre
per quanto concerne i confronti è possibile che le lacune di alcuni programmi
saranno colmate in nuove release18.
17 In Lewins & Silver (2007) e di Gregorio & Davidson (2008) è possibile trovare esempi ben spiegati con software recenti, anche se non le più ultime disponibili. 18 Si può fare riferimento ai working papers del QUIC (Qualitative Innovation in CAQDAS) Project (http://caqdas.soc.surrey.ac.uk/QUICworkingpapers.html) per reperire recensioni aggiornate riguardo alle recenti release dei software più diffusi.
91
Dove ritenuto opportuno saranno presentate delle schermate (screenshot)
relative alle funzioni trattate. Sebbene non intendiamo realizzare un manuale
per l’utilizzo dei software, l’aspetto grafico è comunque un aspetto
fondamentale da considerare.
ATLAS.ti : Nasce da un progetto di ricerca collaborativo e interdisciplinare nella
Technischen Universität Berlin, che ha coinvolto il dipartimento di psicologia,
informatici, linguisti e futuri utenti tra il 1989 e il 1992. Il prototipo è stato poi
sviluppato da Thomas Muhr (1991, 1994). Il programma nasce per supportare
la grounded theory e la codifica teorica di Strauss (1987). L’azienda ATLAS.ti
Scientific Software Development GmbH, fondata nel 2004, si occupa dello
sviluppo e supporto del software19 (Lewins & Siver, 2007; 241; Flick, 2006;
349). L’ultima versione disponibile è la 6.0.
Il costo delle licenze è il seguente: single user 1100€ (aggiornamento 550€),
educational 438€ (aggiornamento 220€), studente 99€20.
MAXqda : originariamente sviluppato da Udo Kuckartz (1995) al fine di
analizzare i discorsi politici, è il successore di winMAX, presente sin dal 1989.
La sua applicazione si è estesa in diverse discipline accademiche e settori di
ricerca applicata (Lewins & Siver, 2007; 252; Flick, 2006; 351). L’ultima
versione disponibile è denominata MAXqda2007.
Il costo delle licenze è il seguente: single user 900€ (aggiornamento 450€),
educational single user 430€ (aggiornamento 215€), studente 99€. I prezzi per
la versione comprensiva di MAXdictio (che permette funzionalità base di
content analysis) sono superiori di circa il 20%. Vi sono differenti prezzi per
19 Si vedano Hwang (2008) e Konopásek (2008) per delle recenti recensioni del software. 20 Si veda la pagina dedicata del sito del produttore: http://atlasti.com/licenses.html .
92
aziende private, dipartimenti governativi. È inoltre possibile acquistare licenze a
durata limitata21.
NVivo : Tom Richards e Lyn Richards (1998) hanno inizialmente sviluppato
Nud*ist a La Trobe University di Melbourne. Tom Richards (2002) ha utilizzato
le sue competenze di informatico per supportare il lavoro di sociologa di Lyn
Richards, per l’approccio della grounded theory. La QSR International è stata
successivamente fondata per occuparsi dei vari software QSR. NVivo nasce
come combinazione tra le funzionalità dell’ultimo Nud*ist (N6) e NVivo 2,
restando il prodotto di punta dell’azienda22 (Lewins & Siver, 2007; 262; Flick,
2006, 350). L’ultima versione disponibile è la 8.0.
Il costo delle licenze è il seguente: single user (commercial): 1630€; educational
single user 465€, student 185€. Il costo degli aggiornamenti varia in base alla
versione e licenza precedente. Vi sono differenti prezzi per aziende private,
dipartimenti governativi. È inoltre possibile acquistare licenze a durata limitata23.
Vicinanza e prossimità ai dati
ATLAS.ti
Il progetto in ATLAS.ti viene definito “unità ermeneutica”, termine che può
preoccupare chi si avvicina al software. Nella figura sottostante si può vedere
un documento primario aperto con alcuni codici. I codici sono raffigurati
dall'etichetta e da una parentesi a margine del testo, e possono avere diversi
colori. La parentesi indica la quotation, che nel software è un elemento
indipendente. In ogni menù a tendina è possibile accedere ai vari oggetti e alle
21 Si veda la pagina dedicata del sito del produttore: http://www.maxqda.com/shop/pricing . 22 Si vedano Bazeley (2007) e Johnston (2006) per delle recenti recensioni del software. 23 Si veda la pagina dedicata del sito del produttore: http://www.qsrinternational.com/quick-order.aspx .
93
quattro finestre dei manager (documents, quotations, codes e memo) per
organizzare ed ordinare gli oggetti. Sono oggetti dell’unità ermeneutica anche i
network. L’interfaccia di ATLAS.ti è semplice, e per certi versi esteticamente più
povera rispetto agli altri programmi.
Il sistema utilizzato è a database esterno, ovvero i documenti non vengono
importati nel software, ma letti direttamente dalla loro posizione originaria. Se
questo permette più flessibilità e riduce le dimensioni del progetto, ha il
problema di obbligare a non modificare i documenti se non all’interno del
software, che altrimenti potrebbe non riconoscerli dopo la modifica.
Interfaccia grafica di ATLAS.ti, tratta da Gibbs (2007; 111)
MAXqda
Nella figura sottostante si può vedere l’interfaccia di MAXqda, con ogni
probabilità la più semplice da apprendere essendo più user-friendly e compatta.
Sono presenti quattro pannelli: Document System, Text Browser, Code System
e Retrieved Segments, che possono essere mostrati e nascosti singolarmente. I
documenti sono definiti “texts”, e sono importati nel progetto (database interno).
94
I codici sono contrassegnati da linee colorate a fianco del testo, e il pannello
Retrieved Segments presenta informazioni riassuntive a fianco dei segmenti
riportati.
Interfaccia grafica di MAXqda, tratta da Gibbs (2007; 112)
NVivo
Nella figura sottostante si può vedere l’interfaccia di Nvivo: a sinistra vari
elementi del progetto, e poi visualizzazione simile a programma di posta
elettronica, anche se è personalizzabile sotto molti aspetti (consente la
visualizzazione a tutto schermo di alcuni elementi). L’interfaccia grafica del
programma cerca di essere la più semplice e completa possibile, pagando in
termini di requisiti e «peso» per il sistema. Il programma importa nel progetto i
documenti che si intende analizzare (database interno). I dati prendono il nome
di sources, e possono essere internals (che vengono importati) o externals, che
stanno al di fuori del progetto, ma che si desidera tenere sotto controllo,
95
sintetizzare e inserire come riferimento (dei link Internet, il capitolo di un libro,
ecc.). I sources sono organizzati in uno schema gerarchico.
Interfaccia grafica di NVivo, tratta da Gibbs (2007; 112)
Confronto tra la terminologia utilizzata dai tre so ftware
Prima di passare alle funzionalità, riteniamo opportuno riportare una tabella di
confronto tra la terminologia utilizzata nei tre software.
Tabella di confronto tra la terminologia dei tre software, adattata da di Gregorio e Davidson (2008; 238)
96
Applicazione di codici a segmenti di dati
ATLAS.ti
Vi sono molti modi per assegnare i codici, in modo tale che sia possibile
scegliere come ci si trova meglio (non avrebbe senso imporne solo uno). Per
codificare si può per esempio utilizzare la finestra del documento con il margine
associato, oppure la finestra gestione codici (tramite drag & drop). Si possono
assegnare diversi colori ai codici applicati al testo.
I codici possono essere posti in famiglie (ovvero dei gruppi, ma sono solo dei
link ai codici). Nei network, i codici possono essere posti in relazione tra loro,
anche in una forma simile a quella gerarchica. I collegamenti sono chiamati, per
esempio "is part of" oppure "is a" per i codici, mentre per le quotation possono
essere "justifies" oppure "criticizes". È possibile vedere tutti gli oggetti del
progetto nella ramificazione dell’Object Explorer.
Come già detto, ATLAS.ti è l’unico software che tratta le quotation come oggetti
indipendenti. Quindi vi si può lavorare indipendentemente dal processo di
codifica (free quotation), e annotarle, collegarle ad altre e visualizzarle in un
network. Le quotation hanno un nome (è comunque bene dare un nome
esaustivo, o porzione di testo concernente), ed è possibile commentarle. È un
aspetto importante per la ricerca e connessioni successive.
MAXqda
Nel software il codici sono sistemabili a livello gerarchico. Nel caso in cui non si
avesse già un’idea di come sistemare i codici in una struttura ad albero è
possibile semplicemente creare una categoria denominata “nuovi codici”,
mantenendoli tutti sullo stesso livello, per poi dopo eventualmente assegnarli ad
una struttura gerarchica. Sono presenti diversi modi per assegnare codici,
anche con il semplice drag & drop. In MAXqda anche il Document System è
gerarchico. Si possono assegnare diversi colori ai codici applicati al testo, ed
97
effettuare evidenziazioni colorate che comunque sono riconosciute dal
software.
NVivo
I codici sono denominati “nodes”, e sono suddivisi in tree nodes e free nodes.
Hanno le stesse proprietà, salvo la struttura gerarchica dei tree nodes. Può
essere necessario modificare le impostazioni per la visualizzazione dei codici a
margine del testo, chiedendo di mostrare i most coding o i recently coding
(ponendo un numero alto a questi ultimi si possono visualizzare tutti i codici
applicati). Altri tipi di nodi sono i cases, utilizzabili per organizzare i documenti,
o suddividere le informazioni, le relationships, per la creazione e codifica di
collegamenti tra oggetti e matrici, utilizzabili per salvare i risultati di una cross-
tab qualitativa. La codifica è velocizzata dal drag & drop e dall’utilizzo delle
barre degli strumenti. I codici realizzati possono essere visualizzati a margine
del testo, sotto forma di strisce (stripes), purtroppo di non facile lettura e ricerca
manuale.
Visualizzazione di un documento e delle stripes dei codici di NVivo, tratta da Gibbs (2007; 121)
98
Realizzazione di uno schema di codifica
ATLAS.ti
Come già accennato, la soluzione proposta dal software per organizzare i propri
codici sono le famiglie di codici. Hanno il vantaggio di non modificare la codifica,
essendo solo un collegamento tra codici. Possono essere utili per raggruppare
un argomento, un capitolo della tesi, oppure tutti i codici eccetto alcuni altri. Le
famiglie non sono mutualmente esclusive, ovvero i codici possono appartenere
a più famiglie contemporaneamente. È inoltre possibile suddividere più
nettamente i codici assegnandovi un prefisso, in modo tale da poterli meglio
organizzare. Le famiglie di codici sono combinabili in “super-families”, ovvero
una relazione tra due o più famiglie a cui si possono assegnare diverse
condizioni.
MAXqda
Come anticipato, il sistema gerarchico, fino a 10 livelli, e l’assegnazione di
colori ai codici, permettono l’organizzazione dei codici in diversi strati. Non è
necessario avvalersi di tale gerarchia, ma se rientra nelle intenzioni del
ricercatore può fornire un valido aiuto nell’organizzazione dello schema di
codifica. Si possono inoltre utilizzare altre caratteristiche per organizzare il
proprio schema di codifica come i colori e il peso (weight) dei codici.
Pannello del Code System di MAXqda, tratto da Gibbs (2007; 120)
99
NVivo
I nodes, fermo restando la suddivisione sopra menzionata, sono anche
visualizzabili nel complesso, per poter essere riorganizzati. È inoltre possibile la
creazione di sets, per raggruppare i nodi senza influire sullo schema di codifica.
Visualizzazione dei Tree Nodes di NVivo, tratta da di Gregorio e Davidson (2008; 163)
Esplorazione e visualizzazione dei dati semplice
ATLAS.ti
Dalla finestra di gestione dei codici è possibile vedere nella colonna “grounded”
quante quotation fanno riferimento ad un codice. È possibile ottenere una griglia
con il resoconto della distribuzione dei codici tra i documenti. Esistono diversi
tipi di output, che sono ordinati in base a come sono richiesti (quotation o
codici). Gli output generati dal software non sono «attivi», non permettendo di
100
ritornare al contesto in cui si trovano i segmenti dei dati presenti nel report. Non
è disponibile l’anteprima di stampa per i documenti che si desidera stampare.
MAXqda
Il software richiede l’attivazione degli elementi che si desidera recuperare,
operazione da compiere sia per i documenti che per i codici. I segmenti
recuperati vengono mostrati nel pannello “retrieved segments”, che si può
mantenere sempre presente nel programma.
NVivo
Sono presenti varie opzioni per ottenere i report, presentati nella finestra “detail
view”, e si può ottenere il report direttamente dalla lista dei codici. La finestra
detail view è interattiva e offre alcuni dati descrittivi dei segmenti recuperati.
Organizzazione della scrittura
Ricordiamo due importanti precisazioni sui memo: in primo luogo sono forse il
modo più proficuo per tenere un diario del progetto, e anche se non sono
pensati per essere codificati in alcuni software, nel caso diventasse un vincolo,
si può farli diventare dei documenti e quindi trattarli come tali.
ATLAS.ti
Abbiamo ripetuto più volte che in ATLAS.ti tutti gli oggetti sono indipendenti.
Questo aspetto peculiare del software porta a delle differenze anche nei memo,
i quali è possibile collegarli ai documenti, alle quotation, ai codici e inserirli nei
network.
101
MAXqda
I memo possono essere allegati a segmenti di testo, codici e testi. Sono
visualizzati da icone vicino agli oggetti collegati, e possono essere organizzati
da segnaposto colorati. Sono facilmente recuperabili e organizzabili secondo
criteri interni al progetto.
NVivo
I memo sono documenti vuoti, che saranno poi considerati veri e propri
documenti, e dunque codificabili e ricercati, e collegabili agli oggetti del
progetto.
Mappare idee e collegare concetti
ATLAS.ti
Si possono creare delle mappe, o come vengono denominate nel software
“network“, ponendo delle relazioni tra gli oggetti, anche se non sono
personalizzabili.
Visualizzazione di un network di ATLAS.ti, tratta da di Gregorio e Davidson (2008; 191)
102
Tali relazioni hanno poi valenza per successive query che si potrebbero
effettuare, e vengono «ricordate» per tutte le operazioni successive. Ogni
oggetto del progetto può essere incluso in un network.
MAXqda
Il software dispone di MAXmaps, che consente la creazione di mappe basate
su oggetti già esistenti nel progetto, o nuovi oggetti frutto di nuove idee. Gli
oggetti sono interattivi con il contesto in cui sono contenuti, e si possono
realizzare diversi strati di mappe. Vi possono essere inserite immagini e le
relazioni sono personalizzabili.
Visualizzazione di una mappa di MAXqda, tratta dal sito del produttore24
NVivo
I modelli possono essere statici o dinamici. Nel primo caso non sono connessi
con gli oggetti del progetto, nel secondo sono interattivi con la parte del
24 http://www.maxqda.com/products/screenshots .
103
progetto che rappresentano. In un modello si possono vedere le relazioni e
raggruppare gli oggetti del progetto. Le relazioni tra gli oggetti sono
personalizzabili.
Visualizzazione di una modello di NVivo, tratta dal sito del produttore25
Organizzazione dei dati su caratteristiche note
Come abbiamo visto nel primo capitolo, gli attributi sono una modo per
associare variabili ai dati qualitativi. Solitamente ogni caso in esame può avere
un valore per ogni attributo (o nessun valore se non è applicabile). Alcuni
esempi possono essere il genere, l’età, il luogo di residenza. Spesso queste
informazioni sono registrate in un sommario, simile alle matrici della ricerca
quantitativa. Nella ricerca qualitativa è tuttavia possibile applicare sia variabili
categoriali che attributi e valori ad altre unità d'analisi, come organizzazioni o
eventi. Per le organizzazioni, per esempio delle aziende, si può inserire il nome
dell'azienda, il numero di dipendenti e il settore in cui opera; per gli eventi si
possono inserire la data, l'ora e il luogo in cui sono avvenuti. Gli attributi
possono essere già determinabili all'inizio dell'analisi, oppure si formano nel
25 http://www.qsrinternational.com/news_media-resources_listing.aspx?view=8 .
104
corso della lettura dei dati. Le ricerche sono salvabili, per poterne vedere gli
sviluppi nel corso dell’analisi.
ATLAS.ti
Nel software le famiglie dei documenti sono utilizzabili per gli attributi. Le
“famiglie” infatti sono il raggruppamento effettuabile per i documenti, i codici e i
memo. L’organizzazione dei dati per famiglie e codici avviene quando
combinata nelle query (con la funzione scope).
Finestra del Query Tool e funzione scope di ATLAS.ti, tratta da Gibbs (2007; 137)
105
MAXqda
In MAXqda è possibile assegnare attributi a vari documenti, e gli insiemi di
documenti forniscono il collegamento a gruppi di testi. Una volta attivati i testi
d'interesse per attributi, e selezionato il codice o i codici che si desidera
recuperare, il risultato viene posto nel pannello Retrieved Segments.
Tabella degli attributi di MAXqda, tratta da di Gregorio e Davidson (2008; 134)
NVivo
Nel programma gli attributi sono applicabili ai cases, che possono comprendere
una o più source, o parti di esse. Essendo i cases un tipo di nodo, essi possono
avere assegnati degli attributi, ma non gli altri tipi di nodo. Il risultato
dell’assegnazione degli attributi è visualizzabile nel casebook. Per sfruttare
106
l’organizzazione dei cases NVivo ha strumenti di ricerca più avanzati, con
tabelle per comparazione.
Finestra degli attributi e del casebook di NVivo, tratta da di Gregorio e Davidson (2008; 112)
Finestra per la gestione delle proprietà dei cases di NVivo, tratta da Gibbs (2007; 135)
107
Interrogazione dei dati (esplorazione complessa)
Trattiamo ora brevemente la funzione più avanzata dei software, le query. Sono
già state accennate per quanto riguarda la ricerca di combinata di attributi e
codici.
Due sono i tipi di ricerca possibili: booleana26 e di prossimità. La ricerca
booleana presenta operatori come OR (combinazione, unione) e AND
(intersezione). Viene usata per esaminare ipotesi o idee sui dati, e dipende da
un dataset ben codificato. La ricerca di prossimità presenta operatori come
“seguito da” (followed by, ma anche segue o precede) e “vicino a” (near o co-
occurrence). È più di tipo speculativo, e viene usata per esplorare i dati, spesso
ad uno stadio iniziale di codifica. In entrambi i tipi di ricerca è possibile inserire
più di due elementi.
Vediamo alcuni esempi: per quanto riguarda la ricerca booleana, ricercando “A
AND B”, il risultato sarà solo il testo che è stato codificato sia con A che con B,
e nessun testo che è stato codificato solo con A o con B o nessuno dei due.
Ricercando “A OR B”, si otterrà tutto il testo che è stato codificato con A, con B
e entrambi. Nella ricerca di prossimità, inserendo “A followed by B”, il risultato
sarà il testo che è stato codificato con A quando è seguito da testo codificato
con B. Può essere necessario precisare la distanza richiesta. Ricercando “A
near B”, l’output sarà solo il testo che è codificato con un codice che risulta
vicino testo codificato con l'altro codice. Può essere precedente, successivo o
sovrapposto. Anche in questo caso può essere necessario precisare la distanza
richiesta.
Come precisato nel primo capitolo, le ricerche sono utili se si è effettuata una
buona codifica. Se i codici sono mal definiti, applicati incoerentemente e/o
concettualmente confusi, il risultato delle ricerche sarà inaffidabile, se non
26 “Termine che proviene direttamente dalla cosiddetta algebra Booleana. Questo tipo di impostazione matematica, che prende il nome dalle teorie di G. Boole, è un sistema algebrico che rappresenta una logica a due valori («vero» o «falso»)" (Pretto, 2008; 451; si veda anche Wetizman & Miles, 1995, in particolar modo le definizioni “boolean logic”, “set logic” e “search” del glossario. Anche in Gibbs (2007) e di Gregorio e Davidson (2008) viene ben spiegato l’argomento.
108
biased. Inoltre, val la pena di ripetere, anche se si è codificato opportunamente
il dataset, le query possono essere soltanto un supporto all’analisi.
ATLAS.ti
Nel software sono presenti diversi modi per effettuare ricerche complesse. I tipi
di relazione tra gli oggetti sono un mezzo di recupero, rendendo possibile
tramite la stessa interrogazione di effettuare una ricerca e mettere assieme gli
oggetti collegati. Le query si realizzano con il Query Tool, non proprio
immediato nell’interfaccia per i principianti. Per la ricerca tra codici si realizza un
super code, che si aggiorna automaticamente, e viene posto nella lista dei
codici. Può essere utile per catturare una prospettiva in particolari nelle diverse
fasi dell’analisi. Gli operatori utilizzabili sono quelli booleani, semantici e di
prossimità.
È possibile anche effettuare ricerche in tutto il progetto con lo strumento Object
Crawler: che permette di cercare stringhe, parole, e frasi nel contesto in tutti gli
oggetti. Un’altra possibilità è il Cooccurence Explorer: si tratta di uno strumento
semplice per controllare alcune relazioni basate sul lavoro allo stato attuale, per
l’esplorazione top-down delle cooccorrenze dei codici con altri codici (e
successivamente con le citazioni) ed infine la cooccorrenza dei documenti con i
codici (e poi con le citazioni).
In ATLAS.ti le query e la funzione auto-coding costituiscono due finestre
differenti. È inoltre presente lo strumento Word Cruncher, che permette il
conteggio delle parole in tutto o in parte del dataset. L’output non è interattivo,
ma è tuttavia esportabile.
MAXqda
Vi sono diversi strumenti per effettuare delle interrogazioni: per esempio il Code
Matrix Browser fornisce informazioni grafiche sulla distribuzione dei codici nei
documenti, e vi si può operare in maniera interattiva; vi è poi il Text Retrieval
tool, che utilizza gli operatori booleani, mediante una semplice interfaccia, e
109
permettendo di poter codificare i risultati delle ricerche. Inoltre MAXqda
presenta come componente aggiuntivo lo strumento MAXdictio, che permette
un’approssimazione di content analysis, fornendo un output interattivo ed
esportabile.
Finestra del Code Matrix Browser di MAXqda, tratta da di Gregorio e Davidson (2008; 134)
NVivo
Nvivo presenta un sistema più complesso per le query. Oltre alla sempice
ricerca di testo all’interno degli oggetti del progetto, quattro tipi di ricerche sono
possibili con il programma: testuale, all’interno delle sources, dei nodi, dei sets
e dei commenti; Coding query, che permettono una semplice ricerca che
combina attributi e nodes, ma anche ricerche avanzate con i nodes, mediante
operatori booleani e di prossimità; Matrix coding, per comparare coppie di
oggetti e visualizzarli in una tabella (matrice); Compound query, per la ricerca di
testo nei dati codificati o vicino ad essi. Tutte le query possono essere salvate.
È inoltre presente un’avanzata funzione di auto-coding, la quale sfrutta gli stili
del testo dei documenti importati nel progetto.
110
Finestra Coding Query di NVivo, tratta da Gibbs (2007; 139)
2.3 Altri software disponibili
Presentiamo ora una veloce rassegna di altri software disponibili, ovviamente
non esaustiva. I tre software sopra mostrati e i quattro che seguono
costituiscono tuttavia buona parte dei programmi utilizzati dalla comunità di
utenti.
HyperRESEARCH: è stato inizialmente sviluppato nel 1990 da Sharlene Hesse-
Biber, T. Scott Kinder e Paul Dupuis a Boston. Dal 1991 è stato sviluppato dalla
ResearchWare Inc., che se ne occupa tuttora assieme a HyperTRANSCRIBE,
un programma dedicato alle trascrizioni. Entrambi sono disponibili sia per
Windows che per Mac. L’ultima versione disponibile di HyperRESEARCH è la
2.8.2, e il costo delle licenze varia da 180€ per la student a 340€ per quella
single user.
QDA Miner: sviluppato da Normand Peladeau, un ex-valutatore di programmi, il
quale riteneva che il software dovesse facilitare sia l’analisi numerica che
testuale dei dati. In aggiunta a WordStat, consente le funzioni tipiche dei
CAQDAS con un range molto ampio di strumenti per la content analysis. Risulta
111
quindi il programma più evoluto nel campo delle metodologie miste27. L’ultima
versione disponibile è la 3.2. Le licenze single user commercial costano 1330€
(3100€ con WordStat), mentre quelle single user educational sono 390€ (650€
con WordStat)
Qualrus: sviluppato da Idea Works Inc,, con l’iniziale supporto di diversi
ricercatori qualitativi tra cui Howard Becker, si caratterizza dagli altri CAQDAS
per l’utilizzo di strategie computazionali intelligenti per assistere il ricercatore in
alcuni processi, come i suggerimenti di codifica e di raggruppamento tra codici.
Certamente oggetto di controversie, può essere di supporto per i ricercatori più
esperti. L’ultima versione disponibile è la 2.0, e la licenza student ha un costo di
130€, quella single user educational 300€ e la single user 820€.
Transana: nasce come software gratuito e open source per facilitare la
trascrizione, la gestione e l’analisi dei documenti audio e video. Creato da Chris
Fassnacht, ora è sviluppato da David K. Woods al Wisconsin Center for
Education Research della University of Wisconsin-Madison. Il software è
caratterizzato quindi dall’essere espressamente dedicato a dati multimediali (è il
software di riferimento per chi se ne occupa), ma anche dal permettere la
collaborazione in tempo reale tramite server. L’ultima versione è la 2.3, ed è
disponibile sia per Windows che per Mac. Da qualche mese non è più un
software gratuito, e la licenza ha un costo di 35€ come single user, ma può
differire molto nel caso si desideri la versione multi-user, che ha un costo di
350€ per progetto.
2.4 Osservazioni finali
In questo capitolo abbiamo visto sul piano pratico le possibilità dei tre software
più diffusi per l’analisi computer-assisted. Le funzionalità di base sono
congruenti, mentre l’elemento caratterizzante è la logica mediante la quale ogni
programma offre le procedure d’analisi e l’organizzazione delle informazioni nel
27 Si vedano Chomczynski (2008) e Lewis & Mass (2007) per delle recensioni del software.
112
progetto. Come visto nel primo capitolo è privo di senso stabilire quale sia il
software «migliore». È importante che i ricercatori intenzionati ad utilizzarne uno
siano a conoscenza delle alternative proposte dal mercato, per fare in modo di
meglio soddisfare le proprie esigenze e trarre il massimo vantaggio dal fatto di
avvalersi di un programma per assistere la propria analisi. Non sono tuttavia le
uniche dinamiche presenti nella scelta del software da utilizzare, ed essi
vengono utilizzati in modalità diverse. L’analisi di questi elementi e la
percezione dei programmi che hanno gli utenti sarà l’oggetto del prossimo
capitolo.
Infine, si sarà notato che dei sette programmi citati solo due funzionano su più
di una piattaforma, mentre nessuno è completamente multipiattaforma. È un
problema simile a quello presente con i software per i dati quantitativi, colmato
tuttavia dal software R. Degli spunti in tal senso sarà dato spazio nell’ultimo
capitolo, dedicato ai potenziali sviluppi dei CAQDAS.
113
3. L’apprendimento e l’esperienza con i CAQDAS
Nel capitolo precedente abbiamo esaminato le principali funzioni dei programmi
più diffusi. Passeremo ora alla ricerca empirica condotta riguardo l’utilizzo dei
software. Nella prima parte del capitolo saranno presenti le considerazioni frutto
della mia esperienza di insegnamento di un software per l’analisi computer-
assisted. Nella seconda parte saranno esaminate le opinioni, le difficoltà e le
esigenze di alcuni ricercatori qualitativi da me intervistati riguardo all’utilizzo dei
programmi nelle loro ricerche.
3.1 L’insegnamento agli studenti del corso di Metod i qualitativi
La preparazione
Intendo iniziare la sezione riguardante la ricerca compiuta riguardo ai CAQDAS
esponendo dell’esperienza di insegnamento e consulenza agli studenti del
corso di Metodi qualitativi del corso di laurea in Sociologia e Ricerca Sociale.
Sotto invito del prof. Giolo Fele ho avuto la possibilità di partecipare a 6 ore
accademiche di lezione, al fine di insegnare agli studenti l’utilizzo di ATLAS.ti.
Oltre all’insegnamento, sono stato successivamente impegnato nell’assistenza
e consulenza tecnica agli studenti.
Consapevoli che il tempo a disposizione non sarebbe stato sufficiente
all’apprendimento approfondito del software, il docente e le sue due
collaboratrici, Veronica Dei Rossi e Michela Ventura, hanno ritenuto comunque
una buona competenza anche solo sapere dell’esistenza di questi software. In
primis questo valeva per il sottoscritto, consapevole di quanto i CAQDAS
avrebbero potuto aiutare alcune delle ricerche svolte nel mio corso di laurea. Si
va dall’etnografia di un rione cittadino, compiuta in una versione precedente del
corso di Metodi qualitativi, in cui mi ero avvalso di strumenti «tradizionali» come
carta, forbici e etichette, congiunti a delle operazioni sui testi tramite un word
114
processor, allo studio riguardante il consumo mediale degli immigrati trentini,
basato su interviste in profondità, ed infine un’analisi del discorso, riguardante
un evento politico, avvalendosi di articoli di giornale
L’insegnamento dell’utilizzo di un software è a mio avviso sempre un compito
ingrato, ma valeva comunque la pena di provare. Come per lo studio o per la
scrittura della tesi, è difficile fornire il metodo più adatto per ognuno. Ma questo
non significa non ci siano cose da dire, degli inquadramenti da fornire. Gli
studenti erano tutto sommato fortunati in quanto tutto era stato preparato per
loro, e allo stesso tempo si presentava anche per me come una opportunità
vantaggiosa. È probabile che agli studenti sarebbe davvero bastato l’utilizzo di
un word processor, anche se in una modalità leggermente diversa dalla quella a
loro abituale; si è tuttavia ritenuto che fosse utile far loro familiarizzare con uno
strumento nuovo, anche se solo a scopo introduttivo. Inoltre, sebbene non vi sia
stato il tempo di mostrare praticamente le alternative disponibili, è stato fatto
notare che ve ne sono diverse utilizzabili.
Prima di procedere alle lezioni frontali è stato tenuto un breve incontro di prova
con il docente e le sue due collaboratrici. Si è rivelato un utile test, in quanto ero
inizialmente tentato a separare maggiormente i processi analitici nella
spiegazione, come avviene in molti manuali. In verità non è affatto semplice
suddividere i processi d’analisi, ed anzi può causare maggiore confusione. È
stato ulteriormente utile a vagliare le problematiche della versione dimostrativa
del software ATLAS.ti che è stata utilizzata. Il fatto di non presentare dei limiti di
tempo nel suo utilizzo (condizione ideale per la presenza nei laboratori che non
hanno acquistato le licenze), è controbilanciato dai limiti imposti al numero
massimo di oggetti salvabili all’interno di un progetto (10 documenti, 50 codici,
eccetera). Si è reso necessario progettare un accorpamento del materiale,
evitando la possibilità di organizzare i dati per attributi. Anche se è stato un
vantaggio stimolare un certa uniformità nelle trascrizioni e nei formati utilizzati
(.RTF e identificatore rispondenti). Sembra che i limiti siano stati studiati proprio
per essere sotto le necessità anche di piccole ricerche. Resta la possibilità di
poter comunque andare in dettaglio nell’analisi per poi salvare l’output e
rimuovere oggetti superflui (se l’analisi resta limitata a un aspetto).
115
L’oggetto della ricerca degli studenti riguardava uno studio sulle famiglie
italiane, con lo scopo di indagare la divisione dei compiti all’interno del nucleo
famigliare e la sua organizzazione, congiunto a quello di comprendere come
viene vissuta l’abitazione domestica e quali esigenze della vita famigliare sono
rappresentate nella casa. I dati comprendevano testi, fotografie e mappe delle
case. Gli studenti sono stati suddivisi in coppie, ognuna delle quali ha lavorato
su un diverso tema.
Per evitare problemi con i percorsi è stato consigliato di avvalersi di una
chiavetta USB. Per esigenze tecniche sono state realizzate due unità
ermeneutiche, una contenente le interviste condotte, l’altra contenente i tour
delle case. In quest’ultimo caso si è riscontrato il problema delle dimensioni
delle fotografie contenute in alcuni casi all’interno dei documenti, esacerbato dal
formato .RTF. È stato necessario spiegare quali procedure seguire per
ridimensionare le fotografie, competenza non particolarmente diffusa.
Nei giorni immediatamente precedenti alle lezioni sono state condotte delle
prove con le due assistenti sui dati oggetto d’analisi. Anche in questo caso è
stato utile al fine di prepararsi a certi problemi (quello dei percorsi in
particolare). In tal modo sono stati disponibili i loro dati già parzialmente
analizzati, in modo tale da avere una dimostrazione con il loro lavoro, preceduto
da un’esposizione di un mio esempio più completo. Questo fermo restando
l’importanza di operare una distinzione tra quelli che possono essere i problemi
dell’analisi e quelli che possono essere problemi tecnici.
L’insegnamento e la consulenza
I primi problemi legati all’apprendimento sono stati legati al salvataggio dei file,
vista la non immediatezza del sistema a database esterno. Inoltre si sono
riscontrati dei problemi nella comprensione della funzione e del funzionamento
delle famiglie. Il primo impatto degli studenti è stato cauto: “bisogna usarlo per
capire”, “al momento non mi sembra niente più di Word” sono alcune delle
impressioni ricevute.
116
Per quanto riguarda la consulenza tecnica successiva, ho osservato che gli
studenti cercavano di risolvere i problemi appena si verificano, a causa di timori
di aver perso il lavoro. Non credo tuttavia che abbiano usato funzionalità
avanzate (query, mappe, collegamenti). In parte sia perché c’era poco tempo
per spiegarglielo, sia perché non ne avevano nemmeno bisogno (anzi, avrebbe
portato a una maggiore confusione).
È stato anche interessante rilevare che anche i CAQDAS possono offrire
un’esperienza condivisa di utilizzo (come avviene tra gli studenti per i software
statistici), anche se più incentrata sui contenuti dell’analisi che sulle procedure
Segnalo qualche problema riscontrato successivamente alle lezioni, nella fase
di consulenza al lavoro degli studenti. In primo luogo, come già accennato
sopra, si sono verificati diversi errori nel caricamento dell’unità ermeneutica, in
molti casi perché gli studenti non copiavano anche i documenti originali nel
trasferirla da un supporto all’altro. Due studentesse hanno svolto un complesso
lavoro di codifica: si erano divise i dati da analizzare per poi scambiarsi le
rispettive unità ermeneutiche. A questo punto ognuna delle due ha
commentato, modificato e cancellato alcuni oggetti del lavoro dell’altra. Questo
ha comportato problemi nel merge, fattualmente difficile. Ho anche riscontrato
problemi nella comprensione della funzione di filtraggio e della non mutua
esclusività delle famiglie.
Un altro caso, più tecnico ma comunque significativo, è stato vissuto da due
studenti. Oltre ai problemi derivanti dalla struttura a database esterno (e quindi
dei percorsi dei documenti primari), hanno riscontrato problemi per l’utilizzo di
un sistema operativo molto recente; problemi aggravati dalle scarse
competenze di una studentessa anche a livello di semplice gestione file. Si
trovava inoltre più comoda ad avere un’unità ermeneutica separata per ogni
documento, realizzando una codifica molto limitata e per certi versi scorretta
(mancando l’intestazione del rispondente nella citazione selezionata) e con
pochi commenti.
117
La ricezione degli studenti
Passiamo ora al questionario somministrato durante la prima giornata di
presentazione dei lavori degli studenti. Si trattava di un questionario teso a
rilevare una valutazione dell’utilità di ATLAS.ti nella loro ricerca. Inizialmente
veniva chiesto di autovalutare le proprie competenze informatiche e se queste
erano considerate sufficienti all’utilizzo del software. Successivamente veniva
richiesto se i limiti della versione dimostrativa avevano influito negativamente
nel corso dell’analisi, e quanto è stato utilizzato il software per condurla. Infine,
per la parte strutturata, veniva chiesto se il software aveva aiutato la
sistematizzazione dell’analisi e se aveva aumentato la prossimità con i dati. Le
domande a risposta aperta interrogavano invece gli studenti sui vantaggi e i
limiti riscontrati nell’utilizzo del software, ed infine quello che a loro avviso si
potrebbe perdere e avvantaggiare. Al termine, l’unica variabile d’attributo
richiesta corrispondeva al genere del rispondente (20 studenti, 10 maschi e 10
femmine).
Le domande strutturate hanno portato a rilevare una situazione pressoché
invariante tra gli studenti. Praticamente tutti valutano le loro competenze
informatiche nella media e le ritengono più che sufficienti per l’utilizzo di
ATLAS.ti. La versione dimostrativa ha creato disagi, più o meno manifestati, ed
è stato dichiarato che il software è stato usato in larga misura per l’analisi. La
sistematizzazione dei dati e la prossimità ad essi è stata riscontrata
favorevolmente da quasi tutti gli studenti. Non si riscontrano infine significative
differenze in base al genere.
Le domande a risposta aperta aggiungono invece dei rilievi di natura
interessante. Quella riferita ai vantaggi percepiti del software vi sono la
semplicità e la sistematizzazione possibili nella codifica (in alcuni casi viste
anche in termini di «obbligo»), la comodità nella visualizzazione di più elementi
contemporaneamente, il collegamento e il confronto tra gli elementi. Velocità e
sguardo d’insieme sono le altre caratteristiche positive dichiarate. Interrogati dei
limiti del software, gli studenti hanno ripreso a muovere critiche nei confronti
della versione dimostrativa e ai percorsi dei file del progetto, ma soprattutto
118
alcuni hanno rilevato che anche se con più lentezza è possibile eseguire le
stesse operazioni sul cartaceo (“la praticità di un foglio”), che lavorare quasi
esclusivamente al computer è limitante e che il merge è un’operazione
eccessivamente complessa. In generale non vengono giudicate intuitive alcune
operazioni «obbligate» nel corso dell’analisi. Veniamo quindi alla domanda
riguardante l’eventuale perdita di «qualcosa» nel processo d’analisi utilizzando
il software. Si è trattato della domanda più critica, che ha portato al maggior
numero di missing. Il problema sembra essere che gli studenti mancavano di un
riferimento diverso dall’analisi assistita da computer, essendo per molti la loro
prima esperienza di ricerca qualitativa. Il software veniva vissuto per certi versi
con naturalezza e scontatezza. Nella maggior parte dei casi gli studenti non
hanno saputo rispondere perché non hanno un altro riferimento, oppure perché
ritengono di non conoscere ATLAS.ti approfonditamente. Comunque alcuni
trovano dei problemi, come quello di portare ad una eccessiva
sistematizzazione e libertà nelle interpretazioni, oppure ad una lettura
superficiale dei dati. Chi perciò ha risposto alla domanda mette in luce che
parte del proprio modo di lavorare viene a mancare (“Forse si perde un po' del
proprio modo di fare, cioè risulta un procedimento che alla fine diventa un po'
troppo automatico”). Da non dimenticare tuttavia che la mancata
problematizzazione del software come strumento di analisi potrebbe essere
dovuta alla considerazione che non offra molto più di quanto è possibile fare
con carta e penna o con un editor di testo. Infine, per quanto riguarda i possibili
vantaggi forniti dai software alla analisi qualitativa si ripropongono alcune delle
risposte e osservazioni precedenti. I termini più ricorrenti sono “velocità”,
“facilità” e “sistematicità” e “chiarezza”, riferite alle possibilità di recupero, di
codifica e di annotazione ben esemplificati da questo studente: "Sicuramente la
versatilità: ognuno può accedere ai dati; non ci sono problemi nella lettura;
risultano costantemente ordinati; la velocità di scambio".
Tali osservazioni riguardanti i vantaggi si ritrovano anche nei rapporti di ricerca
degli studenti, che vengono giustamente riportati nella parte metodologica. Ad
essi era stato richiesto di riportare una serie di output a partire da ATLAS.ti
(lista delle quotations, dei codici e dei memo). In esse si nota la strategia di
codifica e di selezione delle parti rilevanti adottate, mostrando grande varietà
119
nel numero di citazioni create e nella loro lunghezza, quanto per il numero di
codici, in alcuni casi veramente esiguo. Alcuni hanno fatto uso dei collegamenti
e dei commenti alle citazioni, mentre si riscontra uno scarso uso dei memo,
forse perché non sufficientemente esortato a lezione. Interessante il caso di due
studentesse che hanno usato il software solo per la prima selezione dei
segmenti rilevanti per il loro argomento d’interesse, per poi utilizzare il word
processor per procedere ad una colorazione dei titoli delle citazioni per la
costruzione di una tipologia.
Passiamo quindi ad alcune osservazioni riguardo le presentazioni degli
studenti. Ho rilevato un generale e diffuso uso di citazioni nella presentazione
dei risultati, probabilmente dovuto alla semplicità di recupero delle stesse. Un
altro elemento che ha caratterizzato le analisi degli studenti è un frequente
ricorso a schemi e tipologie generate dai dati, dove il livello più basso è
costituito presumibilmente dai codici, spesso riferiti in termini di concetti. Per
quanto molte tipologie non fossero molto elaborate, c’è da rilevare che il
software ha costituito uno stimolo alla loro generazione (in particolar modo
quelle a più dimensioni). Se questo può avere dei vantaggi nell’ordine fornito da
un modello, ha anche il problema aver portato alcuni studenti a porre delle
citazioni punto a punto, in quanto la teoria può anche essere generale, anche
solo d’indirizzo, non mostrando sempre il collegamento diretto con gli stralci.
Interessante il rapporto con i codici dimostrato dagli studenti: hanno percepito
quanto è un processo importante dell’analisi (“abbiamo codificato…”). Alcuni
hanno anche ritenuto di esplicitare il proprio schema di codifica nella
presentazione, la quale non aveva una forma lineare ma ipertestuale, mettendo
quindi in evidenza le connessioni presenti tra i codici. Il docente ha riscontrato
tuttavia una tendenza, per alcuni studenti, a fare un semplice lavoro di
etichettamento, senza il tentativo di generare una discussione, di «scavare» nel
paper.
Concludendo, ho riflettuto sulla necessità di accogliere questi software nella
fase di apprendimento della metodologia e la tecnica della ricerca qualitativa:
l’assistenza offerta dal computer può aiutare a concentrarsi sul lavoro d’analisi,
e portare a un minore smarrimento di chi è alle prime armi con questo tipo di
ricerca, specie tra le nuove generazioni di studenti. Ritengo che il fatto di
120
insegnare, anche a livello di interfaccia, un software a chi magari
successivamente lo utilizzerà per una propria ricerca sia stata un’esperienza
significativa e di grande valore (Carvajal, 2002; Corti & Bishop, 2005; di
Gregorio, 2003, di Gregorio & Davidson, 2008; 73-77). Per esempio si è notata
una capacità ben diversa da parte di chi aveva già utilizzato ATLAS.ti per una
ricerca, anche se non in maniera approfondita. Se dunque il rischio che si è
corso era quello che gli studenti svolgessero un’analisi un po’ troppo
automatizzata, non comprendendo a pieno l’importanza della ricorsività e
attenta lettura dei dati, ritengo che sia stata offerta agli studenti una possibilità
che a mio avviso potrebbe essere ampliata, a livello generale, nei corsi dedicati
ai metodi qualitativi. Una parte più consistente di laboratorio potrebbe
consentire un aiuto non solo nell’analisi ma anche nell’insegnamento
metodologico, magari lavorando su carta nel corso delle prime codifiche, per poi
passare al software. I problemi che si riscontrano sono in scarsa misura dovuti
al fatto che la ricerca qualitativa non sia realizzabile tramite l’aiuto del computer,
ma più incisivamente perché vi sono problemi di competenze informatiche ben
prima dell’utilizzo dei CAQDAS. Non aiutano il superamento di queste difficoltà,
comunque possibile, la scarsa intuitività di molti CAQDAS, che potrebbero
essere sicuramente migliorati dal punto di vista dell’interfaccia grafica.
3.2 L’esperienza dei ricercatori
Trattando di software per l’analisi qualitativa ritengo sia fondamentale
conoscere come vengono utilizzati tali software, quando e come ha avuto luogo
l’apprendimento del loro utilizzo, e il modo in cui sono stati utilizzati (da soli o in
collaborazione con un team di ricerca). È per questo motivo che è arrivato il
momento della parte dedicata alle opinioni ed esigenze dei ricercatori, rilevate
tramite interviste faccia a faccia (prevalentemente nel loro studio), e dove non
fosse possibile in via telefonica (Skype).
Gli intervistati, docenti e ricercatori coinvolti in qualche modo con i CAQDAS
(non tralasciando perciò chi invece non si avvale di questi software per la
ricerca), sono stati contattati per essere in grado di comprendere le principali
121
problematiche da loro riscontrate, e per cercare di capire le esigenze che essi
affrontano nell’analisi e ottenere un resoconto dei loro modi d'uso dei
programmi. Gli altri argomenti trattati sono la presunta ortodossia nel metodo
imposta dai CAQDAS, l’effettiva possibilità della collaborazione nel loro
ambiente di loro e il confronto con i metodi «tradizionali». Ottimi spunti sono
provenuti dal celebre studio di Fielding e Lee (1998), trattato nel primo capitolo.
Le interviste hanno coinvolto 15 ricercatori e docenti, di cui 1128 facenti capo
all’ateneo trentino e 4 docenti di altri atenei italiani. I contatti sono stati ottenuti
grazie ad alcuni consigli forniti dal mio relatore e a conoscenze avvenute nel
mio percorso accademico. Tra i soggetti dell’ateneo trentino vi sono 5 giovani
dottori di ricerca, 4 che invece lo sono da più tempo (almeno 5 anni), e 2
docenti. I nominativi sono riportati in forma anonima, e sono state volutamente
esclusi nomi di ricercatori citati (fatto salvo per i riferimenti alla letteratura).
Sono state omesse inoltre le informazioni dettagliate riguardanti le ricerche cui
gli intervistati facevano riferimento. Ho riscontrato in alcuni casi un certo timore
di «sfigurare» nel non sapere come rispondere ad alcune domande e
soprattutto nel parlare in maniera critica del lavoro dei propri colleghi. Più che
un timore nei miei confronti, sembrerebbe piuttosto il timore di sfigurare con i
colleghi – con cui hanno magari progetti in corso – o più in generale con il così
detto «collegio invisibile»29.
Approccio al software
La prima dimensione che intendiamo indagare è quella dell’approccio al
software, ovvero come è avvenuto il primo contatto con esso, le modalità e i
motivi per cui i soggetti hanno inteso avvalersene.
28 Due interviste sono state condotte in collaborazione con la nuova collaboratrice del progetto QDA-UniTN, Adriana Pimenta, che si sta occupando della realizzazione di use case per lo sviluppo della piattaforma. Ringrazio lei e il dott. Maurizio Teli per avermi dato la possibilità di partecipare a queste interviste. 29 Si veda Platt (1981) per un’interessante discussione riguardo l’intervista ai propri pari. Ringrazio la dott.ssa Albertina Pretto per la segnalazione.
122
Tendenzialmente il primo approccio avviene nel momento in cui i ricercatori si
sono trovati a dover lavorare con una grande quantità di dati, nella fattispecie la
tesi di dottorato, o in alcuni casi anche quella di laurea. Il suggerimento
proviene dal relatore o supervisore, il quale trova anche la possibilità di
approfondire uno strumento che in molti casi non conosceva in pratica.
L’apprendimento, o per lo meno l’imprinting con l’interfaccia e le funzionalità
base avviene solitamente grazie all’aiuto di colleghi o comunque ricercatori più
esperti. L’interesse nasce anche perché se ne sono viste le possibilità da altri
colleghi che li utilizzano. Alcuni intervistati riferiscono di altri ricercatori
(solitamente di istituti di ricerca privati) di loro conoscenza che pensavano di
poter usare i software per condurre sbrigativamente l’analisi, e che quando
scoprono che probabilmente sarà ancora più lunga abbandonano l’idea. Ecco la
versione di RIC5:
Io ho avuto diversi, almeno due o tre, persone che hanno degli istituti di ricerca privati, nel campo della ricerca di mercato, che mi avevano contattato perché avevano sentito parlare di questi programmi. E loro avevano l’idea che fossero programmi automatici, fondamentalmente. Quando gli si è detto “guardi che c’è una fase manuale, che bisogna necessariamente fare, e da qui non si può prescindere”, non hanno più avuto nessun interesse in questi programmi. Sono andati verso T-Lab ad esempio, o quella roba là, che lì invece può essere quasi tutto automatico insomma. O praticamente tutto automatico.
Inizialmente i più avevano dei pregiudizi riguardo all’utilizzo del software, che
poi sono in larga parte stati abbattuti, facendo tuttavia nascere altre perplessità
(considerate le difficoltà incontrate). Per esempio, RIC2 parla di un vero e
proprio «innamoramento»:
Però così come pregiudizio un po’ che c’era, l’analisi del contenuto è una cosa appunto interpretativa, soggettiva, e non sapendo bene come funzionava il programma, me ne ero tenuto un po’ alla larga, perché avevo detto “no, non posso affidarmi ad un computer…”. Perché non avevo assolutamente idea, cioè l’idea era che l’analisi computerizzata fosse qualcosa di automatizzato che faceva la macchina e non l’uomo. […] Poi, durante il dottorato in Sociologia, primo anno, abbiamo fatto il corso in cui c’hanno spiegato il funzionamento di ATLAS, [...], e lì appunto ho avuto modo di vedere che le mie idee preconcette erano completamente campate per aria, completamente sbagliate, e mi sono innamorato del programma. Perché ho avuto modo di vederne le potenzialità, e soprattutto per me è stato importante perché io dovevo fare una ricerca, che dovevo andare a presentare a un convegno, e era mesi appunto che stavo impazzendo per cercare di preparare una griglia di analisi per poter tener sotto controllo tutta questa mole di dati, sempre analisi del discorso diciamo, e non ero in grado di districarmi, e quando poi appunto abbiamo fatto il corso di ATLAS, ho realizzato che mi avrebbe risolto il problema. Perché non avevo più la rigidità della griglia e potevo direttamente, lavorando sui testi da analizzare (erano articoli di giornale), potevo lì direttamente diciamo operare, estrapolare quello che mi serviva.
123
Non necessariamente il primo software di cui si viene a conoscenza o che si
prova per conto proprio sarà quello che verrà utilizzato negli anni successivi.
Diverso invece il caso dell’apprendimento tramite seminari (nel proprio ateneo o
all’estero): in questo caso si crea un maggior legame con quel software, e il
confronto con gli altri vedrà con più probabilità la conferma nell’utilizzo di quello
già appreso. I motivi sono tra i più vari, e si va dalla percezione che quello sia il
più utilizzato (con cui sarà più semplice condividere il proprio lavoro e trovare
assistenza), a un apprendimento più approfondito grazie al fatto di avvenire con
i propri pari,con cui scambiarsi consigli e ottenere sostegno.
Diverso anche il momento in cui questo primo contatto è avvenuto: i primi
software erano molto complessi da utilizzare, e in molti casi sono stati
abbandonati, per poi essere ripresi quando a livello di usabilità hanno iniziato a
migliorare (RIC12):
Cioè, una cosa terribile, perché bisognava pulire bene il testo, se non era pulito bene era un gran macello, cioè molto «laborioso» [...]. Era molto laborioso riuscire a «ripulirlo», a intervenire sul testo di base. Era molto crudo ed essenziale, poi aveva tutte queste crocette che si ripetevano costantemente, e una volta che si mandava in stampa… Però Nud*ist costituiva il primo impianto in termini di software, la prima «architettura» - sì, forse è esatto dire così - che cominciasse a lavorare ragionando sul fatto che si dovevano costruire via via delle categorie. E che bisognava andare passo-passo a costruire una qualche teoria.
I ricercatori con alle spalle una carriera più lunga tendono a menzionare
software che oramai sono caduti in disuso o non sono più sviluppati, come The
Ethnograph e Nud*ist. I software più citati, in generale, sono ATLAS.ti e
NVivo30. In un caso il primo contatto è venuto con Transana, necessario per
una grande quantità di materiale videoregistrato.
Il desiderio di sistematizzare i dati, e di rendere più ordinata l’analisi viene
descritto da molti intervistati come una causa scatenante l’interesse. I seminari
hanno permesso tuttavia solamente la conoscenza di un nuovo strumento, che
fino a quando non è stato utilizzato in pratica non è stato apprezzato nelle sue
potenzialità. Difficilmente questi seminari sono infatti svolti quando i ricercatori
30 Ha inoltre causato confusione la definizione “software per l’analisi qualitativa”, in quanto alcuni intervistati hanno ritenuto opportuno menzionare anche altri tipi di software per l’analisi di dati qualitativi, ma con un approccio quantitativo (come T-LAB e TaLTaC).
124
hanno già materiale proprio su cui lavorare, e perciò possono anche passare
anni prima che essi si troveranno praticamente ad utilizzare un CAQDAS.
Questo è molto ben spiegato da RIC6:
Era un corso all’interno di un dottorato, che non era il mio. Devo io ho chiesto appunto di poter partecipare, dove “ok, nessun problema” e quindi ho seguito questo corso, il docente che spiegava l’utilizzo di questo software era estremamente competente, molto bravo. Chiaro nell’esposizione, cercava di darci un overview chiaramente - perché in un corso breve insomma - delle potenzialità di questo software. Poi però chiaramente lei lo sa: finché una cosa non si usa, rimane una cosa un po’ astratta.
Indagando più approfonditamente i motivi che hanno spinto i ricercatori ad
avvalersi o a pensare se avvalersi del software, nella maggioranza dei casi
fanno riferimento a quelle che sono le finalità esplicite di questi programmi,
ovvero liberarsi da tutto quel lavoro manuale e spesso portatore di confusione
che è dato dalle tecniche di analisi tradizionali. Sempre RIC6:
ho cominciato a occuparmi di ricerca qualitativa in tesi di laurea. Il mio relatore non ha saputo fornirmi delle indicazioni che mi supportassero nell’analisi. Pertanto diciamo che ho fatto un lavoro un po’ fai da te. Successivamente questa cosa mi ha fatto dire “ma… possibile?” E pertanto, successivamente al lavoro di tesi sono stata io che ho cercato una qualche informazione in relazione ai CAQDAS. Che è scarsa. «Vaga»? E che in genere viene fornita da un docente, in genere molto competente su uno di questi software che generalmente è quello che utilizza lui o lei, insomma. Questo è stato il mio approccio.
La problematica può anche essere ancora più «materiale» (RIC14):
sono interviste che come minimo durano un paio d’ore. Quindi, comunque sia, l’immagine di un materiale cartaceo, come dire, di una mole enorme. Sostanzialmente i motivi per cui io ho iniziato a usare il software sono stati diversi, ad esempio Atlas [...] perche comunque lavoravo con altre persone e quindi passarci il file con le interviste era importante perché potevamo lavorare sullo stesso materiale e poi ripassarci i dati già categorizzati. Invece per la mia tesi l’ho utilizzato per tutt’altra ragione nel senso che sono andata in Inghilterra a scrivere la tesi per tre mesi [...] e lì era un problema di pagine banalmente. Nel senso che non era pensabile partire con 2000 o 3000 pagine…perché 40 interviste narrative con 2 ore l’una fai in fretta a fare qualche migliaio di pagine e quindi immagini che fare un’analisi su carta di un paio di migliaia di pagine inizia a diventare complicato … un po’ per una questione proprio di peso un po’ per una questione che arrivi a pagina 1500 che non ti ricordi quello che hai fatto a pagina 10 e quindi in questo senso il software viene utile e anche per cercare di sistematizzare i dati.
Interessante il giudizio degli intervistati riguardo il confronto con l’analisi
tradizionale. RIC4, ricercatore qualitativo da lungo tempo, non ha dubbi al
riguardo
125
No, no. No. Assolutamente. Io mi ricordo le forbici, i ritagli, i colori... i colori poi non bastavano! Guarda, era un lavoro certosino. Per carità, lo è anche questo. Per lo meno, lo velocizza.
Il discorso non è comunque così semplice, perché tale questione ne fa
emergere un’altra, ben più importante del semplice confronto tra un prima e un
dopo, ovvero la reale necessità di software per l’analisi qualitativa. In molti casi,
ragionevolmente, i ricercatori non giudicano negativamente le ricerche in cui
non ne hanno fatto uso loro stessi, o altre ricerche in cui non era ancora
possibile utilizzare i CAQDAS perché non esistevano ancora. Descritte come
più lunghe, laboriose, ma anche con il problema di non riuscire a cogliere
proprio tutti gli aspetti che si sarebbero voluti far emergere, le ricerche condotte
senza l’ausilio del software sono di pari dignità e rispetto. Non viene mai
affermato, con identica ragionevolezza, che l’ausilio del software possa portare
il ricercatore a declinare a una macchina il suo intuito, il suo ragionamento, più
in generale la comprensione dei fenomeni. RIC13 parla dei decenni precedenti:
L’altra cosa importante di quel dibattito all’inizio degli anni ’90 e alla fine degli anni ’80 ha fatto sì che i quantitativi, o quelli che chiamo «quantofrenici», ci guardassero con maggior rispetto. Il fatto che noi usassimo la macchina invece che carta e penna, cioè veramente “carta e matita”, quello che rende felice un matematico quando inventa una formula, loro avevano bisogno di vedere «la macchina». Ecco, la macchina, a quel punto lì ci ha reso più rispettabili, non scientifici, ma meno, come dire, dediti alle chiacchere. Più seri. Più rispettabili. E anche questo mi dava fastidio. Perché in realtà la rispettabilità ce l’hai soltanto quando hai una teoria che ha un qualche senso, che dice qualcosa. Non ce l’hai perché hai fatto tutto quanto via macchina. Uso il termine «macchina» per dire che sono macchine, non sono soltanto… sono dei software ma sono macchine, che cambiano la coreografia e il rapporto.
L’analisi «carta e penna» non viene mai demonizzata. Vista come una perdita di
tempo in certi casi, ma sempre come più che sufficiente per l’analisi. In certi
casi il punto della questione non viene nemmeno messo in dubbio, in altri non si
vede particolare differenza con quello che effettivamente è possibile effettuare
mediante l’analisi computer-assisted. Fatto salvo magari per un approccio più
«personalizzato» che si può ottenere mediante carta e penna, ma per contro
meno condivisibile e anche meno stimolante nella realizzazione di commenti e
annotazioni per rendere più esplicito il proprio processo di analisi. Viene visto
anche un rischio nella perdita di quello che dovrebbe essere la prerogativa del
ricercatore, ovvero la conoscenza approfondita dei dati. Lo sintetizza bene
RIC3:
126
Mah, a me verrebbe da dire che cambia poco. Sì, cioè, io non avrei questo timore. Sinceramente io quello che consiglio poi anche alle persone, per motivi di tesi o compagnia, la prima volta in cui fanno un’analisi di dati qualitativi, io comunque consiglio di farlo su carta. Cioè, di farlo manualmente. Nel senso che secondo me farlo manualmente è sicuramente molto più lungo, ti impegna molto di più… allo stesso tempo ti permette di «irrobustirti», impossessarti di alcuni processi di ragionamento. E poi quindi il fatto di utilizzare la carta e non uno schermo, un software e così via, è una questione semplicemente di opportunità, di piacere personale. Cioè nel senso, dal mio punto di vista, nessun software per l’analisi qualitativa potrà mai sostituire il ricercatore. Cioè, l’interpretazione fornita dal ricercatore. O almeno quelli che conosco io non funzionano in questo modo.
L’atteggiamento nei confronti del software
Sicuramente uno dei problemi maggiori è quello riguardante le competenze
informatiche di chi si approccia al software. Esse non sono tuttavia
necessariamente legate alla propensione che si ha nei confronti del computer.
Uno dei problemi più citati da questo punto di vista è relativo al dover leggere
su schermo una grande quantità di dati, in parte anche perché si passa già
molto tempo di fronte al computer e si cerca di mantenere la lettura dei dati
della propria ricerca sul cartaceo (che consente di essere utilizzato in diversi
luoghi e contesti).
Ovviamente i potenziali problemi dei software non riguardano solamente le
questioni tecniche. Ecco che allora è necessario aprire una breve parentesi
riguardante la natura della ricerca qualitativa, tematica risultata ineludibile nel
corso delle interviste.
Il punto principale della tematica è quello di capire, come detto da RIC6
“l’analisi qualitativa, ma quale?”. E per quanto riguarda il software si tratterà non
tanto di parlare di tecniche, ma di utilizzazioni a partire dalle tecniche. Si tratta
di un punto che è stato sicuramente influenzato dagli approcci a cui fanno
maggiormente ricorso gli intervistati, che comprendono la grounded theory,
l’analisi del discorso, l’analisi del contenuto, la sociologia visuale, che in molti
casi prevedono una personalizzazione in base alle esigenze del ricercatore.
Parlando delle caratteristiche e dei problemi della ricerca qualitativa è talvolta
emersa qualche critica riguardante i meccanismi all’interno della comunità degli
127
studiosi. Dibattiti ritenuti superflui da alcuni, assunti di fondo irrisolvibili,
mancanza di collaborazione tra ricercatori. Piuttosto che per la natura delle
critiche, ritengo che esse siano significative come indicatore del multiforme
panorama della ricerca qualitativa.
Non per questo si può dire che non siano emersi rilievi degni di nota: il grande
impegno in termini di tempo e concentrazione richiesti da questo tipo di ricerca,
che in certi casi si tramutano nella realizzazione di analisi superficiali (a causa
di scarsità di fondi e perché i tempi delle pubblicazioni sono brevi), che non
vanno oltre la semplice descrizione, e che sono deboli anche nelle restanti fasi
(progetto, rilevazione, ecc.). Vediamo gli interessanti spunti di RIC5:
diciamo che come sempre le cose funzionano se ci sono dei vincoli, no? Allora, mentre nel campo quantitativo il computer è una cosa… no computer nel senso di… no sbaglio a dire computer, un programma di analisi dei dati, come potrebbe essere appunto l’SPSS, Stata, questi qui, sono passaggi obbligatori. Nel senso che tu o fai la statistica a mano, ma ormai non si fa più, oppure la devi fare per computer, non c’è altra possibilità, per il software. Nella ricerca qualitativa invece questo vincolo non c’è, perché puoi ancora fare tutto quanto a mano se vuoi, no? Cioè, nessuno ti dice che non lo devi fare. E fare le cose a mano, se le fai da solo, è più facile, nel senso che per il 95% delle ricerche che tu fai, fai prima. Nel senso, di ricerche nel senso «scientifico» del termine se ne fanno molto poche nel corso di una vita insomma. Si fanno tante ricerche, ricerchine, commissionate dalle provincia, e il comune che te la chiede, o il committente privato. Cioè, la maggior parte dei sociologi penso che facciano in un anno magari mezza ricerca di quelle su cui poi pubblicano degli articoli, delle cose, e il restante tutte ricerche, ricerchine per questi committenti insomma. E a fare ricerchine per diversi committenti non c’è nessun incentivo a fare l’analisi dei dati fatta bene. Nel senso che a volte sono pagate anche poco, poi hanno tempi strettissimi, poi il committente non è uno che ne capisce molto, per cui alla fine tu fai le tue analisi seriamente, ma te le fai a mano. Quindi hai fatto un po’ di etnografie, ti guardi le tue note etnografiche, tiri fuori le cose più interessanti che sono venute. Hai fatto delle interviste, hai trascritto, ti hanno sbobinato parte d’intervista, te le leggi, segni le cose più interessanti, e poi le metti insieme in un’analisi, in un rapporto di ricerca. Fare tutto questo passando per un programma come NVivo ti rallenta tantissimo questa attività. E ovviamente ti eleva moltissimo la qualità della ricerca. Però facendo un calcolo costi-benefici, se diciamo così, non ne vale la pena.
Questo tuttavia non significa che gli intervistati parlino della ricerca qualitativa
(in tutti i suoi approcci) in termini di inferiorità rispetto a quella quantitativa. Anzi,
ne viene fornita un’immagine tale da attribuire ad entrambe «pari validità, e
anche dignità». Il problema della trasparenza e della «fiducia» che è necessario
riporre nel lavoro degli altri ricercatori è presente anche nelle indagini survey.
128
Vedremo più avanti cosa ne pensano gli intervistati sul rapporto tra i CAQDAS e
la grounded theory. Un riflesso di questo argomento lo si ha anche trattando
dell’analisi qualitativa in genere, come ci tiene a precisare RIC4:
[...] sempre evitando di assolutizzare o di enfatizzare un approccio rispetto ad un altro. Per esempio io sono molto critico di quello che è l'atteggiamento attuale di Barney Glaser. L'inventore, insieme con Alfred Strauss, che ora è morto già da qualche anno, della grounded theory. Barney Glaser è una sorta di pontefice massimo, una sorta d'inquisitore, quindi se tu gli mandi un prodotto dice "ah no, hai sbagliato! la grounded theory è questo! dev'essere per forza...". Cioè, diventa molto rigido questo atteggiamento, e secondo me, come dire, non è particolarmente produttivo. Naturalmente lui pensa esattamente il contrario. Io sono per una ricerca molto aperta, come dire, non chiusa.
La grounded theory viene visto come un approccio prevalente, ma che non
esaurisce interamente la ricerca qualitativa. Questo anche da ciò che si può
dedurre da quanto riportato sopra, ovvero che è difficile capire cosa s’intenda
veramente per grounded theory, considerate le molteplici declinazioni che
presenta l’approccio.
Spesso gli intervistati ritengono che in Italia lo stato della ricerca qualitativa sia
indietro rispetto ad altri Paesi, quelli anglosassoni in particolare. Per esempio
RIC5:
La seconda cosa è che sono molti meno quelli che li usano nella ricerca di quanti sono quelli che dicono di usarli. Perché tutti quanti da un po’ di tempo si riempiono la bocca che usano questi programmi, in realtà poi non sono così tanti quelli che lo usano. Perché sono programmi ingombranti, che non son così facili da usare. Non tanto nella difficoltà, quanto richiede un lavoro di analisi che non so, in Italia (non so negli altri paesi però) noi non siamo abituati a fare. Cioè, anche nella ricerca qualitativa c’è un po’ questo pregiudizio fondamentalmente, che la cosa importante sia raccogliere i dati. Allora: grande lavoro nel disegno della ricerca (sto parlando di qualitativi eh), grande attenzione a raccogliere i dati, possibilmente originali - quindi si fanno le etnografie, si fanno le interviste, quando alcuni autori già dicono abbiamo ormai così tanti dati, perché devi andare a raccoglierne altri? Cioè, prendi interviste già fatte, e analizzale meglio in sostanza, cioè non occorre adesso sempre raccogliere i dati originali, e invece, soprattutto tra i dottorandi c’è questa tendenza che tu devi raccogliere i dati originali. Per cui alla fine tu impieghi tantissimo tempo nel raccogliere i tuoi dati, e poi ti rimane poco tempo per l’analisi, perché nel frattempo c’è da scrivere il rapporto, ci sono le scadenze del dottorato e tutto quanto, quindi alla fine la Cenerentola dell’analisi qualitativa è proprio l’analisi dei dati.
Scarsa menzione da parte degli intervistati, anche perché non esplicitamente
presente nella traccia di intervista, delle tecniche miste di ricerca. L’unico a
dimostrarsi a favore è RIC4:
129
Diciamo che naturalmente la triangolazione è una carta vincente. Usare più metodi, cioè... naturalmente uno può anche sviluppare di più certi ambiti, specializzarsi, continuare. Però senza chiudere le porte ad altre soluzioni. Perché poi verifichiamo che ci sono molte convergenze, molti risultati che si sovrappongono e che dunque sono più affidabili che non altri.
Vista la parte riguardante l’analisi qualitativa in termini generali, torniamo ora al
software. Nello specifico ciò che intendiamo ora andare ad analizzare è la
presenza di un’eventuale «logica nascosta» (Bazeley, 2007) nei software
secondo gli intervistati. Passiamo quindi al rapporto tra il ricercatore e il
software, nel quale vedremo diverse prospettive.
Il software viene definito in vari modi. Per alcuni si tratta di un supporto non
primario (RIC1), di un ausilio posteriore o non determinante (RIC6 e RIC13), o
di una semplice opzione (RIC5). Oppure i CAQDAS vengono interpretati come
utili e funzionali, descrivendone un supporto di tipo strumentale (RIC7), come
mero strumento (RIC8 e R11) o come uno strumento dei tanti che è bene
avere. Infine vi sono le definizioni più elaborate, come quella che vede i
programmi come co-costruttori di dati, già scelta metodologica (RIC10), o quella
che lo interpreta come uno strumento e come tale condizionante, che fornisce
senso di sicurezza tramite un effetto stabilizzante (RIC12), da utilizzare perché
è già parte del nostro mondo (intendendo i computer e la tecnologia in genere).
Sebbene praticamente tutti gli intervistati sostengano che i CAQDAS non sono
fondamentali per condurre un’analisi di tipo qualitativo, il primo tipo di
interpretazione – che potremmo definire “i software come opzione” fa capo agli
intervistati più scettici e con più ritrosie nei confronti dei vari pacchetti. Questo
distacco può essere attuato utilizzandoli solo il minimo indispensabile, dopo il
completamento della raccolta dati e avvalendosi molto di strumenti più
tradizionali. RIC1 dice per esempio:
l’uso che ne faccio io è alla fine dell’analisi, quando ti trovi a scrivere, per cui tu hai già in mente magari i tuoi temi, i tuoi argomenti, il succo di quello che vuoi dire, e quando devi spiegarli in maniera ampia e distesa, di spiegare appunto il ragionamento sulla pagina scrivendo per qualcun altro, alla vai nel software e cerchi tutti i dati che c’entrano con quell’argomento lì, che tu ovviamente hai codificato in una maniera o nell’altra, hai anche delle memo che probabilmente inserirai nell’analisi scritta. Però è più per trovare nello stesso posto tutto quello che ho pensato su quell’argomento, o visto, o osservato, o registrato, o scritto, o raccolto, più che per analizzare tutto quello che ho, perché in realtà l’analisi è più contemporanea alla raccolta dati, soprattutto in un’etnografia, e quindi è più dentro di me, ti direi, ecco. Meno esternalizzata in software e più interiorizzata, forse.
130
Gli intervistati che considerano il software come un’opzione sono più fermi nel
constatare che mai nessun programma potrà evitare la lettura attenta ed
accurata dei dati, come se i programmi avessero questa finalità. Perciò, anche
se utilizzatori dei software, essi dimostrano nonostante tutto di avere maggior
timore nei confronti del software, ben spiegato autocriticamente da RIC5:
Quindi, secondo me c’è stata un’avversione al computer, ma perché il computer veniva usato dagli statistici. E quindi diciamo hanno sbagliato bersaglio. Cioè, se la volevano prendere con gli statistici, ma se la sono presa col computer. Credo che ormai, nella maggior parte ormai, questa cosa sia caduta, anche perché il computer lo usano tutti quanti insomma, cioè i qualitativi - non solo come base testuale - ma anche per metter dentro cose, interviste, filmati, robe, insomma si fa tutto con il computer insomma. Il Powerpoint è uno strumento che viene usato tantissimo dai qualitativi, come anche dagli altri insomma. Quindi secondo me questa cosa che dicevi tu nasce su una confusione e comunque credo che sia abbastanza superata.
Il secondo tipo di interpretazione è più legato alla pura strumentalità dei
pacchetti software. Questi intervistati non ritengono i CAQDAS altro che meri
strumenti. Non tanto perché siano solo un’opzione, ma piuttosto perché il loro
supporto nell’analisi è presente ma raramente la influenza nelle procedure.
Anzi, molti ritengono che questo non debba assolutamente accadere. Per
esempio RIC7 sostiene che non si sia mai fatto influenzare dalle funzionalità e
procedure offerte dal software.
Intanto l'attenzione da avere è quella di usare, almeno io faccio così, uso il software per rispondere a delle precise domande. Io ho dei problemi da risolvere, e chiedo al software di risolvermi quei problemi che ho. Non cerco di impostare l'analisi a partire dal menù di risorse che il software mi propone. Ma cerco di risolvere dei problemi. Quindi probabilmente mi rendo conto che io uso NVivo per il 10% delle sue funzioni. Forse meno. Perché io lo uso solo per rispondere a quelli che sono i miei problemi. Quello di cui ho bisogno. Forse delle volte lo sottoutilizzo perché magari ci sarebbero delle opzioni che non conosco, però delle due, dovendo scegliere, preferisco un sottoutilizzo di NVivo piuttosto che un utilizzo di NVivo che diventa vincolante per la mia analisi. Per cui mi rendo conto di sottoutilizzarlo perché il rischio è molto presente.
La prospettiva “mero strumento” viene affermata decisamente da RIC8, il quale
ritiene che il piano del software sia totalmente disgiunto da quello metodologico,
e più in generale dai problemi della ricerca qualitativa:
come le ho detto il software è solamente, brutalmente, la cosa più banale di questo mondo, quello che fa normalmente è “taglia e incolla”. E a quel pezzo tagliato gli attribuisce una o più etichette. Che sia Nud*ist, che sia ATLAS, che siano altre cose. È ovvio, poi uno può discutere, eh vabbé, programmi che vanno ad applicare poi modelli matematici o cose di questo genere, in quel caso allora, come si dice, non ti piace questo tipo di approccio, siamo d’accordo. Ma per quanto riguarda
131
questi altri programmi, non applicano nessun tipo di euristica. Non è che applicano nessun tipo di vincolo. Anzi: quello che fanno è proprio liberare totalmente il ricercatore dalla parte noiosa. Proprio dalla parte manuale del doversi prendere appunti, dal doversi fare le cose, su pezzi di carta, e girare… Solo quello.
Tali affermazioni sono anche da leggere in contrapposizione a quanti
credevano o credono tuttora che i software siano in grado di svolgere
automaticamente l’analisi, ovvero una delle “false speranze” menzionate da
Seale (2005). I motivi sottostanti il loro scarso utilizzo, specie in passato,
risiederebbero nella scarsa abilità informatica di molti ricercatori qualitativi,
peggiorata da pregiudizi nei confronti dei mezzi informatici.
Il terzo tipo di interpretazione è quello che vede il software come co-costruttore
dell’analisi. Il software influenza certamente le procedure e le tecniche con cui
si analizzano i dati, ma non per questo sono da demonizzare, in quanto basta
conoscerne i rischi, come per ogni strumento. Vediamo RIC10:
L’importante è proprio dare l’idea che sei consapevole dei tuoi passi metodologici, e lo strumento che utilizzi per gestire i dati è una scelta metodologica, non è una scelta di comodo, perché è bello, perché rende più appetibile la cosa. È di fatto una scelta metodologica, quindi nel capitolo, o ogni articolo, o ogni tesi di dottorato, ogni tesi insomma, ha il suo capitolo metodologico, ed è importante anche tenere conto di questo. Quindi bisogna anche un po’ spiegarsi, spiegarsi come l’hai utilizzato, perché l’hai utilizzato.
Un’altro effetto non poco significativo è segnalato da RIC12:
Una questione di «comunità». Di comunità scientifica, accademica, e che significa che in qualche modo… senza voler essere oscurantisti insomma, e pensare che ritorniamo tutti a usare semplicemente carta e matita, ma il software e l’utilizzo del computer dà una certa sicurezza per avventurarsi nell’analisi qualitativa. In qualche modo stabilizza, io non so dire perché, però stabilizza questo rapporto tra la persona che fa analisi qualitativa e l’analisi che sta facendo.
Trasversalmente a questi tre tipi di definizioni, emerge che molti intervistati
hanno voluto precisare più volte che l’analisi dei dati resta nelle loro mani, come
se fosse stato affermato il contrario oppure dimenticando che viene definita
computer-assisted per una ragione.
Passiamo ora ad analizzare i vantaggi che gli intervistati, qualsiasi sia la loro
posizione in materia, attribuiscono al software. Indicatore di una tendenza
generale il giudizio di RIC5:
se i ricercatori qualitativi usano questi strumenti la loro attendibilità migliora tantissimo. [...] Perché ti introducono una maggiore logica, puoi controllare anche
132
delle ipotesi, ti vengono delle idee, poi tu fai una serie di incroci, con gli operatori booleani, insomma queste cose qui, e trovi le corrispondenze insomma. Ti permette anche di fare qualche grafico, qualche modello teorico insomma. [...] Quindi, io inviterei caldamente, veramente farei dei corsi, perché se questa tendenza passa, è solamente positiva. Solamente positiva. Perché ci allontaniamo sempre di più a quello stereotipo che in parte non è ingiustificato, da parte dei quantitativi, che dicono che noi facciamo le cose così insomma, un po’ a naso, ci mettiamo lì, leggiamo un po’, tiriamo fuori le cose in maniera molto artigianale, nel senso negativo del termine. Quindi: l’usare questi programmi seriamente è sicuramente una risposta a queste critiche che, ripeto, erano anche fondate insomma, sono anche fondate. Quindi io sinceramente spingerei per queste cose qua insomma. Quello sicuramente.
In termini generali i ricercatori parlano di diversi vantaggi dei software, arrivando
in un caso in cui l’ausilio del software viene descritto con toni entusiastici come
un’aggiunta sorprendente al proprio lavoro. La possibilità ritenute più importanti
sono quella di rendere disponibili i passaggi della propria analisi agli altri
ricercatori, e quella di poter gestire e organizzare una grande quantità di dati. I
CAQDAS si configurerebbero come un vero e proprio supporto alla memoria,
come rileva RIC4:
Come faccio a ricordare cos'ha detto chi, come, quando e in quale contesto? Col computer digiti, dai le istruzioni e in quattro e quattr'otto hai la risposta. E quindi contemporaneamente sullo schermo magari te lo dividi in quattro e puoi controllare i diversi passaggi e cominciare a fare riflessioni.
Per RIC9 non si tratta tuttavia di un semplice ausilio d’archivio, come una
semplice banca dati. Vi è un meccanismo psicologico ben più ampio, che può
influire significativamente sull’analisi:
fondare la plausibilità dei risultati, e contrastare un problema che è presente in queste procedure di analisi, quello di costruire inferenze viziate da quella che gli psicologi cognitivisti chiamano “euristica della disponibilità”, cioè il fatto di trarre inferenze a partire dai propri dati, sulla base di informazioni che sono o più vivide o più immediatamente disponibili al ricercatore indipendentemente dalla loro salienza e rilevanza nel contesto generale.
Questi meccanismi portano il ricercatore a dare conto di ciò che sta facendo,
soprattutto a sé stesso. RIC8 ne parla in termini di «liberazione» da certi aspetti
del processo di ricerca:
sono fondamentali perché costringono il ricercatore a pensare a quello che sta facendo. In qualche modo liberano il ricercatore della parte meccanica, per permettergli di concentrarsi sulla parte di effettiva analisi della ricerca. Ma in questo processo c’è una continua interazione tra lui e quello che sta facendo. E il feedback che lo strumento gli permette: l’andarsi a vedere cosa cavolo ha codificato, come l’ha codificato, eccetera eccetera, è fondamentale. Perché altrimenti non ci sono altri modi per fare, quindi è un processo di interazione e di
133
crescita, fondamentale. Cioè, è il vero processo di ricerca, che viene liberato. Cioè, nel senso che il ricercatore non deve preoccuparsi della parte meramente tecnica, materiale della cosa.
È inoltre presente una possibilità non indifferente per RIC14, ovvero la
possibilità di operare dei cambiamenti alla direzione che sta prendendo l’analisi:
Perché tu puoi dire “allora, io sto spostando questo pezzo di testo, lo sto spostando da questo gruppo di concetti a quest’altro gruppo di concetti perché…” e lo scrivi il perché. Perché poi non te lo ricordi più. E se tu invece l’hai scritto, poi ti torna tutto. E invece su carta questo non ce la fai, perché se tu ti fai le categorie piccoline, a lato, anche se usi i fogli grandi è un macello lo stesso, perché poi come fai a spostarle? Che una che hai qui la vuoi spostare insieme a una che sta mille pagine dopo. È un macello. Quando hai una ricerca grossa, se non ti aiuti un pochino con il software secondo me…
Ancora più interessante un altro suo rilievo, riguardante la maggiore rilevanza
che è possibile assegnare ai dati rispetto alla prospettiva del ricercatore. Può
succedere infatti di condurre delle ricerche in cui si è coinvolti anche al di fuori
dell’ambito accademico. Fare in modo quindi che la propria ricerca sia più
fedele ai fatti, visto che può capitare, a detta di alcuni intervistati, che nella
ricerca qualitativa ci si lasci andare eccessivamente. RIC14 racconta la sua
esperienza in tal senso:
io dovevo comunque fare un lavoro su di me, di decostruire appunto delle cose che mi ero già architettata, che erano molto forti. E quindi ogni tanto tu magari hai l’impressione che i tuoi dati stiano andando in una direzione. Mentre invece magari quando poi ti fai una mappa delle categorie che ti sono venute fuori, magari scopri che le persone ti hanno parlato molto più di una cosa che di un’altra. E che in realtà sei tu che come ricercatrice hai dato… è come se ti sembrasse che si è parlato più di una cosa piuttosto che di un’altra, perché in realtà in quella cosa tu ti ci ritrovi. E magari nell’altra ti sfugge, oppure ci fai meno attenzione perché è una cosa che magari non lo so, ti riguarda meno, nel senso questo riguarda tutto il lavoro di riflessività che devi fare. Un pochettino il software secondo me ti aiuta. Perché è come se tu facessi una mappa in cui ci sono dei nodi concettuali, e quando tu vedi che questo nodo concettuale, ovviamente non è una cosa che viene dal cielo, sei tu stessa ad averla fatta, però è questo l’incredibile, che tu magari hai costruito le categorie, e poi quando hai la mappa finale ti accorgi che ci sono dei nodi che sono molto più densi di quanto avevi percepito. [...] E allora io nell’interpretare questi dati devo darci più peso di quanto avevo pensato. Perché sono io come ricercatrice che non ho ascoltato, non ho realizzato magari mentre facevo le interviste, che questo era un punto importante. Perché magari a me hanno colpito più altre cose.
Altri rilievi degni di nota che provengono dagli intervistati sono quelli che vedono
i CAQDAS come degli strumenti per aumentare i propri livelli di credibilità e di
affidabilità, considerata la necessità della ricerca qualitativa di rendere esplicito
ogni passaggio. Per RIC7 ”Richiede al ricercatore un attenzione a esplicitare
134
sempre, sistematicamente ogni passaggio. E questo il software te lo impone”.
Inoltre anche qualora non si voglia avvalersene, è comunque evidente, per
esempio nei commenti agli oggetti, che si sta lasciando uno spazio vuoto.
L’importanza delle annotazioni, in chiave di errore da non ripetere, è fornito da
RIC4:
Ecco, una delle constatazioni [...] riguarda lo scarso uso dei memo, cioè delle riflessioni legate alle singole risultanze. E quello è stato un gravissimo errore, perché poi alla fine ci siamo accorti che in realtà se noi avessimo aggiunto e lavorato, per quanto concerne le nostre stesse riflessioni, di volta in volta che si procedeva nell'analisi, avremmo potuto incrociare i dati delle riflessioni e quindi avere ulteriori segnali, elementi d'interpretazione insomma. Ormai lo abbiamo capito, e quindi d'ora in poi facciamo grande uso dei memos, che è una delle soluzioni proposte dalla grounded theory.
Passiamo ora ai rischi del software. Il più ricorrente, più o meno esplicitamente,
è quello di portare i ricercatori a pensare che l’unico modo per ottenere risultati
robusti sia il software. Questo timore è conseguenza della prospettiva del
software come un’opzione nell’analisi. Spesso viene menzionato che per
ottenere la pubblicazione sulle riviste scientifiche, porti effettivamente a maggior
rispettabilità il fatto di menzionare la scelta di aver utilizzato un software per
l’analisi computer-assisted. Un rischio collegato è quello che l’utilizzo del
software diventi un’ortodossia per la pubblicazione (vengono pubblicati
solamente i paper di ricerche che hanno utilizzato i CAQDAS).
Un rischio meno ipotetico è quello della «meccanizzazione» di processi non
meccanizzabili. Gli intervistati non ritengono assolutamente che l’attenta lettura
dei testi possa essere tralasciata o condotta in automatico. Le possibilità
dell’automatizzazione possono essere usate al massimo per iniziare a farsi
un’idea, oppure per conferma o rassicurazione su alcuni rilievi.
Un problema che può, per alcuni, manifestarsi, è il rischio di non «tenere in
testa» l’analisi, di non avere gli schemi, i modelli, le associazioni, o come
sostiene RIC1, la «mappa» per muoversi tra i propri dati:
Comunque trovo che il rischio più grande a livello metodologico più serio sia appunto quello di non tenere in testa i dati e l’analisi. Perché quando tu hai - questa è magari una cosa solo mia, però io la vivo un po’ così - quando tu hai un software che ti gestisce tutto (se tu metti un codice da una parte, lui automaticamente te lo cambia dall’altra), è comodissimo per carità. Però tu da un lato vedi meno volte gli stessi dati. Che può sembrare un processo noiosissimo, “oddio, devo ancora andare a ricercare quel pezzetto lì, praticamente lo so a memoria, ma non riesco a ricordarmi se è il mercoledì o il venerdì del tal anno del
135
tal mese” per dire. È più comodo, però tu in questo modo rivedi un sacco di volte i dati, anche solo sfogliando i dati magari trovi una cosa che prima non avevi trovato. O ti sovviene “ah, avevo detto anche questo, in realtà questi due argomenti sono collegati e non c’avevo pensato”. E quindi usare solo il software secondo me comporta il rischio che tu butti troppo fuori da te stesso tutto questo processo di analisi. E ci torni meno.
La stessa RIC1 paragona certe funzionalità del software a quelle del navigatore
satellitare. Ci si può affidare a quello strumento, e nella stragrande
maggioranza dei casi è un supporto davvero valido. Difficilmente però si può
dire di conoscere una città senza essere in grado di muoversi
indipendentemente, senza creare collegamenti personali, senza averne la
«mappa in mente».
Un altro rischio è quello di utilizzare i software per velocizzare i processi, già
menzionato più volte. Il livello massimo di tale velocizzazione è quello di
affidare l’analisi ad altri, visto che, anche con il software, può risultare un lavoro
noioso e faticoso. Questo ovviamente porta con ogni certezza, se parte da
queste premesse, ad indagini di scarsa qualità e importanza.
Più latente il rischio di «fossilizzarsi» sulle stesse tecniche, come ci spiega
RIC2:
tantissimi studiosi poi dopo un po’ di fossilizzano e continuano a replicare lo stesso tipo di ricerca, le stesse tecniche, gli stessi mezzi. Quando a mio avviso invece in tutta la sociologia, ma soprattutto nella ricerca qualitativa si deve sempre essere flessibili e aperti. Cioè fenomeni diversi richiedono tecniche diverse, approcci diversi, sensibilità diverse. [...] Il rischio è poi quello che una volta imparata una routine che ti sembra che abbia funzionato in un caso, cerchi un po’ di replicarla in altri casi.
Questo problema è strettamente connesso a quella che per alcuni è una vera e
propria spinta a utilizzare categorie precostituite. Che si tratti di logiche
nascoste dei software, o di codici appena utilizzati e che vengono suggeriti dai
software (quando invece certi approcci richiedono di evitare di utilizzare gli
stessi codici nella prima fase), si tratta di un rischio per cui è richiesta
attenzione e criticità costante da parte del ricercatore. RIC7 spiega così la
preoccupazione per il sopravvento del software:
Bisogna stare molto attenti. Il rischio che lo strumento prenda il sopravvento c'è, c'è sempre. Questo rischio effettivamente c'è sempre. Probabilmente c'è anche se si usa un certo tipo di penna piuttosto che un altro, gli strumenti non sono mai neutrali, almeno nella mia prospettiva epistemologica e di ricerca, che in gran parte risente anche del costruttivismo, gli strumenti influenzano la ricerca. Ma anche un
136
ricercatore influenza la ricerca. Quindi figurarsi se non influenza uno strumento raffinato come quello di un software. Per cui so bene, sono consapevole, che gli strumenti e il software può influenzare l'analisi. Quindi bisogna stare molto attenti ed essere sempre molto vigili a fare in modo che lo strumento rimanga tale.
Vi sono infine preoccupazioni di livello più tecnico, come il rischio che i dati in
formato digitale vadano persi, anche se questo vale per qualsiasi tipo di dato su
computer. Più di natura metodologica, in quanto deviante da esse, la tentazione
di «smanettarci», motivo di preoccupazione e fastidio di RIC14:
È che secondo me, adesso magari dico una roba allucinante, però secondo me c’è sempre, è un po’ come se la tecnologia fosse una sorta di… ti viene un po’ la tentazione di smanettarci. [...] Nel momento in cui inizi a intripparti dei giochetti raffinati che puoi fare con questo programma, perdi di vista i dati. Cioè, tu secondo me devi rimanere concentrato sui testi. Ed è sui testi che devi lavorare. E poi la funzione che tu puoi fare questo, incrociare un pezzettino di questo con quello… Secondo me lì si finisce, come ti fai le regressioni lineari che come dire si fa non so, gli orgasmi mentali quando ha trovato la funzione per fare la regressione di chissà che tipo e poi magari si dimentica anche l’argomento della ricerca qual era. Cioè, secondo me dai programmi non bisogna farsi affascinare.
Concludiamo sempre con RIC14, che ci introduce nella prossima sezione
riguardante il confronto tra pacchetti software, e si ricollega al discorso di non
utilizzo (e invisione della funzione che permette di farlo) di categorie
precostituite:
ATLAS è stato costruito proprio per incoraggiare a fare un certo tipo di ricerca. Io semplicemente me ne sono sbattuta e l’ho usato in un altro modo. Ho usato sempre la funzione “crea nuova categoria”. Proprio perché non volevo assolutamente, come dire, incastrarmi in categorie, come ti dicevo prima, precostituite. Secondo me un software buono per fare ricerca qualitativa è un software in cui tu non sei incoraggiato a fare un tipo di analisi piuttosto che un’altra. Cioè nel senso, sei tu che devi scegliere che cosa vuoi fare, sostanzialmente.
Si tratta di una parte tutto sommato breve di questa analisi, perché di fatto
raramente gli intervistati hanno usato più di un software, e in diversi casi non
hanno nemmeno effettuato un confronto con quelli esistenti. Questo sia perché
si tratta per i più di un semplice strumento, e non quindi di un campo di ricerca a
sé (come invece lo sono i software in questo elaborato). Sempre tenendo conto
del paragone con le tradizionali «carta e penna», RIC7 fa notare: “ho una matita
che mi trovo bene, non devo comprarne un'altra. Un'altra perché è rossa,
perché c'è la gomma, perché...”. Tralasciamo i confronti con le versioni di
vecchi programmi, che ovviamente vanno nella direzione di un notevole
miglioramento delle funzionalità e interfaccia, per osservare invece che spesso
137
quello che ritengono i ricercatori rispetto agli altri software è difforme dalle loro
effettive potenzialità. Parlano quindi della necessità di logiche già presenti
dall’inizio quando invece non è quello che pensano altri ricercatori che utlizzano
quello stesso software. Non è stato riscontrato alcun caso in cui sono conosciuti
e vengono utilizzati software diversi, a seconda delle esigenze o solo per
provare ad utilizzare un ausilio differente.
Per quanto riguarda l’utilizzo di software non specifici, è particolarmente
interessante il caso di RIC3, il quale conosce da tempo i software per l’analisi
qualitativa, ma non ne ha mai fatto veramente uso per una ricerca. Ritiene
infatti non necessario il loro utilizzo, anche se si avvale di altre tecniche con
programmi di uso comune, in particolare word processor e fogli di calcolo.
Quando gli è capitato di avere una grande quantità di interviste (circa cento) ha
deciso di interessarsi di NVivo, anche se poi dopo lo ha abbandonato dopo
qualche tentativo. Le sue procedure di analisi potrebbero essere definite
tradizionali, se viste in relazione alla normale strumentazione dei ricercatori.
RIC3 riesce perfettamente a gestire un connubio tra cartaceo e computer,
mantenendo comunque il suo lavoro ordinato e trasparente. Opera infatti un
lavoro di «pulizia» delle parti ritenute rilevanti, alternando la carta allo schermo.
Vediamo cosa ne pensa del software che aveva provato ad utilizzare:
Non mi sembrava difficile, non è che mi sembrasse appunto una cosa impossibile in termini di apprendimento. Però sì, mi sembrava sinceramente uno di quei classici casi in cui il gioco non vale la candela. Se posso così dirlo in due parole, dal mio punto di vista il «problema» nell’analisi dei dati qualitativi è che molto banalmente se hai un’intervista di 25 pagine, te la devi leggere! E quindi, come dire, poi una volta che l’hai letta, chiaramente puoi anche manipolarla diciamo, o gestirla attraverso un software. Ma questo non toglie che la devi leggere. E personalmente preferisco di gran lunga leggere su carta che non leggere su monitor, perché poi dopo un po’ veramente mi si incrociano gli occhi se no. E però se le leggo su carta mi viene da fare le note. Mentre leggo. E quindi poi alla fine ho un’intervista con tutte quante delle note già fatte, e quindi a quel punto la traduzione sulla macchina può forse anche essere più artigianale. O forse sono io che sono abituato a lavorare così. Non lo so.
Interessante comunque che anche gli altri intervistati non negano l’utilità dei
CAQDAS anche se non ne fanno uso. La maggior parte dei ricercatori ritiene
comunque che l’avvalersi di un software debba essere giustificato in termini
metodologici, ma soprattutto per la quantità dei dati da analizzare. Infine, per
quanto riguarda l’utilizzo di software non specifici, il trade-off rispetto al
138
passaggio ai CAQDAS deve essere comunque significativo (e quindi
aggiungere qualcosa di determinante alle tecniche d’analisi).
Apprendimento e campi d’applicazione
Abbiamo già trattato l’apprendimento individuale nell’analisi dei primi utilizzi
degli intervistati. Emerge una bassa difficoltà di apprendimento, per lo meno per
le funzioni base. Ora ci concentreremo prevalentemente sull’insegnamento e
l’ausilio che possono offrire i software per l’apprendimento della metodologia
qualitativa. Riprendiamo da ciò che afferma RIC2, che si è trovato numerose
volte ad insegnare l’utilizzo del software:
[due lezioni] per imparare diciamo il funzionamento base del programma sono più che sufficienti. Perché è veramente facile da usare. Uno si prende appunti sulla carta come si assegnano i documenti, come si estrapolano le quotation, come si creano i codici, come si interrogano i codici: è più che sufficiente. Dopodiché uno ci smanetta, classico, e s’impratichisce. Poi c’è stato l’apprendimento pratico utilizzandolo, appunto ti dicevo in questa ricerca avevo questo problema, e ho cominciato a lavorare con ATLAS. E allora lì lavorando cominci ad imparare. Perché c’è poco da fare, la ricerca qualitativa non può essere insegnata. È qualcosa che impari facendola. Impari facendola, la impari stando un po’ attento e sensibile ai lavori, cioè leggendo degli articoli… Secondo me suoi manuali, allora ti dico, utilità non ne ho avuta nessuna. Manuali di ricerca qualitativa… terribili.
RIC2, come molti altri, è perciò scettico sull’efficacia dell’insegnamento della
ricerca qualitativa, in particolar modo sull’utilità dei manuali. Se però pensiamo
al manuale come uno strumento, ritengo la loro efficacia dipenda da chi li legge,
e dal realizzare in pratica quanto si apprende. Lo stesso vale per
l’insegnamento all’utilizzo del software, in cui le funzionalità possono essere
apprezzate solo grazie alla pratica, anche commettendo errori. I seminari sono
più che altro utili per offrire ai partecipanti le basi per l’utilizzo del programma,
per sfatare i preconcetti riguardo l’analisi di dati qualitativi assistita da computer
e per favorire un utilizzo futuro, solitamente per la propria tesi di laurea o,
prevalentemente, di dottorato.
È bene che ognuno trovi la modalità di utilizzo più personalizzata possibile, e
questo può essere disorientante a causa delle molteplici vie in cui è possibile
eseguire le operazioni desiderate.
139
Non è facile reperire personale realmente qualificato per l’insegnamento di un
software, Questa problematica è particolarmente presente in Italia, come
racconta RIC7 quando ha avuto l’intenzione, qualche anno fa, di trovare un
trainer a cui affidare un seminario, ed è stato necessario farlo provenire dal
Regno Unito. RIC7 ritiene particolarmente utile l’apprendimento all’uso del
software per finalità didattiche:
perché posso esplicitare agli studenti i vari passaggi di ricerca. Mostrando volta a volta dati grezzi, prime analisi, modelli, organizzazione dei nodes. Quindi posso renderli disponibili agli studenti, e l'impatto secondo me proprio a livello didattico su come insegnare a fare ricerca è altissimo. È un'ottima di risorsa.
Una volta che al ricercatore è chiaro quello che è intenzionato a fare, i problemi
sono tuttavia prevalentemente tecnici, e perciò come eseguire particolari
operazioni. Rispondere ai desideri di ricerca è infatti la sfida per un trainer o gli
sviluppatori dei software, e in certi casi può essere anche un’utile occasione per
parlare di ricerca qualitativa a chi è meno metodologicamente preparato.
Interessante infine l’esperienza di RIC11, il quale ritiene molto alte le
potenzialità offerte da Internet per l’apprendimento:
l’anno scorso e due anni fa avevo tenuto un corso [...] in cui una parte del corso era online. Allora: quello che è interessante dal punto di vista sociologico, secondo me, non è tanto che questi strumenti aumentino non solo la quantità di informazioni che possono essere veicolate. Quanto che permettono la creazione di gruppi motivati, di piccole comunità che sono motivate. Cioè, lo studente, avendo a disposizione delle pagine, e avendo la possibilità di interagire con gli altri studenti direttamente sul sito, è molto più motivato ad assumere un ruolo attivo. In pratica si crea un’identità di gruppo, e la comunità serve non solo a scambiarsi delle informazioni, ma proprio a creare dei progetti comuni. Ecco, questo aspetto che normalmente nell’insegnamento con la didattica frontale non c’è, a mio avviso si ottiene invece con questi mezzi. Ecco, questo al di là dei software per l’analisi qualitativa, proprio semplicemente software che permettono l’interazione online.
Passiamo ora ai campi d’applicazione in cui sono utilizzabili i CAQDAS. Si
conferma l’ipotesi che vedi i CAQDAS non fanno capo ad un unico approccio,
nella fattispecie la grounded theory. Tuttavia non vengono ritenuti idonei per
particolari approcci da alcuni ricercatori. RIC7 è chiaro in materia: “Ha dei
vantaggi per taluni, vantaggi meno evidenti per altri. La cosa che io mi sento di
sottoscrivere è la necessità di emancipare l’uso di questo software dalla
metodologia e dall’epistemologia della grounded theory”.
140
I principali CAQDAS, sostengono la maggior parte degli intervistati, saranno
anche nati per l’applicazione della grounded theory, ma questo non toglie che
essi possano essere utilizzati anche per altri approcci, come ad esempio più
nella logica top-down, in cui si ha una griglia e si associano agli elementi di
questa i segmenti dei dati ritenuti rilevanti. In caso, anzi, il software consente
sia di rispettare fedelmente tale griglia, sia modificarla in caso non risulti adatta
ai dati.
Inoltre, può anche essere che siano più predisposti come ausilio per la
grounded theory, ma cosa s’intende per «grounded theory»? Glaser per
esempio, ci ricorda RIC10, è contrario all’utilizzo dei software. Inoltre, come
abbiamo visto, resta da vedere cosa veramente s’intenda quando nelle ricerche
è riportato che è stata utilizzata la grounded theory. E anche se fosse, il
software può davvero fino a un certo punto. RIC10 ci tiene infatti a precisare:
quello che ti aiuta il software è l’analisi. Al momento l’analisi si ferma, o meglio l’analisi continua in altre forme, perché anche la struttura è una forma d’interpretazione e di analisi. [...] a un certo momento NVivo, come qualsiasi altro software, non ti permette di esprimere la ricchezza simbolica del tuo lessico. Insomma, la devi raccontare una teoria, la devi rendere bella, la devi rendere comprensibile.
I software dunque permettono diverse possibilità, e sempre RIC10 ritiene che
"quando si utilizza un software, cioè, che la possibilità di fare una cosa non
equivale che metodologicamente sia giusta, che sia corretta". Abbiamo inoltre
le diverse interpretazioni che vengono date dei programmi: RIC2 parla di
un’esperta di statistica testuale che è ha una versione solo apparentemente
difforme a quella personale dell’intervistato:
Lei è convinta che ad esempio ATLAS sia uno strumento per l’analisi del contenuto quella classica. Ed è vero! È uno strumento che va bene anche per l’analisi classica del contenuto. È uno strumento che va bene per l’analisi del discorso, va bene per la così detta frame analysis. Che poi è analisi del discorso.
Questo per dire inoltre che molti dibattiti metodologici, in particolar modo sulle
denominazioni che dovrebbero avere i diversi approcci, possono far credere ai
neofiti che si tratti di modi d’operare molto diversi tra loro, mentre invece non si
tratta di tipi d’analisi così differenti (e che dunque possono essere adottate con
l’ausilio dei CAQDAS).
141
A livello di discipline interessate dai CAQDAS, anche se con diversi utilizzi, gli
intervistati parlano della sociologia, psicologia, demografia e, anche se non
molto in Italia, le scienze infermieristiche (nursing e health sciences).
Resta il fatto che alcuni approcci non ne traggono particolare benefico, come
per esempio l’analisi della conversazione. Secondo molti, infatti, il ricercatore si
troverebbe a dover utilizzare uno strumento inadatto alle sue esigenze, in
particolar modo per il dettaglio con cui necessita di lavorare su piccoli segmenti
di dati.
Un utilizzo creativo, e non strettamente legato alla ricerca qualitativa, è quello di
RIC7, un ricercatore con una conoscenza più avanzata, e che dimostra di saper
personalizzare l’utilizzo in base alle sue esigenze: trovandosi in una situazione
in cui sta esaminando molto testi, ha pensato di utilizzare NVivo come uno
strumento per l’analisi della letteratura, in cui inserire citazioni, riflessioni e
commenti riguardo il materiale che sta leggendo. Con buona probabilità tale
operazione gli sarà utile nelle ricerche future.
Sempre per quanto concerne i campi d’applicazione, ma in maniera più
trasversale, vorrei concludere questa sezione con quanto emerso riguardo
l’analisi secondaria dei dati qualitativi. Molti intervistati considerano questa
un’opzione valida, anche se nessuno ha effettuato un’analisi di questo tipo. I
motivi di tale scarsa diffusione e praticabilità riguarda in parte quanto sarà
analizzato nella prossima sezione (collaborazione e riservatezza dei dati, in
parte altre tendenze, come sollevato da RIC5. per cui la «Cenerentola»
dell’analisi qualitativa è proprio l’analisi dei dati, visto che l’attenzione e le
risorse sono molto concentrate nella raccolta dei dati. Una tendenza a dover
raccogliere dati originali, che porta l’analisi ad essere più superficiale:
questo lo diceva Silverman, in un suo manuale, diceva che insomma lui sinceramente non capiva oggi giorno tutta questa necessità di raccogliere dati originali, perché ormai esistono degli archivi di dati qualitativi, ce n’è ormai penso una quindicina di Paesi europei ci sono questi archivi. E praticamente li tu hai centinaia e centinaia di riviste digitalizzate e che ne so, una ricerca sugli immigrati, in cui sono intervistate 20 persone di un certo Paese, che te ne frega a te di andare a farne altre 20 sul… cioè, prendi quelle lì, se sono interviste fatte bene, rianalizzale, secondo la tua prospettiva teorica, secondo il tuo focus, e ti verranno fuori cose interessantissime lo stesso insomma. E ormai trovi anche l’etnografia per certi versi, trovi anche filmati in Internet, quindi diciamo con un’ottica un po’ più pratica, un po’ più flessibile, potresti anche… a volte è necessario raccogliere dati originali, a volte invece non è necessario. Cioè, però il dogma dell’originalità
142
dovrebbe un po’ cadere insomma. Questo diceva in maniera meno articolata, però lo diceva Silverman, fondamentalmente.
Difficile dunque che si concentrino sforzi per l’apprendimento dei software, e
qualora essi vengano utilizzati, questo avviene in maniera superficiale. Anche
questo può portare a quei pregiudizi nei confronti dei CAQDAS, visti come un
mezzo per dare una fittizia rispettabilità a ricerche condotte sbrigativamente.
Concludendo la questione dell’analisi secondaria, i software aiutano, anche se
non in maniera determinante secondo alcuni, la ripresa di un vecchia ricerca su
cui si aveva lavorato o in cui si era coinvolti. E con questa osservazione ci
spostiamo alla prossima tematica, per molti aspetti connessa a quella appena
affrontata.
Condivisione e trasparenza
La condivisione con altri ricercatori non pare essere molto diffusa tra gli
intervistati. RIC8, in veste da «esterno» della ricerca qualitativa, fornisce come
spiegazione il fatto che i ricercatori si terrebbero stretti i loro dati. Questo
avverrebbe indipendentemente dagli strumenti offerti dal software. Non tanto
per la necessaria riservatezza con cui occorre trattare i dati qualitativi, quanto
piuttosto per evitare di avere problemi o interferenze nel proprio lavoro. Questo
porterebbe i ricercatori a mostrare alla comunità scientifica solo i risultati, ma
non la fonte degli stessi.
Più moderato e ragionevole il parere di RIC6, che riscontra quanto spesso ci si
trovi a dover lavorare da soli, e quanto sarebbe auspicabile che ci potesse
essere «più rete» tra i ricercatori:
Cioè, io sono estremamente a favore di una rete. Ci credo poco. Perché purtroppo ci sono delle vicissitudini accademiche, delle condizioni, delle situazioni che a volte impediscono questa cosa. Ma magari! Magari ci fosse un’apertura, una rete in cui veramente si può andare da un collega e dire “scusa, tu ti sei già occupato di questo” magari, no? Magari anche in un’altra forma. Magari in forma quantitativa, che ne so. Magari in forma teorica. “Guarda, sto ricavando queste cose. Parliamone, vuoi leggere?”. Poi è vero che siamo tutti ammazzati dal lavoro, da impegni vari.
143
La rete auspicata da RIC6 coinvolge comunque solo il gruppo di ricerca, e non
altri soggetti. Questo per deontologia professionale e forti convinzioni etiche
dell’intervistata. Interessante perché in altra direzione il desiderio di RIC1, che
sarebbe intenzionata a trovare un modo per condividere i dati della sua
etnografia:
R: [...] perché hai questa idea di mettere a disposizione i tuoi dati?
RIC1: Beh, prima di tutto proprio per mettere a tacere direttamente i quantitativi! Una delle prime critiche che vengono mosse, dai così detti «quantitativi», è quella appunto che non si possono controllare i dati all’interno di un lavoro qualitativo. Ho delle critiche a risposta di questo. Ma insomma, anche senza andare a guardare… anche nella statistica non si accede direttamente al dato, eccetera eccetera, comunque trovo che l’accesso ai dati di cui un ricercatore ha elaborato una sua analisi sia un valore in sé che permette di controllare, di modificare l’analisi. Io sto cercando anche, e tra l’altro trovo che sia sempre giusto, mettere anche molti dati nell’analisi, perché devi esemplificare e spiegare e dimostrare. Supportare ogni tua affermazione. Però è chiaro che, soprattutto parlando non di tabelline di numeri che ti stanno in una pagina, ma di video che non puoi pubblicare, o di pagine e pagine di interviste e di note di campo di cui ovviamente metti degli estratti. Ma uno si potrebbe sempre chiedere “però dove l’ha tagliato”, “qui c’è una parentesi quadra con tre puntini in mezzo, chissà cosa diceva in quest’altro punto”, magari cambia tutto il significato, insomma cose di questo tipo. Quindi penso che sia insomma una cosa che mi piacerebbe fare. Ci sono ovviamente, proprio per i dati qualitativi, dei grossi problemi per far questo.
Vediamo dunque i due aspetti della condivisione (ed eventuale collaborazione):
quella tra gli altri ricercatori coinvolti nel progetto, e quella con il supervisore
(solitamente in atto nello svolgimento della tesi di dottorato). Per entrambe ci
sono dei limiti dovuti a quello che consentono o meno i soggetti della ricerca
mediante il modulo del consenso informato. Tali problemi sono ovviamente più
evidenti se si avesse intenzione di portare il lavoro ad un pubblico più ampio,
ma possono esservi anche se si avesse intenzione di mostrarli ai propri
studenti.
Per quanto riguarda la condivisione tra ricercatori può accadere che non tutti
lavorino effettivamente sul software, generando quindi ad una divisione dei
compiti. Chi effettivamente è in grado di utilizzare il software viene quindi
lasciato con questa mansione, evidentemente per le scarse competenze e
mancanza di tempo per l’apprendimento da parte degli altri componenti del
gruppo di ricerca.
144
Bisogna anche dire che la condivisione, dal punto di vista tecnico, non è affatto
un procedimento semplice. Questo è per esempio quanto sostiene RIC7:
devo dire che NVivo è carente da questo punto di vista. Tutte le volte dobbiamo cercare sempre delle soluzioni complicate per condividere in gruppo la base dello stesso progetto. Ad oggi non è ben fatto secondo me. Non è ben fatto. La mia impressione è che gli sviluppatori di NVivo non considerino il lavoro in equipe una priorità del software. È la mia impressione. Poi magari mi sbaglio, è solo un limite mio che non so usare bene questa cosa, però insomma se l'avessero considerata una priorità probabilmente avrebbero reso più friendly, più facile, dei comandi che consentono di lavorare in gruppo. Invece si può fare qualcosa, ma è veramente piuttosto complesso. O forse ci sono delle esigenze commerciali dietro magari, chissà.
Il problema non è solo a livello tecnico. Per alcuni si tratta anche di un problema
di assunti. Quanto di buono è offerto dal software è che permette a tutti i
componenti di lavorare nello stesso modo, in maniera sotto certi aspetti
uniforme. Tuttavia non sarebbe tollerabile, se non impossibile, che più persone
avessero lo stesso modo di interpretare gli stessi dati. Questo tuttavia non
significa che non si possa confrontare e discutere il lavoro nel processo
d’analisi, mediante un processo retorico con cui trovare accordo o rilevare
disaccordo per alcuni punti dell’analisi, anche se può rendere ancora più lenti (e
quindi difficilmente sostenibili) i tempi della ricerca qualitativa (RIC10):
nella fattibilità è un po’ più complesso. Poi, beh anche appunto nella testa del ricercatore, siamo in tre, quindi tre cose diverse da dire sui dati, insomma è un po’ complesso. Teoricamente, con NVivo, e penso anche con altri, si riesce a fare senza problemi, adesso appunto quel tool del merging, quindi io prendo da te solo le parti del tuo progetto che mi interessano, e il progetto è la collezione della tua analisi, più la mia, in cui vedo esattamente chi ha fatto cosa, e quando. Certo che è un lavoro che non può essere binario, cioè uno più uno. Perché nel momento in cui, hai la terza persona, o io stesso, che rivedo i tuoi dati e già uno più uno farà tre. Perché già il progetto si evolve. Quindi, è problematico, ma per assunto. Non tanto per la strumentazione che hai a disposizione, ma per assunto metodologico è problematico. A meno che, non so, a tutti, quando diciamo “ehi ragazzi, adesso si pensa così, tre persone e una testa”, ma nel momento in cui sono tre persone e tre teste, ecco che nella grounded theory diventano cinque. Le interpretazioni insomma, il modo di lavorare. Ecco no, il modo di lavorare questo è positivo, perché il software ti impone comunque un modo di lavorare che è uguale per tutti, almeno nel modo. Quindi tu codifichi così, ti viene poi fuori una finestrella, a tutti e tre viene fuori la stessa finestrella, dobbiamo un po’ deciderci sui nomi da dare, che significato può riflettere, e ogni tanto il software aiuta il lavoro in equipe, però richiede, come tutti i lavori di equipe, incontri, in termini di tempo, molto molto dispendiosi. Perché ci si confronta su tutte le categorie, su tutti i passaggi fatti, si cerca di trovare… anche lì no, la qualitativa è un esercizio retorico, quindi si cerca di trovare il nome adatto per ogni cosa che tu fai.
La condivisione con il proprio supervisore presenta problemi simili, ovvero il
software è stato utile fino a un certo punto, anche se viene ritenuto
145
generalmente utile. La questione delle competenze si ripropone, in quanto può
capitare che il supervisore non sappia utilizzare il software su cui sta lavorando
il ricercatore. Bisogna comunque dire che con i CAQDAS si possono ottenere
delle stampe ben ordinate (anche se non particolarmente accettabili dal punto
di vista ecologico, specie per grandi quantità di dati).
Ancora una volta si ripropone il paragone con i metodi tradizionali, come ci
mostra RIC9:
gli studenti, i dottorandi che decidono di utilizzare NVivo, ATLAS, o qualsiasi altro programma, mi mostrano i risultati e io chiedo loro di mostrarmi il modo nel quale le loro interpretazioni si tengono con il materiale empirico che le ha esteriorizzate. Il modo nel quale queste «interpretazioni», il legame insomma tra teoria e documentazione empirica è stato rinvenuto - distribuendo i fogli dell’intervista per terra, o su un tavolo, ricorrendo a una più disciplinata procedura di analisi con un software come Ethnograph, NVivo o quant’altro - non è rilevante, dal mio punto di vista. Perché comunque la prova del nove è costituita da mostrare come teoria e documentazione empirica si tengono reciprocamente.
Questo dal punto di vista di un supervisore. RIC10 ci offre invece quello di
dottorando, qual era al tempo:
come scelta metodologica quella di rinunciare un pochettino, perché di fatto lo è, alla totale libertà del ricercatore qualitativo, ed essere più legata a un software che se toglie in creatività però aumenta in condivisibilità di un progetto. Quello che mi interessava è che il mio supervisore riuscisse a capire i passi metodologici fatti, quindi riuscisse a ricostruire il percorso che dai dati mi ha portato alle conclusioni.
Questo discorso sulla condivisione ci introduce a quello della tracciabilità. Essa
è possibile in diversi modi, a seconda dell’approccio utilizzato. Vi sono tuttavia
le risposte più controverse da parte degli intervistati. Vediamo per esempio
RIC10, a favore del controllo esterno:
Nel momento in cui fai un proposal, e chiedi dei soldi a un ente, tu non puoi chiedere all’ente “abbi fede, abbi fiducia, che con un po’ di culo qualcosa trovo”. Cioè, no, mi dai dei soldi, e io, e noi come gruppo di ricerca, chiediamo ultimamente, all’interno dei progetti, dei soldi in più per pagare l’audit trail esterno. E sottolineiamo il fatto che utilizziamo dei software, che possono aiutare anche il fatto che un revisore esterno riesca a capirci. [...] Cioè, sai che se usi il software hai dei vincoli, sai che se non lo usi non li hai, però, d’altra parte, manchi di condivisibilità, ed è molto più difficile entrare nella testa di una persona, quanto molto più facile è aprire un progetto di un software e vedere che cosa ha fatto questo signore qua.
Vediamo invece RIC5, scettico riguardo il controllo:
ma chi è che ti controlla? Non ti controlla nessuno. Cioè, non… O sei tu il controllore di te stesso, e quindi tu dici “io uso questo strumento perché voglio fare
146
veramente la bella ricerca, voglio pubblicare delle cose interessanti, so che facendo questo lavoro molto minuzioso verranno fuori delle cose molto interessanti”, ma quindi sei tu stesso che sei il committente di te stesso e vuoi ottimi risultati, ma quando i committenti sono altri, la differenza non si vede. Cioè, tu puoi imputare alcune categorie dentro nel programmino, stampargli qualche videata, eccetera, e insomma questi qui che ne sanno se tu hai navigato 40 interviste, 30, il testo di una solamente, due… Chi è che è in grado di andare a controllare. Un po’ anche riguarda la ricerca anche a base statistica insomma.
Si tratta di un argomento che necessiterebbe di ampio spazio per essere
discusso. È qualcosa che va alle basi epistemologiche della ricerca qualitativa,
e che portava gli intervistati a rispondere con maggior fermezza.
Strettamente connesso il tema della trasparenza. Si ritrovano infatti posizioni
più nette sul significato di questo termine nella ricerca qualitativa, e riguardo al
discorso su come il software può aiutare questo processo. Non si deve
intendere, per quasi tutti gli intervistati, la completa verificabilità, il completo
controllo di ciò che ha fatto il ricercatore. Lo spiega bene RIC12:
Questo che l’abbiamo tutti. Io credo che a nessuno faccia piacere, tutti quanti, qualsiasi prospettiva, analisi qualitativa, quantitativa, “venite a vedere i miei appunti” no? È come dire “venite a vedere il testo prima che sia pubblicato come l’ho fatto”… L’hai fatto, che qualcun altro venga a vedere come io ho costruito tutto questo, non credo che dia piacere a nessuno. Quello che io però, con il software, posso senz’altro fare,era un po’ quello che dicevo prima. Cioè, io posso intanto rifarlo questo processo. E mi è utile nelle varie fasi di ricerca per andare avanti nella ricerca, e quindi questo è un processo che vale la pena di fare. [...] Avere questa possibilità di dire “io come l’ho costruita”, “l’ho fatta in questo modo”, “c’avevo questi elementi”, “potevo prendere altre direzioni, poi ho preso questa più adatta” poi mi obbliga a una certa riflessività rispetto a me stesso, ma fondamentalmente non nuoce al fatto che io comunque o mi invento qualcosa o poi comunque lì non c’era. Lì non c’era. Cioè, non è qualcosa che è lì che spunta, che può spuntare dai dati. Ma a quelle cose lì non puoi far dire qualcosa che non c’è. Non devo far dire delle cose che non ci sono. E il software su questo mi agevola, non è negativo.
Il processo di approdo ad una categoria interpretativa e a un asserto che
stabilisce che quando è presente un elemento ne è presente anche un altro,
non è così rilevante. Per RIC9 infatti:
Utilizzando un termine un po’ fuori moda: il «contesto della scoperta», come diceva Reichenbach, dal mio punto di vista non è qualcosa di decisivo. È il contesto della giustificazione quello che conta. La giustificazione può essere facilitata dal ricorso a questo software, ma tante cose che si fanno con il software per l’analisi dei dati sono assolutamente irrilevanti. [...] Alla fine, quello che m’interessa è il punto d’arrivo. Il punto d’arrivo dev’essere consistente con la documentazione empirica, il ricostruire i passi con i quali io sono arrivato a questa categoria finale è qualcosa che attiene più alla psicologia della scoperta, che alla difesa della plausibilità dei risultati.
147
Il processo di approdo ai dati è insomma difficilmente rendibile trasparente. O
più semplicemente è necessario fornire un significato adattato alla ricerca
qualitativa. Si tratta di un problema centrale per i critici dell’analisi qualitativa,
anche se il metodo per rendere chiaro il procedimento compiuto viene fornito
sin dai classici (RIC13):
la così detta incommensurabilità rimane senz’altro, ma del resto l’interpretazione com’è noto riguarda anche, in certe misure, i dati quantitativi. Ripeto: ha senso se vengono specificati dallo studioso le operazioni interpretative che lui ha svolto, quale tipo di processo ha seguito, a quale tipo di teoria, epistemologia s’è affidato… Dopodiché appunto rimane sempre qualcosa di insondabile, che non è possibile esattamente riprodurre e specificare. Però come noto c’è anche chi ha provato, tra i classici, a impegnarsi nella realizzazione di un’analisi il più possibile intersoggettiva, pur non credendo nel positivismo. Uno «spinto», diciamo così, come un Weber ha messo in evidenza che è possibile rimediare a questa difficoltà - l’incommensurabilità - in una certa misura se il ricercatore specifica i passi che ha compiuto. Pur sapendo che le interpretazioni saranno comunque sempre incommensurabili e che anche gli interessi della ricerca, i valori del ricercatore «contamineranno» oppure «influenzeranno» la sua analisi.
Maggiormente sul lato pratico il ragionamento di RIC7, per cui «intersoggettivo»
vuol dire che: “almeno un'altra persona, insieme a me, può dire che il percorso
che ho fatto è un percorso che è rigoroso, che le scelte che ho fatto, le scelte
metodologiche che ho fatto volta a volta sono condivisibili”.
Il fatto che non si compiano veri e propri controlli è però un problema per RIC8.
Il ricercatore avrà anche possibilità di tracciare la sua analisi, anche con potenti
strumenti, ma:
Proprio perché sapendo che in ogni caso non lo utilizzerà, spesso il ricercatore lo considera, come si dice, come un qualcosa che rimane là, il tempo che trova e poi viene completamente abbandonato. Quindi, il problema qual è: il problema è che non sapendo quali regole sono state utilizzate, viene meno il primo principio della scientificità di un lavoro, che è quello della sua possibilità di falsificazione. Ovverosia, se io non so in che modo una persona ha operato, a quel punto là io non posso in alcun modo cercare, a partire da quel tipo di modo che lui ha utilizzato, di falsificare il suo risultato. E questo è il problema fondamentale. Cioè, rimangono delle scatole chiuse in cui o ti fidi, o ti fidi. Di quello che ti dicono.
Bisogna comunque ricordare che RIC8 è piuttosto critico riguardo a come
vengono condotte la grande maggioranza delle ricerche qualitative. Emerge
perciò un pensiero chiaro: la condivisione potrebbe anche essere possibile
tecnicamente, ma la domanda da porsi è: per quale fine? Avrebbe davvero
senso poter «controllare» i dati di una ricerca qualitativa, se il processo di
conoscenza non emerge in maniera manifesta da essi, e se, in particolar modo,
148
un ricercatore non ha la stessa consapevolezza ed esperienza di quell’oggetto,
di quell’ambiente, di quei soggetti? Evidentemente la questione non è così
semplice, e oltre a questo profondo problema, vi è anche un problema etico non
indifferente: la riservatezza da mantenere sui dati raccolti.
Anche se i dati sono soggetti ad accordi con gli interessati, rimane il fatto che
interviste in profondità, storie di vita e racconti di vita sono facilmente
riconducibili agli intervistati, se lette in determinati contesti. RIC6 è chiara sul
punto:
io ho raccolto delle storie di vita, che guardi, sicuramente in un determinato ambito si riconosce chiaramente chi è quella persona. Allora, io posso farlo? Beh, dipende dalla mia deontologia professionale. Dalla mia etica personale, dipende da una serie di fattori. Io non sto dicendo che questo non sia possibile. Sto dicendo che i dati qualitativi sono diversi da quelli quantitativi. E in particolar modo in relazione all’anonimato.
Essenzialmente il problema riguarda il tipo di ricerca condotta, e in particolar
modo il tipo di dati raccolto. Se in alcuni casi sono possibili efficaci procedure
per rispettare l’anonimato che si è garantito, in molti altri si rischia di non
rispettare quanto accordato con i soggetti dai ricercatori. Un problema che si
riscontra nell’eventuale restituzione dei risultati dell’analisi, da cui potrebbero
emergere questioni di cui i soggetti non sono a conoscenza o che non
vorrebbero rese pubbliche, anche solo nel loro ambiente.
Le funzionalità dei software
Terminiamo l’analisi delle interviste con il giudizio degli intervistati riguardo le
funzionalità dei software. Il primo elemento da indagare è quello relativo
all’interfaccia, ovvero alla modalità in cui i programmi si presentano e offrono le
loro funzionalità. A livello generale emerge che i software vengono definiti facili
da utilizzare, e i ricercatori intervistati desiderano che lo siano (quasi tutti hanno
voluto precisare di non essere degli «smanettoni», quasi come l’esserlo –
qualsiasi cosa significhi – pregiudichi la loro immagine di ricercatori).
149
Per alcuni intervistati il software da loro utilizzato si presenta complesso
nell’interfaccia utente, ma non nelle funzioni, in quanto vengono usate solo
quelle che interessano. La questione dell’interfaccia è stata particolarmente
trattata con gli utilizzatori di NVivo, essendo il software che ha compiuto un
tentativo più radicale nel miglioramento dell’usabilità. Un vantaggio che per
contro lo rende molto pesante e problematico sia per chi lo utilizza abitualmente
che per chi si appresta ad apprenderne l’utilizzo.
I software consentono molteplici possibilità per condurre lo stesso tipo di
operazione, e questo viene considerato fonte di smarrimento all’iniziale impatto
con i programmi, anche se successivamente viene colta come un’opportunità
per facilitare le operazioni dei ricercatori, permettendo loro personalizzare le
procedure secondo le loro preferenze. RIC10 spiega dal suo punto di vista
perché questo facilita l’adozione del software:
Cioè, io vedo appunto anche professoroni, anche che sono a capo delle nostre facoltà e dipartimenti, che… li vedi insomma, che aprono e chiudono ogni finestra… Ecco, se li si guida, se le persone le si guidano nel personalizzare l’interfaccia - forse quelli di NVivo l’han capita - e quindi la prima cosa che dico e faccio è “ragazzi, qua adesso è la vostra scrivania, ve la sistemate come volete”. Volete che si apra ogni finestra diversa? Una finestra attaccata come un messaggio di Outlook? Lo volete di fianco, lo volete in basso, ecco, dove siete più comodi, questo forse aiuta. Forse aiuta, proprio la personalizzazione delle cose di default, dell’immagine…
Questo però non deve pregiudicare la semplicità con cui si possono svolgere le
operazioni base. RIC14 è decisa su questo punto:
Ma no, perché ogni tanto sono troppo confusionari, nel senso, nel momento in cui dentro c’è troppa roba, poi va a finire che io veramente son dovuta star tre giorni per capire come si facevano le famiglie di categorie, che dovrebbe essere la roba più semplice del mondo, alla fine è la cosa principale che devi fare. E invece ci sono un sacco di cose inutili, proprio. Nel senso, secondo me… boh, magari ci dovrebbero essere delle funzioni, che sono proprio quelle principali, e poi magari anche delle cose più specifiche, però non tutto assieme sullo stesso livello, che si aprono queste mille tendine che non si capisce bene a che cosa servano, questo intendevo. E poi sicuramente già se il software fosse stato in italiano sarebbe stato meglio, e soprattutto se ci fosse un minimo di funzioni principali, con delle schede… io ho imparato ad usare ATLAS andando nei forum di ricercatori. Non sui manuali di ATLAS. Perché chissenefrega di come funziona ATLAS, cioè… A me m’interessa come si fa ricerca usando ATLAS.
Si riscontra inoltre una certa, e comprensibile, difficoltà da parte degli
intervistati, anche da parte dei più esperti riguardo il software, a seguire le varie
release e funzionalità aggiuntive, che spesso vengono considerate non rilevanti.
150
A volte invece sono funzionalità che sono già presenti a non essere conosciute.
Questo porta a pensare che l’utilizzo del software sia influenzato fortemente da
quello che è stato l’apprendimento iniziale, e che vi sia una tendenza a non
modificare più di tanto il modo con cui si utilizza il programma (RIC7):
io sono sicuro di sottoutilizzare NVivo, per cui ogni volta che esce una nuova versione io sono disperato! Perché escono tutte delle nuove funzioni che appesantiscono il tutto e io so che tanto non userò, e quindi sono disperato di fronte a questo. Quindi in realtà ho il rischio opposto, perché non è... non è una posizione corretta la mia eh. Però, in effetti, anche con l'uso di un programma di scrittura, di videoscrittura, per dire Word per Windows, ma tutti noi nel nostro utilizzo mica usiamo tutte le funzioni che Word propone. Cioè, ogni versione ci sono sempre più cose, sempre più cose che nessuno utilizza mai. Che nessuno utilizza mai. Ognuno usa quelle cose che gli servono, poi magari ogni volta aumenta di un po' alcune cose, però normalmente se io devo scrivere qualcosa, non ho bisogno di tutte quelle funzioni sofisticatissime che propone... i modelli di lettera, ma figurarsi se... Chi è che li usa? Ecco, lo stesso è con il software, di cui io appunto mi rendo conto di avere un sottoutilizzo. Cosa che è un pochino migliorata da quando lavoro con [nome collega] per esempio, che invece siccome è un formatore e allora lui deve conoscere, padroneggiare tutte le funzioni, allora delle volte capita che lui suggerisca di utilizzare una funzione che io non conosco, che non conoscevo. Ma non me la suggerisce perché c'è nel software, me la suggerisce perché risponde a una domanda. Cioè, a un problema che ho. Io al software chiedo di rispondere i problemi che ho. Se me li risolve bene, se no lo faccio in altro modo. Questo è il mio approccio insomma.
Trattando il tema della codifica, i ricercatori hanno esposto le modalità da loro
intraprese. Sono diverse, in base agli interessi di ricerca: da una codifica
grounded pura, con anche diverse centinaia di codici nella prima fase, a una
struttura più uniforme sin dall’inizio. Molti manifestano una critica al tentativo
molto comodo che si ha ad utilizzare i codici già assegnati, e si rendono conto
quanto sia necessario stare attenti a non cadere in questa tentazione. Vi è un
interessante resoconto di RIC7 riguardo a quella che sarebbe dunque la logica
nascosta di questi software, in questo caso di NVivo:
Tra l'altro questo è anche un suggerimento molto esplicito... io avevo partecipato a Roma a un seminario in cui era presente Richards, uno degli sviluppatori di NVivo, non la Lyn Richards, suo marito, il quale nel dire come si usa il software, dare alcune indicazioni su come utilizzare al meglio possibile il software, diceva esattamente questa cosa qua. Usate meno etichette possibili, e cercate di fare in modo di utilizzare sempre le stesse espressioni per definire gli stessi nodi.
La tentazione può essere frenata se vi è più consapevolezza delle funzionalità
del software. RIC2 risolve infatti in questo modo il dubbio di assegnazione dei
codici, che altrimenti potrebbe portare a riassegnare quelli già esistenti:
151
la cosa bella secondo me di ATLAS è che quando tu non ne hai un’idea di come codificare […] è creare la free quotation, cioè la quotation senza il codice. Allora esempio se tu non ne hai un’idea, però non ne hai un’idea ma hai comunque la sensibilità di capire all’interno di un testo dove sono i punti chiave, cioè le cose che in realtà ti interessano. Perché quando tu fai una ricerca secondo me non è possibile che tu non hai assolutamente un’idea di quello che vuoi andare a ricercare. Cioè non è che raccogli materiale completamente a caso. Tu leggi, poi io cosa faccio, faccio le mie free quotation, dopodiché mi faccio una bella stampa di tutte le mie free quotation, con pazienza mi metto lì e me le leggo, e comincio a ragionare su quali potrebbero essere i codici più ottimali. Io adesso sto facendo un lavoro, ho iniziato facendo dei codici. Non mi piacciono: e allora adesso ho detto che per un po’ lavoro con le free quotation. Poi me le stamperò e sulla base dei primi che ho creato cercherò di riflettere su quali sono i codici che più funzionano meglio, posso insomma rinominarli…
L’auto-coding è poco menzionato, pochi degli intervistati lo utilizzano e solo
«per farsi un’idea». Non ne vedono dunque l’utilità, salvo il caso in cui si abbia a
che fare con interviste semi-strutturate, specie se in forma scritta. Non viene
comunque ritenuto un pericolo la sua presenza nei programmi, in quanto è
sufficiente non tenerlo in considerazione se non ritenuto utile.
Vediamo infine un’ultima serie di funzionalità trattate nel corso dell’intervista.
Era difficile che gli intervistati andassero molto in profondità al riguardo,
considerato che le interviste sono state condotte senza farmi mostrare, in
pratica, i loro modi d’uso direttamente con il software in esecuzione31.
RIC1 tratta delle query come di uno strumento più confermativo di risultati già
ottenuti, ma anche di uno strumento che può portare a delle idee nuove:
Le query sì, per il discorso che ti facevo prima anche. Poi è chiaro che magari può succedere che tu sei convinto di aver fatto la tua analisi, sai cosa vuoi dire, apri il programma, gli dici trovami tutte le cose che c’entrano con questo tema che sto per spiegare adesso, e poi magari hai sbagliato qualcosa, o cambi idea, vedi che c’è una differenza, ti accorgi di un altro possibile collegamento, e quindi a quel punto lì rilavori a livello analitico sui dati e sul software. E però è un processo a posteriori.
Diversa la concezione, sempre delle query, di RIC2, il quale vede in esse delle
conferme ma anche delle rassicurazioni e dei «pesi» di quanto sta analizzando:
sembra una stupidata, ma quando tu interroghi nella query, quel numero che ti scende in fondo, sembra una stupidata, ma secondo me è una cosa un po’ importante. Perché a volte il rischio è che determinati elementi, non so faccio un
31 Tale genericità è risultata invece utile trattando del rapporto con il software e i suoi vantaggi e svantaggi nell’analisi, portando la discussione più sul piano metodologico che su quello tecnico, come era mio obiettivo.
152
esempio tratto al mio campo di ricerca: sto analizzando magari un discorso di un determinato tipo. Mi imbatto diciamo in una sentenza molto interessante, che magari proprio perché mi colpisce tendo a dargli un’importanza sovrastimata. Quei numerini lì a volte mi costringono un po’ a tornare con i piedi per terra. Mentre se non avessi un programma che mi aiuta in questa cosa che diciamo «do ordine», avrei più la tendenza diciamo a sovrastimare elementi che possono essere sporadici
Un’altra funzione molto citata è la possibilità di realizzare delle mappe
concettuali. Anche in questo caso vengono utilizzare più per chiarire alcuni
punti dell’analisi, piuttosto che come effettivo risultato da introdurre nel paper o
in presentazioni della ricerca. Molti intervistati ritengono questa funzionalità
migliorabile, possibilmente anche con la possibilità di esportare le mappe in un
altro software per la network analysis.
In generale possiamo dunque osservare che le molteplici strade con cui
conseguire un risultato rilevate dagli intervistati e gli strumenti che vengono
ritenuti non corretti dal punto di vista metodologico testimoniano il fatto che i
software sono utilizzabili per diversi approcci e in maniera personalizzata. I
ricercatori con maggior coraggio di «osare» (anche solo a tentativi, che
comunque non possono danneggiare i dati) sono quelli che esperiscono un
rapporto con il software più consapevole e rilassato.
Concludiamo con quelli che sono le funzionalità che i ricercatori intervistati
desidererebbero trovare in futuro nei software. Per molti, comprensibilmente, un
sistema più efficiente di riconoscimento vocale sarebbe un vero aiuto per la
fase della trascrizione. Inoltre, considerato che nell’intervista veniva fatta
menzione del progetto QDA-UniTN di cui parleremo nel prossimo capitolo, molti
ricercatori hanno mostrato particolare interesse per tale tipo di caratteristiche,
ovvero di un software libero, multipiattaforma e con maggiori funzioni di
tracciabilità e condivisione (anche se, per quest’ultima, valgono le perplessità
viste sopra). RIC15 ci introduce all’argomento delle prossime pagine, parlando
del progetto QDA-UniTN:
in effetti l’unico modo per fare in modo che questo avvenga è che si lavori su un file che è online, possa essere editato, modificato e utilizzato da più persone contemporaneamente. Quindi questa idea, già di per sé stessa mi sembra molto buona. Non so fino a che punto questo programma riuscirà ad avere tutta una serie di sofisticatezze che magari i programmi commerciali ad oggi hanno, quindi come dire, spero che possa essere altrettanto valido rispetto a questi programmi, cioè che con questo applicativo si possa seguire in maniera decente e decorosa tutta la fase di analisi. Cioè, che non diventi solo uno strumento di analisi del
153
contenuto, cioè, attribuire etichette ad alcune parti di testo, ma che possa diventare anche uno strumento per far veramente analisi qualitativa insomma, non solo analisi del contenuto. E quindi tutta una serie di supporti e strumenti che ti consentono di fare questo.
I resoconti degli intervistati portano quindi ad alcune considerazioni. I CAQDAS
sono stati da loro considerati nel momento in cui hanno ritenuto potessero
essere di aiuto per l’analisi che intendevano compiere, soprattutto in termini di
velocità. Successivamente questa velocità passa in secondo piano, e tendono a
prevalere altri fattori che fanno continuare ad utilizzare i software, come la
sistematicità che consentono di dare ai dati.
Anche se in misura minore rispetto a un decennio fa, sono ancora presenti dei
pregiudizi e timori ingiustificati nei confronti dei software. Non appena i
ricercatori scoprono cosa davvero i software per l’analisi computer-assisted
sono in grado di fare, e soprattutto come non fanno e non hanno intenzione di
fare, il loro atteggiamento viene a mutare. Non sussiste tuttavia alcun bisogno
di precisare di aver utilizzato il software il minimo indispensabile, o ribadire che
le procedure interpretative dei dati sono state «mantenute» nella mente del
ricercatore. Non potrebbe essere altrimenti, visto che il computer non può
sostituirsi al ricercatore. Vanno anche sostenere che l’utilizzo dei CAQDAS non
porti necessariamente ad una indagine di maggiore qualità, visto che ciò non si
più dire nemmeno riguardo al mancato utilizzo dei software.
L’adozione di un software non è comunque priva di costi: apprendimento,
licenze, difficoltà nel rapportarsi con l’interfaccia. Per quanto riguarda i
miglioramenti nelle procedure di analisi, senza dubbio consente maggiormente
di tenere sotto controllo i dati in esame, ottenere conferme di ipotesi e tenere
meglio traccia delle operazioni e riflessioni che si compiono riguardo ai dati.
Sfruttare nel migliore dei modi queste possibilità e mantenere un rigoroso
processo di progettazione e di rilevazione dei dati sta al ricercatore, o ai
ricercatori.
I software vengono utilizzati in diversi campi e per diversi approcci, e i
ricercatori più sicuri della loro metodologia riescono a trasporla sul software
senza particolari problemi. Più problematico il tema della condivisione e
collaborazione tra ricercatori. Dalle interviste emerge scetticismo riguardo la
154
plausibilità e realizzazione della collaborazione tra ricercatori, già difficile tra i
membri dello stesso team di ricerca. Ciò è dovuto a questioni epistemologiche
della ricerca qualitativa e meccanismi organizzativi tra ricercatori, istituti di
ricerca e atenei. Similmente, per quanto concerne la trasparenza del
procedimento di ricerca, viene rilevato che non è nella maggior parte dei casi
sensato «aprire» il proprio dataset e le procedure attuate su di esso, sia per
ragioni di incommensurabilità che di riservatezza dei dati.
3.3 Osservazioni finali
In questo capitolo abbiamo esaminato l’esperienza sia a livello di
apprendimento sia quella di ricerca di diversi soggetti. In primo luogo è stata
esaminata la ricezione da parte di un gruppo di studenti all’utilizzo di un
software come supporto per l’analisi dei dati in corso di metodi qualitativi. Si è
dimostrato uno strumento utile, soprattutto ai fini dell’apprendimento
metodologico. Sebbene con l’aggiunta di alcuni accorgimenti, ritengo si sia
dimostrata un’esperienza che indica gli effetti positivi anche di un’integrazione
più estesa all’interno dei corsi metodologici di ricerca qualitativa.
Successivamente abbiamo analizzato i resoconti di alcuni ricercatori riguardo
alle loro esperienze di ricerca in cui si sono avvalsi dei software. Sono stati
considerati importanti aspetti, come i pregiudizi iniziali e le diverse tecniche di
utilizzo, basate sulle diverse concezioni di quello che i ricercatori sono
intenzionati ad ottenere dai software. Emerge anche un generale malcontento
per l’interfaccia di molti programmi, spesso vista come esageratamente
complessa rispetto a quelle che sono le reali esigenze dei ricercatori. Infine
sono state trattate importanti tematiche come la trasparenza, la tracciabilità e la
condivisione e collaborazione nel corso del processo di ricerca, mettendo in
evidenza la peculiarità dell’analisi qualitativa.
Torneremo su alcune di queste tematiche nel prossimo capitolo, dove
esamineremo i potenziali sviluppi dei software più diffusi e di quelli appena nati
o nascenti, che si pongono come obiettivo proprio quello di tentare di risolvere
molte delle problematiche e richieste esaminate in questo capitolo.
155
4. Potenziali sviluppi
Dopo aver esaminato nel capitolo precedente, l’esperienza dei ricercatori con i
software, in questo capitolo tratteremo delle recenti innovazioni presenti nei
software più diffusi, per poi spostarci su alternative di software libero e open
source e quelle web-based. Da questi elementi, anche in considerazione ai
precedenti capitoli, tratteremo del progetto QDA-UniTN, puntando
sull’innovazione che porterebbe nel campo dei CAQDAS.
4.1 Mutamenti nei software più diffusi
Torniamo nuovamente sui software più diffusi, osservandone brevemente
tendenze di questi ultimi anni. Resta da determinare se arriverà ad imporsi un
determinato software rispetto agli altri. Non ci è possibile prevedere questo
sviluppo. A livello generale è possibile rilevare la costante uscita di nuove
versioni con nuove feature, come nuovi formati dei file accettati, puntando molto
sui documenti audio e video. Si tratta infatti di una nuova sfida per gli
sviluppatori:
My dream-software is a user-friendly knowledge management tool to organise images and words, with drag-and-drop features, intuitive ways to assign several different tags and keywords to each picture, instant searching, annotating and classifying capabilities into categories and sub-categories and with features that allow several nodes to be cross-linked to other nodes (images and words). It should probably use a 3-D environment, with different layers where data (still images, audio, movies, texts, codes) and the logical relation among them (and their segments) can be seen or hidden according to our research needs. At the moment software improvements are needed; there is still not a real integration of multimedia in a visual interface, where researchers can easily edit and link text, images, audio and video (Parmeggiani, 2009; 80).
Si assiste dunque al supporto di un maggior numero di formati, a un
miglioramento dell’interfaccia, e altre di minore entità per gran parte degli
utilizzatori. È presente nelle ultime versioni una maggiore integrazione con il
web per quanto riguarda l’analisi di siti, la gestione dei collegamenti e la
geolocalizzazione mediante Google Earth (che può risultare molto utile negli
156
studi urbani). I principali software per certi versi si influenzano a vicenda nelle
novità inserite nelle ultime versioni. Saranno perciò presenti nuove feature,
nuove lingue dell’interfaccia e dei documenti testuali accettati, ma fino ad un
certo limite. Non tanto perché alcune non siano così utili, o addirittura avverse
per alcuni ricercatori, quanto piuttosto per la struttura del software e il modo in
cui viene sviluppato. Questo accade sia a livello di interfaccia, per soddisfare i
vecchi utenti e le preferenze degli sviluppatori, sia perché si tratta di programmi
di natura commerciale. Uno dei principali limiti consiste nella collaborazione, e
nelle prossime pagine ne vedremo il motivo.
4.2 Alcune recenti proposte
Sul mercato non sono certamente disponibili solo i sette software citati nel
secondo capitolo. Le soluzioni informatiche proposte per assistere i ricercatori
qualitativi nelle loro ricerche sono molteplici, anche se poco note. In questa
sezione vorremmo concentrare la nostra attenzione su quelle che sono le
proposte più innovative e che a nostro avviso possono verso un nuovo modo
per concepire i CAQDAS.
Qualora un ricercatore fosse intenzionato ad adottare un software non
commerciale, la soluzione più indicata è Weft QDA, realizzato da Alex Fenton,
originariamente per l’analisi di interviste e note di campo di una sua ricerca, per
il conseguimento del MSc, riguardo alle cooperative di credito (credit unions) a
South London. Si tratta di un software generico per la codifica e il recupero dei
dati testuali, mediante una semplice interfaccia. È più limitato nelle funzionalità
rispetto ai principali software commerciali, anche se per la realizzazione di
operazioni base (codifica, recupero, memo) può essere considerato più che
adeguato. Inoltre, caso più unico che raro, supporta sia Windows sia Linux32.
Permette di trattare unicamente dati testuali (solo testo o PDF), e permette
32 Nelle prossime versioni è previsto anche il supporto di Mac OS X. Gli utenti di questo sistema operativo possono utilizzare, oltre ai software commerciali, TAMS Analyzer, più completo rispetto a Weft QDA.
157
anche semplici ricerche booleane, una certa misura di statistiche descrittive sui
dati e cross-tab dei codici. L’ultima versione disponibile è la 1.0.1.
Un’altra interessante proposta è RQDA. Si tratta di un pacchetto aggiuntivo del
software R, solitamente noto per l’analisi di dati statistici. Creato da Ronggui
Huang per la conduzione della sua ricerca di dottorato presso la City University
di Hong Kong, nella quale intendeva svolgere l’analisi del contenuto di articoli di
giornale. La sua intenzione era quella di poter avere un software
multipiattaforma (essendo un pacchetto di R, è utilizzabile in tutti i sistemi
operativi supportati da quest’ultimo), avere un software semplice e
completamente controllabile da lui stesso. Il pacchetto supporta solo documenti
di testo (plain-text), e permette tutte le funzionalità di base dei CAQDAS
(codifica e recupero, memo, organizzazione dei dati). Essendo un pacchetto di
R, si presta particolarmente per le metodologie miste, possibili anche con altri
software tramite esportazione di tabelle con frequenze di parole o codici in un
foglio elettronico o pacchetto statistico, ma che in questo caso vengono
direttamente gestite dallo stesso strumento. Inoltre, sempre perché si tratta di
un pacchetto aggiuntivo di R, permette la scrittura di funzioni aggiuntive ad ogni
ricercatore in grado di farlo. L’interfaccia è tuttavia non intuitiva, e al momento
non è uno strumento adatto a gran parte della comunità dei ricercatori
qualitativi, e nemmeno degli utenti dei CAQDAS. È disponibile dalla fine del
2008, e l’ultima versione è la 0.1-7.
Un altro strumento che consideriamo degno di nota è il “Coding Analysis
Toolkit” (Lu & Shulman, 2008), nato all’interno del Qualitative Data Analysis
Program (QDAP), del University Center for Social and Urban Research, presso
la University of Pittsburgh33. Si tratta di una piattaforma web-based che intende
essere di ausilio agli utilizzatori di ATLAS.ti, al fine di facilitare un’efficiente
codifica di dati grezzi analizzati con il software. La funzionalità principale, dal
nostro punto di vista, è quella di facilitare il lavoro di analisi di gruppo nei
progetti, offrendo strumenti per il controllo, il confronto e la validazione della
codifica dei dati, aumentando dunque il rigore dell’analisi. Lo strumento è stato
33 Si veda: http://cat.ucsur.pitt.edu/default.aspx .
158
lanciato nel 2008, ed è suscettibile di nuovi sviluppi. Sempre all’interno dello
stesso progetto è stato sviluppato il “Blog Analysis Toolkit”, per l’archiviazione e
la condivisione dei post dei blog che l’utente desidera esaminare, per poi poter
effettuare l’analisi dai dati raccolti.
Un ulteriore interessante proposta è quella fornita da Ethnonotes34, creato da
Eli Lieber e Thomas S. Weisner, rispettivamente uno psicologo e un
antropologo, impegnati presso la University of California, Los Angeles (UCLA).
Si tratta un sistema web-based per l’analisi di dati qualitativi, puntando anche
all’integrazione tra dati quantitativi e qualitativi. Per ottenere la licenza d’utilizzo
(a pagamento, e di un periodo definito) è necessario registrare il progetto a cui
si intende lavorare, e il numero di ricercatori che sarà coinvolto. Lo strumento,
infatti, permette un semplice lavoro di analisi con più utenti, grazie alla fatto di
essere web-based, con la possibilità di differenziare le operazioni che gli utenti
possono compiere, o anche i dati che possono essere visualizzati.
4.3 Il progetto QDA-UniTN
Conclude questo elaborato una breve presentazione del progetto
temporaneamente chiamato QDA-UniTN. Si tratta di un progetto portato avanti
dal Dipartimento Informatico della Facoltà di Sociologia di Trento, in
collaborazione con la Facoltà di Scienze. Ho collaborato alla realizzazione dello
studio di fattibilità del progetto, conclusosi nel dicembre 2008, assieme a Paolo
D'Incau (studente di Informatica), sotto la supervisione del dott. Maurizio Teli. Il
progetto è continuato anche nel 2009, con la partecipazione di due nuovi
collaboratori e la conferma al dott. Teli nel ruolo di supervisore.
Esso nasce dall’intento di realizzare un programma caratterizzato da
un’interfaccia più a misura di ricercatore, liberamente distribuibile e modificabile
(salvo alcuni termini della licenza) e soprattutto dallo spirito collaborativo. Con
quest’ultimo termine intendo la possibilità di più ricercatori di lavorare sullo
34 Si veda: http://www.ethnonotes.com/index.html .
159
stesso progetto, potendo quindi condividere istantaneamente codifiche e
commenti (nello stile wiki). Il progetto dovrebbe avvantaggiarsi delle ricerche e
delle considerazioni presentate nell’elaborato.
Il software che verrà sviluppato intende soddisfare tre caratteristiche principali:
essere software libero e open source; essere multi-piattaforma, ovvero
utilizzabile con diversi sistemi operativi, come ad esempio Windows, Mac OS X,
Linux e altri; infine, essere concepito come uno strumento che favorisca la
collaborazione tra ricercatori, invece di privilegiare un concetto di ricerca come
attività individuale.
La necessità di una soluzione libera e open source emerge dalle soluzioni
attualmente disponibili, prevalentemente di natura commerciale, le quali portano
a rendere più difficoltoso avvalersi di tali software, e a renderle meno
supportate a livello accademico. Uno degli sbarramenti per l'utilizzo dei
CAQDAS è proprio il costo delle licenze, da dover acquistare per un prodotto
che tutto sommato si conosce poco. Inoltre il fatto che non esista un software
nettamente predominante può portare i laboratori delle università a non
scegliere quale software acquistare a livello di ateneo, cercando di non
scontentare nessun gruppo di ricercatori che sostiene un particolare
programma.
Abbiamo visto inoltre che poche delle soluzioni disponibili offrono ai ricercatori
la possibilità di condividere i dati analizzati in maniera semplice. Un'ulteriore
spinta in tal senso proviene dalle recenti innovazioni metodologiche nella
ricerca sociale in una forma più tendente all'attività collettiva, come l'“etnografia
globale” (Burawoy et al., 2002) o “etnografia multi-situata” (Marcus, 1995). Da
tali suggerimenti emerge come la ricerca qualitativa coinvolga sempre più
gruppi di ricerca che analizzano dati simili. I software esistenti sottendono
invece un principio di ricerca più classico, favorendo la ricerca come attività
individuale.
Si è visto nei capitoli precedenti che in parte lo strumento utilizzato ha rilevanza
per l'analisi che si intende svolgere, e per questo motivo può e deve essere
migliorato. Lavorando su un progetto open source e collaborativo è possibile
ottenere un maggior grado di personalizzazione dell'interfaccia e delle funzioni
160
del software. Inoltre è possibile che la presenza di questo software porti altri
ricercatori allo sviluppo di plug-in e estensioni in grado di arricchire le
funzionalità del programma. Per questo il progetto rimane aperto anche a
possibili collaborazioni internazionali.
Open source
Una soluzione open source fornisce anche all'Università degli Studi di Trento, in
qualità di committente e guida del progetto, diversi benefici. In primo luogo in
chiave di ente pubblico consente di combinare e riutilizzare risorse già esistenti,
razionalizzando l'impiego di risorse economiche e fornendo alla comunità dei
ricercatori uno strumento user-friendly. Si andrebbe ad evitare la dipendenza da
un fornitore esterno, specialmente per quanto riguarda il formato del file dei
progetti, aggiornamenti e nuove caratteristiche e funzionalità. In secondo luogo,
una volta raggiunta la necessaria diffusione, si dovrebbe assistere all'emergere
di nuovi sviluppatori, andando a ridurre l'investimento dell'Università
committente. Si verrebbe a creare un circolo virtuoso, ovvero un aumento degli
utenti, maggiori miglioramenti, un ennesimo aumento degli utenti, e
conseguentemente un maggior coinvolgimento di altre istituzioni, altri gruppi o
singoli sviluppatori nella programmazione di nuove versioni. Infine porterebbe
ad una maggiore notorietà dell'Ateneo, rafforzando il suo ruolo nel campo della
ricerca e dell'innovazione.
Software libero e open source inoltre non significa mancato ritorno degli
investimenti. La collaborazione non avviene solo nella correzione di bug, ma
anche nella produzione di documentazione, grazie una cospicua comunità di
utenti esperti. Lo stesso vale per la traduzione dell'interfaccia e la localizzazione
(nel caso dei CAQDAS i diversi formati linguistici dei dati), la promozione e il
supporto. Per quanto riguarda questo ultimo punto, l'attività di training e
consulenza da parte di esperti del software può anche costituire interesse per
l'Ateneo.
161
Web-based, e quindi multipiattaforma
Essendo la collaborazione tra ricercatori uno dei cardini del progetto, per
favorirla in maniera efficace è necessario permettere l'utilizzo del software in
diversi sistemi operativi (Windows, Mac OS X, Linux). La soluzione a questo
problema è stata trovata nell'adottamento di una piattaforma web-based,
funzionante perciò all'interno del browser mentre si è connessi a Internet.
Spiegato brevemente, questo significa che le operazioni vengono svolte dai
ricercatori sui propri computer, trasmesse ad un server centrale e
immagazzinate. Si tratta di un metodo già molto diffuso, che consente anche
backup automatici e progressivi del progetto. Ciò non toglie che non sia
possibile, con qualche sforzo aggiuntivo, di permettere ai ricercatori di lavorare
offline, per poi sincronizzare il lavoro di analisi svolto quando non erano
connessi a Internet. Mediante questo meccanismo si ottiene la massima
collaborazione tra ricercatori, che possono praticamente in tempo reale lavorare
sullo stesso progetto. Inoltre la collaborazione può avvenire non solo per
l'analisi, ma anche per il supporto (per esempio un wiki), magari con lo stesso
strumento. Si evita anche il problema degli aggiornamenti, spesso problematico
quando si lavora su molte postazioni. Infine si presenta una maggiore facilità ad
elaborare dati provenienti dal web, essendo il software già parte di quella che è
una crescente fonte di informazioni anche per i ricercatori qualitativi.
Condivisione e collaborazione
Come abbiamo visto nel paragrafo precedente, le soluzioni in termini di
software libero e open source sono limitate essenzialmente in due pacchetti.
Per quanto siano delle interessanti e valide proposte, seppur ancora da
migliorare, sono limitate rispetto agli obiettivi del progetto QDA-UniTN,
soprattutto per quanto riguarda la concezione dell'attività d'analisi come
individuale e non collaborativa. Transana, come abbiamo visto, è l'unico a
permettere il lavoro di più utenti in tempo reale. ATLAS.ti invece approssima
tale funzione tramite la possibilità di esportare file XML su un sito e si tratta di
162
una procedura piuttosto ostica anche per i più esperti.
Essendo invece il progetto QDA-UniTN incentrato sulla collaborazione, questa
è possibile solo se i ricercatori e gli sviluppatori lavorano a stretto contatto, per
evitare che i primi si sentano impotenti nei confronti dei secondi. Il ruolo del
ricercatore deve essere preponderante, senza che vi sia nemmeno il dubbio
che i software influenzi i bisogni analitici e mini gli assunti della ricerca. È
importante mobilitare gli sviluppatori in concerto con i ricercatori,
implementando una metodologia di sviluppo che comprenda sia figure con
esperienza di programmazione che figure con esperienza nella ricerca sociale,
anche per quanto riguarda l'interfaccia. Il partecipatory design prevede
interdisciplinarietà, collaborazione e partecipazione degli utenti, finalizzate
all'usabilità e l'ergonomia del software. Questo significa coinvolgere l'utente in
tutte le fasi, e non si tratta affatto di qualcosa di banale. Solitamente gli utenti
non sono coinvolti, portando alcune tecnologie ad essere sviluppate senza
rendersi conto dei reali problemi degli utenti. Non intendiamo dire che i software
esistenti non tengano conto di questi aspetti, ma ne sottolineiamo il rilievo
intrinsecamente connesso all'aspetto collaborativo del progetto in questione.
Infine gli aspetti della segnalazione di errori (bug reporting) e il supporto online
saranno di aiuto sia per gli sviluppatori che i ricercatori. Per i primi per un
mantenere un contatto costante con gli utenti, per i secondi per avere una guida
aggiornata e scritta dai propri pari, a differenza di alcuni manuali rapidamente
datati e ritenuti scarsamente invitanti da molti ricercatori.
Riservatezza dei dati
Una problematica dello stampo collaborativo che si vorrebbe dare al software è
legata alla riservatezza dei dati. Nel processo di ricerca sono spesso coinvolti
dati che riguardano accordi di riservatezza e tutela del soggetto della ricerca, e
questi accordi dovranno poi trovare una traduzione nell'implementazione del
software. La comunicazione con il server dovrà essere in forma criptata e il
software dovrà fornire strumenti per far sì che il ricercatore possa
ragionevolmente fidarsi del sistema nel mantenere la riservatezza delle
163
informazioni ottenute nel processo di ricerca. Tra i membri del gruppo di ricerca
sarà anche necessario un sistema per la gestione dei permessi sui dati
condivisi, in modo da permettere una maggiore affidabilità del sistema.
Se in questo modo viene tutelata la deontologia dei ricercatori, è anche
necessario pensare al tipo di dati che vengono condivisi sul server di QDA-
UniTN. Potrebbe infatti accadere che vengano immessi dati
(ingiustificabilmente) sensibili o inappropriati, e tale responsabilità non deve
ricadere sui promotori del progetto. Essi non potrebbero infatti permettersi di
filtrare i dati all'origine. Si potrebbe quindi lasciare ai membri dei gruppi di
ricerca la possibilità di segnalare il materiale ritenuto improprio rispetto ai fini del
progetto di ricerca su cui stanno lavorando, per poi procedere alla rimozione
dello stesso con l'avvallo del supervisore, che dispone di pieni privilegi.
Feature da tenere in considerazione
Riprendiamo le otto possibilità offerte dai software per l'analisi computer-
assisted per vedere alcune delle implementazioni possibili nel software che si
intende sviluppare.
Vicinanza e prossimità ai dati: si tratta dell'aspetto su cui puntare
maggiormente, in quanto l'interfaccia non è solo l'estetica del programma, ma
definisce la modalità in cui esso viene utilizzato. Un programma in grado di
svolgere funzioni complesse non deve necessariamente avere un'interfaccia
altrettanto complessa e un programma user-friendly si sviluppa più facilmente
se ci si avvale del partecipatory design. Dovranno essere presenti molteplici vie
per realizzare la stessa operazione (drag & drop, tastiera e menù), in modo tale
che i ricercatori possano scegliere quella a loro più congeniale. Considerata la
tendenza di molti ricercatori ad utilizzare interamente lo schermo, potrebbe
essere consigliabile avvalersi di una dashboard da cui accedere a funzioni e
informazioni che è necessario avere sott’occhio permanentemente durante
analisi. Un ulteriore suggerimento è l’implementazione di strumenti che rendano
la lettura su schermo meno faticosa (sfondo nero, caratteri sgranati), vista la
164
difficoltà per alcuni ricercatori di permanere a lungo tempo di fronte al computer.
Le funzionalità di base saranno le prime su cui puntare, in particolar modo su
quella dell’importazione dei documenti. La questione dei formati di file accettati
è semplificabile mediante l’utilizzo di strumenti di conversione online. Va
ricordato inoltre come l’interfaccia web-based semplifichi il trattamento di dati
provenienti dal web, come siti, e-mail e conversazioni via instant messaging.
Applicazione di codici a segmenti di dati: su questo punto valgono tutte le
considerazioni presenti nel primo capitolo dell’elaborato, ovvero le procedure
che si possono compiere per quanto concerne questa operazione
fondamentale. Non sarebbe secondario inoltre migliorare il livello di
riconoscimento ai fini della codifica della formattazione (stile e colore) dei testi
importati, in maniera tale da perdere meno informazioni possibili dai documenti
originali.
Realizzazione di uno schema di codifica: a seconda dell'approccio utilizzato dal
ricercatore, dovrebbe essere possibile modificare semplicemente lo schema di
codifica, consentendo la possibilità di distinguere tra codifica funzionale e
«cosmetica». Quest'ultima non codifica in realtà il testo, ma permette di
recuperare i segmenti ritenuti comunque degni di nota, magari per una
successiva codifica. Sarebbe interessante inoltre offrire sia la possibilità di
effettuare una codifica ad albero, sia non gerarchica, a seconda dell'iniziale
scelta (in seguito modificabile) del ricercatore.
Esplorazione e visualizzazione dei dati semplice: in questa operazione è
importante lasciare il ricercatore libero di decidere la forma in cui desidera gli
output, senza imporre opzioni comprensibili solo a chi utilizza il software da
molto tempo. Una semplice finestra di sintesi in cui si permette di decidere cosa
inserire nel recupero, con anteprima e disponibile anche in formato stampabile,
è una efficiente forma per ottenere i risultati desiderati senza inutili tentativi. Le
funzioni di ricerca semplice non dovrebbero presentare problemi, è sufficiente
rendere anche possibile la ricerca di termini simili (“televis*” per televisore,
televisione, televisivo, ecc.).
Inoltre nel progetto QDA-UniTN i dati provenienti da Internet (siti, blog, e-mail,
ecc.) hanno un ruolo importante. È importante tenere conto che questi dati non
165
dovrebbero essere considerati come testo tradizionale, in quanto vi sono delle
differenze rilevanti (Giuliano e La Rocca, 2008; 31-52). In primo luogo la diffusa
presenza di collegamenti ipertestuali, che portano a pagine web diverse da
quella in analisi. Essi costituiscono infatti un importante elemento per la
comprensione del significato del testo che le circonda, o che spesso vi è
integrato. Una possibile soluzione a tale questione è l'aggiunta di una funzione
che associa automaticamente nel progetto un certo numero di pagine web
collegate a quella originaria. Starà poi al ricercatore decidere o meno di attivarle
ed inserirle a pieno titolo nella sua ricerca. L'attivazione dei dati dovrebbe
essere disponibile in ogni caso, permettendo ai ricercatori di scegliere quali
documenti effettivamente utilizzare, lasciando i restanti nell'archivio e per
essere eventualmente riattivati se lo ritenessero necessario.
Organizzazione della scrittura: non si riscontrano particolari miglioramenti da
effettuare alla strumentazione per le annotazioni già presenti nei programmi più
diffusi, salvo qualche miglioramento per quanto concerne l'aspetto grafico e la
funzionalità. È possibile inoltre sfruttare banche dati esistenti per il reperimento
di paper accademici e la conseguente integrazione con il progetto, in modo da
avere articoli «a tema» nell'immediato.
Mappare idee e collegare concetti: la possibilità di disegnare modelli può essere
integrata in una fase successiva. Suggerimenti in tal senso possono provenire
da altro software libero (come per esempio Freemind), e ovviamente da altri
CAQDAS che già presentano tale funzionalità. Da ricordare l'importanza della
flessibilità, in questo caso realizzabile mediante la personalizzazione delle
relazioni tra gli oggetti e la possibilità di utilizzo di diverse forme grafiche e
immagini.
Organizzazione dei dati su caratteristiche note: dovrà essere sicuramente
possibile aggiungere attributi ai dati importati, per poi poterle utilizzare come
elemento delle query in abbinamento con i codici, o anche solo come semplice
procedura di organizzazione dei dati. Concepiamo come tecnicamente semplice
da realizzare la possibilità di realizzare cross-tabs qualitative, sempre
riguardanti gli attributi e i codici (o solamente codici, di cui almeno uno
categoriale). Interessante anche la possibilità di importare i dati categoriali da
166
file esterni, come per esempio un software statistico o un foglio elettronico.
Interrogazione dei dati (esplorazione complessa): in questo tipo di procedure va
a nostro avviso concentrato il maggior impegno di collaborazione dei ricercatori
e degli sviluppatori. Si tratta infatti del ventaglio di operazioni più critico, sia per
difficoltà che per alcuni assunti della ricerca qualitativa. La collaborazione dei
ricercatori può avere anche finalità pedagogiche, nel senso di far comprendere
a cosa possono davvero servire strumenti come le query e l’auto-coding, e
comprendere come tali strumenti debbano essere implementati. Il ruolo degli
sviluppatori consiste in particolare nella soddisfazione a livello software di tali
esigenze, anche tramite diverse funzioni aggiungibili al software a discrezione
dei ricercatori.
4.4 Osservazioni finali
In questo capitolo sono stati trattati i potenziali sviluppi dei CAQDAS. I software
commerciali più diffusi hanno diverse potenzialità da sviluppare, ma si
tratterebbe di un radicale mutamento considerata la loro struttura. Le opzioni in
termini di software libero e open source sono invece limitate seppur degne di
nota, quanto altre soluzioni basate sul web. Si è poi tratto più estesamente di
quello che temporaneamente è definito il progetto QDA-Uni-TN, per lo sviluppo
di un software open source, collaborativo e multipiattaforma, esaminando i
vantaggi di queste tre caratteristiche. Sono state delineate le linee guida del
progetto, e i rilievi effettuati per lo studio di fattibilità, congiuntamente a quelli
presenti in questo elaborato. L’attività di preparazione allo sviluppo del software
sta procedendo, muovendosi sullo realizzazione di use-case mediante la
rilevazione tramite intervista dei modi d’uso di alcuni ricercatori. In
considerazione al livello pratico della rilevazione si stanno effettuando interviste
interrogando i ricercatori sul loro modo di utilizzo dei software facendosi
mostrare l’effettiva realizzazione pratica delle procedure direttamente sul loro
computer. È possibile registrare le operazioni che avvengono sullo schermo, e
poi collegare la trascrizione al video, ovviamente tramite un software per
l’analisi computer-assisted (Transana dovrebbe essere il più indicato).
167
Da questo si deduce che lo strumento utilizzato in un certo modo conta, e non
per niente l’obiettivo è quello di realizzare un nuovo strumento più semplice e
flessibile di quelli esistenti, in linea con le più recenti esigenze dei ricercatori.
168
Conclusioni
Nel presente elaborato è stata analizzata gran parte delle letteratura
riguardante i software per l'analisi computer-assisted. A seguire sono state
illustrate sul piano pratico le funzionalità dei principali programmi. Abbiamo poi
analizzato il rapporto di alcuni studenti e ricercatori con questi software. Infine
sono state illustrate alcune delle innovative proposte disponibili, fornendo un più
ampio spazio, anche in luce alla mia collaborazione nella stesura dello studio di
fattibilità, al progetto QDA-UniTN.
Torniamo alle ipotesi iniziali, alla luce di quanto esaminato in questo elaborato.
Il ruolo dei software è mutato rispetto agli anni '90, portando molte delle critiche
nei loro confronti a non essere più giustificabili. I CAQDAS sono maggiormente
diffusi, e si sono trasformati in strumenti più completi e semplici rispetto al
passato. La loro diffusione non è comunque capillare, e alcuni pregiudizi e
timori nei confronti dei software sono ancora presenti.
Per alcuni utilizzatori e potenziali utilizzatori infatti i software rimangono uno
strumento complesso, in parte anche perché mancano delle competenze
informatiche necessarie per sfruttare in maniera consapevole gli strumenti
messi a loro disposizione. La concezione negativa nei confronti del computer è
meno diffusa, in quanto oggi si tratta di uno strumento praticamente
indispensabile per un gran numero di operazioni quotidiane.
I CAQDAS risultano essere strumenti utilizzabili per diversi approcci. Non sono
quindi vincolati ad analisi che seguono l'approccio della grounded theory. Tale
considerazione si riscontra particolarmente nella letteratura in cui vengono
anche mostrati vari esempi di ricerche compiute. Molti ricercatori riescono a
trarre vantaggio dei software in un modo personalizzato ed ottenendo un
importante supporto nel loro lavoro.
Se da una parte è possibile affermare che i ricercatori qualitativi potrebbero, e
dovrebbero aver modo, di investire maggiormente in termini di impegno
nell'apprendimento all'utilizzo dei CAQDAS, dall'altra bisogna ricordare che
169
questo non è sempre fondamentale, e che l'interfaccia di molti software è
spesso esageratamente complessa, in particolar modo se si intende
avvalersene solo per alcune funzionalità. Bisogna inoltre aggiungere che,
evidentemente a causa delle resistenze del passato, i CAQDAS faticano ad
essere insegnati nei corsi universitari dedicati ai metodi qualitativi, nonostante
sarebbero un utile supporto anche ai fini dell'apprendimento della metodologia;
inoltre c’è ancora disponibilità sufficiente di training e seminari, i quali sarebbero
utili sia per i principianti quanto per coloro che già utilizzano i software per
aggiornarsi e diffonderne l'utilizzo. Va inoltre considerato che il fatto di avere
buone competenze informatiche non porta necessariamente ad avvalersi dei
software, in quanto possono comunque essere considerati solo un’opzione, per
giunta non ben realizzata in base alle effettive potenzialità informatiche odierne.
Per quanto riguarda la tracciabilità e la trasparenza che i CAQDAS sarebbero in
grado di aumentare, la questione si fa più complessa. La prima domanda da
porsi è: chi è il beneficiario di tali caratteristiche? In primo luogo, al ricercatore
stesso è possibile avere un maggior controllo e una maggiore consapevolezza
dei passi compiuti. In secondo luogo, l'eventuale gruppo di ricerca beneficia di
un livello di sistematizzazione e collaborazione difficilmente ottenibile con le
tecniche tradizionali, anche se l'analisi necessita di uno sforzo maggiore
riguardo la pianificazione del lavoro. È inoltre possibile avvalersi di un'audit
esterno, o della consulenza di altri ricercatori non coinvolti. A livello
epistemologico si tratta di procedure accettabili fintanto che non critichino nel
merito le interpretazioni e le riflessioni effettuate, ma rilievi sulla rispondenza
empirica delle stesse, potendo riscontrare, tramite i CAQDAS, i passaggi che
hanno portato a determinati asserti. Spostandosi invece sul piano deontologico,
la riservatezza, in molti casi prevista, dei dati raccolti rende difficile nella
maggior parte dei casi la condivisione dei dati, che permane perciò all'interno
del gruppo di ricerca.
Il supporto dei software si comprende se si ha chiaro quello che è realmente
possibile fare con essi, e se si ha modo di vedere come i colleghi hanno tratto
beneficio dall’ausilio di un programma. Anche per questo sarebbe importante
170
spiegare come sono stati usati i programmi (magari con degli screenshot) nei
rapporti di ricerca. È invece controproducente per l’immagine dei software
ritenere che il semplice fatto di averne fatto uso renda la ricerca compiuta più
affidabile e di maggior qualità. I programmi da soli non producono alcun tipo di
risultato, essi sono semplicemente un supporto, anche molto potente, al loro
raggiungimento. I CAQDAS sono un grande ausilio in quanto memorizzano una
grande quantità di dati e ci offrono la possibilità di contestualizzare i frammenti
con la cornice della nostra ricerca.
La ricerca qualitativa tuttavia non è contraddistinta solo dal fatto di avere a che
fare con grandi quantità di dati, ma anche da un basso livello di
standardizzazione nelle modalità in cui viene tratto un senso complessivo dai
dati, dotandosi di procedure complesse e difficilmente codificabili. Per molti
l’imposizione di un metodo è contrario al processo interpretativo, e soprattutto
creativo, che deve attuare il ricercatore. I software tuttavia non impongono
nulla, salvo una maggiore sistematizzazione delle procedure (e comunque è il
ricercatore a doverla realizzare). Il fatto che questo possa avere qualche
similarità che le tecniche quantitative non significa non possa essere utile anche
per quelle qualitative. Non ha senso per i qualitativi continuare a definirsi in
contrapposizione a tutto ciò che è tipico della ricerca quantitativa. Il computer è
uno strumento troppo potente per essere lasciato ad appannaggio di altri. Su
alcuni punti invece è bene essere fermi: non c’è bisogno della verifica
quantitativa, ma di cercare di comprendere il più possibile il punto di vista dei
soggetti e la relazione che intercorre tra loro e il ricercatore. Non bisogna
perdere di vista le linee conduttrici dell’analisi qualitativa, ovvero condurre le
analisi nel modo più sottile possibile, piuttosto che in modo grezzo e
superficiale. Per questo motivo maggior ordine, contestualizzazione dei
segmenti, trasparenza e tracciabilità non vanno contro gli obiettivi dell’analisi
qualitativa.
La diffusione dei software può portare anche a dei mutamenti nella ricerca
qualitativa, per certi versi come quelli portati dalla diffusione di Internet per
quanto riguarda la grande massa di dati da gestire e l’inevitabilità della
condivisione delle informazioni. Per questo le idee che stanno dietro il progetto
QDA-UniTN sono valide, andando a coprire una fascia non coperta, andando
171
ad integrare il panorama dei software coinvolgendo i ricercatori nella
costruzione di uno strumento in grado di fornire una soluzione collaborativa
adatta alle loro esigenze. Lo strumento utilizzato conta, ed è necessario essere
esigenti al riguardo. Si possono sviluppare programmi più semplici e completi,
che consentano ai ricercatori di utilizzare i software in maniera creativa,
avvalendosi sia di funzioni già fornite, sia inventate da loro stessi.
Comunque sia, il fatto che vi siano delle difficoltà non significa necessariamente
che uno strumento non vada considerato. Magari la difficoltà ha un senso e vale
la pena dei costi in termini d’impegno. Ciò che conta è che non ponga troppi
assunti, non adatti epistemologicamente, che potrebbero portare a deviazioni,
se non proprio a cambiamenti, dell’oggetto di ricerca. Questa considerazione
particolarmente valida per la ricerca qualitativa (ma non solo), in quanto si ha a
che fare con un piano simbolico che non può ammettere troppe costrizioni.
Tanti ricercatori criticano con motivazioni metodologiche i CAQDAS, ma spesso
non hanno ben chiaro ciò di cui stanno parlando. In alcuni casi, considerato
quanto scritto sopra, hanno ragione. Non ha senso utilizzare il computer in un
modo fine a sé stesso, ovvero per utilizzarlo o dire di averlo fatto. Il vero
problema resta sempre comprendere cosa è possibile ottenere dai software.
L’influenza che possono avere non è necessariamente negativa se non diventa
una costrizione. Molte delle problematiche informatiche che pone non sono
molto diverse da dell’inchiostro che si esaurisce o dallo smarrimento di un
foglietto di carta con delle annotazioni nella tradizionale modalità di condurre
l’analisi. Ad esse basta essere preparati e fare in modo che si verifichino il
meno possibile.
Chiedere aiuto non significa che non si voglia fare da sé, o che non si sia in
grado di farcela altrimenti. Oppure, ancor peggio, che quindi i risultati non
saranno quelli desiderati. Si tratta di chiedere un supporto, nel corso del quale
non bisogna mai perdere la fiducia in sé stessi, in quanto la macchina non
risolve i reali problemi. Sarà sempre il ricercatore con la sua competenza ed
esperienza, auspicabilmente aiutato e supportato da degli strumenti, a fornire
valore aggiunto alla ricerca.
172
Riferimenti bibliografici
Adam, F., and D. Podmenik. 2005. “Qualitative Research in a Changing Epistemic Context. The Case of a Small Social Science Community.” Forum Qualitative Sozialforschung/Forum: Qualitative Social Research 6.
Anderson, R. E, and E. E Brent. 1991. “Sociological computing: An opportunity missed?.” The
American Sociologist 22:65–77. Andrew, S., Y. Salamonson, and E. J Halcomb. 2008. “Integrating mixed methods data analysis
using NVivo: An example examining attrition and persistence of nursing students.” International Journal of Multiple Research Approaches 2:36–43.
Angermüller, J. 2005. “" Qualitative" Methods of Social Research in France: Reconstructing the
Actor, Deconstructing the Subject.” Forum Qualitative Sozialforschung/Forum: Qualitative Social Research 6.
Atherton, A., and P. Elsmore. 2007. “Structuring qualitative enquiry in management and
organization research: A dialogue on the merits of using software for qualitative data analysis.” Qualitative Research in Organizations and Management: An International Journal 2:62–77.
Bampton, R., and C. J Cowton. 2002. “The e-interview.” Forum Qualitative
Sozialforschung/Forum: Qualitative Social Research 3. Bazeley, P. 2007. Qualitative data analysis with NVivo. Sage Publications. Blank, G. 1991. “Why sociological computing gets no respect.” Social Science Computer
Review 9:593. Bong, S. A. 2002. “Debunking myths in qualitative data analysis.” Forum Qualitative
Sozialforschung/Forum: Qualitative Social Research 3. Brent, E. 2004. “ Sociology and Computing: Introduction to This Special Issue.” Social Science
Computer Review 149. Bringer, J. D, L. H Johnston, and C. H Brackenridge. 2006. “Using computer-assisted qualitative
data analysis software to develop a grounded theory project.” Field Methods 18:245. Brown, D. 2002. “Going digital and staying qualitative: Some alternative strategies for digitizing
the qualitative research process.” Forum Qualitative Sozialforschung/Forum: Qualitative Social Research 3.
Bruni, A., and G. Gobo. 2005. “Qualitative Research in Italy.” Forum Qualitative
Sozialforschung/Forum: Qualitative Social Research 6. Burawoy, M. 2002. Global ethnography: Forces, connections, and imaginations in a postmodern
world. Univ of California Pr. Cardano, M. 2009. “Presentazione.” Rassegna Italiana di Sociologia 5-16. Carvajal, D. 2002. “The artisan's tools. Critical issues when teaching and learning CAQDAS.”
Forum Qualitative Sozialforschung/Forum: Qualitative Social Research 3.
173
Charmaz, K. 2000. “Grounded Theory: Objectivist and Constructivist Methods.” Pp. 509–535 in Handbook of qualitative research, edited by N. K. Denzin and Y.S. Lincoln, vol. 2. Thousand Oaks, CA, Sage Publications.
Clark-Ibanez, M. 2004. “Framing the social world with photo-elicitation interviews.” American
Behavioral Scientist 47:1507. Coffey, A., and P. Atkinson. 1996. “Making sense of qualitative data analysis: Complementary
strategies.” Thousand Oaks, CA: Sage. Coffey, A., B. Holbrook, and P. Atkinson. 1996. “Qualitative data analysis: Technologies and
representations.”. Corbin, J., and A. Strauss. 1996. “Analytic ordering for theoretical purposes.” Qualitative Inquiry
2:139. Corti, L., and L. Bishop. 2005. “Strategies in teaching secondary analysis of qualitative data.”
Forum Qualitative Sozialforschung/Forum: Qualitative Social Research 6. Cousins, K., and W. Mcintosh. 2005. “More than typewriters, more than adding machines:
Integrating information technology into political research.” Quality and Quantity 39:581–614.
Creswell, J. W. 2003. Research design. SAGE. Dargentas, M. 2006. “Secondary analysis and culture of disputation in European qualitative
research. Conference Essay: Secondary analysis in qualitative research—utopia and perspectives.” Forum Qualitative Sozialforschung/Forum: Qualitative Social Research 7:4–06.
De Gregorio, E., and F. Arcidiacono. 2008. “Computer-assisted analysis in social sciences: A
unique strategy to carry on mixed and blended research.” International Journal of Multiple Research Approaches 2:31–35.
Denzin, N. K, and Y. S Lincoln. 2003. Collecting and interpreting qualitative materials. Sage
Publications Inc. Denzin, N. K, and Y. S Lincoln. 2007. Strategies of qualitative inquiry. Sage Publications Inc. Dey, Ian. 1993. Qualitative data analysis. Routledge. Di Gregorio, S. 2000. “Using Nvivo for your literature review.” in Meeting of the strategies in
qualitative research: l Issues and results from the analysis using QSR NVivo and NUD* IST.
Di Gregorio, S. 2003. “«Teaching grounded theory with QSR NVivo».” Qualitative Research
Journal 3:79–95. Di Gregorio, S., and J. Davidson. 2008. Qualitative Research Design for Software Users. Open
University Press Milton Keynes, UK, USA. Driscoll, D., A. Appiah-Yeboah, P. Salib, and D. J Rupert. 2007. “Merging qualitative and
quantitative data in mixed methods research: How to and why not.” Ecological and Environmental Anthropology 3.
Encyclopedia of Social Science Research Methods, 2003. SAGE Publications. Fielding, N. G. 2000. “The shared fate of two innovations in qualitative methodology: The
relationship of qualitative software and secondary analysis of archived qualitative data.” Forum Qualitative Sozialforschung/Forum: Qualitative Social Research 1.
174
Fielding, N. G, and R. M Lee. 2002. “New patterns in the adoption and use of qualitative software.” Field methods 14:197.
Fielding, N. G, and R. M. Lee. 1998. Computer analysis and qualitative research. SAGE. Fischer, M. D. 2006. “Introduction: Configuring Anthropology.” Social Science Computer Review
24:3. Fisher, M. 1997. Qualitative computing. Ashgate. Flick, U. 2006. An introduction to qualitative research. SAGE. Fontes, T. O, and M. O’Mahony. 2008. “In-depth interviewing by instant-messaging.” Social
Research Update. http://sru. soc. surrey. ac. uk/SRU53. pdf. Franzosi, R. 2006. “Grammatiche semantiche come strumenti di organizzazione e raccolta di
dati narrativi.” Rassegna Italiana di Sociologia 465–488. Gerson, E. M. 1984. “Qualitative research and the computer.” Qualitative Sociology 7:61–74. Gibbs, G. R. 2007. Analyzing qualitative data. Sage Pubns. Gibbs, G. R. 2002. “Qualitative data analysis: Explorations with NVivo.”. Gibbs, G. R, S. Friese, and W. C Mangabeira. 2002. “The use of new technology in qualitative
research. Introduction to Issue 3 (2) of FQS.” Forum Qualitative Sozialforschung/Forum: Qualitative Social Research 3.
Gibbs, G. R. 2005. “Writing as analysis.” Online QDA.
http://onlineqda.hud.ac.uk/Intro_QDA/writing_analysis.php. Gibson, W., P. Callery, M. Campbell, A. Hall, and D. Richards. 2005. “The Digital Revolution in
Qualitative Research: Working with Digital Audio Data Through Atlas. Ti.” Sociological Research Online 10.
Giuliano, L., and G. La Rocca. 2008. L'analisi automatica e semi-automatica dei dati testuali.
Software e istruzioni per l'uso. LED Edizioni Universitarie. Glaser, B. G. 1978. Theoretical sensitivity. Sociology Press Mill Valley, CA. Glaser, B. G, and A. L Strauss. n.d. “The discovery of grounded theory: strategies for qualitative
research. 1967.” London: Wiedenfeld and Nicholson. Gobo, G. 2005. “The renaissance of qualitative methods.” Forum Qualitative
Sozialforschung/Forum: Qualitative Social Research 6. Hahn, C. 2008. Doing qualitative research using your computer: a practical guide. Sage Pubns
Ltd. Harper, D. 2002. “Talking about pictures: a case for photo elicitation.” Visual Studies 17:13–26. Heaton, J. 1998. “Secondary analysis of qualitative data.” Social Research Update 22:88–93. Henwood, K., and I. Lang. 2005. “Qualitative Social Science in the UK: A Reflexive
Commentary on the" State of the Art".” Forum Qualitative Sozialforschung/Forum: Qualitative Social Research 6.
Hesse-Biber, S., and P. Dupuis. 1995. “Hypothesis testing in computer-aided qualitative data
analysis.” Computer-Aided Qualitative Data Analysis. Theory, Methods and Practice. London: Sage 129–135.
175
Hinze, K. E. 1987. “Computing in sociology: Bringing back balance.” Social Science Computer Review 5:439.
Hölge-Hazelton, B. 2002. “The internet: a new field for qualitative inquiry?.” Forum Qualitative
Sozialforschung 3. Hughes, B., D. Schmidt, and A. Smith. 2006. “Towards Interoperable Secondary Annotations in
the E-Social Science Domain.” Second International Conference on e-social Science proceedings. Edité par Université de Melbourne, Université de Queensland, NCeSS, Université de Manchester.
Irion, T. 2002. “Collection, Presentation and Analysis of Multimedia Data with Computers.”
Forum Qualitative Sozialforschung/Forum: Qualitative Social Research 3. Kelle, U., G. Prein, and K. Bird. 1995. Computer-aided qualitative data analysis. SAGE. Kikooma, J. F. n.d. “Software ‘enabled’ research? Fears, hopes, and some ‘new’ vistas for
social science research in Africa.” P. 71 in Universities Taking a Leading Role in ICT Enabled Human Development.
Koch, S. C, and J. Zumbach. 2002. “The use of video analysis software in behavior observation
research: Interaction patterns in task-oriented small groups.” Forum Qualitative Sozialforschung/Forum: Qualitative Social Research 3.
König, T. 2004. “Routinizing Frame Analysis through the Use of CAQDAS.” Biannual RC-33
Meeting, Amsterdam, August 17–20. Kuckartz, U. 1995. “Case-oriented quantification.” Pp. 158–166. in Kelle et al. (1995) Computer-
aided qualitative data analysis: Theory, methods, and practice London: Sage Publications.
La Rocca, G. 2009. “Organizzare l’informazione etnografica. Il ruolo dei CAQDAS .” Rassegna
Italiana di Sociologia 133-160. Layder, D. 1998. Sociological practice: Linking theory and social research. Sage Publications
Ltd. Le-Roux, D., and J. Vidal. 2000. “Verbatim: Qualitative data archiving and secondary analysis in
a French company.” Forum Qualitative Sozialforschung/Forum: Qualitative Social Research 1:3–00.
Lee, R. M., and N. G. Fielding. 1996. “Qualitative data analysis: representations of a
technology: a comment on Coffey, Holbrook and Atkinson.” Sociological Research Online 1.
Lee, R. M, and N. G. Fielding. 2001. “Users'Experiences of Qualitative Data Analysis Software.”
Ethnography 185. Lee, R. M., and N. G. Fielding. 1991. Using computers in qualitative research. SAGE. Lewins, A., and C. Silver. 2007. Using software in qualitative research: a step-by-step guide.
Sage Publications. Lewins, A., and C. Silver. 2009. “Choosing a CAQDAS package: A working paper.” QUIC
Working Paper. http://caqdas.soc.surrey.ac.uk/QUICworkingpapers.html. Lindgren, S. 2008. “Crime, media, coding: developing a methodological framework for
computer-aided analysis.” Crime, Media, Culture 4:95.
176
Lindlof, T. R, and B. C Taylor. 2002. Qualitative communication research methods. Sage Pubns.
Lonkila, M. 1995. “Grounded theory as an emerging paradigm for computer-assisted qualitative
data analysis.” Pp. 41–51 in Kelle et al. (1995) Computer-aided qualitative data analysis: Theory, methods, and practice London: Sage Publications.
Lu, C. J, and S. W Shulman. 2008. “Rigor and flexibility in computer-based qualitative research:
Introducing the Coding Analysis Toolkit.” International Journal of Multiple Research Approaches 2:105–117.
MacMillan, K., and T. Koenig. 2004. “The wow factor: preconceptions and expectations for data
analysis software in qualitative research.” Social Science Computer Review 22:179. Mangabeira, W. C, R. M Lee, and N. G Fielding. 2004. “Computers and qualitative research:
Adoption, use, and representation.” Social Science Computer Review 22:167. Marcus, G. E. 1995. “Ethnography in/of the world system: the emergence of multi-sited
ethnography.” Annual review of anthropology 24:95–117. Mason, J. 2002. Qualitative researching. Sage Pubns Ltd. Medjedovic, I., and A. Witzel. 2005. “Secondary analysis of interviews: using codes and
theoretical concepts from the primary study.” Forum Qualitative Sozialforschung/Forum: Qualitative Social Research 6.
Menduni, E. 2001. Il mondo della radio. Dal transistor a Internet. Bologna: Il Mulino. Merton, R. K. 1968. Social theory and social structure. Free Press. Meyer, T., H. Gruppe, and M. Franz. 2002. “Microsoft Access for the analysis of open-ended
responses in questionnaires and interviews.” Forum Qualitative Sozialforschung/Forum: Qualitative Social Research 3.
Miles, M. B., and A. M. Huberman. 1994. Qualitative data analysis. SAGE. Miller, R. L. 2006. “Review: Lyn Richards (2005). Handling Qualitative Data: A Practical Guide.”
Forum Qualitative Sozialforschung/Forum: Qualitative Social Research 7. Muhr, T. 1994. “ATLAS. ti (Version 4.1).” Berlin: Scientific Software Development. Muhr, T. 1991. “ATLAS/ti—A prototype for the support of text interpretation.” Qualitative
Sociology 14:349–371. Nideröst, B. 2002. “Computer-aided qualitative data analysis with Word.” Forum Qualitative
Sozialforschung/Forum: Qualitative Social Research 3. Osorio, F. 2006. “The Effects of Computer Assisted Research on Chilean Academics.” Forum
Qualitative Sozialforschung/Forum: Qualitative Social Research 7. Paccagnella, L. 1997. “Getting the seats of your pants dirty: Strategies for ethnographic
research on virtual communities.” Journal of Computer-Mediated Communication 3:267–288.
Parmeggiani, P. 2009. “Going digital: Using new technologies in visual sociology.” Visual
Studies 24:71–81. Pfaffenberger, B. 1988. Microcomputer applications in qualitative research. Sage Publications,
Inc. Thousand Oaks, CA, USA.
177
Platt, J. 1981. “On interviewing one's peers.” British Journal of Sociology 75–91. Pretto, A. 2008. “Analisi computer-assistita di materiale qualitativo: un approccio attraverso gli
ausili informatici più comuni.” Studi di Sociologia 441-459. Rettie, R., H. Robinson, A. Radke, and X. Ye. 2008. “CAQDAS: a supplementary tool for
qualitative market research.” International Journal 11:76–88. Richards, L. 1998. “Closeness to data: The changing goals of qualitative data handling.”
Qualitative Health Research 8:319. Richards, L. 2005. Handling qualitative data: A practical guide. Sage. Richards, T. 2002. “An intellectual history of NUD* IST and NVivo.” International journal of
social research methodology 5:199–214. Richards, T., and L. Richards. 1991. “The NUDIST qualitative data analysis system.” Qualitative
Sociology 14:307–324. Richards, T., and L. Richards. 1994. “Using computers in qualitative analysis.” Handbook of
qualitative research 445–462. Roberts, K. A, and R. W Wilson. 2002. “ICT and the research process: Issues around the
compatibility of technology with qualitative data analysis.” Forum Qualitative Sozialforschung/Forum: Qualitative Social Research 3.
Schiellerup, P. 2008. “Stop making sense: the trials and tribulations of qualitative data analysis.”
Area 40:163–171. Seale, C. 2005. “Using Computers to Analyse Qualitative Data.” in Silverman (2005), Doing
Qualitative Research. A practical Handbook. Secrist, C., I. De Koeyer, H. Bell, and A. Fogel. 2002. “Combining digital video technology and
narrative methods for understanding infant development.” Forum Qualitative Sozialforschung/Forum: Qualitative Social Research 3.
Seidel, J. 1991. “Method and madness in the application of computer technology to qualitative
data analysis.” Using Computers in Qualitative Research. London: Sage 107–116. Seidel, J. 1998. “The ethnograph v5. 0: a users guide.” London: Scolari. Seidel, J., and U. Kelle. 1995. “Different functions of coding in the analysis of textual data.” Pp.
52–61 in Kelle et al. (1995) Computer-aided qualitative data analysis: Theory, methods, and practice London: Sage Publications..
Silver, C., and N. Fielding. 2008. “Using Computer Packages in Qualitative Research.” P. 334 in
The SAGE Handbook of Qualitative Research in Psychology. Silverman, D. 2005. Doing qualitative research: A practical handbook. Sage. Sterling, B. 1992. The hacker crackdown. Bantam Books. Strauss, A. L. 1987. Qualitative analysis for social scientists. Cambridge University Press. Strauss, A. L, and J. M Corbin. 1998. Basics of qualitative research: Techniques and
procedures for developing grounded theory. Sage Pubns. Tesch, R. 1990. Qualitative research. Routledge.
178
Thompson, R. 2002. “Reporting the results of computer-assisted analysis of qualitative research data.” Forum Qualitative Sozialforschung/Forum: Qualitative Social Research 3.
Tosoni, S. 2004. Identità virtuali. Comunicazione mediata da computer e processi di costruzione
dell'identità personale. Franco Angeli, Milano. Valles, M. S, and A. Baer. 2005. “Qualitative social research in Spain: Past, present, and future.
A portrait.” Forum Qualitative Sozialforschung/Forum: Qualitative Social Research 6. Weaver, A., P. Atkinson, and A. Reid. 1995. Microcomputing and qualitative data analysis.
Avebury. Weitzman, E. A. 2003. Software and Qualitative Research, in Denzin, N. K, and Y. S Lincoln.
(2003) (eds.) Collecting and Interpreting Qualitative Materials. Thousand Oaks, CA, Sage Publications.
Weitzman, E. A., and M. B. Miles. 1995. Computer programs for qualitative data analysis. Sage
Publications. Wickham, M., and M. Woods. 2005. “Reflecting on the strategic use of CAQDAS to manage and
report on the qualitative research process.” The Qualitative Report 10:687–702. Willig, C., and W. S. Rogers. 2008. The SAGE handbook of qualitative research in psychology.
SAGE. Wolcott, H. F. 1990. Writing up qualitative research (Vol. 20). Newbury Park, CA: Sage. Wong, L. P. 2008. “Data Analysis in Qualitative Research: a Brief Guide to Using Nvivo.”
Malaysian Family Physician 3.
Zalinger J., N. Freier, and E. Dutko. 2009. “Ethnochat: an instant messenger program for ethnography,” P. 3703–3708 in Proceedings of the 27th international conference extended abstracts on Human factors in computing systems.
179
Pacchetti software
ATLAS.ti - http://www.atlasti.com/
The Ethnograph - http://www.qualisresearch.com/
HyperRESEARCH - http://www.researchware.com/
MAXqda - http://www.maxqda.com/
QDA Miner - http://www.provalisresearch.com/
Qualrus - http://www.qualrus.com/
QSR NVivo - http://www.qsrinternational.com/
RQDA Project - http://caqdas.soc.surrey.ac.uk/
TAMS - http://tamsys.sourceforge.net/
Transana - http://www.transana.org/
Weft QDA - http://www.pressure.to/qda/
Risorse Web sui CAQDAS
CAQDAS Networking Project - http://caqdas.soc.surrey.ac.uk/
Online QDA - http://onlineqda.hud.ac.uk/
Assessment and Development of New Methods for the Analysis of Media Content -
http://www.lboro.ac.uk/research/mmethods/
Digitals Research Tools - http://digitalresearchtools.pbwiki.com/
Text Analysis Info Page - http://textanalysis.info/
Il Portale Italiano dell’Analisi Qualitativa - http://www.portale.analisiqualitativa.com/