+ All Categories
Home > Documents > L’intelligenza artificiale - ECLT · 274 6.1. L’INTELLIGENZA Figura 6.2: Il test di Turing ma...

L’intelligenza artificiale - ECLT · 274 6.1. L’INTELLIGENZA Figura 6.2: Il test di Turing ma...

Date post: 29-Sep-2018
Category:
Upload: duongdat
View: 215 times
Download: 0 times
Share this document with a friend
43
Capitolo 6 L’intelligenza artificiale L’ultimo capitolo del volume ` e dedicato al pi` u affascinante e controverso tra i temi del- l’informatica, l’intelligenza artificiale, cio` e il tentativo di creare sistemi artificiali dotati di intelligenza. 264 Si presenter` a dapprima una breve introduzione alla storia delle ricer- che di intelligenza artificiale, in modo che il lettore possa cogliere le linee evolutive e le prospettive di sviluppo di questa disciplina. Poi si esamineranno i due principali modelli impiegati nello sviluppo dei sistemi di intelligenza artificiale, il modello fondato sulla rappresentazione esplicita della conoscenza e sulla sua elaborazione mediante ragiona- mento, e il modello fondato sulla rappresentazione implicita della conoscenza, in reti neurali, e sulla sua elaborazione mediante l’attivazione di tali reti. Ci si soffermer` a infi- ne su un’applicazione dell’intelligenza artificiale che gi` a oggi appare matura e capace di fornire utili risultati al giurista, il modello del sistema basato su regole. Si proporranno infine alcune considerazioni sulle ricerche in corso e in particolare sulla possibilit` a di riprodurre la dialettica giuridica. 6.1 L’intelligenza Come ` e noto, manca una definizione univoca e condivisa di intelligenza. Uno dei pi` u au- torevoli testi introduttivi in materia, l’Oxford Companion to the Mind, apre la trattazione della voce “intelligence” dicendo che “sono disponibili innumerevoli test per misurare l’intelligenza, ma nessuno sa con sicurezza che cosa sia l’intelligenza, e addirittura nes- suno sa con sicurezza che cosa misurino i test disponibili”. 265 Si suole peraltro convenire che l’intelligenza si rivela nella capacit` a di svolgere funzioni come le seguenti: adat- tamento all’ambiente (o a nuove situazioni), apprendimento dall’esperienza, pensiero astratto, utilizzo efficiente di risorse limitate, comunicazione, ecc. Tuttavia, manca l’accordo sulla caratterizzazione della supposta competenza unitaria (l’intelligenza) cui ineriscono le diverse abilit` a ricondotte nel concetto di intelligenza. L’intelligenza ` e infatti un fenomeno complesso, oggetto di diverse discipline, 266 tra cui possiamo ricordare brevemente le seguenti: 269
Transcript
Page 1: L’intelligenza artificiale - ECLT · 274 6.1. L’INTELLIGENZA Figura 6.2: Il test di Turing ma si e avvicinato a questo risultato.` 287 Se ne puo trarre la conclusione rassicurante

Capitolo 6

L’intelligenza artificiale

L’ultimo capitolo del volume e dedicato al piu affascinante e controverso tra i temi del-l’informatica, l’intelligenza artificiale, cioe il tentativo di creare sistemi artificiali dotatidi intelligenza.264 Si presentera dapprima una breve introduzione alla storia delle ricer-che di intelligenza artificiale, in modo che il lettore possa cogliere le linee evolutive e leprospettive di sviluppo di questa disciplina. Poi si esamineranno i due principali modelliimpiegati nello sviluppo dei sistemi di intelligenza artificiale, il modello fondato sullarappresentazione esplicita della conoscenza e sulla sua elaborazione mediante ragiona-mento, e il modello fondato sulla rappresentazione implicita della conoscenza, in retineurali, e sulla sua elaborazione mediante l’attivazione di tali reti. Ci si soffermera infi-ne su un’applicazione dell’intelligenza artificiale che gia oggi appare matura e capace difornire utili risultati al giurista, il modello del sistema basato su regole. Si proporrannoinfine alcune considerazioni sulle ricerche in corso e in particolare sulla possibilita diriprodurre la dialettica giuridica.

6.1 L’intelligenza

Come e noto, manca una definizione univoca e condivisa di intelligenza. Uno dei piu au-torevoli testi introduttivi in materia, l’Oxford Companion to the Mind, apre la trattazionedella voce “intelligence” dicendo che “sono disponibili innumerevoli test per misurarel’intelligenza, ma nessuno sa con sicurezza che cosa sia l’intelligenza, e addirittura nes-suno sa con sicurezza che cosa misurino i test disponibili”.265 Si suole peraltro convenireche l’intelligenza si rivela nella capacita di svolgere funzioni come le seguenti: adat-tamento all’ambiente (o a nuove situazioni), apprendimento dall’esperienza, pensieroastratto, utilizzo efficiente di risorse limitate, comunicazione, ecc.

Tuttavia, manca l’accordo sulla caratterizzazione della supposta competenza unitaria(l’intelligenza) cui ineriscono le diverse abilita ricondotte nel concetto di intelligenza.L’intelligenza e infatti un fenomeno complesso, oggetto di diverse discipline,266 tra cuipossiamo ricordare brevemente le seguenti:

269

Page 2: L’intelligenza artificiale - ECLT · 274 6.1. L’INTELLIGENZA Figura 6.2: Il test di Turing ma si e avvicinato a questo risultato.` 287 Se ne puo trarre la conclusione rassicurante

270 6.1. L’INTELLIGENZA

• la filosofia, che fin da Platone e Aristotele ha individuato nell’intelligenza o ra-zionalita una caratteristica fondamentale dell’uomo e uno dei temi della propriaricerca,267 e ha studiato i procedimenti del pensiero (logica), i metodi della cono-scenza e della scienza (gnoseologia ed epistemologia), e le strutture concettuali(ontologia);

• la matematica, che ha formalizzato i metodi del pensiero nei linguaggi e nelletecniche della logica formale e della teoria della probabilita, e ha altresı studiato iproblemi della computabilita;

• l’economia, che ha elaborato tecniche per l’uso efficiente di risorse limitate, anchein contesti nei quali la determinazione e la valutazione delle conseguenze delleazioni e difficile (teoria delle decisioni) o nei quali il singolo agente deve tenerconto delle scelte altrui (teoria dei giochi);

• la medicina, che ha studiato l’elaborazione delle informazioni nel cervello e ilrapporto tra stimoli sensoriali e loro elaborazione neurale (neurologia);

• la psicologia, che ha studiato il funzionamento della mente umana, in particolarenell’apprendimento (psicologia cognitiva), rappresentandola come un processo dielaborazione di informazioni (scienza cognitiva);

• la linguistica, che ha studiato i procedimenti che danno luogo alla formulazione ealla comprensione del linguaggio, traducendoli talvolta in programmi informatici(linguistica computazionale).

L’intelligenza artificiale ha tratto ispirazione da tutte le ricerche appena menzionate, maha aggiunto a esse un aspetto ingegneristico: essa non vuole solo studiare l’intelligenza,ma si propone di costruirla, di dar vita ad artefatti intelligenti. L’obiettivo ingegneri-stico dell’intelligenza artificiale non esclude che essa possa contribuire alla conoscenzadell’intelligenza umana. Come osservava Gian Battista Vico [1668-1744] verum esseipsum factum (il vero e cio che e fatto), o verum et factum convertuntur (il vero e il fat-to si convertono l’uno nell’altro): come dallo studio dell’intelligenza umana si possonotrarre utili indicazioni al fine della costruzione dell’intelligenza artificiale, cosı la costru-zione dell’intelligenza artificiale (il fatto) ci aiuta a cogliere la natura dell’intelligenza(il vero) e in particolare possiamo trarne ipotesi (da verificare empiricamente) circa ilfunzionamento dell’intelligenza umana.268 Infatti, poiche le facolta conoscitive da rea-lizzare nei sistemi di intelligenza artificiale corrispondono alle facolta in cui si esplical’intelligenza naturale (umana o animale), non dobbiamo stupirci se l’intelligenza arti-ficiale trae ispirazione dall’intelligenza naturale, trovando in essa soluzioni appropriatealle proprie esigenze di elaborazione dell’informazione, ne dobbiamo stupirci se ritro-viamo nell’intelligenza naturale (nelle strutture cerebrali o nei processi mentali) alcunesoluzioni ingegneristiche elaborate dall’intelligenza artificiale. Cio non comporta tutta-via una completa identita, soprattutto perche l’intelligenza umana si realizza medianteun hardware (le cellule cerebrali) profondamente diverso dall’hardware dell’intelligenzaartificiale (chip di silicio). Pertanto, talune forme di elaborazione dell’informazione (co-

Page 3: L’intelligenza artificiale - ECLT · 274 6.1. L’INTELLIGENZA Figura 6.2: Il test di Turing ma si e avvicinato a questo risultato.` 287 Se ne puo trarre la conclusione rassicurante

CAPITOLO 6. L’INTELLIGENZA ARTIFICIALE 271

me l’effettuazione rapida di calcoli aritmetici, con grandi numeri, o il concatenamentodi numerose regole) possono essere piu adatte all’intelligenza artificiale che all’intelli-genza umana. All’opposto, altre forme di elaborazione dell’informazione (come quelleattinenti alla connessione di dati percettivi o mnemonici secondo analogie non predeter-minate) “naturali” per l’uomo, allo stato dell’arte non sono riproducibili facilmente insistemi informatici.

6.1.1 Modelli di intelligenza artificiale

Stuart Russell e Peter Norvig distinguono i diversi modi di accostarsi all’intelligenzasecondo due diverse dimensioni:269

• l’idea che l’intelligenza consista esclusivamente nel pensiero (rappresentazionedella conoscenza e ragionamento) si contrappone all’idea che essa includa altresıl’interazione con l’ambiente (percezione e azione);

• l’obiettivo di riprodurre fedelmente le capacita intellettive dell’uomo (con tutti iloro limiti) si contrappone all’obiettivo di realizzare sistemi capaci di razionalita(cioe di elaborare informazioni in modo ottimale) prescindendo dai limiti dellarazionalita umana.

Conseguentemente, gli stessi autori propongono lo schema della Figura 6.1, che riportadiverse autorevoli definizioni di intelligenza artificiale distinguendole a seconda di co-me si collocano rispetto alle due dimensioni appena indicate. Non posso qui esaminareapprofonditamente queste distinzioni, e ci limiteremo pertanto ad alcune brevi conside-razioni. Per quanto attiene alla distinzione tra pensiero e azione, ricordo come anche ilpensiero non possa essere astratto dall’azione. Vi e infatti nel ragionamento di un agenteintelligente un continuo collegamento tra il momento epistemico (volto a determinarecome stanno le cose, come e fatto il contesto nel quale l’agente si trova e quali dinami-che lo caratterizzano) e il momento pratico (volto a determinare il comportamento piuappropriato rispetto agli interessi dell’agente e al contesto della sua azione): i nostri in-teressi epistemici (quali cose desideriamo conoscere) sono determinati anche dai nostriobiettivi pratici, e i modi del perseguimento dei nostri obiettivi pratici (e il giudizio preli-minare sulla possibilita di raggiungere tali obiettivi) dipendono dalle nostre conoscenzeepistemiche.270

L’attenzione per l’aspetto pratico e cresciuta negli anni piu recenti quando—in paral-lelo con sviluppi tecnologici di cui parleremo nelle pagine seguenti, come in particolarela creazione di robot fisici ed elettronici e l’emergere dell’intelligenza ambientale—sisono sviluppate indagini volte a cogliere il comportamento razionale nella relazione tral’agente e il suo ambiente. Tali ricerche hanno enfatizzato aspetti dell’intelligenza nonriducibili al ragionamento in senso stretto, come la percezione, la capacita di esplorareattivamente l’ambiente, e la comunicazione.271

Page 4: L’intelligenza artificiale - ECLT · 274 6.1. L’INTELLIGENZA Figura 6.2: Il test di Turing ma si e avvicinato a questo risultato.` 287 Se ne puo trarre la conclusione rassicurante

272 6.1. L’INTELLIGENZA

Sistemi che pensano come esseriumani

Sistemi che pensano razional-mente

“Il nuovo eccitante tentativo di fare inmodo che i calcolatori pensino [. . . ]di costruire macchine dotate di men-

ti, nel senso pieno e letterale”272

“[L’automazione delle] attivita cheassociamo con il pensiero uma-no, attivita quali prendere decisioni,risolvere problemi, imparare”273

“Lo studio di facolta mentali median-te l’uso di modelli computazionali”274

“Lo studio delle elaborazioni cherendono possibile percepire, ragio-nare, e agire”275

Sistemi che agiscono come esse-ri umani

Sistemi che agiscono razional-mente

“L’arte di creare macchine che svol-gono funzioni che richiederebberointelligenza quando svolte da perso-ne”276

“Lo studio di come far fare ai calco-latori cose nelle quali, al momento,le persone sono migliori”277

“L’intelligenza computazionale e lostudio della progettazione di agentiintelligenti”278

“L’IA [. . . ] si occupa del comporta-mento intelligente negli artefatti”279

Figura 6.1: Definizioni dell’intelligenza artificiale (IA)

Per quanto attiene alla distinzione tra l’obiettivo di riprodurre pienamente il pensieroumano (comprese le sue irrazionalita) e quello di sviluppare invece procedure cognitivepienamente razionali, molto dipende dall’obiettivo di un’applicazione di intelligenza ar-tificiale: simulare l’uomo o affrontare nel modo migliore certi problemi. Bisogna pero diricordare che la conoscenza dei procedimenti cognitivi e deliberativi e ancora assai limi-tata: vi sono molte cose che l’uomo riesce a fare in modo appropriato spontaneamente,senza sapere in che modo riesca a raggiungere tale risultato. La natura ci ha dotato dicapacita adatte ad affrontare in modo adeguato il mondo in cui ci troviamo280 e siamo ingrado di utilizzare tali facolta pur senza conoscere le modalita del loro funzionamento, equindi, a maggior ragione, senza conoscere le ragioni a sostegno di tali modalita. Cio va-le non solo per capacita specifiche (come quella di riconoscere le facce delle persone cheincontriamo) ma anche per le nostre generali capacita linguistiche, logico-matematiche,e in generale per le competenze richieste nella soluzione di problemi.

A questo riguardo e opportuno ricordare il concetto di razionalita limitata, elaboratodallo studioso di intelligenza artificiale (e premio Nobel per l’economia) Herbert Simon.Scelte che appaiono irrazionali con riferimento a un concetto ideale di razionalita (nonassicurando un risultato ottimale, cioe il migliore risultato possibile) possono inveceapparire appropriate (razionali nella misura in cui ci e possibile esserlo) quando si con-

Page 5: L’intelligenza artificiale - ECLT · 274 6.1. L’INTELLIGENZA Figura 6.2: Il test di Turing ma si e avvicinato a questo risultato.` 287 Se ne puo trarre la conclusione rassicurante

CAPITOLO 6. L’INTELLIGENZA ARTIFICIALE 273

siderino i limiti delle nostre capacita conoscitive e la complessita dell’ambiente.281 Lanostra stessa ragione ci vieta di sprecare le nostre energie nell’impossibile ricerca dellascelta ottimale, e ci richiede invece di seguire procedure cognitive fallibili, ma rapideed economiche (richiedenti un impegno limitato delle nostre risorse mentali) che con-ducano a risultati sufficientemente buoni (anche se non ottimi) nella maggior parte deicasi.282 Queste procedure fallibili tese a economizzare le energie richieste dall’impiegodella ragione sono chiamate euristiche.

In conclusione, cio che puo apparire un difetto della razionalita umana (una formadi irrazionalita), puo invece rivelarsi una procedura cognitiva appropriata per una razio-nalita limitata: emulare (copiare) l’intelligenza umana, anche in aspetti apparentementeirrazionali (o solo limitatamente razionali) puo talvolta condurre a soluzioni efficaci.

6.1.2 Intelligenza artificiale forte e intelligenza artificiale debole

Una distinzione importante, che si sovrappone a quelle appena tracciate, e quella tra in-telligenza artificiale forte (strong artificial intelligence) e intelligenza artificiale debole(weak artificial intelligence). Secondo la caratterizzazione che ne da John Searle, illustrestudioso del linguaggio e della mente, l’intelligenza artificiale forte muove dall’assuntoche anche i calcolatori siano capaci di stati cognitivi e di pensiero (nel modo in cui nee dotato un essere umano) e conseguentemente si propone di costruire menti artificia-li.283 Per questo indirizzo “il calcolatore appropriatamente programmato e realmenteuna mente, si puo cioe dire letteralmente che i calcolatori dotati dei programmi giusticapiscono e hanno stati cognitivi”.284 L’intelligenza artificiale debole invece si proponedi realizzare sistemi artificiali capaci di svolgere compiti complessi, sistemi che possonomimare (simulare) aspetti dei processi cognitivi umani, ma che non possono riprodurrequegli stessi processi (non sono in grado di pensare, non possiedono una mente).

Il dibattito circa la possibilita di sviluppare, mediante elaboratori elettronici, for-me di intelligenza artificiale forte, cioe vere menti artificiali, puo essere fatto risalire alfondamentale contributo di Alan Turing, che gia nel 1936 si interrogava non solo sullapossibilita di sviluppare macchine intelligenti, ma anche su come verificare quando e inquale misura questo risultato potesse considerarsi raggiunto. A tale fine egli proponevaun test ispirato a un gioco di societa. il “gioco dell’imitazione”, nel quale una personainterroga due interlocutori di sesso diverso, al fine di determinare chi di questi sia l’uomoe chi la donna (senza avere contatto diretto con gli stessi). Nel gioco di Turing lo scopodell’interrogante e invece quello di distinguere l’interlocutore umano e l’interlocutoreelettronico, il calcolatore (Figura 6.2).285 Si avra la prova che l’intelligenza artificiale estata realizzata quando un sistema informatico riuscira a ingannare l’interrogante, facen-dogli credere di essere una persona (quando l’interrogante, nel gioco dell’imitazione,attribuira l’identita umana con la stessa probabilita all’interlocutore umano e a quelloelettronico).286 Nessun sistema ha ancora superato il test di Turing, e anzi nessun siste-

Page 6: L’intelligenza artificiale - ECLT · 274 6.1. L’INTELLIGENZA Figura 6.2: Il test di Turing ma si e avvicinato a questo risultato.` 287 Se ne puo trarre la conclusione rassicurante

274 6.1. L’INTELLIGENZA

Figura 6.2: Il test di Turing

ma si e avvicinato a questo risultato.287 Se ne puo trarre la conclusione rassicurante chel’intelligenza artificiale e ancora ben lontana dal raggiungere l’intelligenza umana, nelcampo della comunicazione non ristretta.288

Tuttavia, il test di Turing solleva un importante problema teorico, che ci possiamoporre in astratto, indipendentemente dalla possibilita concreta di realizzare oggi, o nelprossimo futuro, un sistema che superi il test. Ci possiamo cioe chiedere se un sistemache, in ipotesi, riuscisse a superare il test sarebbe una vera intelligenza artificiale, o in-vece sarebbe solo un mero “idiota sapiente”, che si limita a fingere di essere intelligente,che simula una mente senza possederla veramente. Infatti, il test di Turing e puramentecomportamentale: per superarlo e sufficiente che la macchina si comporti come un esse-re umano, non e necessario che esso abbia veramente una mente, dei pensieri. Vi e statopertanto chi ha affermato l’impossibilita teorica di realizzare sistemi informatici capacidi attivita mentale (di pensiero in senso proprio), quali che siano le prestazioni offer-

Page 7: L’intelligenza artificiale - ECLT · 274 6.1. L’INTELLIGENZA Figura 6.2: Il test di Turing ma si e avvicinato a questo risultato.` 287 Se ne puo trarre la conclusione rassicurante

CAPITOLO 6. L’INTELLIGENZA ARTIFICIALE 275

te dagli stessi (anche se tali prestazioni comportino il superamento del test di Turing).Di conseguenza, l’intelligenza artificiale forte sarebbe impossibile in linea di principio,indipendentemente da futuri sviluppi tecnologici.

In particolare questa tesi e stata sostenuta da John Searle. Per criticare le pretesedell’intelligenza artificiale forte Searle ha sviluppato un celebre esperimento mentale,il cosiddetto “argomento della stanza cinese”. Searle ci invita a immaginare che unapersona capace di parlare solo la lingua inglese (non il cinese) sia chiusa in una stanzadotata di una fenditura verso l’esterno. La stanza contiene dei fogli di carta e un enormevolume. Il volume e un manuale di istruzioni che specifica come, una volta ricevutoun input consistente in una sequenza di caratteri cinesi, si debba produrre un outputconsistente in un’altra sequenza degli stessi caratteri. Le regole collegano a ogni inputl’output appropriato (la risposta che giudicheremmo appropriata in una conversazione trapersone che conoscono il cinese), ma sono formali, nel senso che fanno riferimento soloalla forma della comunicazione, cioe alla sequenza con la quale i caratteri di input sonopresentati (per applicare le regole non bisogna conoscere il significato dei simboli). Eccocome funziona la stanza cinese (come opera la persona al suo interno). Dalla fendituraviene immesso un foglio di carta che riporta caratteri cinesi (incomprensibili a chi nonconosca questa lingua). Seguendo esattamente le istruzioni del manuale, la persona nellastanza scrive su un foglio bianco la risposta (i caratteri cinesi) che le regole del manualecollegano ai caratteri indicati nei fogli di input, e spinge il foglio attraverso la fenditura.

Le risposte che escono dalla camera cinese, in ipotesi, sono indistinguibili da quelleche potrebbero essere fornite da una persona capace di parlare il cinese. Di conseguenza,(tralasciando il problema dei tempi di risposta) la camera cinese riuscirebbe a superareil test di Turing (l’interrogante non sarebbe in grado di stabilire se sta dialogando conla stanza o con un cinese). Searle sostiene pero che la persona all’interno della stanzacinese si e limitata a manipolare simboli a lei incomprensibili: anche se quella personarisponde come un parlante cinese, le e precluso l’accesso al significato dei simboli cinesi.Ora, uscendo dalla metafora, la persona nella stanza cinese e il calcolatore, guidato da unsoftware (il manuale di istruzioni). Pertanto, Searle conclude che anche un calcolatorecapace di conversare come un essere umano non e capace di pensieri, non ha una mente,si limita alla cieca manipolazione di simboli.

Numerosi studiosi di intelligenza artificiale hanno raccolto la sfida di Searle, e han-no contestato il suo argomento. Alcuni hanno obiettato che, anche se l’uomo all’internodella stanza cinese non capisce il cinese, l’intero sistema consistente nella stanza, la per-sona, e il manuale di regole e in grado di capire il cinese, consistendo la comprensionedi una lingua nella capacita di rispondere a input in quella lingua producendo outputappropriati nella stessa. L’errore di Searle consisterebbe nell’astrarre da tale sistema unasola componente (l’elemento che effettua le trasformazioni simboliche, corrispondentealla persona nella stanza). Sarebbe come chiedersi se la funzione mentale umana consi-stente nell’effettuazione di operazioni di ragionamento sia sufficiente a comprendere una

Page 8: L’intelligenza artificiale - ECLT · 274 6.1. L’INTELLIGENZA Figura 6.2: Il test di Turing ma si e avvicinato a questo risultato.` 287 Se ne puo trarre la conclusione rassicurante

276 6.2. BREVE STORIA DELL’INTELLIGENZA ARTIFICIALE

lingua, una volta separata dalla memoria, dalle conoscenze, dai sensi, ecc. Un’ulteriorecritica attiene al fatto che tanto la mente umana quanto il calcolatore elaborano infor-mazioni con velocita ed efficienza enormemente superiori rispetto all’operatore dellastanza cinese. L’impressione che la stanza non capisca il cinese si basa su questa circo-stanza, non applicabile all’elaborazione informatica. Pertanto, non sarebbe giustificatoestendere al calcolatore le conclusioni concernenti la camera cinese.

Altri hanno osservato che la conclusione che la persona nella stanza (o la stanza nelsuo insieme) non comprenda il cinese e determinata dal fatto che la comprensione diun linguaggio richiede la capacita di connettere le parole ai loro referenti reali, il chepresuppone l’esperienza degli oggetti di cui parla il linguaggio (o almeno di alcuni diessi). Questo limite di un calcolatore isolato non si applica pero ai sistemi automatici cheuniscano capacita percettive (e possibilmente motorie) a quelle attinenti all’elaborazionee alla registrazione delle informazioni. Di conseguenza, i limiti della camera cinese nonsono limiti dell’intelligenza artificiale: essi possono essere superati estendendo il sistemacon dispositivi capaci di movimento e dotati di appropriati sensori.

Altri infine hanno osservato che l’intelligenza e un fenomeno emergente da compor-tamenti meccanici anche nel caso del cervello umano: anche l’intelligenza umana nasceda processi non intelligenti, le operazioni “meccaniche” (i processi chimici e fisici) chehanno luogo all’interno dei singoli neuroni del cervello umano e nei contatti (sinapsi)tra gli stessi. Allo stesso modo le operazioni meccaniche che avvengono all’interno delcalcolatore programmato possono dare origine all’intelligenza.289

6.2 Breve storia dell’intelligenza artificiale

Da secoli l’uomo e affascinato e al tempo stesso impaurito dalla possibilita di realizzareentita intelligenti artificiali. Nell’antica Grecia ricordiamo il mito di Pigmalione, chescolpı Galatea, una statua vivente (seppure grazie all’intervento divino), e il mito deldio Efesto, capace di costruire esseri animati di bronzo, come Talos, il guardiano diCreta. Passando dal mito all’ingegneria meccanica, possiamo menzionare nell’antichitagli automi costruiti da Erone di Alessandria (vissuto nel primo secolo, e inventore, tral’altro, del motore a vapore), usati per animare le divinita nei templi. In epoche piuvicine possiamo ricordare, nel mito, il Golem di Praga, creato per difendere il ghetto daattacchi antisemiti, che sfuggi pero al controllo del suo creatore.

Il termine robot—oggi utilizzato per designare le entita intelligenti artificiali capacidi azione e interazione, nel mondo fisico o in quello virtuale—trae origine dall’operateatrale R.U.R. (sigla che sta per “Rossumovi univerzalnı roboti”, cioe “i robot universalidi Rossum”), dello scrittore cecoslovacco Karel Capek [1890-1938], che diede questonome agli esseri artificiali cui e dedicata tale opera. I robot di Capek sono andoidicostruiti per servire gli uomini, ma si ribelleranno ai loro padroni e cio causera la finedell’umanita.290

Page 9: L’intelligenza artificiale - ECLT · 274 6.1. L’INTELLIGENZA Figura 6.2: Il test di Turing ma si e avvicinato a questo risultato.` 287 Se ne puo trarre la conclusione rassicurante

CAPITOLO 6. L’INTELLIGENZA ARTIFICIALE 277

Il tema del rapporto tra intelligenza artificiale e intelligenza umana trovera sviluppoin numerose opere di fantascienza. Mi limito a ricordare l’opera di due autori, Arthur C.Clarke e Isaac Asimov. Clarke291 immagino il calcolatore HAL (Heuristically program-med ALgorithmic computer), reso famoso dal film “2001 Odissea nello Spazio”, direttoda Stanley Kubrick. HAL—capace non solo di ragionare, ma anche di comprendere illinguaggio umano (non solo tramite il suono, ma anche “leggendo le labbra”), di avereemozioni e di cogliere le emozioni altrui—acquista una psicologia umana, anzi troppoumana: prima per impedire che si vengano a conoscere i suoi errori e poi per proteggerese stesso, si rivolge contro gli astronauti al cui viaggio avrebbe dovuto sovrintendere.

Asimov analizza il problema del rapporto tra gli uomini e l’intelligenza artificiale (irobot) in numerosi volumi e racconti, superando lo schema dell’artefatto che si ribellaal suo creatore. Nei racconti di Asimov i robot sono di regola esseri benevoli, il cuifunzionamento si ispira alle tre leggi della robotica:

1. Un robot non puo nuocere a un essere umano o consentire, mediante la propriaomissione, che un essere umano subisca danno.

2. Un robot deve obbedire agli ordini impartitigli da esseri umani, eccetto che quandoquesti ordini confliggano con la prima legge.

3. Un robot deve proteggere la propria esistenza fintantoche tale protezione nonconfligga con la prima o la seconda legge.292

Tuttavia, nell’opera di Asimov, la benevolenza dei robot non esclude un aspetto pro-blematico: la disponibilita di servitori robotici, con capacita superiori per molti aspettia quelle umane, puo indurre chi se ne serve a diventare dipendente dai propri schiavimeccanici, ad adagiarsi nella comodita, rinunciando all’iniziativa, rifiutando ogni ri-schio. Il tema della dipendenza dell’uomo dai propri servitori meccanici ripropone cosıil tema della dipendenza del padrone dai propri schiavi, illustrato da Hegel nella suaFenomenologia dello spirito.293. Delegheremo tanta parte della nostra vita ai nostri aiu-tanti elettronici da perdere la capacita di pensare e agire autonomamente? Interporremoin tale misura i nostri schiavi elettronici tra noi e la soddisfazione dei nostri desideri (co-me direbbe Hegel) da divenire completamente passivi, ci trasformeremo in capricciosee inutili “macchine desideranti”, avendo trasferito ai nostri schiavi elettronici tutte le at-tivita produttive e comunicative necessarie per soddisfare le nostre voglie, cosı come lecompetenze e le conoscenze richieste a tal fine?

6.2.1 Gli entusiasmi dei pionieri e il paradigma dell’intelligenzaartificiale simbolica

La ricerca scientifica e tecnologica nel campo dell’intelligenza inizio tra gli anni ’40 e glianni ’50. Gia nel 1943 Walter Pitts and Warren Sturgis McCulloch (due collaboratori diNorbert Wiener, l’inventore della cibernetica) mostrarono come reti di neuroni artificiali

Page 10: L’intelligenza artificiale - ECLT · 274 6.1. L’INTELLIGENZA Figura 6.2: Il test di Turing ma si e avvicinato a questo risultato.` 287 Se ne puo trarre la conclusione rassicurante

278 6.2. BREVE STORIA DELL’INTELLIGENZA ARTIFICIALE

potessero elaborare informazioni, dando avvio al tentativo di riprodurre il funzionamen-to dei neuroni del cervello umano, benche essi non utilizzassero calcolatori digitali (ineuroni erano realizzati mediante circuiti analogici).294

La nascita dell’intelligenza artificiale viene tuttavia solitamente ricondotta a una ce-lebre conferenza tenutasi a Dartmouth (New Hampshire, USA), che riunı per un mesealcuni tra i principali pionieri della materia. Lo scopo esplicito della riunione era lostudio dell’intelligenza automatica, partendo dall’ipotesi che “ogni aspetto dell’appren-dimento e ogni altra caratteristica dell’intelligenza possa in principio essere descritto contale precisione che si possa costruire una macchina capace di simularlo.295

La tesi fondamentale che ispirava gli studiosi riuniti a Dartmouth era infatti espres-sa dalla famosa ipotesi del sistema simbolico fisico (physical system hypothesis), cioedall’ipotesi che l’intelligenza possa risultare dal funzionamento di un sistema che mani-pola strutture simboliche (per esempio, sequenze di parole o numeri) producendo altresequenze simboliche, secondo determinati processi. Ecco come Alan Newell e Simoncaratterizzano un tale sistema:

Un sistema di simboli fisici consiste di un insieme di entita, chiamate simboli, chesono schemi fisici che possono presentarsi come componenti di un altro tipo dientita, chiamata espressione (o struttura simbolica). Pertanto una struttura sim-bolica e composta di un numero di istanze (o occorrenze) di simboli correlati inqualche modo fisico (ad esempio, un simbolo puo essere adiacente a un altro sim-bolo). In ogni istante di tempo il sistema conterra una collezione di queste strutturesimboliche. Oltre a queste strutture, il sistema contiene anche una collezione diprocessi che operano sulle espressioni per produrre altre espressioni: processi dicreazione, modificazione, riproduzione e distruzione. Un sistema simbolico fisicoe una macchina che produce nel tempo una collezione di strutture simboliche inevoluzione.296

Secondo gli stessi autori “un sistema simbolico fisico ha i mezzi necessari e sufficientiper l’azione intelligente generale”.297 Dato che ogni sistema di simboli fisici puo essererealizzato mediante una macchina universale (come la macchina di Turing) e dato chei moderni calcolatori sono macchine universali (Figura 2.1.3), l’ipotesi che un sistemadi simboli fisici sia capace di intelligenza, implica che un calcolatore potrebbe dar vi-ta all’intelligenza (una volta che fosse dotato di un software adeguato e di sufficientememoria e capacita di calcolo). Come affermano Newell e Simon

L’ipotesi del sistema di simboli fisici implica una teoria computazionale dell’in-telligenza [. . . ] Pertanto l’ipotesi del sistema simbolico implica che l’intelligenzasara realizzata da un calcolatore universale.298

Seguendo questa linea di pensiero non vi sono limiti assoluti o “filosofici” allo sviluppodell’intelligenza automatica, si tratta solo di sviluppare tecnologie hardware, e soprat-tutto software, adeguate. In entrambe le direzioni vi furono notevoli progressi. Circa

Page 11: L’intelligenza artificiale - ECLT · 274 6.1. L’INTELLIGENZA Figura 6.2: Il test di Turing ma si e avvicinato a questo risultato.` 287 Se ne puo trarre la conclusione rassicurante

CAPITOLO 6. L’INTELLIGENZA ARTIFICIALE 279

le tecnologie hardware, furono inizialmente sviluppati calcolatori specificamente dedi-cati all’intelligenza artificiale, le cosiddette “macchine per il Lisp” (Lisp machine), mala disponibilita di calcolatori “a scopo generale” (general purpose) sempre piu potentied economici consentı di usare questi ultimi anche per le applicazioni di intelligenzaartificiale.299 Nel campo del software le ricerche si svilupparono in due direzioni com-plementari: tecniche per la rappresentazione della conoscenza in strutture simboliche,e tecniche per l’elaborazione di tali conoscenze, cioe per il ragionamento automatico.Cio corrispondeva al paradigma dell’intelligenza artificiale “simbolica”, cioe all’assuntoche un sistema capace di risolvere problemi in modo intelligente (intelligent problemsolving) debba unire due aspetti: una rappresentazione simbolica (in un linguaggio ap-propriato) delle conoscenze rilevanti, e la capacita di trarre conclusioni fondate su taliconoscenze. Questa idea e espressa con chiarezza da John McCarthy e Paul Hayes (an-che quest’ultimo fu tra i fondatori dell’intelligenza artificiale), che danno la seguentedefinizione di intelligenza.

Un’entita e intelligente se ha un modello adeguato del mondo (inclusi il mondointellettuale della matematica, la comprensione dei propri scopi e altri processimentali), se e capace di rispondere a un’ampia varieta di domande sulla base di quelmodello, se puo trarre informazioni ulteriori dal mondo esterno quando necessario,e puo effettuare nel mondo esterno i compiti richiesti dai suoi scopi e consentitidalle sue capacita fisiche.300

La nozione di intelligenza, per gli stessi autori, comprende due parti: una parteepistemologica e una parte euristica.301

La parte epistemologica e una rappresentazione del mondo in una forma tale chela soluzione dei problemi derivi dai fatti espressi nella rappresentazione. La parteeuristica e il meccanismo che sulla base dell’informazione risolve il problema edecide che cosa fare.302

Un’importante estensione del paradigma appena prospettato e il tentativo di affiancarealle teorie che descrivono i diversi domini dell’azione intelligente, meta-teorie intese aindicare come le prime teorie debbano essere usate, estese, e aggiornate. In questo modo,funzioni come l’apprendimento dall’esperienza o l’effettuazione di inferenze analogichepossono essere rese compatibili, almeno in una certa misura, con una concezione ten-denzialmente statica della conoscenza (la conoscenza come rappresentazione del mondoall’interno del sistema intelligente).

6.2.2 Sviluppo e crisi delle ricerche di intelligenza artificiale

Negli anni seguenti, il programma di ricerca dell’intelligenza artificiale (e in particolare,il paradigma “simbolico” appena tratteggiato) diede origine a numerosi risultati. Da unlato furono sviluppati numerosi sistemi “intelligenti”, cioe capaci di affrontare compiti

Page 12: L’intelligenza artificiale - ECLT · 274 6.1. L’INTELLIGENZA Figura 6.2: Il test di Turing ma si e avvicinato a questo risultato.` 287 Se ne puo trarre la conclusione rassicurante

280 6.2. BREVE STORIA DELL’INTELLIGENZA ARTIFICIALE

apparentemente tali da richiedere intelligenza (il gioco degli scacchi, la derivazione diteoremi matematici, la soluzione di problemi matematici o fisici, la traduzione automati-ca dall’una all’altra lingua, la visione meccanica, ecc.). Dall’altro lato furono realizzatialcuni strumenti che facilitavano grandemente la realizzazione di sistemi “intelligenti”,come in particolare il linguaggio Lisp.

Questi successi condussero a previsioni esageratamente ottimistiche. Studiosi moltoautorevoli si spinsero ad affermare che entro un prossimo futuro (uno o due decenni) sa-rebbero state disponibili macchine capaci di raggiungere l’intelligenza umana, di “svol-gere ogni lavoro possa essere compiuto da un essere umano” (cosı Simon, nel 1965) edi “avere l’intelligenza generale di un essere umano medio” (cosı Minsky nel 1970). Illento sviluppo delle applicazioni di intelligenza artificiale smentı pero queste previsio-ni: passare dai semplici esempi usati nelle applicazioni pionieristiche a sistemi utili peraffrontare problemi reali si rivelo molto difficile. In particolare l’intelligenza artificialenon riuscı ad affrontare in modo soddisfacente i compiti cognitivi (come la comprensionedel linguaggio, o l’identificazione di oggetti nello spazio) che l’uomo compie spontanea-mente e apparentemente senza sforzo. Si tratta delle funzioni comprese nella dotazionenaturale della nostra specie, che vengono effettuati utilizzando le conoscenze attinenti al“senso comune”, appartenenti a ogni persona normale (in parte innate, in parte acquisitenel corso della normale socializzazione).

Negli anni seguenti l’accento passo pertanto al tentativo di risolvere problemi ri-guardanti invece ambiti specialistici, nei quali la soluzione potesse essere ottenuta deri-vandola da un’ampia base di conoscenze concernenti un particolare settore. Si trattavaquindi di realizzare sistemi esperti capaci di risolvere in modo intelligente (utilizzandoun’ampia base di conoscenze) problemi che richiedessero una particolare competenza(expertise), come quella di cui e dotato un esperto umano. Si elaborarono conseguente-mente tecniche per la rappresentazione della conoscenza in forme tali da renderla ela-borabile automaticamente, e procedure per utilizzare ampie basi di conoscenza nellasoluzione di problemi. Tra tali tecniche ebbe importanza crescente l’uso di metodi per ilragionamento automatico ispirati alla logica: se le procedure inferenziali di un sistemaesperto potevano essere ricondotte alla logica, intesa in senso ampio come l’insieme deimetodi del ragionamento corretto, allora si poteva fare affidamento nel funzionamentodel sistema stesso. La logica computazionale (l’effettuazione automatica di inferenzelogicamente corrette) conobbe infatti un rapido sviluppo. In particolare, all’inizio deglianni ’70 fu inventato il Prolog, un linguaggio logico semplice e intuitivo, basato su unaparte della logica predicativa, per il quale furono definite procedure di inferenza moltoefficienti.

Tra gli anni ’70 e ’80 furono sviluppati numerosi sistemi esperti, e alcuni di essiconseguirono risultati significativi in diversi campi, come la diagnosi medica, l’analisidelle strutture molecolari o la progettazione di sistemi informatici.303

Page 13: L’intelligenza artificiale - ECLT · 274 6.1. L’INTELLIGENZA Figura 6.2: Il test di Turing ma si e avvicinato a questo risultato.` 287 Se ne puo trarre la conclusione rassicurante

CAPITOLO 6. L’INTELLIGENZA ARTIFICIALE 281

In questi anni iniziarono anche i primi studi in materia di intelligenza artificiale e di-ritto e, come vedremo nel seguito, non mancarono i tentativi di realizzare sistemi espertidi diritto.

Anche nell’ambito dei sistemi esperti ai primi entusiasmi fece seguito una profondadelusione. Si dovette costatare che i sistemi realizzati non erano in grado di sostituire laprestazione di un professionista esperto, ma semmai di integrarne la competenza. L’at-tivita di un esperto non si limita infatti all’applicazione di conoscenze preesistenti, marichiede attivita ulteriori, come l’esame del caso concreto, la ricerca delle informazionirilevanti, la considerazione delle analogie con casi precedenti, la formulazione e la valu-tazione di ipotesi, la percezione di coerenze e incoerenze in un insieme di informazionie dei modi di ripristinare la coerenza, capacita che oggi nessun sistema informatico puooffrire (benche non manchino teorie computazionali della coerenza e dell’evoluzionedella conoscenza).304 Pertanto, nello svolgimento di un compito complesso un sistemaesperto puo integrarsi con le competenze umane, ma non le puo, di regola, sostituire.

Per risultare veramente utile, un sistema esperto avrebbe dovuto essere superioresia ai sistemi che elaborano informazioni senza usare a tal fine una specifica competen-za o conoscenza (limitandosi ad applicare precise procedure predefinite), sia ai sistemiche forniscono informazioni all’esperto umano senza elaborare tali informazioni (comei sistemi documentari o gli ipertesti). Rispetto ai sistemi non-esperti che applicano pro-cedure predefinite (ad esempio, un sistema che calcola le imposte, usando un diversoalgoritmo per ogni imposta), un sistema esperto doveva offrire vantaggi nella capacita diaffrontare compiti non riducibili ad algoritmi specificabili in anticipo e inoltre nella faci-lita di sviluppo, controllo, e aggiornamento, mantenendo al tempo stesso una sufficienteefficienza (rapidita di esecuzione). Rispetto ai sistemi che forniscono informazioni senzaelaborarle (ogni elaborazione restando affidata all’intelligenza umana), il sistema esper-to doveva provare la sua superiorita nel collegare le informazioni e applicarle ai casiconcreti, garantendo al tempo stesso il controllo umano sui contenuti del sistema e sullemodalita dell’elaborazione.

Inoltre emersero alcune difficolta inerenti allo sviluppo e la manutenzione dei si-stemi esperti. In particolare, si constatava che era difficile e costoso rappresentare laconoscenza nella forma richiesta da un sistema esperto (assai piu rigida e limitata rispet-to al linguaggio umano) e mantenerla aggiornata, ma anche che non tutte le informazionipotevano essere espresse in questo modo e che, una volta ridotte in tale forma, le infor-mazioni non potevano essere impiegate con la flessibilita di cui e capace l’intelligenzaumana.

Se da un lato i sistemi esperti erano criticati a causa delle loro limitazioni, dall’altrolato la prospettiva di un loro successo suscitava opposte inquietudini. Si temeva, cioe,che l’uomo, nel consegnare l’uso delle proprie conoscenze a un sistema informatico (su-periore all’uomo per memoria e rapidita di elaborazione) venisse a rinunciare al possessodi tali conoscenze, delegando le proprie attivita intellettuali allo strumento elettronico.

Page 14: L’intelligenza artificiale - ECLT · 274 6.1. L’INTELLIGENZA Figura 6.2: Il test di Turing ma si e avvicinato a questo risultato.` 287 Se ne puo trarre la conclusione rassicurante

282 6.2. BREVE STORIA DELL’INTELLIGENZA ARTIFICIALE

E vero che lo sviluppo della nostra specie si basa anche sulla nostra capacita di trasferireall’esterno, realizzando appositi artefatti, sia i contenuti della nostra mente (dai dise-gni sulle caverne all’uso della scrittura), sia i processi mediante i quali quei contenutisono elaborati (dal pallottoliere ai calcolatori elettronici).305 Possiamo cosı delegare atali artefatti una parte delle nostre funzioni cognitive (delegare all’agenda il compito diricordare le scadenze, al pallottoliere il compito di effettuare calcoli, ecc.). Ogni dele-ga, pero, puo rappresentare una perdita nella competenza del delegante, sia per quantoriguarda direttamente il compito delegato, sia per quanto riguarda le ulteriori capacitacognitive acquisibili mediante l’esecuzione di quel compito. Ricordiamo la celebre cri-tica di Platone all’uso della scrittura. Il dio Theuth—racconta Platone nel Fedro, unodei suoi piu celebri dialoghi—espose al faraone Talos i vantaggi della sua invenzione, lascrittura:

Questa scienza, o re - disse Theuth - rendera gli Egiziani piu sapienti e arric-chira la loro memoria perche questa scoperta e una medicina per la sapienza ela memoria.306

Il faraone Talos pero rispose:

O ingegnosissimo Theuth, una cosa e la potenza creatrice di arti nuove, altra co-sa e giudicare qual grado di danno e di utilita esse posseggano per coloro che leuseranno. E cosı ora tu, per benevolenza verso l’alfabeto di cui sei inventore, haiesposto il contrario del suo vero effetto. Perche esso ingenerera oblio nelle animedi chi lo imparera: essi cesseranno di esercitarsi nella memoria perche fidandosidello scritto richiameranno le cose alla mente non piu dall’interno di se stessi, madal di fuori, attraverso segni estranei.307

Talos pecca senz’altro di eccessivo conservatorismo: la scrittura si e rivelata strumentodecisivo dello sviluppo individuale e sociale, passaggio fondamentale nella civilta uma-na. Tuttavia l’idea che la delega delle nostre funzioni mentali a enti materiali possaavere effetti pregiudizievoli per lo sviluppo umano merita considerazione, specialmentecon riferimento ai sistemi informatici intelligenti. Infatti, nel caso della scrittura i nostridubbi possono essere superati dalla considerazione che lo scritto non e in grado di ap-plicarsi da solo: e necessario che la mente umana si riappropri del contenuto trasferitonelle strutture simboliche (nella sequenza di caratteri alfabetici che costituisce il testoscritto) affinche quel contenuto possa tradursi in azione.

Nel caso del sistema esperto invece la struttura simbolica (la sequenza di caratteriche forma la base di conoscenza del sistema) diventa autonoma, potendo essere applicatamediante processi automatici. Diventa quindi necessario, come osserveremo in seguitostabilire opportune modalita per l’integrazione (la simbiosi, vedi Sezione 6.4.3), tra in-telligenza umana e intelligenza automatica, cosicche, anche nell’ambito delle funzioniin cui si utilizzino sistemi esperti, da un lato l’uomo continui a fornire le competenze

Page 15: L’intelligenza artificiale - ECLT · 274 6.1. L’INTELLIGENZA Figura 6.2: Il test di Turing ma si e avvicinato a questo risultato.` 287 Se ne puo trarre la conclusione rassicurante

CAPITOLO 6. L’INTELLIGENZA ARTIFICIALE 283

cognitive di cui la macchina e priva (competenze necessarie in molte applicazioni del di-ritto), e che dall’altro egli mantenga il controllo sulla conoscenza trasferita alla macchinae sul processo della sua applicazione.

6.2.3 Dalla crisi ai primi successi

Nei primi anni ’90 vi fu quindi una profonda crisi delle ricerche di intelligenza artificiale,il cosiddetto “inverno dell’intelligenza artificiale” (AI winter), un clima di generale sfi-ducia nei confronti delle prospettive di questa disciplina. Lo stesso termine “intelligenzaartificiale” cadde in discredito, e gli studiosi che continuavano a occuparsi dei temi del-l’intelligenza automatica preferivano spesso qualificare la propria ricerca in altro modo(logica o linguistica computazionale, database deduttivi, sistemi probabilistici, supportoalle decisioni, ecc.). La crisi dell’intelligenza artificiale simbolica determino un’intensaattivita di ricerca in direzioni diverse. Qui mi limito a ricordarne tre: la ripresa degli studisui modelli computazionali dell’attivita neurale, la creazione di nuovi modelli computa-zionali simbolici ispirati alle discipline matematiche ed economiche, l’attenzione per ledimensioni dell’azione e della comunicazione.

I modelli ispirati all’attivita neurale mirano a riprodurre l’aspetto reattivo dell’intelli-genza (comune a tutti gli animali evoluti), cioe la capacita di rispondere agli input fornitidall’esperienza e di adattare tale risposta in modo appropriato (di apprendere), pur senzail tramite del ragionamento e della rappresentazione esplicita della conoscenza. Le retineurali (e in generale i modelli connessionistici) hanno offerto una nuova tecnologia (euna nuova prospettiva) per affrontare compiti del senso comune (come il riconoscimentodi immagini o di volti) per i quali mancano modelli teorici precisi, ma anche per compitispecialistici attinenti al riconoscimento, alla luce di esperienze precedenti, di caratteri-stiche non definibili con precisione (come la rischiosita di un’operazione finanziaria, laprobabilita che un soggetto incorra in un sinistro, ecc.).

I modelli simbolici, d’altro canto, hanno potuto essere grandemente potenziati dal-l’uso di metodiche formali tratte non solo dalla logica matematica (cui l’intelligenzaartificiale si era ispirata fin dai propri inizi) ma anche dalle logiche filosofiche (logicadell’azione, della possibilita, di obblighi e permessi) e da discipline quali il calcolo delleprobabilita, la teoria della decisione, la teoria dei giochi, le teorie dell’argomentazione.E divenuto cosı possibile utilizzare in misura crescente strumenti di intelligenza artifi-ciale per il supporto alla decisione, anche in contesti caratterizzati da incertezza (comenelle previsioni atmosferiche o finanziarie) o opinabilita (come nell’ambito giuridico).

L’attenzione per gli aspetti dinamici e relazionali (l’azione, l’interazione, la comu-nicazione) ha consentito di superare l’idea del sistema intelligente quale mero intelletto,privo di iniziativa, che si limita a rispondere alle domande dell’utilizzatore sulla basedelle conoscenze registrate al suo interno. Le ricerche si sono indirizzate invece versola realizzazione di agenti intelligenti, capaci non solo di elaborare informazioni, ma an-

Page 16: L’intelligenza artificiale - ECLT · 274 6.1. L’INTELLIGENZA Figura 6.2: Il test di Turing ma si e avvicinato a questo risultato.` 287 Se ne puo trarre la conclusione rassicurante

284 6.2. BREVE STORIA DELL’INTELLIGENZA ARTIFICIALE

che di ricercare le informazioni rilevanti, di percepirle esaminando l’ambiente e di agiresulla base degli obiettivi a essi assegnati, possibilmente interagendo con altri agenti del-lo stesso tipo o con interlocutori umani. E stato cosı enfatizzato l’aspetto “robotico”dell’intelligenza artificiale, cioe la realizzazione di robot quali entita capaci di azioneautonoma, sia nello spazio fisico (come le sonde spaziali capaci di movimento autono-mo o gli aerei senza pilota) sia nello spazio virtuale di Internet (come gli agenti softwareutilizzabili nella ricerca di informazioni o per fare acquisti on-line).

Nei primi anni ’90 le ricerche di intelligenza artificiale hanno incontrato Internet, cheda un lato richiedeva applicazioni informatiche intelligenti, dall’altro offriva un’enormequantita di informazione in formato digitale alla quale applicare tecniche di intelligenzaartificiale. Le tecniche di intelligenza artificiale hanno trovato impiego in diversi stru-menti per la rete: motori di ricerca, sistemi che forniscono raccomandazioni agli utenti,sistemi per la costruzione di siti Web, agenti software per la ricerca di informazione el’effettuazione di transazioni commerciali, ecc.

Gli sviluppi appena indicati hanno determinato la fine dell’“inverno dell’intelligenzaartificiale”. Dalla fine degli anni ’90 la ricerca e ripresa con rinnovato vigore e non sonomancati significativi risultati (anche operativi) in numerosi settori, tra i quali si possonoricordare, senza pretese di completezza, i seguenti:

• l’estrazione di informazioni da grandi masse di dati (data mining), oggi ampia-mente utilizzata per ricerche commerciali, per individuare comportamenti frau-dolenti (ad esempio nell’uso di carte di credito) o anche per finalita attinenti allasicurezza (indagini anti-terrorismo);

• la selezione di informazioni rilevanti o l’eliminazione di quelle irrilevanti contecniche intelligenti (utilizzate per esempio, nei filtri antispamming);

• l’interpretazione degli esami medici e la consulenza medica;• la traduzione automatica, che oggi fornisce risultati molto utili, anche se limitati;• i giochi, per i quali sono stati realizzati sistemi automatici capaci di raggiungere

alti livelli di competenza e prodotti commerciali di notevole successo;308

• la gestione e la logistica (ad esempio, la pianificazione di attivita imprenditorialio di operazioni militari);

• il riconoscimento di immagini e movimenti (ad esempio, nei sistemi per lavigilanza automatica);

• i robot fisici, utilizzati nell’esplorazione di regioni inospitali della terra (comel’Antartide) o dello spazio (ad esempio, Marte), ma anche nelle attivita industriali,nelle pulizie domestiche, nel gioco (i robot pet, nuovo tipo di animali domestici);

• gli agenti software, ai quali l’utilizzatore puo delegare compiti da eseguire conautonomia negli spazi virtuali (dalla ricerca di informazioni, all’effettuazione ditransazioni commerciali).

Page 17: L’intelligenza artificiale - ECLT · 274 6.1. L’INTELLIGENZA Figura 6.2: Il test di Turing ma si e avvicinato a questo risultato.` 287 Se ne puo trarre la conclusione rassicurante

CAPITOLO 6. L’INTELLIGENZA ARTIFICIALE 285

Non si deve dimenticare il lato oscuro dell’intelligenza artificiale: molte applicazionisono state costruite anche per scopi militari, come per i bombardieri senza pilota o le“bombe intelligenti”. In questo ambito e necessario un controllo sociale e politico sulletecnologie per evitare sviluppi potenzialmente distruttivi.309

Tra i profili emergenti dell’intelligenza artificiale va ricordata l’intelligenza ambien-tale (ambient intelligence). Si tratta dell’inserimento nell’ambiente fisico di dispositiviautomatici dotati della capacita di elaborare informazioni e, anzi, intelligenza. Tali di-spositivi possono assorbire informazioni sia dall’ambiente fisico sia dalla rete informa-tica, e di operare in entrambi gli ambiti. Essi sono destinati a inserirsi nell’ambiente inmodo ubiquo e invisibile, governando macchine di vario genere, e facendo sı che l’am-biente stesso si adatti automaticamente alle esigenze dell’uomo. Possono comunicare traloro—sviluppando l’Internet delle cose, vedi Sezione 5.5.10)—ma anche di percepire imutamenti dell’ambiente e di reagire agli stessi. Si immagini una casa nella quale laporta si apra automaticamente ogni qualvolta la telecamera riconosca uno degli abitanti,la cucina si attivi per riscaldare la cena al momento opportuno, il frigorifero procedaautomaticamente a ordinare i prodotti mancanti, la combinazione ottimale di umidita etemperatura sia mantenuta costante (tenendo conto, altresı del costo del riscaldamento),l’armadietto sanitario si occupi di indicarci le medicine da prendere, secondo il pianostabilito dal medico, l’impianto stereo proponga brani musicali, tenendo conto dei nostrigusti e addirittura del nostro stato d’animo, ecc. Si immagini altresı che sia possibiledialogare con la casa stessa e con i vari dispositivi che ne fanno parte (per esempio,chiedendo al forno di attivarsi per cucinare l’arrosto e allo stereo di proporci un brano diBrahms o dei Rolling Stones).310

L’Unione Europea ha fatto propria la prospettiva dell’intelligenza ambientale, de-dicando a essa un ampio spazio nell’ambito dei propri progetti di ricerca. Si tratta diuna prospettiva che, accanto agli aspetti positivi, manifesta diversi profili problematici,rispetto ai quali si rendono necessarie garanzie giuridiche, profili che vanno dalla tuteladei dati personali, alle responsabilita per i danni causati dalle apparecchiature intelligen-ti, alla protezione dell’interessato rispetto alle possibilita di sfruttamento e manipolazio-ne ottenibili influenzando il comportamento delle macchine intelligenti e tramite esseil comportamento del loro utilizzatore (ad esempio, rispetto a scelte di consumo o diacquisto), e cosı via.

Lo sviluppo delle scienze fisiche e delle tecnologie per l’elaborazione della materiaci ha consegnato un mondo materiale “disincantato”,311 nel quale ci rapportiamo agli og-getti assumendo che il loro comportamento sia esclusivamente e pienamente accessibilesecondo le leggi fisiche, obbedendo alle quali gli oggetti svolgono la funzione loro asse-gnata. Oggi lo sviluppo dell’intelligenza artificiale ambientale sembra ricreare un mondo“incantato” nel quale ci accosteremo agli oggetti in modo analogo a quello con cui inte-ragiamo con le persone, riproducendo quindi schemi del pensiero animistico, proprie delmondo del mito e della fiaba. In un vicino futuro potremo capire il funzionamento de-

Page 18: L’intelligenza artificiale - ECLT · 274 6.1. L’INTELLIGENZA Figura 6.2: Il test di Turing ma si e avvicinato a questo risultato.` 287 Se ne puo trarre la conclusione rassicurante

286 6.2. BREVE STORIA DELL’INTELLIGENZA ARTIFICIALE

gli oggetti piu comuni (dalla cucina, al frigorifero, all’automobile) solo assumendo chel’oggetto in questione persegua certi obiettivi (attinenti alle nostre esigenze, cosı comel’oggetto stesso riesce a coglierle) scegliendo i mezzi che ritiene piu adatti al loro con-seguimento. Interagiremo con gli oggetti intelligenti adottando uno stile comunicativo,cioe interrogandoli sulle iniziative che stanno adottando, e indicando a essi i risultati darealizzare o i modi per raggiungerli (cosı come faremmo con un collaboratore domesti-co).312 Immaginiamo per esempio di rientrare in casa e di chiedere alla cucina che cosapossa prepararci per cena (dopo aver interrogato il frigorifero sulle sue disponibilita),che questa si informi sulle nostre preferenze, e conseguentemente suggerisca particolarimenu, ci indichi i tempi di cottura (o quelli necessari per approvvigionarsi di materieprime non disponibili in casa), e cosı via. Il mondo incantato dell’intelligenza ambien-tale puo pero diventare un mondo stregato, nel quale gli oggetti (o chi li governa) cimanipolano, ci sfruttano, operano a nostro danno.

Il tema dell’intelligenza ambientale si incontra con un altro modello tecnologico,anch’esso di notevole interesse per il giurista: gli agenti software, cioe i sistemi infor-matici in grado di agire con autonomia, senza il controllo diretto del loro utilizzatore.Questa tecnologia trova impiego nelle aree piu diverse dell’informatica: nello sviluppodi sistemi informativi, nel coordinamento di applicazioni distribuite, nella realizzazionedi interfacce, nella gestione di attivita complesse e di situazioni critiche (ad esempio, nelgoverno del traffico marittimo o aeroportuale).

Per il giurista presentano particolare interesse gli agenti software che non esaurisco-no la propria attivita nella sfera del loro utilizzatore (come avviene per quelli cui siaaffidata la gestione decentrata della logistica aziendale), ma entrano in contatto con altrisoggetti. Cio accade soprattutto su Internet, dove operatori e utenti possono ricorrere adagenti software per cogliere e sfruttare l’enorme varieta di possibilita offerte dallo scon-finato, diversificato e dinamico ambiente virtuale del ciberspazio. Gli agenti softwarepossono essere usati in particolare nella raccolta di informazioni (ricerca di dati, di offer-te concernenti beni e servizi, di possibili partner commerciali) e nell’attivita contrattuale(trattativa, formulazione di proposte, valutazione della loro convenienza, conclusione dicontratti). Essi possono utilizzare tecniche di intelligenza artificiale per accedere alle in-formazioni utili (ad esempio, le opportunita offerte dal mercato), accertare le circostanzerilevanti per le loro azioni (per esempio, la convenienza comparativa delle diverse offerterecuperate), e agire conseguentemente (effettuando l’acquisto piu conveniente).

Un profilo giuridico particolarmente interessante e quello della qualificazione del-l’attivita realizzata dall’agente nell’interesse del suo utilizzatore, adempiendo con auto-nomia il mandato affidatogli dall’utilizzatore stesso. A mio parere, qualora l’utilizzatoredeleghi al suo aiutante elettronico lo svolgimento di un compito da realizzare con auto-nomia (compito che includa attivita cognitive, come quelle necessarie per individuare lacontroparte di un contratto e determinare il contenuto del contratto stesso), si dovrebberoapplicare per analogia le norme sulla rappresentanza. Conseguentemente, gia in base al

Page 19: L’intelligenza artificiale - ECLT · 274 6.1. L’INTELLIGENZA Figura 6.2: Il test di Turing ma si e avvicinato a questo risultato.` 287 Se ne puo trarre la conclusione rassicurante

CAPITOLO 6. L’INTELLIGENZA ARTIFICIALE 287

diritto vigente, gli effetti giuridici ricadrebbero sull’utilizzatore, ma gli stati psicologi-ci rilevanti (la volonta, la conoscenza, l’errore, ecc.) sarebbero quelli dell’agente (perquanto riguarda gli elementi del contratto determinati dall’agente stesso).313

6.3 Il modello connessionistico: le reti neurali

Come abbiamo osservato sopra (Sezione 3.5.4), la ricerca sulle reti neurali e ispirataall’idea che l’intelligenza possa ottenersi riproducendo l’hardware cerebrale (i neuroni)piuttosto che riproducendo le funzioni piu astratte svolte da quell’hardware (il ragiona-mento). Conseguentemente, tale ricerca assume che il comportamento intelligente risultiinnanzitutto dall’adattamento flessibile all’ambiente (di cui sono capaci tutti gli anima-li dotati di un sistema nervoso), piuttosto che dal pensiero consapevole.314 L’ipotesi,quindi, e che possiamo apprendere non solo acquisendo consapevolmente contenuti for-mulati in un linguaggio (ed elaborati grazie al ragionamento), ma anche in modo deltutto inconsapevole, mediante la modificazione delle connessioni tra i nostri neuroni: ilfatto che in certe condizioni si sia data la risposta “giusta” conduce a una modifica di taliconnessioni tale da far sı che la stessa risposta sia data in futuro nelle stesse condizioni oin condizioni analoghe; il fatto che in certe condizioni si sia data una risposta sbagliataconduce a un modifica delle connessioni neuronali tale evitare la ripetizione dell’errorein futuro.

6.3.1 La struttura delle reti neurali

La struttura informatica utilizzata per riprodurre questo tipo di apprendimento e la reteneurale, una struttura software composta da unita chiamate neuroni, e da determinaticollegamenti tra le stesse unita.315 I neuroni artificiali riproducono informaticamentela struttura dei neuroni presenti nel nostro cervello, come risulta dal confronto tra laFigura 6.3 e la Figura 6.4, che rappresentano, rispettivamente un neurone biologico e unneurone informatico. Ogni neurone riceve segnali dai neuroni a esso connessi, segnaliche viaggiano seguendo determinati collegamenti. Ai collegamenti sono assegnati pesi,cioe coefficienti secondo i quali i segnali passanti attraverso i collegamenti stessi sonoamplificati o ridotti.

Il funzionamento di ogni neurone e stabilito da funzioni logico-matematiche. Il neu-rone, quando riceve determinati segnali, verifica se quei segnali abbiano raggiunto illivello (la soglia) richiesta per la propria attivazione. Se il livello non e stato raggiunto,il neurone rimane inerte; se invece il livello e stato raggiunto, il neurone si attiva, invian-do a sua volta segnali ai neuroni con esso connessi. Per esempio, nell’immagine riportatanella Figura 6.4 al neurone sono inviati stimoli di valore 2, 3, 2 e 3. I pesi applicati a talistimoli sono rispettivamente 2, 1, 3, e 1. Moltiplicando gli stimoli inviati al neurone peri relativi pesi, si ottengono gli input forniti al neurone: 2 ⇤ 2 = 4; 3 ⇤ 1 = 3; 2 ⇤ 3 = 6;

Page 20: L’intelligenza artificiale - ECLT · 274 6.1. L’INTELLIGENZA Figura 6.2: Il test di Turing ma si e avvicinato a questo risultato.` 287 Se ne puo trarre la conclusione rassicurante

288 6.3. IL MODELLO CONNESSIONISTICO: LE RETI NEURALI

assone

nucleo

sinapsi

dendrite

assone da altro neurone

Figura 6.3: Neurone naturale

Soglia = 15

P1 = 2

P2 = 1

P3 = 3

P4 = 1

I1 = 2

I2 = 3

I3 = 2

I4 = 3

Input provenientidall'esterno o

da altri neuroni Output diretti all'esterno o ad

altri neuroni

I1 = 2

I2 = 2

I3 = 2

Figura 6.4: Neurone artificiale

3 ⇤ 1 = 3. Il valore ottenuto sommando gli input (4 + 3 + 6 + 3), cioe 16, e al disopradella soglia (15) del neurone, che conseguentemente si attivera, inviando messaggi divalore 2 ai neuroni a esso collegati.

Page 21: L’intelligenza artificiale - ECLT · 274 6.1. L’INTELLIGENZA Figura 6.2: Il test di Turing ma si e avvicinato a questo risultato.` 287 Se ne puo trarre la conclusione rassicurante

CAPITOLO 6. L’INTELLIGENZA ARTIFICIALE 289

Unità di output

Unità nascoste

Unità di Input

Figura 6.5: Rete neurale

Combinando i neuroni otteniamo una rete neurale. Come risulta dalla Figura 6.5,alcuni neuroni della rete ricevono input dall’esterno (ad esempio da una base di dati,da una telecamera che riceve immagini dall’ambiente, da una tavoletta sulla quale sitracciano disegni o caratteri); alcuni neuroni, i cosiddetti neuroni nascosti, sono collegatisolo con altri neuroni; alcuni neuroni, infine, inviano il loro output all’esterno della rete.

La tecnica piu comune per addestrare una rete neurale consiste nel proporre alla reteuna serie di esempi corretti, cioe un serie di coppie < input, output >, dove l’outputindica il risultato corretto per l’input corrispondente. Per esempio, se sogliamo adde-strare una rete nel riconoscimento dei caratteri alfabetici ogni esempio consistera di unsegno grafico unito al carattere corrispondente.

L’elaborazione degli esempi avviene nel modo seguente. Il sistema determina la pro-pria risposta rispetto all’input indicato nell’esempio. Se la risposta differisce dall’outputnell’esempio, la rete si riorganizza, cambiando la propria configurazione (i collegamentio i pesi associati a essi) in modo da poter dare la risposta corretta (la stessa indicatanell’esempio) di fronte alla riproposizione dello stesso input. Dopo un conveniente ad-destramento, la rete acquista l’abilita di dare risposte corrette non solo nei casi contenutinell’insieme degli esempi, ma anche in casi analoghi.

Page 22: L’intelligenza artificiale - ECLT · 274 6.1. L’INTELLIGENZA Figura 6.2: Il test di Turing ma si e avvicinato a questo risultato.` 287 Se ne puo trarre la conclusione rassicurante

290 6.3. IL MODELLO CONNESSIONISTICO: LE RETI NEURALI

In ambito giuridico, le reti neurali sono solitamente addestrate mediante casi giu-diziari. Assumendo che le risposte dei giudici siano corrette (o almeno coerenti tra diloro), l’obiettivo e allenare la rete neurale in modo che essa possa riprodurre le rispostedate dai giudici nei precedenti, e rispondere analogamente nei casi simili.

6.3.2 Le reti neurali e il diritto

Tra le non molte applicazioni del modello della rete neurale in ambito giuridico,316 sipuo ricordare il sistema Split-up, cui e stato affidato il compito di ripartire il patrimoniotra gli ex coniugi in seguito a un divorzio.317 Gli autori del sistema furono indotti autilizzare la tecnica delle reti neurali in quanto, dall’analisi della legislazione e dellesentenze, non avevano rinvenuto regole precise la cui applicazione logica ai fatti dei casipotesse condurre alle soluzioni adottate dai giudici. In materie di questo tipo i giudicisembrano infatti operare in base a un’“intuizione allenata” piuttosto che secondo regoleprecise: si tratta di un’intuizione informata dalla conoscenza di casi precedenti e dalleesperienze dello stesso decisore, che ha acquisito adeguate capacita di discriminazionee valutazione pur senza esserne necessariamente e completamente consapevole.

Nella rete di Split-up, i neuroni di input rappresentano i fattori rilevanti nella de-cisione dei casi in questione, e i neuroni di output indicano le possibili divisioni delpatrimonio. Come risulta dalla Figura 6.6, i soli dati di input accolti dalla rete (quindii soli fattori rilevanti nel determinare la ripartizione) sono il contributo dei coniugi al-la formazione del patrimonio e l’ammontare del patrimonio stesso (livelli inferiori delpatrimonio conducendo a ripartizioni maggiormente egualitarie). Secondo gli autori delsistema, tale semplice rete, dopo essere stata “allenata” sottoponendole alcune centinaiadi casi precedenti, sarebbe divenuta capace di riprodurre le decisioni dei casi passati eavrebbe acquistato la capacita di prevedere con sufficiente precisione le decisioni di casifuturi.

L’uso delle reti neurali nell’applicazione del diritto e stato finora assai limitato.Un’importante ragione di cio sta nel fatto che le reti neurali, anche quando indicano so-luzioni giuridiche plausibili, non offrono una giustificazione di tali soluzioni, nel sensoche non indicano quali premesse conducano al particolare risultato proposto dalla rete.Cio e dovuto al fatto che la conoscenza utilizzata da una rete neurale e implicita nellastruttura della rete (nelle connessioni neurali e nei pesi associati a esse), non e formulatain proposizioni esplicite. Pertanto, la rete si comporta come un “oracolo” che indica unasoluzione giuridica senza motivarne l’adozione.

Questo fatto e suscettibile di essere differentemente valutato da diverse teorie deldiritto. Chi segua un orientamento irrazionalistico, vedra nelle reti neurali (nel loro usoper riprodurre e anticipare il comportamento del giurista) la possibilita di smaschera-re l’illusione logicistica secondo cui le decisioni giuridiche seguirebbero logicamentedall’applicazione delle norme ai fatti del caso.

Page 23: L’intelligenza artificiale - ECLT · 274 6.1. L’INTELLIGENZA Figura 6.2: Il test di Turing ma si e avvicinato a questo risultato.` 287 Se ne puo trarre la conclusione rassicurante

CAPITOLO 6. L’INTELLIGENZA ARTIFICIALE 291

Husband needs much more

'' more

'' same

'' less

'' much less

Husband contributed much more

'' more

'' same

'' less

'' much less

Marriage is very wealthy

'' wealthy

'' confortable

'' average

'' asset poor

'' very few assets

10%

20%

30%

35%

40%

45%

50%

55%

60%

65%

70%

80%

90%

Figura 6.6: Rete neurale per la divisione del patrimonio tra coniugi

Chi invece segue un orientamento logicistico, e assume che ogni decisione giuridicasia raggiunta (e debba esserlo) applicando regole preesistenti a fatti dati, riterra aberranteogni applicazione delle reti neurali.

Chi infine, adotta una prospettiva intermedia, secondo la quale nella decisione umanal’aspetto adattivo proprio delle rete neurali (l’intuizione della correttezza di un certorisultato, alla luce delle esperienze precedenti) si unisce alla ricerca e all’applicazione dipremesse atte a fondare la decisione, riterra il modello delle rete neurali suscettibile diqualche applicazione, pur entro confini ristretti.

A mio parere, le reti neurali artificiali oggi disponibili hanno una capacita molto li-mitata nel ricevere e nell’elaborare le esperienze (esse sono assai semplici se comparatealla complessita delle strutture neurali del cervello umano), e non sono in grado di col-legare conoscenze adattive e premesse esplicite del ragionamento (come invece accadequando riflettiamo sulle nostre reazioni intuitive e sviluppiamo modelli logici in gra-do di razionalizzarle). Questi limiti consigliano una grande cautela nell’impiego di retineurali, ma non ne escludono il possibile utilizzo per problemi circoscritti.318

Un interessante uso delle reti neurali (come piu in generale, delle analisi statistiche,cui le reti neurali possono in parte essere ricondotte) consiste peraltro nello smascherarefalse giustificazioni, cioe giustificazioni che pongono a fondamento di decisioni giuri-

Page 24: L’intelligenza artificiale - ECLT · 274 6.1. L’INTELLIGENZA Figura 6.2: Il test di Turing ma si e avvicinato a questo risultato.` 287 Se ne puo trarre la conclusione rassicurante

292 6.4. CONOSCENZA ESPLICITA E RAGIONAMENTO

diche fattori diversi da quelli che hanno realmente motivato tali decisioni. Se una reteneurale capace di riprodurre un certo insieme di decisioni (ad esempio, condanne pena-li) non puo essere costruita sulla base dei fattori indicati nelle motivazioni dei giudici(fattispecie del reato, gravita, precedenti, ecc.), ma puo essere invece costruita tenendoconto di altri fattori (caratteristiche etniche, sesso, eta, condizione economica, ecc.), cuisi connettono pregiudizi non apertamente dichiarabili, allora e probabile che la spiega-zione delle decisioni giudiziarie possa ravvisarsi in quei pregiudizi piuttosto che nelleragioni espressamente addotte.319

6.4 Conoscenza esplicita e ragionamento

Nonostante l’interesse suscitato dalle ricerche sulle reti neurali, il modello prevalentenell’intelligenza artificiale rimane quello dell’utilizzo esplicito della conoscenza, me-diante metodi per il ragionamento automatico (secondo l’idea che abbiamo illustrato nel-la Sezione 3.5.3). A questo fine bisogna che il sistema informatico disponga di due com-ponenti: una rappresentazione della conoscenza rilevante, e metodi per il ragionamentoautomatico applicabili a tale rappresentazione.

Ricordiamo che il ragionamento consiste in generale nel passaggio da certe ragioni(premesse, obiettivi, ecc.), a conclusioni giustificate da tali ragioni. Tale passaggio av-viene in generale secondo modelli generali o schemi di ragionamento, che sono fornitidalla logica (intesa in senso ampio). Il ragionamento che consiste nel passaggio dacerte premesse a certe conclusioni, secondo un determinato schema, puo essere dettoinferenza. Per esempio, le premesse A e “SE A ALLORA B” giustificano l’inferenzadella conclusione B, quali che siano i particolari contenuti espressi dalle proposizioniA e B: in ogni caso il fatto che un ragionatore comprenda tra le sue premesse A e “SEA ALLORA B” giustifica l’inferenza della conclusione B (almeno quando non ci sianoindicazioni in contrario). La correttezza di un’inferenza, ovviamente, non garantisce laverita/validita320 della sua conclusione. Per esempio, entrambi i seguenti ragionamentisono corretti, ma non sono vere/valide entrambe le conclusioni che ne discendono.

• Premesse1. SE [x e il datore di lavoro di y] ALLORA [x puo accedere alla

casella di posta aziendale usata da y];2. [Lucia e il datore di lavoro di Renzo]

• Conclusione3. [Lucia puo accedere alla casella di posta aziendale usata da

Renzo]

• Premesse1. SE [x e il datore di lavoro di y] ALLORA [x NON puo accedere

Page 25: L’intelligenza artificiale - ECLT · 274 6.1. L’INTELLIGENZA Figura 6.2: Il test di Turing ma si e avvicinato a questo risultato.` 287 Se ne puo trarre la conclusione rassicurante

CAPITOLO 6. L’INTELLIGENZA ARTIFICIALE 293

alla casella di posta aziendale usata da y]

2. [Lucia e il datore di lavoro di Renzo]

• Conclusione3. [Lucia NON puo accedere alla casella di posta aziendale usata

da Renzo]

Le conclusioni di tali ragionamenti sono infatti incompatibili (o Lucia puo accedere al-la casella di posta, o non puo farlo) e quindi non possono essere entrambe vere/valide.Tuttavia l’inferenza di ciascuna conclusione e giustificata dalle corrispondenti premes-se. Il problema e che non sono vere/valide le premesse di entrambe le decisioni: o evera/valida la premessa che il datore di lavoro puo accedere alla posta del dipendente, oe vera/valida la premessa che lo stesso non vi puo accedere.

La verita/validita della conclusione tratta da un certo insieme di premesse medianteun’inferenza, e, in generale, garantita solo dalla compresenza delle seguenti condizioni:

• la verita/validita delle premesse;• la correttezza dell’inferenza;• l’assenza di inferenze prevalenti contro l’impiego delle premesse o contro

l’esecuzione dell’inferenza

Le prime due condizioni sono sufficienti a garantire conclusioni tratte secondo il ragiona-mento deduttivo (che presuppone, che premesse e inferenze non ammettano eccezioni),mentre la terza condizione si richiede qualora si ricorra al ragionamento defeasible (vediSezione 6.4.6).

6.4.1 Ragionamento e applicazione di regole

Non e possibile illustrare in questa sede i metodi del ragionamento logico (o, meglio,dei diversi ragionamenti autorizzati da diversi modelli logici), ne il modo in cui queimetodi possono essere applicati da sistemi informatici. Ai nostri fini e sufficiente illu-strare il tipo di ragionamento piu frequente in ambito giuridico, cioe l’applicazione diregole. Per “regola”, nel contesto qui considerato, non si intende un enunciato deontico(un enunciato che qualifichi come obbligatorio, vietato o permesso un certo comporta-mento, come per esempio “e vietato fumare”), ma piuttosto un enunciato condizionale,che collega un antecedente e un conseguente consentendo di inferire il secondo dal pri-mo. Il concetto di regola come condizionale (piuttosto che come obbligo o prescrizione)corrisponde all’idea diffusa che le regole giuridiche—come quelle degli esempi appenariportate—colleghino una fattispecie e una conseguenza giuridica: la fattispecie astrattae l’antecedente della regola e la conseguenza giuridica astratta ne e il conseguente. L’an-tecedente puo consistere di un solo elemento, o invece di una congiunzione di elementi.

Page 26: L’intelligenza artificiale - ECLT · 274 6.1. L’INTELLIGENZA Figura 6.2: Il test di Turing ma si e avvicinato a questo risultato.` 287 Se ne puo trarre la conclusione rassicurante

294 6.4. CONOSCENZA ESPLICITA E RAGIONAMENTO

Quali esempi di regola, cosı intesa, si considerino, gli enunciati seguenti: “se una perso-na causa colpevolmente un danno ingiusto, allora lo deve risarcire”, o “se una persona enata da un cittadino italiano, allora quella persona e cittadino italiano”.

Il ragionamento che sara qui esaminato consiste semplicemente nella derivazione diun’istanza specifica (concreta) del conseguente di una regola, data una corrispondenteistanza dell’antecedente della stessa. Ecco un semplice esempio:

• Premesse:1. SE [x ha intenzionalmente causato a y un danno ingiusto]

ALLORA [x deve risarcire il danno a y]

2. [Lucia ha intenzionalmente causato a Renzo un danno ingiusto]

• Conclusione:3. [Lucia deve risarcire il danno a Renzo]321(m)

Si possono ricondurre al ragionamento mediante regole anche inferenze espresse in altromodo. Consideriamo per esempio il sillogismo che combina una premessa universale euna premessa individuale:

• Premesse:1. [Tutti gli A sono B]

2. [↵ e un A]

• Conclusione:3. [↵ e un B]

che possiamo esemplificare come segue:

• Premesse:1. [Tutti gli uomini sono mortali]

2. [Socrate e un uomo]

• Conclusione:3. [Socrate e mortale]

Allo stesso schema corrisponde il seguente esempio giuridico.

• Premesse:1. [Tutte le compravendite sono contratti]

2. [L’atto tra Lucia e Renzo e una compravendita]

• Conclusione:3. [L’atto tra Lucia e Renzo e un contratto]

Questi sillogismi si possono ricondurre all’applicazione di regole riformulandone la pre-messa universale “Tutti gli A sono B” nel condizionale “PEROGNI (x) SE

[x e un A] ALLORA [x e un B]. Ne risulta il seguente schema di inferenza(nella quale le formule con variabile sono da intendersi implicitamente quantificate, cioeprecedute da PEROGNI)

Page 27: L’intelligenza artificiale - ECLT · 274 6.1. L’INTELLIGENZA Figura 6.2: Il test di Turing ma si e avvicinato a questo risultato.` 287 Se ne puo trarre la conclusione rassicurante

CAPITOLO 6. L’INTELLIGENZA ARTIFICIALE 295

• Premesse:1. SE [x e un A] ALLORA [x e un B]

2. [↵ e un A]

• Conclusione:3. [↵ e un B]

che possiamo esemplificare come segue:

• Premesse:1. SE [x e un uomo] ALLORA [x e mortale]

2. [Socrate e un uomo]

• Conclusione:3. [Socrate e mortale]

• Premesse:1. SE [x e una compravendita] ALLORA [x e un contratto]

2. [L’atto tra Lucia e Renzo e una compravendita]

• Conclusione:3. [L’atto tra Lucia e Renzo e un contratto]

Il modello delle regole puo essere impiegato per rappresentare conoscenze di diverso ti-po. Per esempio, il funzionamento di un sistema destinato alla diagnosi medica potrebbecomprendere regole del tipo seguente:322

[x ha il morbillo] SE

[x ha la febbre] E

[la pelle di x e cosparsa di punti rossi][x ha l’influenza] SE

[x ha la febbre] E

[x NON presenta sintomi specifici]

Dati particolari fatti concreti:

[Marco ha la febbre].[la pelle di Marco e cosparsa di punti rossi].

il sistema puo concludere, utilizzando le regole, che Marco ha il morbillo. Allo stessomodo un sistema che si occupi della concessione di borse di studio potrebbe contenereregole del tipo seguente

[x ha diritto alla borsa di studio] SE

[x possiede i requisiti soggettivi] E

[x possiede i requisiti di merito] E

[x possiede i requisiti di reddito].

Page 28: L’intelligenza artificiale - ECLT · 274 6.1. L’INTELLIGENZA Figura 6.2: Il test di Turing ma si e avvicinato a questo risultato.` 287 Se ne puo trarre la conclusione rassicurante

296 6.4. CONOSCENZA ESPLICITA E RAGIONAMENTO

[x possiede i requisiti soggettivi] SE

[x e cittadino comunitario] E

[l’eta di x e inferiore a 30 anni].[x possiede i requisiti di merito] SE

[x ha sostenuto il numero di esami richiesto] E

[la media dei voti di x e superiore al 28].[x e cittadino comunitario] SE

[x e cittadino dello stato y] E

[y appartiene all’Unione Europea].

Dati i fatti seguenti:

[l’eta di Elena e inferiore a 30 anni].[Elena ha sostenuto il numero di esami richiesto].[la media di voti di Elena e superiore al 28].[Elena e cittadino dello stato Romania].[Romania appartiene all’Unione Europea].

l’applicazione delle regole sopra indicate condurra alla conclusione che

[Elena ha diritto alla borsa di studio].

Infine, possiamo utilizzare regole per rappresentare conoscenze giuridiche. In questocaso solitamente si usano regole per rappresentare la conoscenza normativa, e asserti in-condizionati (fatti) per rappresentare le fattispecie concrete. Per esempio, date le regoleseguenti

[x e cittadino italiano] SE

[x e nato in Italia].[x e cittadino italiano] SE

[x e figlio di un cittadino italiano].[x e figlio di un cittadino italiano] SE

[y e genitore di x] E

[y e un cittadino italiano].

e dati i fatti seguenti

[Giovanni e genitore di Benedetta].[Giovanni e nato in Italia].

un sistema informatico capace di applicare regole potra concludere che

[Benedetta e cittadino italiano].

In particolare, il sistema potra raggiungere tale conclusione compiendo il seguente ra-gionamento: Benedetta e cittadina italiana essendo nata da genitore italiano, ed e natada genitore italiano essendo suo genitore Giovanni, il quale e cittadino italiano essendonato in Italia.323

Page 29: L’intelligenza artificiale - ECLT · 274 6.1. L’INTELLIGENZA Figura 6.2: Il test di Turing ma si e avvicinato a questo risultato.` 287 Se ne puo trarre la conclusione rassicurante

CAPITOLO 6. L’INTELLIGENZA ARTIFICIALE 297

6.4.2 I sistemi basati su regole nel diritto

I sistemi basati su regole (rule-based system) costituiscono il tipo piu semplice e diffusodi sistema basato sulla conoscenza (knowledge-based system). Tali sistemi contengonouna base di conoscenza costituita da regole, e un motore di inferenza, che applica taliregole ai dati di fatto attinenti a casi concreti. Le informazioni attinenti ai casi possonoessere fornite dall’utilizzatore umano del sistema o estratte da archivi informatici.

Il modello del sistema basato su regole ha trovato applicazione in numerosi ambiti:la diagnosi dei guasti di apparecchiature informatiche, la concessione di crediti, la de-terminazione di polizze assicurative, il controllo di varie funzioni all’interno di struttureorganizzative pubbliche e private, ecc. In quest’ultimo caso, le regole depositate nel si-stema vengono anche chiamate “regole d’affari” (business-rules), termine con il quale siindicano in generale le regole che governano il funzionamento di un’organizzazione, re-gole che possono riflettere direttamente o indirettamente requisiti giuridici (ad esempio,in un sistema che gestisce il commercio elettronico, la regola che prescrive di applicarel’imposta sul valore aggiunto, al tasso corrispondente al tipo di bene venduto) o invecedeterminazioni interne all’organizzazione in questione (ad esempio, la regola che appli-ca lo sconto del 10% ai clienti che abbiamo gia fatto acquisti in precedenza, e spendanoper il nuovo acquisto piu di C100).

I primi studi sui sistemi basati su regole risalgono ormai agli anni ’60, quando fu-rono realizzati i primi prototipi (come il gia ricordato Mycin, utilizzato nelle diagnosimediche).

Anche in ambito giuridico si realizzarono alcuni sistemi prototipali gia negli anni’70, ma la ricerca che ha maggiormente influenzato il dibattito teorico e le soluzioni ap-plicative fu realizzata presso l’Imperial College di Londra tra la fine degli anni ’70 e l’ini-zio degli anni ’80. Un gruppo di studiosi di formazione informatica—coordinato da Ro-bert Kowalski e Marek Sergot, due tra i massimi esperti nella logica computazionale—applico le nuove tecniche della programmazione logica alla rappresentazione di normegiuridiche e all’esecuzione di inferenze corrispondenti.324 La ricerca dell’Imperial Col-lege mostro come le norme giuridiche potessero essere rappresentate in forma di regole,e potessero essere applicate secondo modelli logici efficienti, intuitivi e rigorosi.325

Per illustrare lo stile di rappresentazione adottato nel prototipo in questione, siconsideri il seguente esempio:

[x acquista la cittadinanza britannica alla data y,secondo la sezione 1.1] SE

[x e nato nel Regno Unito] E

[x e nato nella data y] E

[x ha un genitore che possiede i requisitidi cui alla sezione sezione 1.1, alla data y].

Page 30: L’intelligenza artificiale - ECLT · 274 6.1. L’INTELLIGENZA Figura 6.2: Il test di Turing ma si e avvicinato a questo risultato.` 287 Se ne puo trarre la conclusione rassicurante

298 6.4. CONOSCENZA ESPLICITA E RAGIONAMENTO

[x ha un genitore che possiede i requisiti di cui allasezione 1.1, alla data y] SE

[z e genitore di x] E

[z e cittadino britannico alla data y].

Negli anni successivi accanto a ricerche sperimentali volte a cogliere ulteriori aspetti delragionamento giuridico (come il ragionamento basato sui casi, l’argomentazione, ecc.)non mancarono i tentativi di realizzare sistemi basati su regole che trovassero immediatoimpiego nell’ambito delle attivita giuridiche, uscendo dallo stadio prototipale.326 Peresemplificare la forma nella quale le norme giuridiche si rappresentano nei sistemi basatisu regole riporto un breve esempio tratto da un’applicazione australiana (pensioni diguerra).327 Come il lettore puo osservare la regola e formulata in un linguaggio nonelegante (in particolare si evitano pronomi e si esplicita tutta la sintassi), ma tuttaviacomprensibile anche al lettore privo di conoscenze logiche o informatiche:

[il Cap 6 Parte 1 si applica al membro (delleforze armate australiane)] se;

(a) entrambe;[il membro e stato inviato per obbligo diservizio in una localita rilevante]; e[il membro vive nella localita rilevante]

oppure(b) [il membro ha svolto il proprio servizio per

obbligo temporaneo in una localita rilevanteper un periodo continuo di piu di 21 giorni];

oppure(c) [il membro e inviato per servizio su una nave

sul mare, la cui base si trova in unalocalita rilevante].

La semplicita di questo esempio non deve far pensare che un sistema basato su regolegiuridiche sia necessariamente semplice o comunque utile solo nei casi semplici (cosıda dare all’utilizzatore un aiuto non diverso da quello che potrebbe essere fornito da unmanuale di istruzioni). L’importanza di tali sistemi deriva dalla possibilita di applicareun numero elevato di regole (vi sono sistemi che ne contengono decine di migliaia),tenendo conto dei collegamenti tra le stesse (come quando il conseguente di una regolarappresenti la precondizione per l’applicazione di altre regole o indichi un’eccezione adaltre regole). Essi possono cosı supplire ai limiti della memoria, dell’attenzione, e dellacapacita combinatoria dell’uomo.

6.4.3 Sistemi basati sulla conoscenza e sistemi esperti

Come osservavamo sopra, la caratteristica essenziale dei sistemi basati sulla conoscenzaconsiste nel fatto che il loro funzionamento, cioe il modo in cui affrontano i problemi

Page 31: L’intelligenza artificiale - ECLT · 274 6.1. L’INTELLIGENZA Figura 6.2: Il test di Turing ma si e avvicinato a questo risultato.` 287 Se ne puo trarre la conclusione rassicurante

CAPITOLO 6. L’INTELLIGENZA ARTIFICIALE 299

loro affidati, si basa sull’utilizzo di una “base di conoscenza”. Tale base di conoscenzaconsiste in un insieme di informazioni (conoscenze) specialistiche, attinenti all’ambito(il dominio) particolare in cui tali sistemi debbono operare, e alle tecniche utilizzabiliper la soluzione dei problemi che possano emergere in quell’ambito.

I sistemi basati sulla conoscenza sono spesso identificati con i cosiddetti sistemiesperti, cioe, i sistemi intesi a fornire funzionalita che richiedono una specifica compe-tenza professionale (expertise). Un sistema basato sulla conoscenza e indubbiamente unsistema esperto nel senso che esso svolge funzioni basate su conoscenze specialistiche,che solo un esperto possiede. Cio non significa pero che esso sia un vero esperto, cioeche possa svolgere da solo un’intera prestazione professionale, comprensiva di tutte lefunzioni che si affiderebbero all’esperto umano. Questo obiettivo non e realizzabile conle tecnologie disponibili oggi o anche nel vicino futuro. Anche in un futuro piu lontanoun esperto automatico rimarra privo delle capacita cognitive legate alla condizione uma-na (come la capacita di immedesimarsi nella posizione dell’altro, di coglierne gli statipsicologici, i ragionamenti, i bisogni, e quindi di apprezzare pienamente gli interessi ei valori in gioco). L’idea di un esperto automatico pone non solo ostacoli tecnologicima anche problemi giuridici ed etici.328 Si considerino le ipotesi estreme di un automaprofessionista nella medicina e nel diritto.

Un automa esperto nella medicina dovrebbe contenere informazioni attenenti all’a-natomia umana, alla fisiologia alle diverse patologie, alle cure disponibili per ciascunadi esse. Il sistema dovrebbe usare conoscenze anatomiche, fisiologiche e patologiche perdeterminare la patologia da cui il paziente e affetto, e quindi, sulla base di conoscenzeattenenti ai metodi terapeutici, suggerire la terapia migliore per il particolare caso clini-co. Inoltre il sistema non dovrebbe limitarsi all’elaborazione delle informazioni a essofornite in forma linguistica. Al contrario, dovrebbe essere dotato di capacita percetti-ve tali da consentirgli di estrarre informazioni dall’ambiente (ad esempio, dalla visionedelle parti malate o delle radiografie) e di interagire con l’ambiente, utilizzando altresıla comunicazione umana, al fine di ottenere informazioni utili mediante il dialogo (adesempio, interrogando il malato, o chiedendogli di sottoporsi agli esami del caso).

Allo stesso modo, un automa esperto nel diritto dovrebbe contenere informazioniconcernenti le norme giuridiche, le loro interpretazioni dottrinali, i precedenti giuri-sprudenziali, i valori e le finalita che caratterizzano l’ordinamento, i fenomeni socialidisciplinati dal diritto. Il sistema inoltre dovrebbe possedere la capacita di ricavare in-formazioni dall’ispezione delle prove fisiche e di interagire con le parti e i terzi.Graziea queste informazioni, l’automa dovrebbe determinare le soluzione giuridiche di casiconcreti (come farebbe un giudice o un funzionario pubblico).

Non e questa la prospettiva nella quale possiamo sperare di ottenere risultati utilinella realizzazione di sistemi informatici, almeno nel futuro a noi vicino. Si potran-no invece affidare all’elaborazione automatica particolari fasi o momenti delle attivitagiuridiche che si affiancano e integrano a quelli affidati all’uomo, cioe all’avvocato, al

Page 32: L’intelligenza artificiale - ECLT · 274 6.1. L’INTELLIGENZA Figura 6.2: Il test di Turing ma si e avvicinato a questo risultato.` 287 Se ne puo trarre la conclusione rassicurante

300 6.4. CONOSCENZA ESPLICITA E RAGIONAMENTO

giudice, al funzionario amministrativo o allo stesso destinatario di un servizio pubbli-co. La prospettiva nella quale collocare l’interazione tra uomo e sistema informatico equella della simbiosi uomo-macchina, gia concepita all’inizio degli anni ’60 da J. C. R.Licklider (tra gli iniziatori delle ricerche che hanno portato alla realizzazione di Internet,vedi Sezione 5.2.1), che caratterizzava nel modo seguente le prospettive dell’interazionetra uomo e macchina:

La simbiosi tra uomo e calcolatore e uno sviluppo atteso nell’interazione coopera-tiva tra uomini e calcolatori elettronici. Essa implica uno stretto accoppiamento trale componenti umane e quelle elettroniche dell’associazione. Gli scopi principalisono (1) far sı che i calcolatori facilitino la formulazione dei problemi cosı comeora essi aiutano nella soluzione di problemi gia formulati e (2) consentire agli uo-mini e ai calcolatori di cooperare nel prendere decisioni e nel controllare situazionicomplesse senza la dipendenza inflessibile da programmi predeterminati. Nell’as-sociazione simbiotica prevista, gli uomini indicheranno gli scopi, formuleranno leipotesi, determineranno i criteri ed effettueranno le valutazioni. Le macchine calco-latrici faranno il lavoro di routine che deve essere compiuto per preparare la stradaper nuove idee e decisioni nel pensiero tecnico e scientifico. Le analisi preliminariindicano che l’associazione simbiotica eseguira operazioni intellettuali molto piuefficacemente di come possa eseguirle l’uomo da solo.329

Per capire possibilita presenti e prospettive future dell’informatica nelle attivita giuri-diche dobbiamo interrogarsi sull’integrazione simbiotica tra uomo e macchina, e indi-viduare gli ambiti nei quali i sistemi informatici, e in particolare sistemi basati sullaconoscenza, possano affiancarsi all’attivita dell’uomo.

6.4.4 L’uso dei sistemi basati sulla conoscenza giuridica

I risultati operativi ottenuti in ambito giuridico mediante sistemi basati sulla conoscenzafurono inizialmente inferiori alle attese. I prototipi realizzati non condussero allo svi-luppo di sistemi funzionanti, furono rifiutati fin dall’inizio dai funzionari destinati adapplicarli, furono abbandonati dopo una breve sperimentazione, o non si ritenne di pro-cedere al loro aggiornamento quando le loro basi di conoscenza diventarono obsolete inseguito a modifiche normative.

Negli ultimi anni tuttavia, queste iniziali delusioni sono state seguite da alcuni im-portanti successi, in particolare nell’ambito della pubblica amministrazione. La ragionefondamentale di tale cambiamento e da ritrovarsi innanzitutto nell’avvento di Internet,che ha modificato completamente l’uso delle applicazioni informatiche e in particolaredei sistemi basati sulla conoscenza. Internet rappresenta, infatti, un mondo aperto do-ve un sistema puo essere utilizzato da un numero illimitato di utenti, e le funzioni diun sistema possono essere integrate con quelle offerte da altri sistemi nell’ambito di ar-chitetture distribuite. Cio significa che il sistema finalizzato a una particolare funzione(per esempio, destinato a determinare il diritto a ricevere certe prestazioni) puo essere

Page 33: L’intelligenza artificiale - ECLT · 274 6.1. L’INTELLIGENZA Figura 6.2: Il test di Turing ma si e avvicinato a questo risultato.` 287 Se ne puo trarre la conclusione rassicurante

CAPITOLO 6. L’INTELLIGENZA ARTIFICIALE 301

utilizzato (possibilmente con modalita diverse) sia da parte dei cittadini, sia da partedei funzionari pubblici competenti, nei diversi uffici che gestiscono la normativa corri-spondente. Inoltre il sistema puo essere integrato con altri sistemi informatici (come peresempio, banche di dati, archivi di documenti e formulari, ecc.) in modo tale che le fun-zioni svolte da ciascuno di tali sistemi siano “orchestrate” per realizzare una funzionalitacomplessiva. Si tratta del modello informatico dei servizi di rete (Web service, vedi Se-zione 3.5.2): molteplici funzioni informatiche sono rese disponibili on-line e possonoessere integrate in un sistemi virtuali.

Le pubbliche amministrazioni e, piu in generale, i soggetti che forniscono servizipubblici hanno iniziato a usare Internet per fornire informazioni ai cittadini. Normal-mente si tratta di materiale di presentazione dell’ente e delle sue funzioni, cui si accom-pagna la possibilita di “scaricare” documenti di vario genere (testi normativi, manualidi istruzioni, moduli e formulari). Talvolta l’utente e abilitato a estrarre dagli archivielettronici della pubblica amministrazione i dati che lo riguardano e a effettuare l’ag-giornamento degli stessi. Tuttavia, Internet rimane un mero deposito di informazioni, lacui elaborazione e utilizzazione sono affidate per intero allo sforzo del lettore umano.

I sistemi basati sulla conoscenza possono apportare un importante progresso nell’u-so di Internet da parte della Pubblica Amministrazione: essi non si limitano a forniredocumenti, ma impiegano le regole associate ai documenti per agevolare lo svolgimentodelle relative attivita amministrative. Tali sistemi sono particolarmente utili nei processidecisionali “determinativi”, cioe a quelli volti a stabilire quali obblighi e diritti spettinoai cittadini in base alla legge, e in particolare nei processi volti a stabilire se il cittadinopossegga i requisiti per accedere a un certo servizio pubblico e a quali condizioni possaavervi accesso.330

I sistemi basati sulla conoscenza non sono quindi esperti automatici in grado di sosti-tuirsi al funzionario pubblico, ma piuttosto strumenti che forniscono un aiuto intelligenteal richiedente del servizio o al funzionario che lo gestisce. Si tratta di un aiuto che puointegrarsi con funzionalita informatiche ulteriori (la ricerca di documenti, la fornituradi moduli, la loro predisposizione automatica) e soprattutto con le attivita dell’utentee del funzionario stesso.331 L’esperienza delle pubbliche amministrazioni che piu am-piamente hanno utilizzato sistemi basati sulla conoscenza (quella australiana, inglese eolandese) indicano come questa tecnologia possa avere un impatto positivo non solo sul-l’applicazione amministrativa di norme giuridiche, ma anche sulla formulazione dellenorme stesse. Al fine di predisporre una base di conoscenza bisogna infatti tradurre itesti giuridici in regole tanto precise da essere automaticamente applicabili. Emergonocosı le incoerenze e le lacune della normativa da applicare (e le possibilita di riformu-larne i contenuti con maggiore precisione e chiarezza), e da cio si possono trarre utiliindicazioni per il legislatore, che puo essere invitato a porre rimedio ai difetti delle suestatuizioni.

Page 34: L’intelligenza artificiale - ECLT · 274 6.1. L’INTELLIGENZA Figura 6.2: Il test di Turing ma si e avvicinato a questo risultato.` 287 Se ne puo trarre la conclusione rassicurante

302 6.4. CONOSCENZA ESPLICITA E RAGIONAMENTO

Non deve essere sottovalutato il rischio che l’uso di sistemi basati sulla conoscen-za nella pubblica amministrazione conduca a un’applicazione rigida e iniqua del diritto,sorda alle esigenze del caso concreto, a una forma estrema di legalismo che vincolerebbel’attuazione del diritto non solo al testo legislativo ma anche alla particolare interpreta-zione dello stesso che si e deciso di inserire nel sistema informatico. Queste critichepossono pero trovare risposta non tanto nel richiamarsi a superiori esigenze di certezzaed efficienza (che renderebbero sopportabili rigidita e iniquita), ma piuttosto nel ribadireche i sistemi basati sulla conoscenza non sminuiscono necessariamente ne il ruolo del ri-chiedente un servizio pubblico ne quello del funzionario competente. Al contrario l’usodi tali sistemi puo accrescere le sfere di iniziativa e di autonomia informata del cittadinoe del pubblico funzionario incaricato di provvedere a un’attivita regolata dal diritto. Ciopuo avvenire quando l’uso del sistema sia agevole e controllabile, esistano procedureaperte ed efficaci per rivedere la base conoscenza quando essa conduca a conclusioniinaccettabili, siano rispettati gli ambiti nei quali l’apprezzamento non predeterminato (opredeterminato solo in parte) delle caratteristiche del caso concreto possa dare risultatimigliori dell’applicazione di regole predefinite. Nella prospettiva simbiotica sopra pro-spettata si tratta di progettare modalita di accesso e gestione che consentano di integrarenel modo migliore attivita umana ed elaborazione (e memoria) informatica, in modo chela valorizzazione dell’iniziativa del cittadino e della competenza dell’amministrazione sicombini con i vantaggi che l’informatica puo dare sotto i profili dell’informazione, del-l’efficienza e della certezza. I sistemi basati sulla conoscenza giuridica possono essereutilmente impiegati nei processi determinativi solo grazie all’integrazione delle seguentiattivita:

• l’attivita dell’esperto informatico-giuridico che si occupa non solo dell’inseri-mento, ma anche della correzione e revisione delle regole (nel caso di errori odella necessita di tener conto di nuove informazioni), assicurando che la base diconoscenza non contenga errori di diritto;

• l’attivita del cittadino o del funzionario che inseriscono i dati sui casi concreti,sulla base dell’esame delle circostanze di fatto e dell’interpretazione delle regoleda applicare;332

• l’attivita del sistema, che si occupa della derivazione delle conseguenze deducibilidalle regole in esso comprese e dei dati di fatto a esso forniti o cui abbia accesso.

6.4.5 I limiti dell’applicazione deduttiva di regole

I sistemi che applicano automaticamente, in modo puramente deduttivo, regole preesi-stenti nella loro base di conoscenza, trovano le maggiori applicazioni, come abbiamovisto, nell’ambito della Pubblica Amministrazione. Essi non sono in grado di affiancare

Page 35: L’intelligenza artificiale - ECLT · 274 6.1. L’INTELLIGENZA Figura 6.2: Il test di Turing ma si e avvicinato a questo risultato.` 287 Se ne puo trarre la conclusione rassicurante

CAPITOLO 6. L’INTELLIGENZA ARTIFICIALE 303

il giurista nelle attivita che formano la parte centrale del suo pensiero, che consiste nel-l’affrontare casi controversi, nell’identificare e valutare diversi argomenti, nel contribuirealla formazione (o concretizzazione) del diritto.

Tali sistemi potrebbero svolgere per intero il ragionamento giuridico (e in particolareil ragionamento giudiziario) solo se risultasse vera, presa alla lettera, la famosa frase diCharles Montesquieu [1689-1755]:

I giudici della nazione non sono [. . . ] che la bocca che pronuncia le parole dellalegge; esseri inanimati che non ne possono moderare ne la forza ne il rigore.333

Il pensiero giuridico si ridurrebbe allora al classico modello del cosiddetto sillogismogiudiziale:

• le soluzioni giuridicamente corrette di ogni caso concreto sarebbero derivabilida un insieme di premesse comprendente norme giuridiche generali (la legge) easserti fattuali specifici (i fatti del caso concreto), e

• tale derivazione consisterebbe in una deduzione (qualora le premesse normative efattuali fossero vere/valide saremmo assolutamente sicuri che anche le conclusionisarebbero vere/valide).334

Alla riduzione del ragionamento giuridico al modello sillogistico, come e noto, si op-pongono pero alcune fondamentali caratteristiche del diritto e, conseguentemente, alcuniaspetti essenziali del ragionamento del giurista: le fonti del diritto spesso non forniscononorme sufficienti a disciplinare tutti gli aspetti del caso (vi sono lacune), comprendononorme che si contraddicono (vi sono antinomie) o il cui contenuto rimane indetermi-nato (vi sono ambiguita e vaghezze), includono casi particolari (precedenti), da cui sipossano trarre indicazioni solo mediante analogie o prospettando spiegazioni e genera-lizzazioni.335 Inoltre, in certi casi puo essere necessario andare al di la dell’applicazionedi regole e precedenti, e considerare i valori individuali e sociali perseguiti dal diritto, ei modi in cui massimizzarne la realizzazione, nel rispetto delle aspettative dei cittadini edelle funzioni che competono alle diverse istituzioni giuridiche e politiche.336

Secondo alcuni, l’uso di sistemi basati su regole in abito giuridico presupporrebbel’accettazione del modello sillogistico del ragionamento giuridico, l’idea che il diritto siriduca a un insieme di regole e che il ragionamento giuridico consista nell’applicazione“meccanica” (deduttiva) di tali regole.337 Questo errore teorico determinerebbe l’inu-tilita pratica di tali sistemi: non rappresentando fedelmente il diritto e il ragionamentogiuridico, essi sarebbero inutili o anzi dannosi, conducendo necessariamente a risultatiscorretti o ingannevoli.

A mio parere e vero che i sistemi basati sull’applicazione deduttiva del diritto silimitano a cogliere un aspetto limitato del ragionamento giuridico, ma cio non postula unerrore teorico e non ne determina l’inutilita pratica. Infatti, le limitazioni di questi sisteminon ne escludono l’utile impiego, nella piena consapevolezza di tali limitazioni. In un

Page 36: L’intelligenza artificiale - ECLT · 274 6.1. L’INTELLIGENZA Figura 6.2: Il test di Turing ma si e avvicinato a questo risultato.` 287 Se ne puo trarre la conclusione rassicurante

304 6.4. CONOSCENZA ESPLICITA E RAGIONAMENTO

modello simbiotico di interazione uomo-macchina e possibile affidare alla macchina laregistrazione delle regole, la loro l’applicazione deduttiva e il prelievo dei dati fattuali giadisponibili in forma elettronica, e affidare invece all’uomo la formulazione delle regole,il controllo sul funzionamento del sistema e l’inserimento e la qualificazione giuridicadi nuovi dati fattuali.338

6.4.6 Intelligenza artificiale e dialettica giuridica: il ragionamentodefeasible

Le ricerche degli ultimi anni hanno evidenziato come l’informatica giuridica possa anda-re al di la dei limitati risultati conseguibili nell’ambito del modello deduttivo, operandoin due direzioni complementari:

• la costruzione di precisi modelli dei ragionamenti giuridici non-deduttivi, la crea-zione, cioe, di una nuova logica giuridica formale, piu estesa dei tradizionalimodelli deduttivi;339

• lo sviluppo, sulla base di tali modelli, di software che possano agevolare la ricercae l’elaborazione di informazioni giuridiche.

Non e possibile presentare qui la vasta gamma delle ricerche innovative che, nel corsodegli ultimi decenni, hanno contribuito alla crescita degli studi di intelligenza artificialee diritto, ricerche che vertono su aspetti come l’analogia sulla base dei precedenti,340

lo sviluppo di teorie giuridiche basate su regole e casi, 341 la logica dei concetti nor-mativi,342 la ricerca delle informazioni sulla base dei concetti, 343 la generazione didocumenti, 344 ecc.

Qui mi limitero a illustrare brevemente una particolare direzione di ricerca, che ri-tengo particolarmente significativa, il tentativo di sviluppare nuovi modelli formali del-l’argomentazione giuridica. L’idea fondamentale e che sia possibile e utile predisporrestrumenti logici e informatici capaci di affrontare la dialettica del ragionamento giuri-dico, superando i limiti del ragionamento sillogistico. Infatti, quando la soluzione a unproblema giuridico controverso e presentata quale risultato di una deduzione da regolegiuridiche date, la spiegazione risulta monca: non indica perche i testi sono stati inter-pretati in un certo modo, perche altri testi non sono stati presi in considerazione, qualiprincipi sono stati attuati e quali tralasciati, quali eccezioni si sono accolte o respinte,quali obiettivi sono stati perseguiti e quali sono rimasti insoddisfatti. Chi intenda giusti-ficare una decisione giudiziale o una soluzione dottrinale solo mediante un sillogismo,e costretto a tacitare, a rimuovere (in quanto inesprimibile nel mezzo logico scelto),proprio il nucleo del proprio processo raziocinativo-argomentativo, che rimane inarti-colato, se non inconsapevole. Di conseguenza, la giustificazione stessa risulta monca einsufficiente.345

A questo riguardo dobbiamo distinguere due diversi tipi di schema di ragionamen-to (e di corrispondenti inferenze): schemi conclusivi e schemi defeasible (vincibili).346

Page 37: L’intelligenza artificiale - ECLT · 274 6.1. L’INTELLIGENZA Figura 6.2: Il test di Turing ma si e avvicinato a questo risultato.` 287 Se ne puo trarre la conclusione rassicurante

CAPITOLO 6. L’INTELLIGENZA ARTIFICIALE 305

La differenza tra uno schema conclusivo e uno schema defeasibile e la seguente: se siaccettano le premesse di un’inferenza conclusiva se ne debbono necessariamente accet-tare anche le conclusioni; invece, e possibile respingere le conclusioni di un’inferenzadefeasible pur accettandone le premesse. Normalmente ricorriamo al ragionamento de-feasible quando le nostre premesse sono generalizzazioni empiriche o norme suscettibilidi eccezione, come negli esempi seguenti.

• Premesse:1. SE [x e un uccello] ALLORA [x vola]

2. [Tweety e un uccello];• Conclusione:3. [Tweety vola]

• Premesse:SE [x ha colpevolmente causato a y un danno ingiusto], ALLORA [x

deve risarcire il danno]

[Lucia ha colpevolmente causato a Renzo un danno ingiusto]

• Conclusione:[Lucia deve risarcire il danno].

Possiamo continuare ad accogliere le premesse delle inferenze defeasible, anche quan-do informazioni ulteriori ci conducono ad abbandonarne le conclusioni. Per esempio,se venissimo a sapere che [Tweety e un pinguino], non abbandoneremmo lepremesse gia accolte (la convinzione che gli uccelli normalmente volano, e che Tweetye un uccello), ma riterremmo di trovarci di fronte a un’eccezione a tale regola. Al-lo stesso modo, se venissimo a sapere che [Lucia ha agito per legittimadifesa], non abbandoneremmo l’idea che chi causa colpevolmente un danno ingiu-sto lo debba risarcire, ma riterremmo di trovarci di fronte a un’eccezione a tale regola(l’esonero da responsabilita per legittima difesa).

Come abbiamo visto, un’inferenza defeasible e un argomento che si impone allanostra ragione, ma solo in modo provvisorio, cioe solo a condizione che non emer-gano eccezioni, contro-esempi, argomenti contrari di importanza preminente. Pertan-to, il fatto che si accolgano le premesse dell’argomento che conduce a una certa con-clusione puo essere insufficiente a giustificare tale conclusione: un argomento dotatodi premesse valide perde la propria forza se viene sconfitto (defeated) da un contro-argomento. Per illustrare la dialettica di argomenti contrapposti dobbiamo considerarebrevemente la struttura degli argomenti e i modi in cui essi possono essere attaccati dacontro-argomenti.

La struttura fondamentale degli argomenti basati su regole e rappresenta in formagenerale nei grafi proposti dal Stephen Toulmin,347 nei quali si distinguono i dati dipartenza dell’argomento (data) e la regola generale (warrant), che consente di passare

Page 38: L’intelligenza artificiale - ECLT · 274 6.1. L’INTELLIGENZA Figura 6.2: Il test di Turing ma si e avvicinato a questo risultato.` 287 Se ne puo trarre la conclusione rassicurante

306 6.4. CONOSCENZA ESPLICITA E RAGIONAMENTO

Rossi ha causato un danno ingiusto a Verdi

Rossi ha agito con colpa

Rossi ha l'obbligo risarcire il danno a Verdi

Chi causa ad altri un danno ingiusto con dolo o colpa, ha l'obbligo di risarcire il danno

Rossi ha agito in stato di incapacità

Argomento A

Argomento B

Chi è incapace non è responsabile (non ha

l'obbligo di risarcire il danno)

Rossi non è responsabile (non ha l'obbligo di risarcire il danno)

Argomento C

La regola dell'esonero da responsabilità in caso di incapacità

non si applica a chi sia divenuto incapace per sua colpa

La regola dell'esonero da responsabilità in caso di incapacità non si applica

a Rossi

Rossi è divenuto incapace per sua colpa

Figura 6.7: Dialettica di argomenti: responsabilita civile

dai dati alla conclusione che si vuole sostenere (claim). Per esempio, nell’argomento A

della Figura 6.7, i dati sono costituiti dal fatto che Rossi ha causato un danno ingiusto aVerdi agendo con colpa, la conclusione e rappresentata dall’obbligo risarcitorio a caricodi Rossi, e il nesso tra fatti e conclusione e fornito dalla regola generale che ogni fattodoloso o colposo che causi ad altri un danno ingiusto obbliga l’autore al risarcimento.

Possiamo distinguere due modi in cui un argomento defeasible ↵ puo essere contra-stato. Il primo e detto rebutting,348 termine che forse possiamo tradurre con “contraddi-re”, e consiste nell’opporre ad ↵ un contro-argomento � che contraddice la conclusione

Page 39: L’intelligenza artificiale - ECLT · 274 6.1. L’INTELLIGENZA Figura 6.2: Il test di Turing ma si e avvicinato a questo risultato.` 287 Se ne puo trarre la conclusione rassicurante

CAPITOLO 6. L’INTELLIGENZA ARTIFICIALE 307

di ↵: la conclusione di � nega, o comunque e incompatible con la conclusione di ↵.Il secondo e detto undercutting,349 che forse possiamo tradurre con recidere, e consistenell’opporre ad ↵ un contro-argomento � che nega la forza argomentativa di ↵: � affer-ma che le premesse di A sono inidonee a fondarne la conclusione (in particolare, � puocontestare l’applicabilita della regola su cui si fonda, in ↵, il passaggio da premesse aconclusioni).

Per esempio, l’argomento A della Figura 6.7 e contraddetto (rebutted) dall’argomen-to B secondo il quale Rossi non e responsabile essendosi stato incapace di intendere edi volere nel momento dell’incidente.350

L’argomento B della Figura 6.7 (Rossi non e responsabile, in forza della sua incapa-cita) viene reciso (undercut) dall’argomento C secondo il quale l’incapacita di Rossi none rilevante (non lo scusa) poiche Rossi provoco colpevolmente il suo stato di incapacita,per esempio, assumendo bevande alcoliche. Il fatto che Rossi abbia bevuto troppo none un’autonoma ragione per la quale egli debba essere ritenuto responsabile (si e respon-sabili per aver causato ad altri un danno ingiusto, non per la propria ubriachezza). Sitratta invece di una ragione per disapplicare la regola secondo la quale chi e incapacenon e responsabile o, detto in altro modo, per escludere la rilevanza dell’incapacita, perimpedire (recidere) il passaggio dall’incapacita alla non-colpevolezza.

L’accoglimento delle premesse (i dati e la regola) di un argomento defeasible none sufficiente a garantire l’accettabilita della sua conclusione. A tal fine dobbiamo al-tresı considerare se esistano contro-argomenti che contraddicano o recidano il nostroargomento. Solo se tutti i contro-argomenti possono essere superati alla luce di consi-derazioni ulteriori, la conclusione dell’argomento risulta giustificata. Da cio discendonodue aspetti importanti dell’interazione dialettica tra argomenti contrapposti.

Il primo aspetto consiste nella possibilita di ristabilire (reinstate) un argomento, at-taccando gli argomenti che potrebbero sconfiggerlo. Un argomento puo essere difesonon solo producendo argomenti ulteriori che vanno nella stessa direzione (che ne ribadi-scono la conclusione) ma anche, e soprattutto cercando di demolire i contro-argomentiche a esso si oppongono (in modo da recuperare l’argomento stesso). Per esempio, l’ar-gomento A appena presentato (Rossi e responsabile avendo danneggiato colpevolmenteVerdi) puo essere difeso contro l’attacco del contro-argomento B (Rossi non e respon-sabile essendosi trovato in stato di incapacita), attaccando B con il nuovo contro-contro-argomento C (l’incapacita di Rossi e irrilevante, essendosela procurata Rossi stesso,ingerendo sostanze alcoliche). C nell’invalidare B, fa in modo che A riacquisti la pro-pria forza (C ristabisce A).351 Nel diagramma della Figura 6.7 lo stato dialettico di unargomento e indicato dal colore dello stesso: gli argomenti in (validi, alla luce dell’in-formazione riportata nel diagramma) sono in chiaro, gli argomenti out (invalidi, alla lucedell’informazione disponibile) sono ombreggiati. Il diagramma evidenza come l’argo-mento A, che sarebbe stato out sulla base del contro-argomento B, torna in una voltache B diventi out, essendo invalidato dal suo contro-argomento C.

Page 40: L’intelligenza artificiale - ECLT · 274 6.1. L’INTELLIGENZA Figura 6.2: Il test di Turing ma si e avvicinato a questo risultato.` 287 Se ne puo trarre la conclusione rassicurante

308 6.4. CONOSCENZA ESPLICITA E RAGIONAMENTO

A. La foto di Maria non può

essere pubblicata poiché ciò viola la sua privacy

B. La pubblicazione della foto di Maria non viola la sua privacy poiché Maria è

ritratta in un luogo pubblico

C. La pubblicazione della foto di Maria viola la sua privacy

anche se la ritrae in un luogo pubblico, poiché Maria

è riconoscibile dalla foto

D.La foto di Maria può essere

pubblicata poiché ciò corrisponde all'altrui diritto

all'informazione

E. Il diritto alla privacy di Maria

prevale sull'altrui diritto all'informazione poiché la

foto non attiene ad attività di Maria aventi interesse

pubblico

F.Il divieto di pubblicare la foto

di Maria (quale violazione della sua privacy) non si applica perché Maria ha

consentito alla pubblicazione della foto

Figura 6.8: Dialettica di argomenti: la privacy

Il secondo aspetto, invece, consiste nella possibilita di sostenere un argomento A,contraddetto (rebutted) da un contro-argomento B, adducendo ulteriori argomenti cheindichino perche A debba prevalere su B. Per esempio, assumiamo che nella causa didivorzio tra Rossi e Verdi, Rossi affermi (argomento A) il proprio diritto all’uso dell’abi-tazione della famiglia, essendo affidatario dei figli, e che Verdi (argomento B) oppongail proprio diritto a possedere tale abitazione, in quanto proprietaria della stessa. A questopunto, il contrasto tra i due argomenti puo forse essere risolto affermando (argomento C)la prevalenza dell’argomento di Rossi, poiche tale argomento corrisponde al preminenteinteresse dei figli. L’esito del conflitto tra A e B e indeterminato quanto si consideri-no solo A e B. Esso acquista determinatezza alla luce della valutazione comparativamotivata dall’ulteriore argomento C.352

Una dialettica argomentativa piu complessa e illustrata nella Figura 6.8. Ripercor-riamo brevemente questo esempio. S’immagini che la foto di una persona, chiamiamolaMaria, sia stata pubblicata in un giornale e che Maria chieda lumi al suo avvocato suipossibili rimedi giuridici (l’esempio non intende essere giuridicamente accurato, ma silimita a illustrare, nel modo piu semplice, la logica qui proposta).

Il primo argomento considerato dal legale e il seguente:

A : La foto di Maria non puo essere pubblicata, poiche cio viola la sua privacy.

Page 41: L’intelligenza artificiale - ECLT · 274 6.1. L’INTELLIGENZA Figura 6.2: Il test di Turing ma si e avvicinato a questo risultato.` 287 Se ne puo trarre la conclusione rassicurante

CAPITOLO 6. L’INTELLIGENZA ARTIFICIALE 309

Da A, considerato isolatamente, possiamo trarre la conclusione che la foto di Marianon poteva essere resa pubblica (la sua pubblicazione viola i diritti di Maria). Tuttavia,l’avvocato deve considerare anche i possibili contro-argomenti, come B:

B : La pubblicazione della foto di Maria non viola la sua privacy, poiche la ritrae inun luogo pubblico

Dinanzi ad argomenti in conflitto (come A e B nel nostro esempio) ci si trova in unostato di incertezza o perplessita: vi sono piu argomenti in competizione ma, per quantoe emerso finora, nessuno di essi prevale sugli altri, tutti tali argomenti sono difendibili,ma nessuno e giustificato.

In generale, per determinare se un argomento giuridico sia giustificato, non bastaguardare a quell’argomento isolatamente. Al contrario bisogna collocare l’argomentonel contesto di tutti gli argomenti rilevanti, cioe nel contesto argomentativo (argumenta-tion framework) del caso. Come vedremo, al mutare del contesto argomentativo in cui unargomento viene collocato puo mutare lo status dell’argomento: argomenti che appari-vano giustificati possono cessare di esserlo, mentre argomenti che apparivano sopraffattida argomenti in contrario, possono riacquistare forza.

Per esempio, se A fosse stato l’unico argomento rilevante nel caso di Maria, e nes-suna obiezione (contro-argomento) si fosse potuta sollevare contro di esso, avremmodovuto accettare la sua conclusione. Invece nella cornice argomentativa che unisce A

e il controargomento B, A non e piu giustificato (Maria non riesce a dimostrare che lafoto non poteva essere pubblicata).

Tuttavia l’avvocato di Maria, riflettendo ancora sulla causa, trova un argomentocontro B:

C : La foto di Maria viola la sua privacy, anche se la ritrae in un luogo pubblico,poiche Maria e riconoscibile nella foto.

L’argomento C prevale contro B (essendo piu specifico) e quindi priva B di rilevanza nelcaso in esame. Di conseguenza, nel contesto argomentativo costituito degli argomentiA, B e C (dove A e attaccato da B, ma dove C attacca B e prevale su di esso) risultache A e giustificato (Maria dimostra che la sua foto non poteva essere pubblicata).

Vi e pero un altro possibile argomento a favore della pubblicazione della foto: essarealizza l’interesse del pubblico (assumiamo che Maria rivesta un ruolo pubblico).

D : La foto di Maria puo essere pubblicata poiche cio realizza l’interesse del pubblico

Il nuovo argomento D porta un nuovo attacco contro l’argomento A. Nel contesto ar-gomentativo A, B, C, e D, risulta che A non e piu giustificato (Maria non riesce adimostrare che la sua foto non poteva essere pubblicata). A questo punto, l’avvoca-to perplesso ricorre al meta-ragionamento. Egli sviluppa un nuovo argomento (E) cheadduce ragioni a favore della prevalenza di uno degli argomenti in conflitto:

Page 42: L’intelligenza artificiale - ECLT · 274 6.1. L’INTELLIGENZA Figura 6.2: Il test di Turing ma si e avvicinato a questo risultato.` 287 Se ne puo trarre la conclusione rassicurante

310 6.4. CONOSCENZA ESPLICITA E RAGIONAMENTO

E : Il diritto alla privacy prevale sull’interesse del pubblico alla conoscenza, poiche lafoto non attiene ad attivita di Maria aventi interesse pubblico.

Grazie all’aiuto fornitogli dal nuovo argomento E, A appare ora superiore a D, e quindicapace di prevalere su di esso e di emergere dal conflitto come giustificato. In altreparole, nel contesto argomentativo costituito dagli argomenti A, B, C, D, E (dove A eD si attaccano reciprocamente, e E afferma che A e superiore a D), A risulta giustificato(Maria dimostra che la sua foto non poteva essere pubblicata).

Il ragionamento dell’avvocato, purtroppo, non e ancora finito. Nel colloquio con lacliente emerge che ella aveva consentito alla pubblicazione della propria foto. Abbiamocosı un nuovo argomento:

F : Il divieto di pubblicare la foto di Maria (in quanto attinente alla sua privacy) nonsi applica poiche Maria ha consentito alla pubblicazione della foto.

Nel contesto argomentativo rappresentato dagli argomenti A, B, C, D, E, e F , risultache A non e piu giustificato (quindi Maria non riesce a dimostrare che la sua foto nonpoteva essere pubblicata). L’argomentazione potrebbe continuare indefinitamente (peresempio, si potrebbe sostenere che il consenso di Maria era stato revocato, cosa cherende inapplicabile la regola del consenso), ma quanto detto finora puo dare sufficientesupporto alla tesi che il ragionamento giuridico consiste nella dialettica tra argomentie contro-argomenti, e che tale dialettica fa sı che il ragionamento giuridico sia defeasi-ble: le conclusioni che appaiono giustificate alla luce di certi argomenti possono essereinficiate da argomenti ulteriori.353(m)

Questo pur sommario esempio dovrebbe essere sufficiente a illustrare l’idea fonda-mentale che caratterizza i tentativi di costruire modelli formali della dialettica giuridica.Si tratta di affrontare situazioni nelle quali vi sono numerosi argomenti in gioco. Alcunistanno combattendo per la supremazia, altri danno sostegno ad alcuni dei combattenti(per esempio, fornendo ragioni per le quali essi dovrebbero prevalere sui propri opposi-tori), altri negano l’applicabilita di altri argomenti, e cosı via. Il compito di una logicadialettica e quello di dirci non solo quali argomenti siano costruibili utilizzando premes-se date, ma anche di determinare quali argomenti emergano vincitori (giustificati) dalloscontro con i loro contro-argomenti, quali siano sconfitti, e quali siano difendibili (nonsconfitti, ma neppure vincitori).

Logiche degli argomenti, come quella appena presentata sono state usate per realiz-zare sistemi informatici che, anziche limitarsi a fornire una risposta univoca ai quesitiloro proposti, elaborino giustificazioni per la soluzione di punti controversi, suggerisca-no argomenti possibili, valutino lo stato degli argomenti alla luce dell’architettura argo-mentativa complessiva risultante dalle informazioni fornite al sistema (gli argomenti, icontro-argomenti e i meta-argomenti costruibili con tali informazioni e le loro relazio-ni).354 La realizzazione di tali sistemi richiede nuovi linguaggi per la rappresentazionedella conoscenza, sufficientemente espressivi da cogliere le strutture fondamentali della

Page 43: L’intelligenza artificiale - ECLT · 274 6.1. L’INTELLIGENZA Figura 6.2: Il test di Turing ma si e avvicinato a questo risultato.` 287 Se ne puo trarre la conclusione rassicurante

CAPITOLO 6. L’INTELLIGENZA ARTIFICIALE 311

conoscenza giuridica (le regole, i diritti, i casi, i principi, i valori, ecc.) e nuovi metodidi inferenza, che riproducano i passi tipici del ragionamento giuridico (l’applicazione diregole, il riferimento ai precedenti, il ragionamento teleologico, ecc.).355

Uno sviluppo ulteriore consiste nella realizzazione di sistemi tesi ad agevolare lediscussioni giuridiche (cooperative o conflittuali) indicando alle parti, in ogni momentodella loro interazione, quale sia lo stato di ogni argomento, e quali nuovi argomentipossano essere rilevanti per l’oggetto della discussione. Inoltre tali sistemi mirano aorganizzare le informazioni fornite nel corso del dialogo in un’architettura di argomentie contro-argomenti (ragioni e contro-ragioni), dove ogni argomento sia collegato agliargomenti che sostiene o attacca. Chi entra nella discussione puo quindi accedere piufacilmente al punto del dibattito che lo interessa maggiormente, o rispetto al quale eglivoglia fornire un contributo. Tra le applicazioni, ricordo i sistemi intesi a promuovereil dialogo democratico (la discussione di temi politici e amministrativi), o a facilitarela soluzione di controversie mediante conciliazione. Questi sistemi si scontrano perocon la difficolta di tradurre in strutture logiche uniformi (necessarie affinche il sistemapossa organizzare le argomentazioni fornite dalle parti), le molteplici e complesse formelinguistiche in cui si svolge il dibattito giuridico.356


Recommended