1
Modelli computazionali III anno – CdL in Informa6ca
Lezioni 10‐12 dicembre 2008 Sara Manzoni
• Parts III and IV covered the logical agent approach to AI – first‐order logic as the language to represent facts – standard inference procedures and planning algorithms to
derive new beliefs and hence iden6fy desirable ac6ons
• In Part V – how logical approach must be changed to deal with the oIen
unavoidable problem of uncertain informa6on – Decision theory (Probability theory + u6lity theory) to build
ra6onal agents for uncertain worlds • Probability theory as basis for systems that reason under uncertainty • U.lity theory to weigh up the desirability of goals and the likelihood of achieving them (ac6ons are no longer certain to achieve goals)
– Other approaches to uncertainty • Default reasoning • Rules with certainty factors • fuzzy sets and logic
2
• “Vorrei ricevere informazioni su un’auto che cos6 meno di 11.300 €”
• “Questa è una curva di 163 ° 20’ 13” a destra seguita da un re[lineo di 1,342 km, una curva di 35 ° 12’ 33” a sinistra ed una curva di 34 ° 52’ 33” a destra [...]”
• “Reinstalli il sistema opera6vo”“Forma[ il disco (?), crei un disco di boot (?), fai il boot con il CD del S.O. inserito, [...]”
• “Desidero avere un aumento del modulo E’ (a 23°C) della mescola ba[strada del 3%”
• “Se l’ematocrito supera i 50 allora l’atleta dovrebbe essere fermato in quanto sospefo di aver assunto sostanze dopan6
• Diversa natura • Non specificare un
valore • Non entrare nel
defaglio della descrizione di un oggefo/processo
• Non essere cer6 dei legami fra even6, proprietà di ogge[
• Diversi mo6vi • “Pigrizia”, ovvietà
(senso comune) • Impossibilità/
ignoranza teorica (es.)
• Impossibilità pra6ca, sconvenienza
Informa6on‐retrieval
Knowledge acquisi6on and representa6on
Goal‐based problem solving
Decision making support
• non è possibile dare una risposta precisa/esa)a a causa di incompletezza o mancanza di correfezza nella comprensione del problema
• numero di regole descri[ve troppo elevato perchè siano rappresentabili esplicitamente
• non sono note tufe le regole descri[ve
• Obie[vo:determinare una soluzione ragionevole caraferizzata da un grado di credenza(o degree of belief)
• es. Aereoporto: il piano A90 massimizza la misura di prestazione dell’agente
3
• Valori imprecisi: soglie, indicazioni qualita6ve in numero finito, astrazioni Es: Costo: Ogge[ {Basso, Medio, Alto}
• Inferenza ∀p Sintomo(p, MalDiDen6) ⇒ Mala[a(p, Carie)
∀p Sintomo(p, MalDiDen6) ⇒
Mala[a(p, Carie)∨ Mala[a(p, Gengivite) ∨ ...
∀p Mala[a(p, Carie) ⇒ Sintomo(p, MalDiDen6)
La logica del I ordine fallisce a causa di:
• Pigrizia: troppo laborioso elencare tu[ gli anteceden6 e conseguen6
• Ignoranza teorica: la scienza medica non ha una teoria completa per il dominio
• Ignoranza pra.ca: non è possibile fare ad un paziente tu[ i test necessari per essere cer6 della diagnosi
Come si comportano gli Algoritmi di ricerca?
• Valori imprecisi – Necessità di un metodo per discriminare se lo stato corrente è l’obie[vo
– Problemi con ricerche di 6po informato
• Inferenza: com’è fafo lo spazio degli sta6 ? – Non sono sicuro degli effe[ delle azioni
• In genere si ricade in problemi a stato mul6plo molto complessi da affrontare
4
Come si comportano i Sistemi a regole di produzione (regole)?
• Valori imprecisi: approcci analoghi alla logica • Inferenza
– Approssimazione, accefazione della possibilità di avere errori
– U6lizzo di fafori di certezza • Possibili tenta6vi di ragionamento abdu[vo
– Es: • La carie causa mal di den6 • Ho mal di den6 • Potrei avere una carie
• Estensioni: fafori di certezza
Come si comportano metodi e modelli vis6 finora ?
• Sistemi di Case Based Reasoning – Valori imprecisi: trafabili come da6 numerici o qualita6vi
– Inferenza • Il calcolo della similarità può cafurare elemen6 di incertezza (similarità compresa fra 0 ed 1, non a valori in {0,1})
• L’adafamento può avvenire o meno; nel caso, si deve tenere conto dell’incertezza
5
• in condizioni di certezza l’agente esegue un’azione se e solo se questa gli perme<e di raggiungere l’obie>vo
• in condizioni di incertezza – l’agente deve poter stabilire una preferenza tra i possibili risulta6 ofenibili
– teoria dell’u6lità: strumento per rappresentare e ragionare con le preferenze
– per l’agente ogni stato ha un grado di u6lità; esso ‘preferisce’ gli sta6 con u6lità maggiore
– l’u6lità di un risultato è pesata dalla probabilità che si verifichi
l’agente è razionale se e solo se sceglie l’azione in base al Principio di Maximum Expected U4lity (MEU)
6
• Probabilità • Strumento per trafare il grado di credenza • associa al grado di credenza un valore numerico tra 0 e
1
• permefe di quan6ficare l’incertezza • permefe di riassumere l’incertezza che deriva da
pigrizia e ignoranza
• P[Carie\MalDiDen6] = 0.8
• Assegnamento di un valore di probabilità
• non significa dare un valore di verità alla proposizione
7
• Probabilità a priori: probabilità di una proposizione A in mancanza di ogni altra informazione: P(A)
• Probabilità a posteriori: probabilità di una proposizione A dopo una data osservazione B: P(A\B)
• Regola del prodo)o: P(A) = P(A\B)*P(B) • Assiomi (sufficien6)
– P(A) ∈ [0,1] – P(vero) = 1 P(falso) = 0 – P(A∨B) = P(A) + P(B) ‐ P(A∧B)
• Regola di Bayes P(A\B) * P(B)
P(A) P(B\A) =
8
Strumento di rappresentazione delle dipendenze tra le variabili che fornisce una descrizione concisa della distribuzione di probabilità congiunta
• Una rete bayesiana (belief network) è un grafo orientato aciclico (DAG) in cui: – i nodi rappresentano le variabili casuali – ogni arco X→ Y indica un’influenza direfa di X su Y – ad ogni nodo è associata una tabella di probabilità condizionate (CPT) che specifica gli effe[ degli anteceden6 sul nodo
Intruso
MaryChiama
Terremoto
JohnChiama
Allarme
• John chiama sempre se sente l’allarme ma a volte lo confonde con il telefono
• Mary talvolta non sente l’allarme
9
P(I) ‐‐‐‐‐‐ 0.001
P(T) ‐‐‐‐‐‐ 0.002
A P(J) ‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐ vero 0.90 falso 0.05
A P(M) ‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐ vero 0.70 falso 0.01
I T P(A) ‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐ vero vero 0.95 vero falso 0.94 falso vero 0.29 falso falso 0.001
P(J∧M ∧A ∧¬I ∧¬T) = P(J\A)*P(M\A)*P(A\¬I ∧¬T)*P(¬I)*P(¬T)
• Inferenza diagnos>ca. Dagli effe[ alle cause: P[I\J]
• Inferenza causale. Dalle cause agli effe[: P[J\I] • Inferenza intercausale. Tra cause di effe[ comuni:
P[I\A] = 0.376 e P[I\A∧T] = 0.003 Anche se I e T sono indipenden6, l’osservazione di un evento (T) rende meno probabile il verificarsi dell’altro
• Inferenza mista
10
• Il modello della conoscenza del dominio deve essere molto robusto perchè sia accefabile un sistema probabilis6co per problemi reali
es. X e Y sono due diagnosi e Z è un sintomo. Se X e Y sono condizionalmente indipenden6 dato Z, allora è sufficiente conoscere la probabilità a piori del sintomo e le probabilità condizionate di ciascun effefo dato il sintomo. Infa[:
P(X\Y,Z) = P(X\Z) e P(Y\X,Z) = P(Y\Z) P(X) = P(X\Z) * P(Z) P(Y) = P(Y\Z) * P(Z)
• Se due nodi sono connessi da più di un cammino
• L’inferenza esafa è un problema NP‐hard
Nuvoloso
Pioggia Innaffiatori
Erba Bagnata
11
• Un agente razionale dovrebbe scegliere l’azione che massimizza la propria u6lità afesa:
EU(A\E) = ΣiP[Risulti(A)\E,Do(A)]*U(Risulti(A))
• in cui – Risulti(A) è l’i‐esimo possibile risultato dell’azione A
– E sono le conoscenze a disposizione dell’agente – Do(A) indica l’esecuzione di A nello stato corrente
• ma: – P[Risulti(A)\E,Do(A)] richiede un modello causale del mondo completo e
un aggiornamento NP‐hard delle re6 bayesiane che lo descrivono
– U(Risulti(A)) richiede ricerca e pianificazione in quanto spesso un agente non può conoscere la ‘bontà’ di uno stato senza conoscere ‘dove’ tale stato porta
• Intui6vamente è un modo razionale di prendere decisioni
• il principio di MEU deriva direfamente dai vincoli sulle preferenze che un agente razionale dovrebbe avere.
• Infa[: – loferia con due possibili esi6 A (con prob. p) e B (con prob. 1‐p):
L[p,A;1‐p,B]
– decisione: scelta tra loferie – preferenze: A > B (l’agente preferisce A) A ∼ B (l’agente è indifferente tra A e B)
• La definizione di razionalità di un agente implica un insieme di assiomi sulla relazione di preferenza
12
Proprietà della relazione di preferenza: – TRANSITIVITÀ: da6 due sta6, un agente razionale deve preferire uno dei
due o essere indifferente tra essi
(A > B)∨(A < B) ∨ (A ∼ B) – ORDINABILITÀ: da6 tre sta6, se un agente preferisce A a B e B a C, allora
l’agente deve preferire A a C
(A > B), (B > C) ⇒ (A > C)
– CONTINUITÀ: se qualche stato B è tra A e C, esiste una prob. p per cui un agente razionale sarebbe indifferente tra B e una loferia [p,A;1‐p,C]
A > B > C ⇒ ∃p: [p,A;1‐p,C] ∼ B
– SOSTITUIBILITÀ: A ∼ B ⇒ [p,A;1‐p;C] ∼ [p,B;1‐p,C] – MONOTONICITÀ: se un agente preferisce A a B, allora l’agente deve
preferire la loferia che ha A con maggior probabilità (e viceversa)
A > B ⇒ (p>q sse [p,A;1‐p,B] > [q,A;1‐q,B])
– DECOMPONIBILITÀ: loferie composte possono essere ridofe a loferie semplici usando le leggi della probabilità
Dagli assiomi della teoria dell’u6lità deriva che:
⇒ esiste una funzione U: {sta6} → ℜ tale che – U(A) > U(B) sse l’agente preferisce A a B – U(A) = U(B) sse l’agente è indifferente tra A e B
(principio di u.lità)
⇒ l’u6lità di una loferia è la somma delle probabilità di ogni risultato mol6plicato per l’u6lità di ogni risultato (principio di MEU)
13
• Qualsiasi funzione che fa corrispondere ad ogni stato un numero reale – Es. A > B se U(A) è un numero primo quindi secondo tale funzione di u6lità $3 > $16
• Misura di u6lità molto comune: denaro
• La teoria delle decisioni descrive come un agente dovrebbe comportarsi, ma non sempre descrive completamente il modo in cui l’uomo prende delle decisioni.
Es. A: P[$4.000] = 0.8
B: P[$3.000] = 1.0
C: P[$4.000] = 0.2 D: P[$3.000] = 0.25 se 0.8 U(A) < U(B) allora B e D se 0.8 U(A) > U(B) allora A e C
ma
un umano (risulta6 sperimentali) sceglie di partecipare a B e C quindi: l’uomo si comporta in modo irrazionale?
14
Regole e fafori di certezza
• Certainty factors are guesses by an expert about the relevance of evidence – They are ad hoc – CF can be tunes by trial and error – CF hide more knowledge
• CF associated with each condi6on are combined to produce a certainty factor for the whole premise – Premises for rules are formed by the and and or of a number of facts.
For two condi6ons P1 and P2: CF(P1 and P2) = min(CF(P1), CF(P2)) CF(P1 or P2) = max(CF(P1), CF(P2))
– The combined CF of the premises is then mul6plied by the CF of the rule to get the CF of the conclusion
15
Esempi
• if (P1 and P2) or P3 then C1 (0.7) and C2 (0.3) – Assume CF(P1) = 0.6, CF(P2) = 0.4,
CF(P3) = 0.2 – CF(P1 and P2) = min(0.6, 0.4) = 0.4 – CF(0.4, P3) = max(0.4, 0.2) = 0.4 – CF(C1) = 0.7 * 0.4 = 0.28 – CF(C2) = 0.3 * 0.4 = 0.12
• if MalDiDen6 then Carie (0.7) – Assume CF(MalDiDen6) = 1 – CF(Carie) = 1 * 0.7 = 0.7
• if MouseNonFunziona and Tas6eraNonFunziona then WindowsBloccato (0.9) – Assume
CF(MouseNonFunziona) = 1 – Assume
CF(Tas6eraNonFunziona) = 0 – CF(WindowsBloccato) =
min(0,1) * 0.9 = 0
Combinare diverse regole (1)
• Suppose two rules make conclusions about C. • How do we combine evidence from two rules?
P1
P2
C
0.7
‐0.6
16
Combinare diverse regole (2)
• Let CFR1(C) be the current CF for C. • Let CFR2(C) be the CF for C resul6ng from a new rule.
• The new CF is calculated as follows: – CFR1(C) + CFR2(C) ‐ CFR1(C) * CFR2(C) when CFR1(C) and CFR2(C) are both posi6ve – CFR1(C) + CFR2(C) + CFR1(C) * CFR2(C) when CFR1(C) and CFR2(C) are both nega6ve – [CFR1(C) + CFR2(C)]/[1 ‐ min(|CFR1(C)|, |CFR2(C)|)] when CFR1(C) and CFR2(C) are of opposite sign
Esempi
• if Fumatore then PressioneAlta (0.7) • if A[vitàFisica then PressioneAlta (‐0.6)
– Assume CF(Fumatore) = 0.8
– CFR1(PressioneAlta)= 0.8*0.7 = 0.56 – Assume CF(A[vitàFisica) = 0.7 – CFR2(PressioneAlta)= ‐0.6*0.7= ‐0.42 – CF(PressioneAlta)= (0,56‐0,42)/(1‐0,42) =0,24
17
• Teoria della probabilità: – Degree of belief (grado di credenza) – una proposizione è sempre o vera o falsa
– es: P[H2O] = 0.8: si ha una probabilità del 20% di avere un altro liquido (qualunque)
• Logica fuzzy: – Degree of truth (grado di verità) – ogni proposizione è caraferizzata da un grado di verità – es: T(H2O) = 0.8: il liquido è ‘simile’ al modello dell’acqua per l’80%
Degree of belief and degree of true • Probability theory makes the same ontological commitment as logic: facts
either do or do not hold in the world sentence itself is either true or false – Probability of 0 for a given sentence unequivocal belief that the sentence is false – Probability of 1 unequivocal belief that the sentence is true – Probabili6es between 0 and 1 intermediate degrees of belief in the truth of
the sentence
• Degree of truth, as opposed to degree of belief, is the subject of fuzzy logic
Prob.(H2O) = 0.80
DT(H2O) = 0.80
18
Fuzzy sets e logica fuzzy • Logica tradizionale permefe di associare ad un'affermazione due possibili valori di verità
• La logica fuzzy è una teoria matema6ca che semplifica la ges6one di espressioni vaghe (espressioni di cui non è possibile stabilire il valore di verità in modo preciso)
• Es. 1 Sapendo che (altezza Luisa 175) è una proposizione vera posso affermare che “Luisa è alta”? Possibile soluzione per eliminare l'ambigiità del termine una persona si definisce alta quando la sua altezza è maggiore di 170 cm
• Es. 2 Se si stabilisce un limite nefo tra la dimensione di un mucchio di sabbia e quella di un non‐mucchio, ci si troverà nella situazione che una trasformazione quan6ta6va minima produrrà una trasformazione qualita6va di carafere rilevante possibile soluzione per eliminare l’ambiguità: si considera “ques6 granelli di sabbia formano un mucchio” come funzione che associa ad ogni insieme di granelli di sabbia un valore numerico tanto maggiore quanto più fortemente si crede nella verità della frase (e.g. numero di granelli che formano il mucchio)
Insiemi classici vs fuzzy
19
Logica fuzzy
• Logica mul6valore: Variabili aven6 valori compresi fra 0 ed 1
• Devono essere opportunamente defini6 – operatori logici – regole di inferenza coeren6 con gli operatori defini6
• var • proposizione: ? • Def: • Def: • Si ha che: • Se invece: ?
€
A∨B = Max(A,B)
Insiemi classici vs fuzzy (2)
velocità
Gra
do d
i ver
ità
0 220
0
1
veloce lento
veloce (insieme tradizionale)
lento
20
Insiemi fuzzy e negazione
velocità
Gra
do d
i ver
ità
0 220
0
1
velocità media
non di velocità media
Modificatori linguis6ci
velocità
Gra
do d
i ver
ità
0 220
0
1 veloce
molto lento
molto veloce
lento
poco lento