+ All Categories
Home > Documents > Recovered File 1...1 Modelli computazionali III anno – CdL in Informaca Lezioni 10‐12 dicembre...

Recovered File 1...1 Modelli computazionali III anno – CdL in Informaca Lezioni 10‐12 dicembre...

Date post: 17-Sep-2020
Category:
Upload: others
View: 0 times
Download: 0 times
Share this document with a friend
20
1 Modelli computazionali III anno – CdL in Informa6ca Lezioni 10‐12 dicembre 2008 Sara Manzoni • Parts III and IV covered the logical agent approach to AI – first‐order logic as the language to represent facts – standard inference procedures and planning algorithms to derive new beliefs and hence iden6fy desirable ac6ons • In Part V – how logical approach must be changed to deal with the oIen unavoidable problem of uncertain informa6on – Decision theory (Probability theory + u6lity theory) to build ra6onal agents for uncertain worlds Probability theory as basis for systems that reason under uncertainty U.lity theory to weigh up the desirability of goals and the likelihood of achieving them (ac6ons are no longer certain to achieve goals) – Other approaches to uncertainty • Default reasoning • Rules with certainty factors fuzzy sets and logic
Transcript
Page 1: Recovered File 1...1 Modelli computazionali III anno – CdL in Informaca Lezioni 10‐12 dicembre 2008 Sara Manzoni • Parts III and IV covered the logical agent approach to AI –

1

Modelli computazionali III anno – CdL in Informa6ca 

Lezioni 10‐12 dicembre 2008 Sara Manzoni 

•  Parts III and IV covered the logical agent approach to AI –  first‐order logic as the language to represent facts –  standard inference procedures and planning algorithms to 

derive new beliefs and hence iden6fy desirable ac6ons 

•  In Part V –  how logical approach must be changed to deal with the oIen 

unavoidable problem of uncertain informa6on –  Decision theory (Probability theory + u6lity theory) to build 

ra6onal agents for uncertain worlds •  Probability theory as basis for systems that reason under uncertainty •  U.lity theory to weigh up the desirability of goals and the likelihood of achieving them (ac6ons are no longer certain to achieve goals) 

–  Other approaches to uncertainty •  Default reasoning •  Rules with certainty factors •   fuzzy sets and logic 

Page 2: Recovered File 1...1 Modelli computazionali III anno – CdL in Informaca Lezioni 10‐12 dicembre 2008 Sara Manzoni • Parts III and IV covered the logical agent approach to AI –

2

•  “Vorrei ricevere informazioni su un’auto che cos6 meno di 11.300 €” 

•  “Questa è una curva di 163 ° 20’ 13” a destra seguita da un re[lineo di 1,342 km, una curva di 35 ° 12’ 33” a sinistra ed una curva di 34 ° 52’ 33” a destra [...]” 

•  “Reinstalli il sistema opera6vo”“Forma[ il disco (?), crei un disco di boot (?), fai il boot con il CD del S.O. inserito, [...]” 

•  “Desidero avere un aumento del modulo E’ (a 23°C) della mescola ba[strada del 3%” 

•  “Se l’ematocrito supera i 50 allora l’atleta dovrebbe essere fermato in quanto sospefo di aver assunto sostanze dopan6 

•  Diversa natura •  Non specificare un 

valore •  Non entrare nel 

defaglio della descrizione di un oggefo/processo 

•  Non essere cer6 dei legami fra even6, proprietà di ogge[ 

•  Diversi mo6vi •  “Pigrizia”, ovvietà 

(senso comune) •  Impossibilità/

ignoranza teorica (es.) 

•  Impossibilità pra6ca, sconvenienza 

Informa6on‐retrieval 

Knowledge acquisi6on and representa6on 

Goal‐based  problem solving 

Decision making support  

•  non è possibile dare una risposta precisa/esa)a a causa di incompletezza o mancanza di correfezza nella comprensione del problema 

•  numero di regole descri[ve troppo elevato perchè siano rappresentabili esplicitamente 

•  non sono note tufe le regole descri[ve 

•  Obie[vo:determinare una soluzione ragionevole caraferizzata da un grado di credenza(o degree of belief) 

•  es. Aereoporto: il piano A90 massimizza la misura di prestazione dell’agente 

Page 3: Recovered File 1...1 Modelli computazionali III anno – CdL in Informaca Lezioni 10‐12 dicembre 2008 Sara Manzoni • Parts III and IV covered the logical agent approach to AI –

3

•  Valori imprecisi: soglie, indicazioni qualita6ve in numero finito, astrazioni Es: Costo: Ogge[  {Basso, Medio, Alto} 

•  Inferenza ∀p Sintomo(p, MalDiDen6) ⇒ Mala[a(p, Carie) 

∀p Sintomo(p, MalDiDen6) ⇒  

     Mala[a(p, Carie)∨ Mala[a(p, Gengivite) ∨ ... 

∀p Mala[a(p, Carie) ⇒ Sintomo(p, MalDiDen6) 

La logica del I ordine fallisce a causa di: 

•  Pigrizia: troppo laborioso elencare tu[ gli anteceden6 e conseguen6 

•  Ignoranza teorica: la scienza medica non ha una teoria completa per il dominio 

•  Ignoranza pra.ca: non è possibile fare ad un paziente tu[ i test necessari per essere cer6 della diagnosi 

Come si comportano gli Algoritmi di ricerca? 

•  Valori imprecisi – Necessità di un metodo per discriminare se lo stato corrente è l’obie[vo 

–  Problemi con ricerche di 6po informato 

•  Inferenza: com’è fafo lo spazio degli sta6 ? – Non sono sicuro degli effe[ delle azioni 

•  In genere si ricade in problemi a stato mul6plo  molto complessi da affrontare 

Page 4: Recovered File 1...1 Modelli computazionali III anno – CdL in Informaca Lezioni 10‐12 dicembre 2008 Sara Manzoni • Parts III and IV covered the logical agent approach to AI –

4

Come si comportano i Sistemi a regole di produzione (regole)? 

•  Valori imprecisi: approcci analoghi alla logica •  Inferenza 

–  Approssimazione, accefazione della possibilità di avere errori 

–  U6lizzo di fafori di certezza •  Possibili tenta6vi di ragionamento abdu[vo 

–  Es:  •  La carie causa mal di den6 •  Ho mal di den6 •  Potrei avere una carie 

•  Estensioni: fafori di certezza 

Come si comportano metodi e modelli vis6 finora ? 

•  Sistemi di Case Based Reasoning – Valori imprecisi: trafabili come da6 numerici o qualita6vi 

–  Inferenza •  Il calcolo della similarità può cafurare elemen6 di incertezza (similarità compresa fra 0 ed 1, non a valori in {0,1}) 

• L’adafamento può avvenire o meno; nel caso, si deve tenere conto dell’incertezza 

Page 5: Recovered File 1...1 Modelli computazionali III anno – CdL in Informaca Lezioni 10‐12 dicembre 2008 Sara Manzoni • Parts III and IV covered the logical agent approach to AI –

5

•  in condizioni di certezza   l’agente esegue un’azione se e solo se questa gli perme<e di raggiungere l’obie>vo 

•  in condizioni di incertezza –  l’agente deve poter stabilire una preferenza tra i possibili risulta6 ofenibili 

–  teoria dell’u6lità: strumento per rappresentare e ragionare con le preferenze 

–  per l’agente ogni stato ha un grado di u6lità; esso ‘preferisce’ gli sta6 con u6lità maggiore  

–  l’u6lità di un risultato è pesata dalla probabilità che si verifichi 

 l’agente è razionale se e solo se sceglie l’azione in base al Principio di Maximum Expected U4lity (MEU) 

Page 6: Recovered File 1...1 Modelli computazionali III anno – CdL in Informaca Lezioni 10‐12 dicembre 2008 Sara Manzoni • Parts III and IV covered the logical agent approach to AI –

6

•  Probabilità •  Strumento per trafare il grado di credenza  •  associa al grado di credenza un valore numerico tra 0 e 

•  permefe di quan6ficare l’incertezza •  permefe di riassumere l’incertezza che deriva da 

pigrizia e ignoranza 

•  P[Carie\MalDiDen6] = 0.8 

•  Assegnamento di un valore di probabilità 

•  non significa dare un valore di verità alla proposizione 

Page 7: Recovered File 1...1 Modelli computazionali III anno – CdL in Informaca Lezioni 10‐12 dicembre 2008 Sara Manzoni • Parts III and IV covered the logical agent approach to AI –

7

•  Probabilità a priori: probabilità di una proposizione A in mancanza di ogni altra informazione: P(A) 

•  Probabilità a posteriori: probabilità di una proposizione A dopo una data osservazione B: P(A\B) 

•  Regola del prodo)o: P(A) = P(A\B)*P(B) •  Assiomi (sufficien6) 

–  P(A) ∈ [0,1]  –  P(vero) = 1   P(falso) = 0 –  P(A∨B) = P(A) + P(B) ‐ P(A∧B) 

•  Regola di Bayes                           P(A\B) * P(B) 

P(A) P(B\A) = 

Page 8: Recovered File 1...1 Modelli computazionali III anno – CdL in Informaca Lezioni 10‐12 dicembre 2008 Sara Manzoni • Parts III and IV covered the logical agent approach to AI –

8

 Strumento di rappresentazione delle dipendenze tra le variabili che fornisce una descrizione concisa della distribuzione di probabilità congiunta 

•  Una rete bayesiana (belief network) è un grafo orientato aciclico (DAG) in cui: –  i nodi rappresentano le variabili casuali –  ogni arco X→ Y indica un’influenza direfa di X su Y –  ad ogni nodo è associata una tabella di probabilità condizionate (CPT) che specifica gli effe[ degli anteceden6 sul nodo 

Intruso 

MaryChiama 

Terremoto 

JohnChiama 

Allarme 

•  John chiama sempre se sente l’allarme ma a volte lo confonde con il telefono 

•  Mary talvolta non sente l’allarme 

Page 9: Recovered File 1...1 Modelli computazionali III anno – CdL in Informaca Lezioni 10‐12 dicembre 2008 Sara Manzoni • Parts III and IV covered the logical agent approach to AI –

9

P(I) ‐‐‐‐‐‐ 0.001 

P(T) ‐‐‐‐‐‐ 0.002 

  A    P(J) ‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐ vero  0.90 falso  0.05 

  A    P(M) ‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐ vero  0.70 falso  0.01 

  I    T  P(A) ‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐ vero  vero  0.95 vero  falso  0.94 falso  vero  0.29 falso  falso  0.001 

P(J∧M ∧A ∧¬I ∧¬T) =       P(J\A)*P(M\A)*P(A\¬I ∧¬T)*P(¬I)*P(¬T) 

•  Inferenza diagnos>ca. Dagli effe[ alle cause: P[I\J] 

•  Inferenza causale. Dalle cause agli effe[: P[J\I] •  Inferenza intercausale. Tra cause di effe[ comuni:  

 P[I\A] = 0.376 e P[I\A∧T] = 0.003  Anche se I e T sono indipenden6, l’osservazione di un evento (T) rende meno probabile il verificarsi dell’altro 

•  Inferenza mista 

Page 10: Recovered File 1...1 Modelli computazionali III anno – CdL in Informaca Lezioni 10‐12 dicembre 2008 Sara Manzoni • Parts III and IV covered the logical agent approach to AI –

10

•  Il modello della conoscenza del dominio deve essere molto robusto perchè sia accefabile un sistema probabilis6co per problemi reali 

es. X e Y sono due diagnosi e Z è un sintomo. Se X e Y sono condizionalmente indipenden6 dato Z, allora è sufficiente conoscere la probabilità a piori del sintomo e le probabilità condizionate di ciascun effefo dato il sintomo.   Infa[: 

 P(X\Y,Z) = P(X\Z)   e   P(Y\X,Z) = P(Y\Z)  P(X) = P(X\Z) * P(Z)     P(Y) = P(Y\Z) * P(Z)  

•  Se due nodi sono connessi da più di un cammino 

•  L’inferenza esafa è un problema NP‐hard 

Nuvoloso 

Pioggia Innaffiatori 

Erba Bagnata 

Page 11: Recovered File 1...1 Modelli computazionali III anno – CdL in Informaca Lezioni 10‐12 dicembre 2008 Sara Manzoni • Parts III and IV covered the logical agent approach to AI –

11

•  Un agente razionale dovrebbe scegliere l’azione che massimizza la propria u6lità afesa: 

   EU(A\E) = ΣiP[Risulti(A)\E,Do(A)]*U(Risulti(A)) 

•  in cui  –  Risulti(A) è l’i‐esimo possibile risultato dell’azione A 

–  E  sono le conoscenze a disposizione dell’agente –  Do(A) indica l’esecuzione di A nello stato corrente 

•  ma: –  P[Risulti(A)\E,Do(A)] richiede un modello causale del mondo completo e 

un aggiornamento NP‐hard delle re6  bayesiane che lo descrivono 

–  U(Risulti(A)) richiede ricerca e pianificazione in quanto spesso un agente non può conoscere la ‘bontà’ di uno stato senza conoscere ‘dove’ tale stato porta 

•  Intui6vamente è un modo razionale di prendere decisioni 

•  il principio di MEU deriva direfamente dai vincoli sulle preferenze che un agente razionale dovrebbe avere. 

•  Infa[: –  loferia con due possibili esi6 A (con prob. p) e B (con prob. 1‐p):  

   L[p,A;1‐p,B]  

–  decisione: scelta tra loferie –  preferenze: A > B (l’agente preferisce A)        A ∼ B (l’agente è indifferente tra A e B) 

•  La definizione di razionalità di un agente implica un insieme di assiomi sulla relazione di preferenza 

Page 12: Recovered File 1...1 Modelli computazionali III anno – CdL in Informaca Lezioni 10‐12 dicembre 2008 Sara Manzoni • Parts III and IV covered the logical agent approach to AI –

12

Proprietà della relazione di preferenza: –  TRANSITIVITÀ: da6 due sta6, un agente razionale deve preferire uno dei 

due o essere indifferente tra essi 

 (A > B)∨(A < B) ∨ (A ∼ B)  –  ORDINABILITÀ: da6 tre sta6, se un agente preferisce A a B e B a C, allora 

l’agente deve preferire A a C 

 (A > B), (B > C) ⇒ (A > C) 

–  CONTINUITÀ: se qualche stato B è tra A e C, esiste una prob. p per cui un agente razionale sarebbe indifferente tra B e una loferia [p,A;1‐p,C] 

 A > B > C ⇒ ∃p: [p,A;1‐p,C] ∼ B 

–  SOSTITUIBILITÀ: A ∼ B ⇒ [p,A;1‐p;C] ∼ [p,B;1‐p,C] –  MONOTONICITÀ: se un agente preferisce A a B, allora l’agente deve 

preferire la loferia che ha A con maggior probabilità (e viceversa) 

 A > B ⇒ (p>q sse [p,A;1‐p,B] > [q,A;1‐q,B]) 

–  DECOMPONIBILITÀ: loferie composte possono essere ridofe a loferie semplici usando le leggi della probabilità 

Dagli assiomi della teoria dell’u6lità deriva che: 

⇒ esiste una funzione U: {sta6} →  ℜ tale che  –  U(A) > U(B) sse l’agente preferisce A a B  –  U(A) = U(B) sse l’agente è indifferente tra A e B 

 (principio di u.lità) 

⇒ l’u6lità di una loferia è la somma delle probabilità di ogni risultato mol6plicato per l’u6lità di ogni risultato (principio di MEU) 

Page 13: Recovered File 1...1 Modelli computazionali III anno – CdL in Informaca Lezioni 10‐12 dicembre 2008 Sara Manzoni • Parts III and IV covered the logical agent approach to AI –

13

•  Qualsiasi funzione che fa corrispondere ad ogni stato un numero reale –  Es. A > B se U(A) è un numero primo  quindi secondo tale funzione di u6lità $3 > $16  

•  Misura di u6lità molto comune: denaro 

•  La teoria delle decisioni descrive come un agente dovrebbe comportarsi, ma non sempre descrive completamente il modo in cui l’uomo prende delle decisioni. 

Es. A: P[$4.000] = 0.8 

   B: P[$3.000] = 1.0 

   C: P[$4.000] = 0.2    D: P[$3.000] = 0.25 se 0.8 U(A) < U(B) allora B e D  se 0.8 U(A) > U(B) allora A e C 

             ma  

un umano (risulta6 sperimentali) sceglie di partecipare a B e C quindi: l’uomo si comporta in modo irrazionale? 

Page 14: Recovered File 1...1 Modelli computazionali III anno – CdL in Informaca Lezioni 10‐12 dicembre 2008 Sara Manzoni • Parts III and IV covered the logical agent approach to AI –

14

Regole e fafori di certezza 

•  Certainty factors are guesses by an expert about the relevance of evidence –  They are ad hoc –  CF can be tunes by trial and error –  CF hide more knowledge 

•  CF associated with each condi6on are combined to produce a certainty factor for the whole premise  –  Premises for rules are formed by the and and or of a number of facts. 

For two condi6ons P1 and P2:       CF(P1 and P2) = min(CF(P1), CF(P2))       CF(P1 or P2) = max(CF(P1), CF(P2)) 

–  The combined CF of the premises is then mul6plied by the CF of the rule to get the CF of the conclusion  

Page 15: Recovered File 1...1 Modelli computazionali III anno – CdL in Informaca Lezioni 10‐12 dicembre 2008 Sara Manzoni • Parts III and IV covered the logical agent approach to AI –

15

Esempi 

•  if (P1 and P2) or P3 then C1 (0.7) and C2 (0.3) –  Assume CF(P1) = 0.6, CF(P2) = 0.4, 

CF(P3) = 0.2  –  CF(P1 and P2) = min(0.6, 0.4) = 0.4  –  CF(0.4, P3) = max(0.4, 0.2) = 0.4  –  CF(C1) = 0.7 * 0.4 = 0.28  –  CF(C2) = 0.3 * 0.4 = 0.12  

•  if MalDiDen6 then Carie (0.7) –  Assume CF(MalDiDen6) = 1 –  CF(Carie) = 1 * 0.7 = 0.7 

•  if MouseNonFunziona and Tas6eraNonFunziona then WindowsBloccato (0.9) –  Assume 

CF(MouseNonFunziona) = 1 –  Assume 

CF(Tas6eraNonFunziona) = 0 –  CF(WindowsBloccato) = 

min(0,1) * 0.9 = 0 

Combinare diverse regole (1) 

•  Suppose two rules make conclusions about C.  •  How do we combine evidence from two rules?  

P1 

P2 

0.7 

‐0.6 

Page 16: Recovered File 1...1 Modelli computazionali III anno – CdL in Informaca Lezioni 10‐12 dicembre 2008 Sara Manzoni • Parts III and IV covered the logical agent approach to AI –

16

Combinare diverse regole (2) 

•  Let CFR1(C) be the current CF for C.  •  Let CFR2(C) be the CF for C resul6ng from a new rule.  

•  The new CF is calculated as follows:  –  CFR1(C) + CFR2(C) ‐ CFR1(C) * CFR2(C) when CFR1(C) and CFR2(C) are both posi6ve –  CFR1(C) + CFR2(C) + CFR1(C) * CFR2(C) when CFR1(C) and CFR2(C) are both nega6ve –  [CFR1(C) + CFR2(C)]/[1 ‐ min(|CFR1(C)|, |CFR2(C)|)] when CFR1(C) and CFR2(C) are of opposite sign 

Esempi 

•  if Fumatore then PressioneAlta (0.7) •  if A[vitàFisica then PressioneAlta (‐0.6) 

– Assume CF(Fumatore) = 0.8 

–  CFR1(PressioneAlta)= 0.8*0.7 = 0.56 – Assume CF(A[vitàFisica) = 0.7 –  CFR2(PressioneAlta)= ‐0.6*0.7= ‐0.42 –  CF(PressioneAlta)= (0,56‐0,42)/(1‐0,42) =0,24  

Page 17: Recovered File 1...1 Modelli computazionali III anno – CdL in Informaca Lezioni 10‐12 dicembre 2008 Sara Manzoni • Parts III and IV covered the logical agent approach to AI –

17

•  Teoria della probabilità:  –  Degree of belief (grado di credenza) –  una proposizione è sempre o vera o falsa  

–  es: P[H2O] = 0.8: si ha una probabilità del 20% di avere un altro liquido (qualunque) 

•  Logica fuzzy:  –  Degree of truth (grado di verità) –  ogni proposizione è caraferizzata da un grado di verità –  es: T(H2O) = 0.8: il liquido è ‘simile’ al modello dell’acqua per l’80% 

Degree of belief and degree of true •  Probability theory makes the same ontological commitment as logic: facts 

either do or do not hold in the world  sentence itself is either true or false –  Probability of 0 for a given sentence    unequivocal belief that the sentence is false –  Probability of 1      unequivocal belief that the sentence is true –  Probabili6es between 0 and 1    intermediate degrees of belief in the truth of 

         the sentence 

•  Degree of truth, as opposed to degree of belief, is the subject of fuzzy logic 

Prob.(H2O) = 0.80 

DT(H2O) = 0.80 

Page 18: Recovered File 1...1 Modelli computazionali III anno – CdL in Informaca Lezioni 10‐12 dicembre 2008 Sara Manzoni • Parts III and IV covered the logical agent approach to AI –

18

Fuzzy sets e logica fuzzy •  Logica tradizionale permefe di associare ad un'affermazione due possibili valori di verità 

•  La logica fuzzy è una teoria matema6ca che semplifica la ges6one di espressioni vaghe (espressioni di cui non è possibile stabilire il valore di verità in modo preciso) 

•  Es. 1 Sapendo che (altezza Luisa 175) è una proposizione vera  posso affermare che “Luisa è alta”?  Possibile soluzione per eliminare l'ambigiità del termine  una persona si definisce alta quando la sua altezza è maggiore di 170 cm 

•  Es. 2 Se si stabilisce un limite nefo tra la dimensione di un mucchio di sabbia e quella di un non‐mucchio, ci si troverà nella situazione che una trasformazione quan6ta6va minima produrrà una trasformazione qualita6va di carafere rilevante  possibile soluzione per eliminare l’ambiguità:   si considera “ques6 granelli di sabbia formano un mucchio” come funzione che associa ad ogni insieme di granelli di sabbia un valore numerico tanto maggiore quanto più fortemente si crede nella verità della frase (e.g. numero di granelli che formano il mucchio) 

Insiemi classici vs fuzzy 

Page 19: Recovered File 1...1 Modelli computazionali III anno – CdL in Informaca Lezioni 10‐12 dicembre 2008 Sara Manzoni • Parts III and IV covered the logical agent approach to AI –

19

Logica fuzzy 

•  Logica mul6valore: Variabili aven6 valori compresi fra 0 ed 1 

•  Devono essere opportunamente defini6  –  operatori logici –  regole di inferenza coeren6 con gli operatori defini6 

•  var •  proposizione:              ? •  Def: •  Def: •  Si ha che: •  Se invece:                            ? 

A∨B = Max(A,B)

Insiemi classici vs fuzzy (2) 

velocità

Gra

do d

i ver

ità

0 220

0

1

veloce lento

veloce (insieme tradizionale)

lento

Page 20: Recovered File 1...1 Modelli computazionali III anno – CdL in Informaca Lezioni 10‐12 dicembre 2008 Sara Manzoni • Parts III and IV covered the logical agent approach to AI –

20

Insiemi fuzzy e negazione 

velocità

Gra

do d

i ver

ità

0 220

0

1

velocità media

non di velocità media

Modificatori linguis6ci 

velocità

Gra

do d

i ver

ità

0 220

0

1 veloce

molto lento

molto veloce

lento

poco lento


Recommended