+ All Categories
Home > Documents > Learning to Map between Ontologies on the Sematic Web

Learning to Map between Ontologies on the Sematic Web

Date post: 16-Jan-2016
Category:
Upload: dotty
View: 34 times
Download: 0 times
Share this document with a friend
Description:
Learning to Map between Ontologies on the Sematic Web. Seminar „ Data Mining“ SS 2005 Grigori Babitski 12.07.2005. Ontologie. ONTOLOGIE Beschreibt Wissen über eine Domäne indem Bedeutungen von Konzepten Beziehungen (Relationen) zw. Konzepten - PowerPoint PPT Presentation
Popular Tags:
37
Learning to Map Learning to Map between Ontologies on between Ontologies on the Sematic Web the Sematic Web Seminar „ Data Mining“ Seminar „ Data Mining“ SS 2005 SS 2005 Grigori Babitski Grigori Babitski 12.07.2005 12.07.2005
Transcript
Page 1: Learning to Map between Ontologies on the Sematic Web

Learning to Map between Learning to Map between Ontologies on the Sematic Web Ontologies on the Sematic Web

Seminar „ Data Mining“Seminar „ Data Mining“

SS 2005SS 2005

Grigori BabitskiGrigori Babitski

12.07.200512.07.2005

Page 2: Learning to Map between Ontologies on the Sematic Web

• Internet: Unmenge von Information

• Daten maschinell erfasst syntaktische Suche möglich

• Info-Gehalt maschinell erfasst semantische Suche möglich

ONTOLOGIEONTOLOGIE

Beschreibt Wissen über eine Domäne indem

-Bedeutungen von Konzepten

-Beziehungen (Relationen) zw. Konzepten

formal definiert und damit maschinell nutzbar macht.

Ontologie

Page 3: Learning to Map between Ontologies on the Sematic Web

Konzepte

Instanzen

Attribute

Relationen

• Spezialisierung / Generalisation

+

+

+

Zusätzl. Relationen

• Instanz – Instanz

• Konzept – Konzept

• Instanz - Konzept

Ontologie

+

geführt von

Taxonomie

= Fachgebiet

Ontologie: Begriffe

Page 4: Learning to Map between Ontologies on the Sematic Web

Semantische Suche

Nützlichkeit, einfaches und überzeugendes Beispiel:Nützlichkeit, einfaches und überzeugendes Beispiel:

Anfrage: „Exportproblem der Automobilindustrie in Ostasien“

Ergebnis: auch Dokumente mit „Thailand“ und „Ford“ oder „VW“

z.B. „Exportprobleme von VW in Thailand“

Page 5: Learning to Map between Ontologies on the Sematic Web

• Viele Ontologien in Web • ähnliche Domäne, aber unterschiedliche Terminologie

• überlappende Domänen

• Integration zur gemeinsamen Nutzung

• Semantische Korrespondenz zw. Elementen (Mapping-Problem)

Semantische Suche, Mapping

Page 6: Learning to Map between Ontologies on the Sematic Web

Aufgabenstellung

Geg. 2 Taxonomiebäume (mit Instanzen)

Finde für jeden Knoten (d.h. Konzept) einer Taxonomie den, Finde für jeden Knoten (d.h. Konzept) einer Taxonomie den, bzgl. vordefinierten Ähnlichkeitsmaßes, ähnlichsten Knoten bzgl. vordefinierten Ähnlichkeitsmaßes, ähnlichsten Knoten in anderer Taxonomiein anderer Taxonomie (1-1) Mapping

• Mapping zw. anderen, auch verschiedenen Ontologieelementen (Instanzen, Relationen, Attributen) möglich, aber

Taxonomie – zentrale Komponenete; Rest ergibt sich daraus

• Mapping zw. Mengen von Elementen möglich? Sinnvoll?

Mapping entscheidend für semantische Suche, sonst Babelturm

Page 7: Learning to Map between Ontologies on the Sematic Web

FuturesFutures

Probabilistische Ähnlichkeitsmaße

• Viele verschiedene verwendbar

Techniken des maschinellen Lernens

• Lernen aus verschiedenen Informationen

Instanzen

Taxonomische Struktur

Einbeziehung zusätzlichen Wissens

• Allgemeinwissen

Beziehungen, die generell in Taxonomien gelten

• Domänenabhängige Constrains

GLUE

Page 8: Learning to Map between Ontologies on the Sematic Web

• Konzept definiert als Menge

• Ähnlichkeit von 2 Konzepten definiert über irgendeinen Zusammenhang zw. den Mengen

• Beispiele der möglichen/sinnvollen Zusammenhänge – später

• Zusammenhang oft beschreibbar durch gemeinsame Verteilung

Vorüberlegung

Gemeinsame Wahrsch.-Verteilung der KonzepteGemeinsame Wahrsch.-Verteilung der Konzepte

P(A,B), P(P(A,B), P(A,B), P(A,A,B), P(A,B), P(B), P(A, A, B)B)

Wahrsch., dass eine Instanz in Konzept A, aber nicht in B liegt

Page 9: Learning to Map between Ontologies on the Sematic Web

Gegeben: Y Senior Lecturer

Problem: Y Assoc. Prof.?Ja P(Assoc.Prof, Senior Lecturer) relativ hoch

Faculty

Asst. Prof.

Assoc. Prof.

Prof. Dr.X

Acad. Staff

Lecturer Senior LecturerProf. Dr.Y

Vorüberlegung

1.1. Lerne Klassifikator für Lerne Klassifikator für Assoc. Prof.Assoc. Prof.

Als Tainingsdata Instanzen vonAls Tainingsdata Instanzen von Assoc.Prof. Assoc.Prof.

2.2. Klassifiziere damit Klassifiziere damit YY

Lösung:

Page 10: Learning to Map between Ontologies on the Sematic Web

GLUE: Architektur

Page 11: Learning to Map between Ontologies on the Sematic Web

Ähnlichkeitsmaß• Soll sein:

wohldefiniert

intuitiv nachvollziehbar, d.h. mit semantischem Hintergrund

• Keine Festlegung auf einen bestimmten Ähnlichkeitsmaß

soll möglich sein je nach Situation eine passende zu definieren

• Bsp.: Einfügen neuen Konzepts in Taxonomie

{1,2,3,4,5}

{2,3,4}

{3,4}

{2,4}

{2,5}

{3,5}

{1,4}

{2,3,5}

most-specific-parent

most-general-child

exact

3 Ähnlichkeits-

maße

Page 12: Learning to Map between Ontologies on the Sematic Web

Verteilungsbasierte Ähnlichkeitsmaße„exact“

A,B

A,B

A, B

P(A,B) + P(A,B) + P(A,B)

P(A,B)=

P(A B)

P(A B)Sim(A,B) =

[Jaccard, 1908]

Je stärker sich die Mengen (von Instanzen) schneiden, desto ähnlicher Konzepte

Page 13: Learning to Map between Ontologies on the Sematic Web

sonst

wenn

0

1A)|P(B B)|P(AB)MSP(A,

• P(Prof | Staff) < P(Prof | Acad Staff)

d.h., im Sinne von MSP Prof ähnlicher zu Acad Staf als zu Staff

Verteilungsbasierte Ähnlichkeitsmaße „most-specific-parent“

• P(Staff | Prof) = 1Academic Staff Technical

Professor SeniorLecturer

Lecturer

Staff

…• P(Acad Staff | Prof) = 1

• P(Tech Staff | Prof ) = 0

Beispiel: Sei A „Professor“. Welches B maximiert MSP(A,B)

Definition von „most-specific-child“ ähnlich

Page 14: Learning to Map between Ontologies on the Sematic Web

GLUE: Architektur

Page 15: Learning to Map between Ontologies on the Sematic Web

K

L

M

N G

H

F J

B

A

T1T1 T2T2

2U1U

A,B2UA,B

1U A,B P

liegen B und A in

die ,iT von Instanzen -B,AiU

• Betrachte Instanzen von T2T2 (also U2)

• Welche davon in B liegen – trivial

• Welche genügen A? Abschätzen!

• Benutze dafür maschinelles Lernen!

VerteilungsschätzerWollen: P(A,B) bestimmenWollen: P(A,B) bestimmen

Page 16: Learning to Map between Ontologies on the Sematic Web

VerteilungsschätzerWas macht Lerner?

Wollen Konzept „Professor“ lernenWollen Konzept „Professor“ lernen

1. Training:

• Eingabe:

Positive Instanzen/Beispiele (Professoren)

Negative Instanzen (keine Professoren)

• Internes „Zusammenrechnen“ der Merkmale

2. Test (Benutzung):

• Eingabe: Irgendeine Instanz

• Ausgabe: geschätzte Wahrsch., sie ist ein Professor Vergleiche Merkmale von Instanz mit gelernten Merkmalen von „Professor“

Es sei ein Lerner ist gegeben. Wie damit UiAB bestimmen?

Page 17: Learning to Map between Ontologies on the Sematic Web

Bestimmen von Bestimmen von UU22AB AB mit Lerner L:mit Lerner L:

1. Unterteile U1 in U1

A und U1A (pos./neg. Beispiele)

2. Trainiere damit L (= lerne Konzept A)

3. Unterteile U2 in U2

B und U2B

4. Benutze L um aus U2B U2

AB zu erhalten

2U1U

A,B2UA,B

1U A,B P

• Um U1AB zu erhalten vertausche: 12 und AB

• Um P(A,B) zu erhalten negiere in Formel und Algorithmus B

K

L

M

N G

H

F J

B

A

T1T1 T2T2

Verteilungsschätzer: Algorithmus

Page 18: Learning to Map between Ontologies on the Sematic Web

Content Learner• Lernt ein Konzept A

• Lernt aus Textinhalt der Instanzen:

„R.Cook, Ph.D., University of Sidney, Australia“

• Lernverfahren: Naive Bayes (passt besonders gut zu Lerninfo)

• Vorbereitung: parsing und stemming der Textinhalte

• Ergebnis: bag of tokens, also d ={w1,...,wk}

d – bag of tokens einer Instanz

wi – token dieser Instanz

• Eingabe: d einer beliebigen Instanz

• Ausgabe: P(A|d)

Page 19: Learning to Map between Ontologies on the Sematic Web

Bayes von Satz P(d)

P(A)A)|P(dd)|P(A

Normalisierungskonstante (auf 1); kann weggelassen werden

Wie oft solche token-Menge d vorkommt ist

unwichtig um zu entscheiden, ob sie zu A

gehört

Anteil der Trainingsinstanzen, die zu A gehören (wird im Vorfeld berechnet)

berechnet Training)(in Vorfeld im wird

A)|kP(wA)|2P(wA)|1P(wA)|P(dkw1wd

Wegen Annahme, wi

unabhängig won wj. (dann nach Def. P(wi,wj)=P(wi)P(wj) )

Naive Bayes

Annahme

naive, aber

funkzioniert

Page 20: Learning to Map between Ontologies on the Sematic Web

Name Learner

Name einer Instanz = ihr Name + Name der Konzepte bis zum Wurzel

Name von „R.Cook“:

„CS Dept US, People, Faculty, Associate Professor, R.Cook“

Lernen eines Konzepts aus anderer Information

full name statt content

Als Lernverfahren Naive Bayes (vermutlich)

Page 21: Learning to Map between Ontologies on the Sematic Web

Multi-Strategy Learning

• Viele Informationen aus denen man lernen kann

Inhalt, Name, Wortfrequenz, Format...

• Viele Lernverfahren (spezifisch, je nach Lerninfo)

• Lerne aus verschiedenen Informationen! (erhöht Qualität)

• Ergebnisse einzelner Lerner kombinieren. METALERNERMETALERNER

• Momentan: gewichtetes Vertrauen in einzelne Lerner (manuell)

Lerner1: Ja 0.8 Gewicht: 0.6 Ja 0.8*0.6+0.3*0.4=0.6

Lerner2: Ja 0.3 Gewicht: 0.4 Nein 0.2*0.6+0.7*0.4=0.4

• Besser: z.B. stackingstacking

Metalerner:

Page 22: Learning to Map between Ontologies on the Sematic Web

Stacking

Basislerner

Test-

Instanz1 2 3 korrekte

Klassifik.

1 + + + +

2 + – + –

3 – – + +

4 – – + –

1. Trainingsinstanzen in 2 Gruppen teilen

2. Mit 1. Gruppe Basislerner trainieren

3. Mit 2. Basislerner testen (Tabelle)

4. Z.B. Regellernverfahren anwenden

Metalerner:

2. Basislerner „ –“ 3. Basislerner „+“ „ –“

+: Basislerner sagt „ja“ mit Wahrsch. 0.5

Aus der Tabelle auch mit Naive Bayes Metalerner trainierbar!

Page 23: Learning to Map between Ontologies on the Sematic Web

ZwischenergebnisÄhnlichkeitsmatrix der Konzepte für einen gewählten Ahnlichkeitsmaß

.

.

.. .. .

.

..

A1

A2....

B1 B2 . . . .

Taxonomie 1Taxonomie 1

Taxonomie 2Taxonomie 2

Einträge zw.

0 und 1

Page 24: Learning to Map between Ontologies on the Sematic Web

GLUE: Architektur

Page 25: Learning to Map between Ontologies on the Sematic Web

• Unabhängig von der Domäne, z.B.

Two nodes match if their children also match

Constraints

• Domänenspezifisch, z.B.

If node Y is a descendant of node X, and Y matches PROFESSOR, then it is unlikely that X matches ASST-PROFESSOR

Asst-Prof.

Prof.

Page 26: Learning to Map between Ontologies on the Sematic Web

Modellierung der Constraints

Für je ein Constraint

f: ( ) [0,1]X,

X – Konzept, das man matchen (labeln) will

L

L – Kandidat für matching mit X

Δk,

Δk – Gesammtwissen über die Domäne (Taxanomiestruktur, Instanzen...) und Domain Constraints

MX,

MX – Bisheriges matching aller Konzepte außer X

Page 27: Learning to Map between Ontologies on the Sematic Web

Anwendung der Constraints

Wollen prüfen, ob X mit L gematcht werden kann/soll: P(X=L)

f1(MX,Δk,X,L)

f2(MX,Δk,X,L)

f3(MX,Δk,X,L)

...

Wert P(X=L)

+

+1

2

3

i – Gewichte der Constrains; wenn negativ, Constrain gegen matchen X mit Y

i positiv je höher fi desto höher P(X=L)

i negativ je höher fi desto niedriger (PX=L)

Page 28: Learning to Map between Ontologies on the Sematic Web

Modellierung der Constrains: Beispiele

Two nodes match if their children also match

f(MX,Δk,X,L) := % der X‘ Kinder, die (bei geg. MX) matchen Kind von L;

je höher, desto höher P(X=L), d.h positiv

If node L is a descendant of node X, and L matches PROFESSOR, then it is unlikely that X matches ASST-PROFESSOR

Asst-Prof.

Prof.

f(MX,Δk,X,ASST-PROFESSOR) :=1, wenn Nachfolger von X, der PROFESSOR ist, sonst 0; negativ, weil f=1 im Fall, der zu vermeiden ist

Page 29: Learning to Map between Ontologies on the Sematic Web

Sigmoidfunktion

xe1

1)x(

ifix :

0

1P(x)

0-5-10 5 10

...gewichtete Summe der Consraints in [0,1] bringen:

Page 30: Learning to Map between Ontologies on the Sematic Web

Relaxation Labeling• Allgemein:Allgemein: Den Knoten eines Graphs Labels zuzuweisen bei

gegebenen Constraints

• Idee:Idee: Label eines Knoten abhängig von Eigenschaften der Knoten in der Nachbarschaft (deren Labels, Erfüllen bestimmter Constraints...)

• In Anwendung hier:In Anwendung hier:

Knoten – Konzepte 1. Taxonomie

Labels – Konzepte 2. Taxonomie

Initialisierung der Labels: gemäß der Ähnlichkeitsmatrix (vermutlich)

Aktualisierung der Labels (ausgehend von aktualisierten Labels der Nachbarknoten) bis Kriterium fürs Ende erfüllt

• Brauchen:Brauchen: Formel zur Aktualisierung der Labels P(X=L|Δk)=...

Page 31: Learning to Map between Ontologies on the Sematic Web

Relaxation Labeling

X

X

MkXkX

MkXk

Δ|MPΔ,M|LXP

Δ|ML,XPΔ|LXP

Summiere über alle Rest-Matchings

Nach Def. bedingter Wahrsch.: P(A,B)=P(A|B)*P(B)

Xii MLX

kiikX Δ|LXPΔ|MP

Annahme: Labels von Rest-Matsching unabhängig voneinander Def. von Unabhängigkeit: P(A|B)=P(A)*P(B)

n1kX f,,f|LXPΔ,M|LXP MX,Δk – Alles Wissen ü. X‘ Nachbarn; P(X=L) abhängig nur von Constraints

nn11n1 fαfασf,,f|LXP Qualitativer Vergleich möglich!

XiiX MLXkii

n

1kkXkk

Mk Δ|LXPLX,,Δ,MfασΔ|LXP

Page 32: Learning to Map between Ontologies on the Sematic Web

Evaluierung

Page 33: Learning to Map between Ontologies on the Sematic Web

•Taxonomies on the web–University classes (UW and Cornell)–Companies (Yahoo and The Standard)

•For each taxonomy–Extracted data instances – course descriptions, and company profiles–Trivial data cleaning–100 – 300 concepts per taxonomy–3-4 depth of taxonomies–10-90 average data instances per concept

•Evaluation against manual mappings

Real World Experiments

Page 34: Learning to Map between Ontologies on the Sematic Web

Daten für die Experimente

Manual mappings – nicht alle Konzepte gematcht

Matching accuracy = #Knoten, korrekt gematcht von GLUE#manuell gematchte Knoten

GLUE nutzt nur 30-90 Instanzen pro Konzept, weil es reicht

Page 35: Learning to Map between Ontologies on the Sematic Web

0

10

20

30

40

50

60

70

80

90

100

Cornell to Wash. Wash. to Cornell Cornell to Wash. Wash. to Cornell Standard to Yahoo Yahoo to Standard

Ma

tch

ing

ac

cu

rac

y (

%)

Name Learner Content Learner Meta Learner Relaxation Labeler

University I University II Companies

Ergebnisse

Name Lerner schlecht, weil (volle) Konzeptnamen zu ähnlich (unspezifisch) Nützlichkeit von multi-strategy learning!

Page 36: Learning to Map between Ontologies on the Sematic Web

Relaxation Labeling Stoppkruterium

• Typisch: Genauigkeit steigt während weniger Iterationen am Anfang und dann sinkt

• Finde richtiges Stoppkriterium!

1. Mappings ändern sich nicht

2. Wahrscheinlichkeiten ändern sich nicht

3. #Iterationen

• Oft bei 2 und 3: Genauigkeit zuerst steigt und dann sinkt

• Bei 1: steigt höher, sinkt fast nie

• Folglich: GLUE benutzt 1

GLUE

Page 37: Learning to Map between Ontologies on the Sematic Web

• An automated solution to taxonomy matching– Handles multiple notions of similarity

– Exploits data instances and taxonomy structure

– Incorporates generic and domain-specific constraints

– Produces high accuracy results

• Future Work– More expressive models

– Complex Mappings

– Automated reasoning about mappings between models

Conclusions & Future Work


Recommended