Difference between revisions of "Uni"

From GJ
Line 1: Line 1:
 
== Analogien ==
 
== Analogien ==
* [http://jaehnig.org/wiki/images/f/f9/Textgenerierung_mit_Analogien.pdf Textgenerierung mit Analogien], Hausarbeit zum Hauptseminar '''Textgenerierung''', Zusammenfassung:  
+
* [http://jaehnig.org/wiki/images/f/f9/Textgenerierung_mit_Analogien.pdf Textgenerierung mit Analogien], Hausarbeit zum Hauptseminar '''Textgenerierung''' bei Prof. Manfred Stede, Zusammenfassung:  
 
:''hacken'' verhält sich zu ''hackte'' wie ''backen'' zu ''backte'' - solche sprachlichen Analogien werde ich in dieser Arbeit beschreiben und formal definieren.
 
:''hacken'' verhält sich zu ''hackte'' wie ''backen'' zu ''backte'' - solche sprachlichen Analogien werde ich in dieser Arbeit beschreiben und formal definieren.
  
Line 10: Line 10:
  
 
== Endliche Automaten und Semiringe ==
 
== Endliche Automaten und Semiringe ==
=== Hidden Markov Modelle ===
+
=== Hidden-Markov-Modelle ===
Mit Alexander Becker.
+
* [http://jaehnig.org/wiki/images/e/e2/Hidden-Markov-Modelle_als_Gewichtete_Endliche_Automaten.pdf Hidden-Markov-Modelle als Gewichtete Endliche Automaten], Hausarbeit in Co-Produktion mit Alexander Becker zum Hauptseminar '''Theorie semiringgewichteter Automaten''' bei Dr. Thomas Hanneforth, Zusammenfassung:
* [http://jaehnig.org/wiki/images/e/e2/Hidden-Markov-Modelle_als_Gewichtete_Endliche_Automaten.pdf Hidden-Markov-Modelle als Gewichtete Endliche Automaten], Hausarbeit zum Hauptseminar '''Theorie semiringgewichteter Automaten''', Zusammenfassung:
 
  
 
:Hidden-Markov-Modelle sind verbreitete stochastische Modelle, die Zufallsprozesse beschreiben. Sie verwenden dazu eigene Algorithmen wie den Forward- und den Viterbi-Algorithmus. Wir dokumentieren, wie Hidden-Markov-Modelle in Gewichtete Endliche Automaten und Transduktoren umgewandelt und wie Forward- und Viterbi-Algorithmus als Semiring dargestellt werden können. Abschließend betrachten wir einzelne nützliche Eigenschaften Gewichteter Endlicher Automaten: deren Determinisierbarkeit, die Epsilon-Entfernung und das Produkt zweier Automaten.
 
:Hidden-Markov-Modelle sind verbreitete stochastische Modelle, die Zufallsprozesse beschreiben. Sie verwenden dazu eigene Algorithmen wie den Forward- und den Viterbi-Algorithmus. Wir dokumentieren, wie Hidden-Markov-Modelle in Gewichtete Endliche Automaten und Transduktoren umgewandelt und wie Forward- und Viterbi-Algorithmus als Semiring dargestellt werden können. Abschließend betrachten wir einzelne nützliche Eigenschaften Gewichteter Endlicher Automaten: deren Determinisierbarkeit, die Epsilon-Entfernung und das Produkt zweier Automaten.
  
 
* [http://jaehnig.org/wiki/images/1/14/Hidden-Markov-Modelle_als_Gewichtete_Endliche_Automaten_%28Folien%29.pdf Hidden-Markov-Modelle als Gewichtete Endliche Automaten], Präsentations-Folien dazu.
 
* [http://jaehnig.org/wiki/images/1/14/Hidden-Markov-Modelle_als_Gewichtete_Endliche_Automaten_%28Folien%29.pdf Hidden-Markov-Modelle als Gewichtete Endliche Automaten], Präsentations-Folien dazu.
 +
 +
=== Longest Match ===
 +
* [http://jaehnig.org/wiki/images/5/5d/Longest_Match_mit_Gewichteten_und_Ungewichteten_Endlichen_Automaten.pdf Longest Match mit Gewichteten und Ungewichteten Endlichen Automaten], Hausarbeit in zum Hauptseminar '''Theorie und Anwendungen endlicher Automaten und Transduktoren''' bei Dr. Thomas Hanneforth, Zusammenfassung:
 +
 +
: Mehrdeutige Ersetzungsregeln können zu mehrdeutigen Ausgaben führen. Nicht immer ist das gewollt. In dieser Arbeit stelle ich 2 Ansätze von (Karttunen 1996) und (Hanneforth 2005) vor, die zunächst die Mehrdeutigkeiten einordnen und mehrere Operatoren zur Unterscheidung einführen und danach Lösungen mit Endlichen Automaten vorstellen, die eindeutige Ausgaben dieser mehrdeutigen Ersetzungsregeln erzwingen.
 +
 +
: Beide Algorithmen beschreibe ich ausführlich mit Beispielen und stelle auch deren Unterschiede heraus, die sich sehr auf Komplexität und damit Anwendbarkeit auswirken. Einen der Ansätze vereinfache ich leicht.
 +
 +
* [http://jaehnig.org/wiki/images/2/2b/Longest_Match_in_Directed_Replacement.pdf Longest Match in Directed Replacement.pdf], Präsentations-Folien dazu.

Revision as of 14:03, 13 October 2008

Analogien

hacken verhält sich zu hackte wie backen zu backte - solche sprachlichen Analogien werde ich in dieser Arbeit beschreiben und formal definieren.
Darauf aufbauend habe ich eine vorliegenden Textgenerator implementiert, der aus den gegebenen drei Phrasen eine vierte generiert, so dass eine Analogie entsteht. Diesen heuristischen Textgenerator werde ich ausführlich beschreiben sowie meine Verbesserungen vorstellen.
Schließlich zeige ich mit einigen generierten Wörtern und Sätzen, welche Art von Analogien im Deutschen existieren und was der Generator produzieren kann.

Endliche Automaten und Semiringe

Hidden-Markov-Modelle

Hidden-Markov-Modelle sind verbreitete stochastische Modelle, die Zufallsprozesse beschreiben. Sie verwenden dazu eigene Algorithmen wie den Forward- und den Viterbi-Algorithmus. Wir dokumentieren, wie Hidden-Markov-Modelle in Gewichtete Endliche Automaten und Transduktoren umgewandelt und wie Forward- und Viterbi-Algorithmus als Semiring dargestellt werden können. Abschließend betrachten wir einzelne nützliche Eigenschaften Gewichteter Endlicher Automaten: deren Determinisierbarkeit, die Epsilon-Entfernung und das Produkt zweier Automaten.

Longest Match

Mehrdeutige Ersetzungsregeln können zu mehrdeutigen Ausgaben führen. Nicht immer ist das gewollt. In dieser Arbeit stelle ich 2 Ansätze von (Karttunen 1996) und (Hanneforth 2005) vor, die zunächst die Mehrdeutigkeiten einordnen und mehrere Operatoren zur Unterscheidung einführen und danach Lösungen mit Endlichen Automaten vorstellen, die eindeutige Ausgaben dieser mehrdeutigen Ersetzungsregeln erzwingen.
Beide Algorithmen beschreibe ich ausführlich mit Beispielen und stelle auch deren Unterschiede heraus, die sich sehr auf Komplexität und damit Anwendbarkeit auswirken. Einen der Ansätze vereinfache ich leicht.