Language & Information Lab.

Lehraufträge


[home] [up] [previous]

Diskurs- und Dialoganalyse

WS 98/99, Uwe Reyle (Universität Stuttgart), Mo 14-16

Die semantische Analyse von Einzelsätzen baut auf einem klar definierten Begriff von Wohlgeformtheit auf. Sie beruht auf syntaktischen Analysen und ihre Korrektheit ist durch robuste Intuitionen festgelegt. Eine Wohlgeformtheitsbedingung für Texte und Dialoge hingegen kann weder auf einen etablierten Begriff von 'syntaktischer' Text- oder Dialogstruktur zurückgreifen, noch sind ähnlich robuste Intuitionen über mögliche Interpretationen vorhanden wie dies bei der Einzelsatzanalyse der Fall ist.

Im Seminar werden nach einem Überblick über die in der Computerlinguistik und Künstlichen Intelligenz existierenden einschlägigen Theorien der Diskurs- und Dialogsemantik Kohärenz- und Abgeschlossenheitsbedingungen für kurze Diskurse und Dialoge formuliert. Es wird untersucht, inwieweit Kohärenz über lexikalisch basierte Inferenzen abgeleitet werden kann oder aber als Folge einer Abgeschlossenheit eines Textstücks oder eines Teildialogs aufzufassen ist.

Einführung in die Verarbeitung gesprochener Sprache

SS 98, Do 14-16, Christoph Traber (ETH Zürich)

Ziel dieses Seminars ist die Einführung in die Grundlagen und heute gebräuchlichen Methoden der automatischen Verarbeitung gesprochener Sprache, speziell der Sprachsynthese (Erzeugung gesprochener Sprache ab Text oder Konzepten) und Spracherkennung (Erkennung natürlichsprachlicher Äusserungen). Da das Gebiet stark interdisziplinär ist, werden zuerst die nötigen Grundlagen aus digitaler Signalverarbeitung, Informatik, Phonetik und Phonologie zusammengetragen. Im zweiten Teil werden anhand der Sprachsynthese die wichtigsten linguistischen und informatischen Probleme beim Übergang von Text oder Konzepten zum Sprachsignal untersucht und mögliche Lösungen diskutiert (Erzeugung künstlicher Sprachsignale, morphologische und syntaktische Textanalyse, Generierung phonologischer Information, phonetisch-akustische Realisierung prosodischer Grössen, regelbasierte und statistische Verfahren). Als Fallbeispiel dient das Sprachsynthesesystem SVOX der ETH Zürich. Im dritten Teil werden die wichtigsten Probleme und Elemente der Spracherkennung (Extraktion relevanter Merkmale des Sprachsignals, Hidden-Markov-Modelle, Sprachmodellierung) behandelt. Die theoretischen Grundlagen werden anhand praktischer Übungen veranschaulicht und vertieft.

Corpusbasierte Methoden in der Sprachverarbeitung

WS 97/98, Di 10-12, Ulrich Heid (Universität Stuttgart)

Das Seminar gibt einen Überblick über corpusbasierte Methoden der Sprachverarbeitung und über hierzu für Deutsch, Französisch und Englisch (z.T. auch für andere Sprachen) verfügbare Werkzeuge und Verfahren. Den ersten Teil bildet eine breitangelegte Einführung. Sie geht aus von einer Begriffsbestimmung (was sind Corpora? Kriterien für Datensammlung; Corpora in Europa; historischer Abriss) und einem Überblick über Resultate corpuslinguistischer Verfahren und Arbeiten. In einem zweiten Teil werden Details der wichtigsten computerlinguistischen Verfahren und Methoden zur Corpusverarbeitung diskutiert (Architektur von Werkzeugen; Satzgrenzen-Erkennung; Wortklassen-Annotation; Lemmatisierung; Satzweises Alignment von Übersetzungen). Im dritten Teil stehen Werkzeuge zur Abfrage von Informationen aus Textcorpora im Vordergrund: Abfrage mit regulären Ausdrücken; Konkordanzsysteme. Hierbei wird praktischen Anwendungen von Corpusabfragewerkzeugen breiter Raum eingeräumt: Aufbau von Lexika der Verbsyntax für Deutsch und Englisch; Aufbau eines Lexikons der Funktionsverbgefüge für Deutsch; Extraktion von Fachterminologie aus Texten. Eine Materialsammlung (Folien, die im Seminar ergänzt werden, Literaturverweise, Daten, relevante Aufsätze) wird bereitgestellt. Einige Werkzeuge können online vorgeführt bzw. von den Studierenden benutzt werden. Zum Teil werden Hausaufgaben gestellt, die am Rechner bearbeitet werden können.

Algorithmische Semantik

SS 97, Uwe Reyle (Universität Stuttgart), Mo 14-16

Der Kurs soll in die Problematik des algorithmischen Aufbaus semantischer Repräsentationen einführen. Am Beispiel von VP-Ellipsen soll zunächst verdeutlicht werden, wie Diskursstruktur und Textkohärenz die Interpretation von elidierten Phrasen beeinflusst. Schwerpunkt sollen dabei intersententiale Beziehungen spielen, die sich durch pronominale und temporale Anaphorik, Präsuppositionsrechtfertigung sowie Topic- und Fokusstruktur manifestieren. Die algorithmische Verarbeitung von spezifisch lexikalischem und semantischem Wissen unter den durch Diskursstrukturierung gegebenen Interpretationsstrategien wird stark auf dem Einsatz deduktiver Verfahren beruhen.


[home] [up] [previous]

1-July-98 L&I Webmaster