Oliver Dietze
Sprachtechnologie

Computerlinguisten verbessern Assistenzsystem für Fluglotsen

Von ihren Entscheidungen hängen Menschenleben ab, ihre psychische Belastung ist enorm. Zwischen 3,5 bis 11,3 Sekunden dauert im Durchschnitt ein Funkkontakt, währenddessen Fluglotsen dem Piloten zuhören, den Radarschirm überprüfen und neue Anweisungen geben. Assistenzsysteme sollen sie dabei unterstützen. Jedoch fehlt diesen die Fähigkeit, die ausgetauschten Kurzsätze zu verstehen und zu verarbeiten. Computerlinguisten an der Universität des Saarlandes haben nun mit dem Deutschen Zentrum für Luft- und Raumfahrt (DLR) ein System entwickelt, das zuhört und mitdenkt.
Von Gordon Bolduan • 10.03.2017

Fluglotsen sind dafür verantwortlich, dass sich Flugzeuge weder in der Luft noch auf Rollwegen und Pisten zu nahekommen. Ihr wichtigstes Hilfsmittel ist dabei das Radar. Per Funk ortet es die Positionen der Flugzeuge und misst ihre Abstände zueinander. Das „Assistenzsystem zur Planung“ schlägt dem Fluglotsen eine optimale Reihenfolge der Flugzeuge für den jeweiligen Luftraum vor. Dieser Vorschlag basiert auf den Radardaten, über Sprechfunk setzt der Lotse dann die Staffelung mit den einzelnen Piloten um. Von diesem schnellen, abgehackten Dialog zwischen Lotse und Pilot war das Assistenzsystem bisher ausgeschlossen. Das verminderte die Qualität der maschinellen Vorschläge, was sich besonders in Gefahrensituationen als brisant erwies.

„Desto stressiger der Moment ist, desto weniger kann man auf das Assistenzsystem setzen“, bringt es Youssef Oualil auf den Punkt. Oualil forscht an der Fachrichtung Sprachwissenschaft und Sprachtechnologie der Universität des Saarlandes. Zusammen mit seinen Kollegen Marc Schulder, Dietrich Klakow, Professor für Sprach- und Signalverarbeitung der Saar-Uni, und Hartmut Helmke vom Deutschen Zentrum für Luft- und Raumfahrt (DLR) hat Youssef Oualil ein Softwaresystem namens „AcListant“ entwickelt, das nicht nur dem sprechenden Fluglotsen Gehör schenkt, sondern auch für ihn mitdenkt.

Oliver Dietze

Die Lotsen kommen damit viel besser mit Schnellsprechern und den verschiedenen Akzenten unter den Piloten zurecht

Professor Dietrich Klakow

Die Forscher muten es den Lotsen nicht zu, die gesprochenen Kommandos per Tastatur oder Computermaus nachzutragen, sondern setzen auf automatische Spracherkennung. Diese allein hilft jedoch auch nicht. Um zu verhindern, dass von der Spracherkennung unsinnige Befehle erkannt werden, lassen die Forscher sie das Wissen des Assistenzsystems miteinbeziehen. So werden dem Fluglotsen nur Kommandos vorschlagen, die zur aktuellen Situation passen. Dazu filtert das System zuerst die minimale Menge an Informationsstücken heraus, die für die Befehle tatsächlich relevant sind. „Damit fliegt sprachliches Brimborium wie Guten Morgen oder Hello raus, Identifikationsnummern, Höhenangaben und Befehle bleiben drin“, erklärt Schulder.

 Zusätzlich macht das System eine Art Realitätscheck, indem es auch die Daten vom Radar miteinbezieht. Dazu werden aus den Radardaten Wortsequenzen generiert. Die herausgefilterten Informationsstücke, die den Wortsequenzen am meisten ähneln, werden dann an das Assistenzsystem weitergeleitet, damit es diese dem Fluglotsen als potenzielle Anweisungen für den Piloten vorschlägt.

Die Computerwissenschaftler haben ihren Prototypen bereits in verschiedenen Simulationen für einen Großflughafen am DLR-Forschungsflughafen in Braunschweig getestet. „Mit AcListant konnten wir nicht nur die Anzahl falscher Anweisungen im Vergleich zu weniger intelligenten Systemen um den Faktor Vier verringern, die Lotsen kommen auch viel besser mit Schnellsprechern und den verschiedenen Akzenten unter den Piloten zurecht“, berichtet Klakow. Das Deutsche Zentrum für Luft- und Raumfahrt versucht nun, die Kommerzialisierung des Systems voranzutreiben.

AcListant ist nicht das einzige Forschungsprojekt, dem sich Klakow und seine Kollegen widmen. Sie versuchen dem Computer beizubringen, in Zukunft auch nicht eindeutig formulierte Aussagen zu verstehen und sogar bei verwirrenden Ausdrücken wie „verdammt gut“ oder „ganz schön dumm“ die Stimmung zu erkennen. Des Weiteren sollen Menschen dem Computer intuitiv Fragen stellen können und auf eine Art und Weise Antworten erhalten, wie ein Mensch dies tut. Daher haben die Saarbrücker Forscher für das Computerspiel „Sonar Silence“ ein Programm entwickelt, das automatisch die Fragen der Spieler unterschiedlicher Nationalitäten versteht und das Wissen unter ihnen in der jeweiligen Sprache austauscht.

Die Kernelemente dieser Technologie lassen sich sowohl in der Medizin einsetzen, um etwa depressive Schübe frühzeitig zu erkennen und ihnen entgegenzuwirken, oder auch im Online-Handel, um Fragen von Kunden zu beantworten.  

Weitere Informationen: www.aclistant.de

Zwischen

3 und 11 Sekunden

dauert ein Funkkontakt.

Quellennachweis
  • Bilder
    Oliver Dietze

    Oliver Dietze