„Muss ich dir alles zweimal sagen?“
FAU-Wissenschaftler wollen das Hörvermögen humanoider Roboter verbessern
In Science Fiction-Filmen machen sie dem Menschen bereits seine Herrschaftsrolle streitig – in der Realität des 21. Jahrhunderts könnten sie es zumindest bis zum nützlichen Helfer bringen: Humanoide Roboter sollen zukünftig immer mehr Bereiche des Alltags erobern und dort dem Menschen Aufgaben abnehmen. In dem Projekt EARS arbeiten nun Wissenschaftler der FAU mit Kollegen aus Beersheva, Paris, London, Berlin und Grenoble daran Robotern das Hören beizubringen – auch wenn’s in der Umgebung laut ist. Für ihre Arbeit nehmen die Forscher einen kleinen humanoiden Roboter des französischen Herstellers Aldebaran Robotics namens NAO als Versuchsplattform und entwickeln neue Algorithmen, die ihm ein besseres Verstehen akustischer Signale ermöglichen. Die EU fördert das Projekt mit 3,52 Millionen Euro auf drei Jahre.
Sie haben Augen und Ohren und sehen und hören können sie natürlich auch: Kameras und Mikrophone an Kopf und Gliedern machen menschenähnliche Roboter heute schon erstaunlich aufnahmefähig. Doch um einen solchen kleinen künstlichen Gesellen in öffentlichen Räumen einsetzen zu können, zum Beispiel in einer Hotellobby, gilt es noch die eine oder andere technische Herausforderung zu bewältigen, damit eine reibungslose Kommunikation zwischen Mensch und Maschine stattfinden kann.
Zwar ist die automatische Spracherkennung heute schon weit entwickelt, doch einwandfrei funktioniert sie meist nur in ruhigen Umgebungen. In der Öffentlichkeit dagegen hindern akustische Störquellen die humanoiden Helfer oftmals daran, ihr Gegenüber richtig zu verstehen. In großen Räumen ist die Sprache eventuell „verhallt“, die Person zu weit entfernt, andere Stimmen beeinträchtigen das Signal, von Störquellen wie Maschinen oder Straßenlärm ganz zu schweigen.
Daher arbeiten die Forscher um Prof. Dr. Walter Kellermann am Lehrstuhl für Multimediakommunikation und Signalverarbeitung an der FAU, die das EU-Projekt koordinieren, an besseren Möglichkeiten, die akustischen Signale von Störungen zu befreien und die darin enthaltenen Sprachsignale zu erkennen. Beispielsweise wird der Roboter, wenn er spricht, auch seine eigene Sprache aufnehmen und zwar in der Regel lauter als die des menschlichen Gesprächspartners, die er erkennen soll. Diese Problematik lässt sich mit einer akustischen Echokompensation lösen. Der Roboter kann so sein eigenes gesprochenes Wort quasi herausfiltern. Auch soll der kleine NAO lernen, durch mehrere, an verschiedenen Stellen angebrachte Mikrophone, einzelne Sprecher zu lokalisieren und deren Worte unter mehreren Sprechern herauszuhören.
Auch wenn das Projekt vornehmlich akustische Signale ins Visier nimmt, wird auch an der Kombination der visuellen und auditiven Information mit der Motorik des Roboters geforscht. Denn auch die Gesichtserkennung der Gesprächspartner muss optimiert werden, so dass der humanoide Roboter einen Menschen lokalisieren kann, auch wenn er nicht spricht – etwa um denjenigen herauszufinden, der ihn angesprochen hat, und dem er nun – auch mit Gesten – antworten soll. Im Zuge des Projekts entwickeln die Wissenschaftler deshalb auch einen neuen Roboterkopf, so dass der Roboter besser hören und sehen, und damit besser verstehen und reagieren kann.
Was den möglichen Einsatz solcher Roboter angeht, sieht Prof. Kellermann großes Potenzial: „Sicher, ein Roboter wird noch lange keine Krankenschwester oder Hotelportier ersetzen können. Aber bereits mit Fähigkeiten wie dem Verstehen einfacher Handlungsanweisungen oder einer Beantwortung einfacher Fragen kann er beispielsweise im Foyer eines Hotels oder in einem Kaufhaus Auskunft geben. Auch als Begleiter im Haushalt älterer Menschen ließe er sich sinnvoll einsetzen.“ Am Wichtigsten aber ist für Prof. Kellermann, dass die erarbeiteten Algorithmen, die auf dem Roboter NAO entstehen, auch auf vielen weiteren Gebieten zum Einsatz kommen können.
„Natürlich geht es in dem Projekt zunächst auch darum, ein kommerzielles Produkt zu perfektionieren. Die übergeordnete Zielsetzung ist es aber, auf Dauer die wirtschaftliche Wettbewerbsposition der EU in diesem Wissenschaftsfeld weiter zu verbessern und den Markt für humanoide Roboter zu erweitern“, erklärt Herr Kellermann.
Das Project EARS (Embodied Audition for RobotS) läuft über drei Jahre. Die EU-Fördersumme von 3,52 Millionen Euro ermöglicht die Finanzierung von insgesamt zwölf Nachwuchswissenschaftlern an sechs Forschungseinrichtungen. Die Förderzusage erhielten die Wissenschaftler der FAU als Leiter eines Konsortiums mit der Ben Gurion Universität des Negev, Be’er Scheva (Israel), des Imperial College, London, der Humboldt Universität Berlin, INRIA Grenoble, und dem Industriepartner Aldebaran, S.A., Paris, im Wettbewerb mit rund 150 Vorschlägen verschiedener Forschungseinrichtungen aus Europa.
Weitere Informationen:
Dr. Heinrich Löllmann
Tel.: 09131/85-20173
loellmann@lnt.de