22.09.2020

EML Speech Technology ist Partner im Forschungsprojekt „AdaptAR“

Handbücher, die mehr wissen: Dank Augmented Reality und digitalem Zwilling zu besserer und kostengünstigerer Produktdokumentation Jeder kennt sie: Anleitungen und Handbücher, die nicht die Erwartungen und Bedürfnisse ihrer Nutzer erfüllen. Entweder fehlen wichtige Informationen oder nachträgliche Änderungen konnten vom Hersteller nicht mehr in der gedruckten Gebrauchsanweisung berücksichtigt werden. Zudem benötigen die Anwender je nach ihrem technischen Wissen unterschiedlich aufbereitete Angaben. Die Folge: Vielen Anwendern sind komplexe Handbücher ein Graus, da sie nicht in der Lage sind, die passenden Antworten auf konkrete Fragen zu einem Produkt zu finden

Im vom BMBF (Bundesministerium für Bildung und Forschung) geförderten Projekt „AdaptAR" entwickelt ein Konsortium von zwölf Partnern unter Führung des Fraunhofer-Instituts für Produktionstechnologie IPT ein Augmented-Reality-System, das den bisher hohen Aufwand zur Erstellung technischer Handlungsanweisungen um rund 70 Prozent verringern und die Anleitungen nutzerfreundlicher machen soll.

»Im Servicefall müssen unsere Techniker bisher oft weit reisen, um zum Einsatzort zu kommen. Individuell zugeschnittene Anweisungen und Remote-Service-Angebote würden sehr viel Zeit sparen«, beschreibt Pia Gausemeier vom Projektpartner Miele den Nutzen des Projekts „AdaptAR".

Zu jedem Produkt wird ein digitaler Zwilling bereitgestellt, der alle zugehörigen Auftrags-, Produkt-, Prozess- und Ressourcendaten in einer lokalen Datenbank zusammenführt. Dieser Zwilling wird während der Nutzung des Produkts mit weiteren Daten aus verbundenen IT-Systemen angereichert. So umfasst das System stets alle wichtigen Informationen zum Produkt und kann dem Anwender die jeweils zu seinem Produkt passenden Handlungsanweisungen anbieten. Ausgestattet mit Smart Glasses oder einem Tablet kann dieser sich nun direkt am Einsatzort Schritt für Schritt zu einer individuellen Lösung seines Problems leiten lassen.

EML Speech Technology wird im Rahmen des Projekts eine leistungsfähige Komponente zur automatischen Spracherkennung für das industrielle Umfeld entwickeln und integrieren. Neben einer hohen Erkennungsgenauigkeit wird diese echtzeitfähig sein. Die im Projekt anvisierten Anwendungsszenarien zeichnen sich durch eine schwierige akustische Umgebung, die Verwendung von Spezialvokabularen, und eine erforderliche Mehrsprachigkeit der Anwendung aus. Diese Aspekte werden bislang in kommerziell erhältlichen Spracherkennungssystemen nur unzureichend berücksichtigt und werden wie folgt adressiert:

• Entwicklung online-fähiger Algorithmen zur robusten Sprachdetektion (Voice Activity Detection), die eine Anpassung an die akustischen Gegebenheiten im industriellen Umfeld (z.B. hoher Geräuschpegel, geringe Übertragungs-Bandbreite, nicht-stationäre Störgeräusche) ermöglichen.
• Einsatz neuester Techniken aus dem Bereich der End-to-End-Modellierung mit tiefen neuronalen Algorithmen und Vergleich mit herkömmlichen Deep-Learning basierten Ansätzen zur multilingualen Spracherkennung.
• Anpassung von Vokabular und Sprachmodell des eingesetzten Spracherkenners an die im Verbundvorhaben spezifizierten Use-Cases.

Auch Arbeitnehmerrechte und Datenschutz spielen im Projekt eine wichtige Rolle. Aus diesem Grund arbeiten die Partner eng mit der Rechtsanwaltskanzlei reuschlaw Legal Consultants sowie Vertretern der IG Metall zusammen, die sowohl Datenschutz, Datensicherheit und Produkthaftung als auch Ergonomie und Akzeptanz der neuen technologischen Angebote prüfen.

Die Projektlaufzeit ist vom 1.6.2020 bis 31.05.2023.

Projektpartner:

• Fraunhofer-Institut für Produktionstechnologie IPT, Aachen
• EML Speech Technology GmbH, Heidelberg
• Werkzeugmaschinenlabor WZL der RWTH Aachen, Aachen
• Aixtron SE, Herzogenrath
• DEGUMA-SCHÜTZ GmbH, Geisa
• Fionec GmbH, Aachen
• Linguatec Sprachtechnologien GmbH, München
• Miele & Cie. KG, Gütersloh
• Inform GmbH, Aachen
• Oculavis GmbH, Aachen
• reuschlaw Legal Consultants, Berlin
• IG Metall, Frankfurt am Main
• DigitalHUB Aachen

Mehr Info zum Forschungsprojekt „AdaptAR"

Bekanntmachung des BMBF