Avatare & Co Mehr digitale Teilhabe durch Künstliche Intelligenz?
Ein kurzer Befehl und schon ist das Bad in romantisches Licht getaucht, eine einfache Anfrage und schon hält man das richtige Zugticket in der Hand, ein knapper Befehl und schon steuert das Auto selbstfahrend von München nach Berlin, - das alles ohne nerviges Tippen – und in DGS. Es ist die Vision einer modernen, digitalen Welt mit künstlicher Intelligenz auch für gehörlose Menschen. Kann das Wirklichkeit werden?
Ob Sprachassistenten, Chatbots oder Avatare: Die Digitalisierung unserer Gesellschaft ist in vollem Gange und durch neue gesetzliche Vorgaben steigt der Druck auf Politik, Verwaltung, Wirtschaft und Gesellschaft, auch in der digitalen Welt Barrieren abzubauen.
Barrierefreiheit per Gesetz
Ab 2025 müssen digitale Produkte und Dienstleistungen, die europaweit angeboten werden, barrierefrei sein. Das regelt das Barrierefreiheitsstärkungsgesetz. Und so muss Deutschland für mehr Barrierefreiheit auch im digitalen Bereich sorgen. Gerade im Bereich "Smart Home" ist die Barrierefreiheit noch nicht gewährleistet. Und nicht nur da.
"Unsere Forderung ist tatsächlich, Barrierefreiheit umfassend umzusetzen und alle Bereiche zu erfassen. Das ist jetzt leider in dem neuen Gesetz auch noch nicht passiert. […] Also, es sind sehr viele Punkte, wo man ganz zaghaft nur ein Minimum an Forderungen von der Europäischen Richtlinie umgesetzt hat. Und unsere Forderung ist natürlich umfassende Barrierefreiheit. Dazu hat sich auch Deutschland verpflichtet." Dr. Sabine Bernot, wissenschaftliche Mitarbeiterin im Institut für Menschenrechte
Einige Modellprojekte tüfteln deshalb dazu an unterschiedlichen Lösungen, die alle eines gemeinsam haben: Sie versuchen, Künstliche Intelligenz zu nutzen. Sehen statt Hören hat sich umgesehen.
AVASAG
An der Technischen Hochschule (TH) in Köln versucht man im Projekt AVASAG (Avatar-basierter Sprachassistent zur automatisierten Gebärdenübersetzung) Gebärdensprache und Künstliche Intelligenz zusammenzubringen: Hier wird ein Gebärdensprach-Avatar entwickelt, der in DGS antworten können soll – und das in Echtzeit. AVASAG ist spezialisiert auf den Bereich Reiseinformation und –service mit Schwerpunkt Verkehr und Tourismus.
Eine besondere Rolle in diesem Projekt nimmt die taube Gebärdendolmetscherin Sonja Wecker ein. Sie füttert sozusagen die künstliche Intelligenz mit Gebärden – dazu trägt sie einen Anzug, der über Kontaktpunkte ihre Bewegungen in 3D abtastet und in einer Datenbank speichert. So lernt der Avatar von Sonja eine Gebärde nach der anderen. Der Avatar muss aber auch die Systematik hinter der Gebärdensprache erkennen lernen – genauso wie jemand, der DGS lernt. Nur dann läuft später alles automatisiert ab.
Noch steht die Truppe ganz am Anfang, bislang wurden 50 verschiedene Gebärden eingespielt. Viele Tausende sollen und müssen es noch werden. Der Leiter des Projekts und Geschäftsführer von Charamel, Alexander Stricker, ist der erste, der die Gebärden-Community in ein Avatar-Projekt involviert. Neu ist auch, dass die Künstliche Intelligenz bei ihm eine Art Übersetzungs-Tool ist: Es übersetzt Informationen und Texte in Echtzeit in Gebärden.
Ein Beispiel, in dem der Avatar helfen soll: Ein Zug hat fünf Minuten Verspätung und kommt an einem anderen Gleis an. Diese Information kann nicht als vorgefertigter Satz in einem System gespeichert sein. Die Information muss also live übersetzt werden. Genau das soll der Avatar des Projekts mit dem Namen AVASAG können. In einen Dialog treten – also Fragen beantworten – das wird er aber wohl nicht können. Noch nicht. Aber im Rahmen eines Folgeprojektes soll auch eine Gestenerkennung miteingebaut werden.
Das AVASAG-Projekt besteht aus sechs Partnern aus den Bereichen Hochschule, Forschung und Industrie, gefördert ist es vom Forschungsministerium des Bundes.
https://avasag.de
Sehen statt Hören-Moderatorin Iris darf dabei sein, als der Avatar eine neue Gebärde lernt und seinem Gesicht Mimik einprogrammiert wird. Sonja ist immer mit von der Partie, ist den Programmieren gegenüber immer sehr kritisch und achtet auf die wichtigen Kleinigkeiten. Denn erst, wenn Sonja zufrieden ist, können sich die Entwickler sicher sein, dass die Gehörlosen-Community den Avatar am Ende auch annimmt. Nach einem Jahr Forschung ist das AVASAG-Projekt auf einem guten Weg – vollständig zufrieden ist hier aber noch niemand. Und eines ist zumindest für Sonja klar: Einen Dolmetscher vollständig ersetzen wird der Avatar sicher niemals können.
Signers Mask
Am Kompetenzzentrum für Gebärdensprache und Gestik – SignGes - der RWTH Aachen, forschen Experten an einer anderen Künstlichen-Intelligenz-Lösung. Diese soll helfen, Gebärdensprachnutzer im Internet und in den Sozialen Medien zu anonymisieren – mit Hilfe einer virtuellen Maske, der "Signers Mask". Der Grund ist: Auf Facebook, Instagram oder Youtube können Hörende anonym Texte posten. Gehörlose benutzen aber ungern Text, sondern posten lieber Videos. Doch anonym ging das bisher nicht. Mit diesem Projekt soll das möglich werden. Anwenden kann man die Signers Mask nicht nur in den Sozialen Medien oder in Online-Flirt-Börsen: Absolut hilfreich ist das Programm auch in der Therapie, beispielsweise nach Gewalterfahrungen oder Missbrauch.
Doch noch gibt es ein größeres Problem zu lösen: Auch wenn das Gesicht von einer Maske verdeckt ist, so ist der Gebärdensprachler häufig noch an seinen Händen oder an Stil und Ausführung seiner Gebärden zu erkennen. Der nächste Schritt ist es also, die Maske vom Gesicht aus zu erweitern: zumindest die Haare und die Hände sollen künftig bedeckt sein.
"Wir bedecken ja bisher nur das Gesicht, und da ist es eben problematisch, wenn man daran, wie man die Arme bewegt, wie man den Kopf bewegt, noch erkennen kann, wer das ist. Weil die Community auch sehr klein ist […] man könnte überlegen, dass man […] nicht einfach nur bedeckt, was passiert, sondern ein Programm erschafft, das versteht, […] was gesagt werden will und das dann in einem uniformen Stil repräsentiert. Der immer gleich ist, egal, wer das ursprüngliche Video gedreht hat."
Andrik Kleine, Informatikstudent
Noch steckt das Projekt in den Kinderschuhen, die Gruppe hat erst vor kurzem damit begonnen. Die Software ist erweiterbar, die Künstliche Intelligenz benötigt noch viele Daten, die Maske muss verfeinert werden. Ein fernes Ziel ist es, dass der Nutzer zwischen verschiedenen Masken wählen kann. Anzuwenden ist das Programm jedenfalls simpel: Es wird auf den Computer geladen und das Video, das anonymisiert werden soll, einfach eingespielt.