Barrierefreiheit

26. Juli 2010 13:06; Akt: 26.07.2010 13:52 Print

«Smartphones sind das Fenster zur Welt»

von Henning Steier - Google leistet sich ein eigenes Team, das Handys und Webanwendungen behindertenfreundlich macht. Im Gespräch mit 20 Minuten Online erklärt Leiter T.V. Raman, wieso alle Anwender davon profitieren.

storybild

T.V. Raman leitet Googles Team, das sich um Barrierefreiheit kümmert.

Zum Thema
Fehler gesehen?

Ob Text- statt Audio-Captchas oder Logout-Buttons, die von Sprachsteuerungssoftware falsch analysiert und somit nicht vorgelesen werden: Hindernisse für Blinde findet man schnell im Internet. T. V. Raman leitet ein Team bei Google, das sich um barrierefreie Technologien kümmert. Dabei geht es nicht nur um die Suchmaschine. Die Betriebssysteme Android und Chrome OS sind mindestens genauso wichtige Arbeitsfelder für den gebürtigen Inder, der mit 14 an Grünem Star erkrankte und seitdem blind ist.

Nach Stationen bei IBM und Adobe arbeitet er seit 2005 für Google in Mountain View. Kürzlich hat das Unternehmen von Ramans Team entwickelte Browsererweiterungen wie ChromeVis und Keyboard Navigation vorgestellt. Dank ihnen sollen Behinderte leichter surfen können, indem sie beispielsweise Textstellen beliebig vergrössern und ohne Maus auskommen.

20 Minuten Online: Google ist keine Wohltätigkeitsorganisation, sondern ein börsennotiertes Unternehmen. Warum leistet es sich Ihre Forschungen?
T.V. Raman: Weil gewisse Nutzer diese Dienste beanspruchen und wir dadurch Leuten mit Behinderungen den Zugang zum Internet ermöglichen möchten. Andererseits hat die Forschung den Effekt, dass sie bestehende Anwendungen stabiler macht. Dabei setzen wir im mobilen Bereich auf unsere Plattform Android.

Was heisst das konkret?
Wer auf Barrierefreiheit achtet, kann auch Benutzeroberflächen für die Allgemeinheit verbessern. Wenn wir also Spracherkennung integrieren, muss diese möglichst schlank sein, aber auch Android selbst muss insgesamt dadurch nicht verlangsamt werden, was sich wiederum insgesamt positiv auf das Betriebssystem auswirkt. Aber auch nicht behinderte Nutzer profitieren von unseren Entwicklungen: Man denke nur an die Sprachsteuerung, welche von vielen während des Autofahrens genutzt wird. Die Entwicklung neuer Technologien führt oftmals auch zu etwas Anderem als geplant. Graham Bell hat an einem Hörgerät gearbeitet und dabei das Telefon entwickelt.

Könnten Sie noch ein Beispiel von Google liefern?
Seit dem Frühjahr werden automatischen Untertitel in Clips von YouTube integriert. Sie basieren auf von uns entwickelter Spracherkennungstechnologie. Angenehmer Nebeneffekt: Videos mit Untertiteln sind viel besser von unserer Suche zu finden, weil mehr Text in den Index aufgenommen werden kann. Man kann also beispielsweise nach Zitaten suchen.

Sie gelten als Vater der Sprachsteuerung von Googles freiem Betriebssystem Android. Gab es für Sie einen Auslöser, sich darum zu kümmern?
Als ich vor zwei Jahren begann, Android das Sprechen beizubringen, gab es schon kommerzielle Lösungen für geschlossene Systeme, die allerdings sehr teuer waren. Wir haben zunächst eine Open-Source-Engine namens eSpeak verwendet. Sie unterstützt zwar 40 Sprachen, die mitgelieferte Stimme klingt aber wie ein Roboter. Später haben wir die Stimme einer Zürcher Firma (Svox, Anmerkung der Redaktion) integriert, die viel besser klingt. Weil wir eine offene Schnittstelle angelegt haben, kann sie jede App auf dem Smartphone verwenden. So wurde sie beispielsweise in unsere Navigation integriert. Wer noch besser klingende Stimmen haben möchte, kann sich welche für jeweils einige Dollar im Android Market kaufen. Ich benutze zum Beispiel Loquendo. Wer eine sprachgesteuerte App für geschlossene Plattformen kauft, zahlt mehr und kann die Stimme nur für diese Anwendung verwenden.

Das alles reichte aber nicht, um das ganze Smartphone mit dem Anwender sprechen zu lassen.

Wer beispielsweise scrollt, startet viele Prozesse auf dem Gerät. Wir haben ein Benachrichtigungssystem entwickelt, das der Software mitteilt, dass sich etwas geändert hat: Der User hat einen Button angeklickt, es hat sich ein neues Fenster geöffnet und so weiter. Diese Informationen werden an ein Open-Source-Tool namens TalkBack übertragen, einen Screenreader für Blinde, der dann per Sprache ausgibt, was gerade auf dem Bildschirm geschieht - zum Beispiel, welche Schaltfläche man gerade in den Einstellungen ausgewählt hat. Seit September 2009 ist das alles Teil von Android ab Version 1.6. Dazu muss man in den Einstellungen die entsprechenden Häkchen setzen. Neben Sprachausgabe habe ich auch das taktile Feedback bei Berührung aktiviert und höre einen speziellen Ton, wenn ich in einem Menü eine Schaltfläche angeklickt habe. Das Smartphone ist mein Fenster zur Welt.

Warum kann dies nicht Ihr Notebook sein?
Notebooks haben Tastaturen, Smartphones auch. Beide haben ein Display, eine Kamera (Augen) sowie ein Mikrofon (Ohren). Viele Laptops haben aber kein GPS, die meisten Smartphones schon, das gilt auch für einen Beschleunigungssensor, welchen manche Notebooks haben, um die Festplatte auszuklinken, wenn das Gerät herunterfällt. Es ist schwierig, die Webcam eines Notebooks auf etwas zu richten, weil sie innen angebracht ist. Wer ein Notebook nutzt, muss viel klicken und tippen, weil der zwar weiss, was man tut, dies aber nicht immer in Beziehung zur Umwelt setzen kann. Das Smartphone hingegen schon – es kann beispielsweise auf den Standort bezogene Suchergebnisse liefern, in dem es die vom GPS-Modul ermittelten Koordinaten nutzt – zum Beispiel mit Google Places Directory. Wie erwähnt, geht es mir in meiner Arbeit nicht nur um Blinde. Wir wollen auch die Bedienungsfreundlichkeit unserer Produkte für vollkommen Gesunde verbessern. Um einen Touchscreen zu nutzen, muss man ihn anschauen – sollte man meinen.

Sollte man – stimmt.
Ich habe eine Wählfunktion entwickelt, bei der dies nicht nötig ist. Warum soll ich wissen müssen, wo die Buttons sind? Man bewegt seinen Finger also auf irgendeine Stelle des Bildschirms und das Gerät sagt eine Zahl. Anstatt den Finger das Tastenfeld finden zu lassen, lässt man es den Finger entdecken. Um also eine Sechs zu wählen, bewegt man den Finger von der Fünf einfach nach rechts und klickt. Und natürlich wird einem gesagt, welche Zahl man gewählt hat. Funktionen wie diese sollte man aber nicht immer wieder aktivieren müssen. Vieles, was Google entwickelt, ist cloudbasiert. Es geht also darum, viele Nutzereinstellungen in die Wolke auszulagern. Wenn ich also ein neues Smartphone kaufe und mich mit meinen Google-Account anmelde, wird es mit mir sprechen, weil es meine Einstellung kennt.

Noch praktischer wäre es doch, wenn beispielsweise sie und ihre Frau ein Gerät mit verschienen Accounts nutzen könnten.
Das ist richtig, aber leider noch nicht möglich. Seit Android 2.1 (Eclair) kann ein Anwender immerhin mehrere Accounts im E-Mail-Programm benutzen.

Welche Wünsche haben Sie noch an Ihr Smartphone?
Mein Hund weiss, dass ich um meistens um 17:00 Uhr das Büro verlasse und zur Haltestelle gehe, mein Smartphone nicht. Mein Smartphone kann das nicht. In der Zukunft wird Personalisierung immer wichtiger: Das Gerät kann mir sagen, ob ein Bus in drei Minuten kommt oder ob ich noch zehn Minuten Zeit für einen Kaffee habe.

Wenn aber ein solches Gerät gestohlen wird, hat der Dieb Einblick ins ganze Leben des Besitzers.
Auf jeder Ebene der Entwicklung von Applikationen muss man einen Kompromiss zwischen Sicherheit, Personalisierung und Privatsphäre finden. In puncto Sicherheit geht es darum, für jede Situation die richtige Art zu finden, wie man sein Gerät sperren kann. Biometrie ist hier sicher ein Ansatz. Im Hinblick auf die Personalisierung muss die Privatsphäre betrachtet werden. Wenn ich ins Internet gehe, möchte ich beispielsweise nicht, dass die Leute merken, dass ich blind bin. Die App sollte das aber erkennen und die Sprachausgabe starten – unabhängig davon, ob jemand blind ist oder einfach wegschaut. Das Gerät sollte zum Beispiel erkennen, ob ich gerade jogge und dann auf Sprachausgabe umschalten.

Wenn Ihnen in der Öffentlichkeit ihre SMS oder E-Mails vorgelesen werden, könnte das ein Sicherheitsrisiko sein.
Daher müssen Rechner entsprechend ausgestattet sein. Ein Kopfhörer wäre das Mindeste. Ich gehe davon aus, dass man auf öffentlichen Rechnern kaum Software für Blinde oder anderweitig Behinderte finden wird, weil sie sehr teuer ist.

Wie sieht es bei Googles Kerngeschäft, der Suche, mit Barrierefreiheit aus?
Wie in der realen Welt gilt auch hier: Je weniger man navigieren muss, um ans Ziel zu gelangen, desto besser. Deshalb gibt es zahlreiche entsprechende Funktionen in der Suche. Viele davon wurden aber nicht einmal im Hinblicke auf Blinde entwickelt. Wer zum Beispiel auf google.com eine Nummer für sein UPS-Paket hat, kann auf deren Seite gehen, einige Male klicken und dann sehen, wo das Paket ist. Man kann die Nummer aber auch direkt in unsere Suchmaske eintippen. Ähnlich funktioniert es mit Flugnummern. Das ist nicht nur für Blinde interessant. Sie müssen sich die Ergebnisse dann aber vorlesen lassen.

Dazu hat Apple seinen Rechnern eine kostenlose Voice-over-Funktion spendiert, Windows-Nutzer müssen für eine entsprechende Software zahlen. Warum bietet Google eine Basis-Version für Android-Smartpones gratis an?
Generell ist es unser Ziel, Kunden mit den Geräten zurechtkommen zu lassen, die sie gekauft haben. Android ist unsere Plattform – daher können wir eine Basisversion gratis anbieten. Und es wird weiterhin von Dritten schönere Stimmen gegen Geld geben. Wenn es keine guten Apps gibt, kauft niemand angenehmere Stimmen und umgekehrt. Wir schaffen also erst das Ecosystem, indem wir eine offene Sprachausgaben-API entwickelt haben: Jeder Entwickler kann alle Apps sprechen lassen und so neue Zielgruppen für bereits existierende Anwendungen erschliessen.