Dr. Jan Blüher
Stichworte
Ich bin vollständig erblindet, es ist wirklich nichts Verwertbares mehr da.
Ich nähere mich dem Thema Inklusion aus einer technischen Richtung.
Ich habe angefangen, Apps für Blindenbüchereien in Hamburg, Leipzig und Berlin zu entwickeln.
Das iPhone ist nicht nur durch Blinde bedienbar, sondern es ist noch besser als ein normales Tastentelefon.
Wir wollen Inklusion als Modell, als Vision.
Inklusion ist ein Konzept, was praktisch nicht funktionieren kann.
Ich bin in Leipzig zur Schule gegangen und hatte angefangen, Physik zu studieren. In der Zeit zwischen 1995 und 1997 bin ich allerdings blind geworden. Ich bin vollständig erblindet, es ist wirklich nichts Verwertbares mehr da. Die erste Konsequenz war, dass ich das Studium in Leipzig abgebrochen habe und nach Dresden gegangen bin, um Informatik zu studieren. Denn in Dresden gab es die Arbeitsgruppe von Prof. Wünschmann. Dort war bestimmte Technik vorhanden und es gab studentische Hilfskräfte, die die Lehrmaterialien bearbeiteten. Das war damals etwas Besonderes.
Das Studium war nicht total ‚easy‘, aber es war eine gute Entscheidung, wenn man die Situation bedenkt, in der ich mich nach der Erblindung befand. Ich musste mich komplett neu orientieren. Der Computer ist ein Werkzeug, mit dem man arbeiten kann. Ich musste vor allem den Umgang mit der Braillezeile und das Mobiltraining lernen.
Der große Neuanfang kam dann tatsächlich mit dem iPhone, das 2007 auf den Markt kam. Apple installierte 2009 einen Screenreader auf dem iPhone. Die waren damit wirklich die Ersten. Später ging es durch die Presse: Das iPhone ist nicht nur durch Blinde bedienbar, sondern es ist noch besser als ein normales Tastentelefon. Warum? Bei einem Tastentelefon muss ich mir immer merken, welche Taste ich nutze. Wenn ich bei dem iPhone auf eine Taste tippe, dann sagt mir die Taste, was sie ist. Ich muss mich nicht immer erinnern, wo was ist. Ich kann quasi draufschauen und agieren, so wie ein Sehender das auch macht.
2011 bin ich auf die Softwareentwicklung umgestiegen. Und seitdem gibt es die Firma „VisorApps“. Die Idee war, dass das iPhone der Visor ist, durch den man die Welt sehen kann, wenn man nicht mit den Augen sehen kann. Unternehmerisch weitergebracht hat mich die App-Entwicklung für Dritte.
Inklusion ist ein Konzept, was praktisch nicht funktionieren kann. Wichtig am Inklusionsgedanken ist aber natürlich, dass man versuchen muss, so zu denken, dass man es für alle machen kann. Da kommt auch die Gesellschaft ins Spiel. Es ist wichtig, dass man sagt: „Wir wollen Inklusion als Modell, als Vision.“ Auch wenn man, so wie ich, denkt, dass man das nicht erreicht. Den letzten Schritt muss man am Ende selbst überbrücken.
Interview geführt am: 09. April 2019
Ich heiße Jan Blüher und komme aus der Gegend von Leipzig. Ich bin dort zur Schule gegangen und hatte angefangen, Physik zu studieren. In der Zeit zwischen 1995 und 1997 bin ich allerdings blind geworden. Ich bin vollständig erblindet, es ist wirklich nichts Verwertbares mehr da. Die erste Konsequenz war, dass ich das Studium in Leipzig abgebrochen habe und nach Dresden gegangen bin, um Informatik zu studieren. Denn in Dresden gab es die Arbeitsgruppe von Prof. Wünschmann. Dort war eine bestimmte Technik vorhanden und es gab studentische Hilfskräfte, die die Lehrmaterialien bearbeiteten. Das war damals etwas Besonderes. Selbst heute ist das keine Selbstverständlichkeit. Die Arbeitsgruppe um Prof. Wünschmann stellte sozusagen die Infrastruktur zur Verfügung, so dass ich vom Physikstudium auf das Informatikstudium umgeschwenkt habe.
Für mich war die Informatik viel einfacher. Ich hatte zweimal angefangen Physik zu studieren und immer kamen mir die Probleme mit den Augen dazwischen, die Operationen und das ganze Drumherum. Und während ich für Physik schon ordentlich lernen musste, fand ich die Informatik echt entspannter.
Das Studium war nicht total ‚easy‘, aber es war eine gute Entscheidung, wenn man die Situation bedenkt, in der ich mich nach der Erblindung befand. Ich musste mich komplett neu orientieren. Der Computer ist ein Werkzeug, mit dem man arbeiten kann. Auch damals war der Beruf des Programmierers ein fast klassischer Blindenberuf. Insofern war es eine gute Möglichkeit für mich, und ich denke, es hat sich im Nachhinein auch als richtig erwiesen. Auch wenn es ein bisschen aus der Not geboren war.
Ich musste vor allem den Umgang mit der Braillezeile und das Mobiltraining lernen. Als ich nach Dresden gezogen bin, habe ich angefangen, mit Braillezeile zu studieren.
Rein kognitiv kann man Braillezeile in einer halben Stunde lernen, weil das System ganz einfach ist, gerade, wenn man auch noch eine informatische Ader hat. Im klassischen Braille gibt es sechs Punkte, also 64 Kombinationsmöglichkeiten. Bei Computerbraille gibt es acht Punkte, da sind dann 256 Kombinationsmöglichkeiten. Das ist alles nicht weiter wild. Was ein bisschen Zeit braucht, ist das Anlernen der Finger. Die nötige Sensibilität zu entwickeln hat bei mir, mit relativ viel Üben, etwa ein bis zwei Monate gedauert. Am Anfang musste ich nach 10 Minuten eine Pause machen, weil ich überreizt war. Es kribbelte in den Fingern. Mit der Zeit wurde es aber immer besser. Ich habe ein halbes Jahr, nachdem ich blind geworden bin, mit dem Studium angefangen. Das war relativ schnell. Aber es ging, ich bin ganz gut klargekommen.
Nachdem ich Studium und Diplom erfolgreich abgeschlossen hatte, wusste ich eigentlich gar nicht, was ich machen soll. Über Prof. Stoschek bin ich an die Werkstoffwissenschaft herangekommen, um zu promovieren. Dort habe ich sozusagen zwischen Werkstoffwissenschaft und Informatik ein bisschen Bioinformatik gemacht. Es ging dabei um DNA-Nanostrukturen. Meine Aufgabe war es, einen Algorithmus zu programmieren, mit dem man bestimmte Strukturen unter Verwendungen von zu bestimmenden Sequenzen erzeugen konnte. Natürlich mussten dafür noch ein paar Randbedingungen erfüllt werden. All das konnte mein Algorithmus einigermaßen effizient. Mit dieser Thematik habe ich promoviert. Danach bin ich noch eine Weile bei den Werkstoffwissenschaften geblieben.
Der große Neuanfang kam dann tatsächlich mit dem iPhone, das 2007 auf den Markt kam. Die Informatiker lächeln gern über die Apple-Geräte, sie nehmen lieber Linux. Ich habe damals auch alles komplett auf Linux gemacht. Weil das iPhone einen Touchscreen hatte. Damals war auch völlig klar, Touchscreens sind für Blinde nicht bedienbar. Dann installierte Apple 2009 aber einen Screenreader auf seinem iPhone. Die waren damit wirklich die Ersten. Und im Grunde aus dem Nichts. So etwas gab es vorher überhaupt nicht. Apple hat das so gelöst: Wenn ich irgendwo auf den Bildschirm tippe, wird nicht eine Aktion ausgelöst, sondern ich bekomme erst einmal erzählt, worauf ich getippt habe. Dann muss ich durch eine Zusatzgeste, in diesem Fall ist es ein Doppel-Tipp, die Aktion auslösen. Darüber hatte ich irgendwann mal etwas gelesen und habe mir deshalb ein iPhone ausgeborgt.
Später ging es durch die Presse: Das iPhone ist nicht nur durch Blinde bedienbar, sondern es ist noch besser als ein normales Tastentelefon. Warum? Bei einem Tastentelefon muss ich mir immer merken, welche Taste ich nutze. Wenn ich bei dem iPhone auf eine Taste tippe, dann sagt mir die Taste, was sie ist. Ich muss mich nicht immer erinnern, wo was ist. Ich kann quasi draufschauen und agieren, so wie ein Sehender das auch macht. Und ich habe zusätzlich noch die 2D-Information auf dem Bildschirm. Die klassischen Screenreader auf dem Bildschirm lesen von oben links nach unten rechts. Ich muss alles durchgehen. Auf dem iPhone und natürlich auch auf dem iPad merke ich: Aha, die Taste ist unten rechts und ich kann gleich dorthin springen. Oder ich kann Beziehungen zwischen Objekten auf dem Bildschirm erkennen und ausnutzen. Es hat sich herausgestellt, dass das ein total tolles Interface ist.
Außerdem habe ich es immer dabei, in der Hosentasche, und es hat Internetanschluss. Das heißt, ich kann damit tolle Sachen machen, wie: Ich bin an der Haltestelle und kann schauen, wann der nächste Bus oder die nächste Straßenbahn kommt. Ich kann Routennavigation machen. Allerdings nur zu einem gewissen Grad. GPS wirft mich dann irgendwo ab, was ungefähr in der Nähe ist. Aber immerhin. Zum Beispiel in der Südvorstadt oder in Striesen, wo die Straßen schachbrettmusterartig angelegt sind, da steige ich aus dem Bus aus und sage zur Routennavigation: Bringe mich zur Adresse. Ich bin dann ein paar Meter entfernt von meinem Ziel und brauche nur noch jemanden fragen, wenn ich zu einer bestimmten Tür möchte.
Aber ich konnte plötzlich noch mehr. Ich konnte damit Zeitung lesen oder Bücher. Mit dem Apple iBooks- bzw. Bücher-Service konnte ich ganz einfach Bücher kaufen und sofort lesen, entweder mit der Braillezeile per Bluetooth gekoppelt, oder indem ich sie mir durch den Screenreader vorlesen ließ. Ich habe mir später ein iPad gekauft und fand die Möglichkeiten, die man hatte, so toll und bequem. Am Computer konnte man einiges davon auch machen. Natürlich konnte man auch schon vorher nachschauen, wann der Bus fährt. Aber ich musste es zu Hause machen, am Schreibtisch. Jetzt kann man es unterwegs machen oder was ja auch nett ist, auf der Couch. Das war toll! Und es wäre ja cool, wenn man damit noch mehr machen könnte.
Damals 2010 war noch alles am Anfang. Mein Vertrag an der Uni war zu Ende. Deswegen bin ich 2011 auf die Softwareentwicklung umgestiegen. Und seitdem gibt es die Firma „VisorApps“. Der Name kommt aus der Serie „Star Trek Raumschiff Enterprise“. Geordi La Forge trägt in der Serie einen Visor. Die Idee war, dass das iPhone der Visor ist, durch den man die Welt sehen kann, wenn man nicht mit den Augen sehen kann. Ich bekomme Informationen über die Welt durch das Smartphone. Die erste kleine App war ein Farbscanner namens „ColorVisor“. Er nimmt einfach das Kamerabild, wertet die Farben aus und sagt diese dann an. Für den Anfang war das eine relativ einfache Geschichte. Der RGB-Farbraum wurde in 1000 Bereiche eingeteilt und meine Frau hat sich hingesetzt und jedem Bereich einen Namen gegeben. Es gibt Blinde, die können sich Farben vorstellen, weil sie sie gesehen haben. Es gibt Blinde, die das nicht können und die das nicht interessiert. Es gibt aber auch Blinde, die keine Vorstellung haben, die es aber wissen wollen. Es gibt solche und solche. Und dann noch die anderen.
Die App wurde ganz gut angenommen. Aber ich habe ganz schnell festgestellt, dass man allein von dem Verkauf dieser App nicht leben kann. Diese goldene Zeit, in der man mit allem, was man in den App-Store gestellt hat, richtig Geld verdienen konnte, war schon vorbei. Ich habe anschließend ein Spiel programmiert, das nannte sich „Mouseclick“. Auf dem Bildschirm hatte man einen Käse und aus den Löchern kamen Mäuse raus. Diese musste man dann zurück tippen. Wenn man das nicht in einer gewissen Zeit schaffte, hatte man verloren. Die Mäuse machen ein Geräusch. An dem Geräusch kann man erkennen, wo die Position der Maus ist. Man kann es also sowohl blind als auch optisch spielen. Das war nett und chic, aber hat noch weniger eingebracht.
Unternehmerisch weitergebracht hat mich die App-Entwicklung für Dritte. Ich habe angefangen, Apps für Blindenbüchereien in Hamburg, Leipzig und Berlin zu entwickeln. Dann habe ich für den Schweizer Blindenverband eine E-Kiosk-App erstellt, durch die man Texte von Schweizer Tageszeitungen lesen konnte. Ich habe irgendwann auch auf Android erweitert. Dafür habe ich einen Entwickler angestellt, der auch blind ist und der die Android-Schiene bedient. Es gibt viele Blinde, die Android Smartphones nutzen. Wenn man also eine App entwickelt, muss man sie immer für iOS-Geräte (iPhone, iPad) und für Android-Geräte anbieten.
2017 ging es weiter mit einer App für die „OSTRALE“ (Biennale für Zeitgenössische Kunst). Bei Ausstellungen gibt es bereits Audio-Guides. Aber man muss entweder genau auf das Ausstellungsobjekt zielen, damit es los geht oder man muss irgendwelche Nummern eintippen. Die Idee war deshalb: Wir nehmen das Smartphone der Besucher*innen, bzw. man verleiht Smartphones an die Besucher*innen. Wir hängen ein paar „Bluetooth iBeacons“ bzw. „Eddystones“ auf. Wenn der Besucher sich diesen nähert, dann bekommt er angezeigt, dass das Kunstwerk da ist und er kann die Audio Description starten. Wir haben also für die Ostrale, die damals noch im Ostragehege stattfand, die „AllSense“ App entwickelt. Die Umsetzung erfolgte so: Wir haben durch die Ausstellung eine rote Linie gezogen, an der der Besucher entlang laufen konnte. So wurde man an den Kunstwerken vorbei gelotst. Man konnte dieses Prinzip natürlich nicht bei allen Kunstwerken umsetzen. Durch die App konnte der Besucher eine Tour von 25 bis 30 Kunstwerken machen. Immer wenn man bis auf 2 Meter an ein Objekt herankam, sprang die App an und man hat die Informationen dazu bekommen. Die Bluetooth iBeacons sind aber nur Sender.
Für die OSTRALE 2019 habe ich eine kleine Box entwickelt, die auch sagen kann, was es für ein Objekt ist. Die rote Linie war eine verwinkelte Linie. Das hat es kompliziert und teuer gemacht. Die Idee war, dass wir das Leitsystem weniger verwinkelt anlegen. Wenn man auf der roten Linie ist, sieht man zum Beispiel auf dem Smartphone, dass rechts ein Objekt ist und 4 Meter weiter drüben meldet sich ein anderes Kunstwerk, indem es sagt, was es ist. Dann kann ich dahin gehen und später wieder zurück zur Linie und weiterlaufen. Vorher ist man durch die Ausstellung gegangen und wusste nicht genau, wo das Kunstwerk ist. Jetzt kann man sich besser orientieren. Das Konzept haben wir auch noch für ein anderes Projekt genommen. Das nennt sich „Inklusion im Blick“. Das ist eine Kunstausstellung, wo zum großen Teil Fotos aus einem Film gezeigt werden. In dem Film geht es um ‚Contergan-Kinder‘, die heute natürlich schon erwachsen sind. Die Ausstellung wurde im Dezember 2018 im Erfurter Landtag gezeigt, im Februar 2019 in Eisenach und danach in Gera. Bei der Ausstellung wird dasselbe Konzept mit den Bluetooth iBeacons genutzt. In der App kann man ganz viele Informationen speichern. Die App ist ein perfektes Instrument für Inklusion. Wir haben nicht nur die Audiodeskription enthalten, sondern wir haben auch Gebärdensprachvideos und leichte Sprache integriert. Der Nutzer kann zwischen der gewöhnlichen Beschreibung zu den Kunstwerken und der Beschreibung in leichter Sprache und den Gebärdenvideos umschalten. Häufig hängt es aber heute noch an der Internetanbindung. Man kann leider nicht davon ausgehen, dass überall Netz ist. Deshalb liefern wir die Daten einfach mit.
Inklusion ist ein Konzept, was praktisch nicht funktionieren kann. Für Inklusion gibt es dieses Bild von der Gesellschaft, in der alle zusammen sind. Das sehe ich nicht so. Das wird es nicht geben. Man wird nicht mit einer Lösung immer alles, jedes Bedürfnis, erschlagen können. Deshalb geht Inklusion in der letzten Konsequenz nicht. Es kann immer einer um die Ecke kommen und sagen: Aber ich brauche es anders.
Aber ich denke, wenn man gerade solche technischen Lösungen nutzt, wie wir es gerade besprochen haben, kommt man zu einem guten Stand. Es ist heutzutage technologisch möglich, Informationen anzubieten für ganz viele unterschiedliche Bedürfnisse. Ich nähere mich dem Thema Inklusion aus einer technischen Richtung. Ich sage, wenn man Inklusion einigermaßen flächendeckend umsetzen will, kommt man nicht drum herum, technische Lösungen dafür zu finden. Diese Lösungen müssen es erlauben. Schnell und einigermaßen preisgünstig, die Sachen, die gebraucht werden, anzubieten. Ich habe einen Vortrag in der Operette gehalten, den ich „Das goldene Zeitalter der Blindheit“ genannt habe. Weil wir heute durch gesellschaftliche und technische Entwicklungen so viele Wege haben, die einem offen stehen. Man kann sich mit so vielem beschäftigen. Man kann so viele Informationen erhalten. Das ist gerade eine sehr interessante Zeit.
Wichtig am Inklusionsgedanken ist aber natürlich, dass man versuchen muss, so zu denken, dass man es für alle machen kann. Da kommt auch die Gesellschaft ins Spiel. Es ist entscheiden, dass theoretisch doch jeder und jede alles machen kann. Obwohl klar ist, dass zum Beispiel ich kein Flugzeug fliegen kann. Früher wäre ich gerne Pilot geworden. Was man aber trotzdem braucht, ist die Grundeinstellung: Da kommt einer, der ist behindert, will irgendetwas machen, geht das vielleicht, bekommt man es vielleicht hin. Weil man am Anfang vielleicht nicht weiß, ob es geht oder ob es nicht geht. Das ist die gesellschaftliche Änderung, die sich vollzogen hat. Wo in den 60ern noch völlig klar war, die ‚Krüppel‘ und die Blinden gehören ins Heim, die können vielleicht einen Korb flechten oder einen Besen machen. Wo wir dagegen heutzutage andere Beispiele haben: Da gehen Blinde auf den Mount Everest, und ein Rollstuhlfahrer umfährt die ganze Welt. Oder eine Stufe tiefer: Leute machen normale Jobs, so wie ich, entwickeln Apps. Da hat sich schon etwas geändert, so dass es heute in vielen Bereichen heißt: „Die Behinderten können auch was. Schauen wir mal. Lassen wir sie mal machen.“ In vielen Bereichen muss auch ein bisschen Geld dafür ausgegeben werden.
Damals gab es in den USA Gesetze, die besagten, dass Computer für Schulen und Universitäten barrierefrei sein müssen, auch für Blinde. Wenn es diese Gesetze nicht gegeben hätte, dann hätte Apple den Screenreader nicht entwickelt und wahrscheinlich auch das iPhone nicht damit ausgestattet. So mussten sie sich damit beschäftigen und haben es gut gemacht. Sie haben Diversität zu ihrer Firmen-Philosophie gemacht, unabhängig von Behinderung.
Deswegen ist es wichtig, dass man sagt: „Wir wollen Inklusion als Modell, als Vision.“ Auch wenn man, so wie ich, denkt, dass man das nicht erreicht. Den letzten Schritt muss man am Ende selbst überbrücken.
Link zur Website von VisorApps: https://visorapps.com/
Interview geführt am: 09. April 2019
Hallo!
Ich bin Dr. Jan Blüher aus Dresden.
Ich bin in Leipzig zur Schule gegangen.
Danach habe ich angefangen, Physik zu studieren.
Das spricht man so aus: Füsik.
Im Fach Physik geht es um die Natur-Gesetze.
Zum Beispiel um die Frage:
Wie schnell fällt ein Apfel vom Baum?
Leider bin ich während des Studiums blind geworden.
Das ist langsam passiert.
In den Jahren 1995 bis 1997.
Ich habe immer schlechter gesehen.
Bis ich am Ende gar nichts mehr gesehen habe.
Ich habe dann mein Physik-Studium abgebrochen.
Und ich bin nach Dresden gegangen.
Dort habe ich ein Informatik-Studium angefangen.
Im Fach Informatik geht es um Computer.
In Dresden gab es die Arbeits-Gruppe von Professor Wünschmann.
Dort gab es besondere Technik.
So dass auch blinde Menschen studieren konnten.
Außerdem gab es studentische Hilfs-Kräfte.
Sie haben mich unterstützt.
Das war damals etwas Besonderes.
Das Studium war nicht super einfach.
Aber es war eine gute Entscheidung.
Meine Situation nach dem Blind-Werden war nicht einfach.
Ich musste mich komplett neu orientieren.
Mit dem Computer kann man auch als blinder Mensch arbeiten.
Ich habe dann die Blinden-Schrift gelernt.
Der große Neu-Anfang kam dann mit dem iPhone.
Es kam im Jahr 2007 auf den Markt.
Im Jahr 2009 hatte das iPhone auch einen Screen-Reader.
Das spricht man so aus:
Skrien Rieda.
Der Screen-Reader liest den Text vor.
Das iPhone war damit wirklich das 1. Smart-Phone mit diesem Dienst.
Blinde Menschen können das iPhone bedienen.
Und es ist besser als ein normales Tasten-Telefon.
Warum?
Wenn ich beim iPhone auf eine Taste tippe:
Dann sagt mir die Taste, was sie ist.
Ich kann das iPhone wie ein Sehender benutzen.
Im Jahr 2011 bin ich auf die Software-Entwicklung umgestiegen.
Software bedeutet Programme für den Computer.
Ich habe die Firma Visor Apps gegründet.
Wir machen Programme für blinde Menschen.
Die Idee war:
Durch das iPhone können blinde Menschen die Welt sehen.
Was ich über Inklusion denke?
Inklusion ist nicht überall möglich.
Aber der Inklusions-Gedanke ist wichtig:
Inklusion soll das Ziel sein.
Auch wenn Inklusion in Wirklichkeit nicht erreicht werden kann.
Das Gespräch war am 09. April 2019.
Dr. Jan Blüher
Kurztext in Gebärdensprache (das Video besitzt keinen Ton und keinen Untertitel):
Dr. Jan Blüher
Bildbeschreibung und Einsprache des Kurztextes: