Aktuelles
Themenabend AI – nicht all inclusive, sondern: Artificial Intelligence
Ein etwas anderer Themenabend
Leere Gänge, keine Menschenseele in den Braille Stuben, das Louis Braille Haus fast verwaist. Keine Menschen, die sich freudig begrüßen, kein Duft nach Kaffee und Frankfurter Würstel. Und das an einem Themenabend?
Ein bisschen frustrierend, denke ich mir, schnappe mein Handy, meine Kopfhörer und lasse mich in meinem Bürostuhl nieder. Denn heute veranstalten wir unseren ersten virtuellen Themenabend via Zoom. Wir, das sind Mag. Martin Tree, technischer Betreuer der Veranstaltung und ebenfalls in seinem Büro. Und ich, Mag. Marion Putzer-Schimack, bekannt als Organisatorin dieser Veranstaltungsreihe. Etwas nervös waren wir im Vorfeld schon: Wird alles gut klappen? Werden die Leute gut mit der Software zurechtkommen? Wird die Internetverbindung gut halten?
Nach und nach betreten die TeilnehmerInnen den virtuellen Veranstaltungssaal. Und plötzlich kommt eine heimelige Stimmung auf. Ich höre bekannte Stimmen, die sich freudig begrüßen. Und auf einmal finde ich es großartig, dass die Technik uns ermöglicht, einen Abend zusammen zu verbringen, obwohl jeder von uns an einem anderen Ort ist.
Schließlich, kurz nach 18 Uhr, meldet sich unser Referent zu Wort: Dr. Friedrich Neubarth vom Österreichischen Forschungsinstitut für Artificial Intelligence (OFAI).
AI oder KI (Künstliche Intelligenz) ist heute unser Thema, für dessen verständliche Aufbereitung zum Zwecke eines Nachberichtes wir niemand kompetenteren finden konnten als unseren Referenten selbst…Deshalb haben wir Herrn Dr. Neubarth gebeten, selbst einige Worte zu seinem Vortrag zu schreiben. Vielen Dank, lieber Friedrich für deinen interessanten Vortrag und die nachfolgende Zusammenfassung!
Dr. Friedrich Neubarth:
„Es war natürlich eine zusätzliche Ehre für mich, den ersten Online-Vortrag im virtuellen Louis Braille Haus zu halten, obwohl die Gründe dafür nicht erfreulich sind. Und ich war nicht nur zuversichtlich, sondern fest überzeugt, dass alles gut klappen wird. Es war nicht meine erste Präsentation über dieses neue Medium, aber als ich (natürlich etwas früher) in den virtuellen Raum eingelassen wurde, fand ich ein bestvorbereitetes Team vor... Dann kam aber doch die Überraschung, auf die schon hingewiesen wurde: der Raum bevölkerte sich mit Menschen, die sich gut kannten und Grüße austauschten.
Es war nicht mehr virtuell, es hat sich eine Gruppe von Menschen versammelt, online, um diesen Abend zu begehen, und ich war einer von ihnen. Dieses Gefühl war neu für mich, und es war sicher dem besonderen Rahmen geschuldet.
Es sollte um das Thema Artificial Intelligence gehen, und ich war eingeladen, meine Sichtweise davon zu präsentieren, und auch ein konkretes Beispiel zu geben, nämlich unser laufendes Projekt: LEGO-Instruktionen für blinde und sehbehinderte Menschen. Die beiden Themen laufen an unserem Institut zusammen, dem Österreichischen Forschungsinstitut für Artificial Intelligence, sind aber auch wieder nicht ganz so einfach zu verbinden.
Zu Beginn ging es darum, zu klären, was es mit Intelligenz im Kontext von "Artificial" – also Maschinen – auf sich hat. Eine eher weite Definition umfasst die Fähigkeit, auf Inputs von außen kontext-optimiert, also quasi verstehend, zu reagieren, und ein Output zu liefern, das diesem Kontext entspricht. Und damit würde man schon die Kiste der Pandora öffnen, denn alles was in dem vorigen Satz steht, eröffnet einen Rattenschwanz an Fragen, die auch schon die letzten Jahrzehnte intensiv, manchmal eher philosophisch, manchmal durchaus praxisbezogen diskutiert und weiterentwickelt wurden. Erwähnenswert ist jedoch, dass es Bereiche der AI gibt, die versuchen, menschliche Fähigkeiten "nachzuahmen", und andere, die eher das Potential von Maschinen in den Fokus stellen.
Ganz unbestreitbar, dass wir in einem Zeitalter leben, in dem Informationstechnologie, und als besonderer Bereich AI, nicht mehr aus dem Leben wegzudenken sind. Die Technologie entwickelt sich stetig, und es gilt, die Potentiale und Risiken permanent auszuloten. Beide wurden angesprochen. Ohne ins Detail gehen zu wollen, will ich hier nur das Beispiel der Modellierung erwähnen, weil es für die gängigen Machine-Learning-Technologien immanent ist: man braucht sehr viele Daten, und die gibt es (große Firmen haben und nutzen da ihren Vorsprung) – und man kann mit sehr effizienten statistischen Methoden aus diesen Daten Modelle gewinnen, mit denen man Vorhersagen treffen kann, Sprachen übersetzen, oder auch Chancen von Individuen, deren Profil man kennt, am Arbeitsmarkt ausrechnen.
Das mittlerweile erkannte Problem ist, dass man damit den status quo modelliert, mit allen Ungleichgewichtungen der Realität.
Der letzte Punkt würde ja bedeuten, dass wenn man sich in den USA als Frau, die aus einem sozial benachteiligten Viertel kommt, um einen Job bewirbt und von einem Algorithmus beurteilt wird, man viel geringere Chancen auf diesen Job zugesprochen bekommen wird. Und das ist Tatsache – selbst wenn man das Problem bereits erkannt hat. Mein Fazit dabei: Algorithmen können nur unterstützen und Daten durchforsten, man muss sie kontrollieren, und letztendlich Entscheidungen Menschen überlassen, die die Realität hoffentlich besser verstehen.
Der Bericht über unser LEGO-Projekt war nur als Einschub und Illustration gedacht, wurde aber dann doch zu einer längeren Geschichte, die ich hier in der Kürze nicht so einfach zusammenfassen kann. Es geht um verbale Beschreibungen dessen, was man sieht, wenn man die Bauanleitungen für LEGO Modelle vor sich hat. Wir haben es geschafft, dieses Projekt auf Schiene zu bekommen, auch wenn der Maßstab immer noch relativ klein ist. Die Ingredienzien dafür sind, dass wir die Beschreibungen, die Matthew Shifrin publiziert hat (er ist der eigentliche Initiator des Projekts), analysiert und in den einzelnen Komponenten und Details verstanden haben, sodass wir ausgehend von den LEGO-internen Daten (3D-Modell, alle Steine, Schritt-für-Schritt Bau-Instruktionen) einmal einen Teil der Instruktionen verbalisieren können. Den Rest machen dann wir oder die Leute bei LEGO: gar nicht so wenig, es geht darum, alles so zu beschreiben, dass man einerseits eindeutige Informationen bekommt, sich andererseits immer eine gute Anschauung darüber verschaffen kann, was man da gerade baut. Natürlich sprachlich: entweder Text per Screenreader, oder per Audio, oder nur Text für Braille.
Und dann gings ums Eigentliche – AI als Chance für blinde Menschen.
Ich habe dabei über einige bekannte Apps gesprochen und deren Komponenten wie auch Potentiale ausgelotet. Diese sind ja hinlänglich bekannt – in der Diskussion habe ich selber von den TeilnehmerInnen noch viele Details erfahren. Aber es ging mir darum, ein bisschen eine Systematik über die Technologien hineinzubringen: Text-to-Speech in allen Varianten, standortbezogene Informationen (im öffentlichen Raum), optische Erkennung (per Kamera, mittlerweile in jedem Mobiltelefon in unglaublicher Qualität vorhanden) und Bestimmung, also z.B. Gesichtserkennung, Pflanzenbestimmung etc.
Tagging ist auch ein Thema – man benennt einen Gegenstand und kann diese Benennung wieder aufrufen; das geht dann weiter zu einer AI-basierten Objekterkennung. Und zu all diesen maschinellen Fertigkeiten, deren Nutzen unbestreitbar ist, habe ich kritisch versucht, anzumerken, dass sich die Technologie von selbst in Richtung Companion (Begleiter) entwickelt – ein altes Thema der AI, aber noch lange nicht erfolgreich implementiert. Aus meiner Sicht liegt hier das größte Potential, aber es wird noch Jahre des Scheiterns bedürfen, um die Technologie soweit zu bringen, dass sie die Bedürfnisse das "anderen" versteht. Ob und wie wir das wollen?
Die anschließende Diskussion war wiederum beeindruckend für mich. Erstens hat der "Raum" noch lange bestanden, aber dann waren die Beiträge und Fragen gekennzeichnet von einem regen und höchst informierten Interesse, das ich in solch einer Form selten erleben durfte.“
Hiermit endet Dr. Neubarths Bericht.
Was die Diskussionen im Anschluss an unsere Themenabende betrifft, kann ich mich unserem Referenten nur anschließen. Sie zeichnen sich immer durch interessante Fragen und wertvolle Wortmeldungen durch das Publikum aus. Und offensichtlich funktioniert das auch online sehr gut.
Was online aber leider nicht möglich ist, ist das gesellige Beisammensein bei einer Suppe oder einem Kaffee nach der Veranstaltung. Ich verlasse das Meeting per Knopfdruck und sitze wieder alleine in meinem Büro. Es ist doch alles sehr eigenartig!
Das könnte Sie auch interessieren
„Ich habe einen starken inneren Willen entwickelt.“
Energie und Stärke strahlt Rebekka Gottwald aus, wenn sie von ihrer Arbeit, von ihren Erfolgen bei sportlichen Wettkämpfen, von ihren Studienplänen,…
„Ich lasse mich nicht unterkriegen.“
Klara Messner ist 25 Jahre alt, studiert Wirtschaftspsychologie und ist seit zehn Jahren blind.
„Es ist mein größter Traum, eine IT Ausbildung zu machen.“
Sagt Anel Waglechner. Der 25jährige Niederösterreicher ist seit seiner Geburt blind und zurzeit in der Caritas Werkstatt in Krems tätig. Dort haben…