Digitale Assistenten – die Lizenz zu Spionage
Künstliche Intelligenz (KI) oder Artificial Intelligence (AI) ist das große Thema der heurigen ars electronica in Linz. Ihr Einsatz in vielen Gebieten inklusive der Kunst wird gezeigt. Zum Beispiel mit einem künstlich intelligentem Roboter, der aus losem Schotter Türme baut, wie am Bild zu sehen.

ars electronica 2017 – Automat baut Türme aus losem Schotter
KI wird aber auch immer mehr zum Bestandteil in den Digitalen Assistenten, wie etwa Google Assistant, Siri, Bixby, Alexa oder Cortana bei Geräten wie Smartphones, den intelligenten Heimlautsprechern und Computern. Gemeinsam ist diesen Assistenten, dass sie unsere Daten auf Servern in den USA und im Fall von Bixby in Korea abspeichern.
Gemeinsam ist ihnen auch, dass die Hersteller ihre Assistenten den Kunden massiv schmackhaft machen und fast aufzwingen. So hat Samsung mit dem Galaxy S8 eine eigene Taste für Bixby eingeführt und Google verlangt von den Smartphone Herstellern, dass mit einem langen Druck auf die Home Taste der Google Assistent aktiviert wird. Auch Apple und Microsoft pushen ihre Assistenten Siri und Cortana massiv mit ihren Produkten und Amazon hat mit den Echo Lautsprechern schon eine ziemliche Verbreitung von Alexa erreicht.
Die Frage ist, warum diese Monopolisten so massiv die Verbreitung ihrer auf KI basierenden Assistenten forcieren. Die Antwort ist natürlich, dass Kundendaten und Wissen über die User bares Geld wert sind. Google bietet auch die kostenlose Abspeicherung von Fotos an, denn die daraus gewinnbaren Informationen bringen mehr als der Speicherplatz kostet.
Digitale Assistenten stellen in ihrer derzeitigen Form einen krassen Einbruch in die Privatsphäre dar, die Unternehmen arbeiten abseits jeglicher demokratischer Kontrollen mit den Daten und geben sie auch völlig ungeniert weiter wie wir an Hand von Samsungs Bixby gezeigt haben.
Besonders heikel sind die massiv beworbenen Home-Lautsprecher wie Amazons Echo, Google Home, Apples HomePod und ähnlichem, die die ganze Familie belauschen können. Ein krasser Fall von Missbrauch ist bei der sprechenden Puppe namens “My Friend Cayla” bekannt geworden. Sie beantwortet Fragen und liest Geschichten vor – sie ist vernetzt und hat ein Mikrofon sowie Software zur Spracherkennung. Übertragen werden sämtliche Informationen an eine Drittfirma in den USA. Wie der Standard berichtet, wurde es von der deutschen Bundesnetzagentur als Spionagegerät eingestuft und muss zerstört werden, ansonsten drohen im schlimmsten Fall bis zu 25.000 Euro Strafe.
Mehr Kontrolle für Nutzerinnen und Nutzer
Grundsätzlich bieten alle diese Assistenten nützliche Funktionen an, sonst würden sie auch nicht verwendet. Es ist also ein unbestreitbarer Mehrwert vorhanden. Aber die permanente Datenübertragung muss natürlich nicht sein. Ein digitaler Assistent kann durchaus auch lokal arbeiten. So ermöglichen Google und Apple eingeschränkte Funktionen für den Fall, dass keine Verbindung besteht.
Im Sinne des Datenschutzes und des Schutzes der Privatsphäre, sollten die User die Möglichkeit haben, selbst zu bestimmen welche Daten und Anfragen an zentrale Server weitergereicht und welche lokal abgearbeitet werden. Hier muss die Politik handeln und als Kandidat auf der Liste Pilz setze ich mich dafür ein, dass die Hersteller dazu verpflichtet werden diese Entscheidung ihren Usern zu überlassen. Selbstverständlich reicht das nicht, das nur in Österreich zu verlangen, eine derartige Bestimmung muss auch auf EU-Ebene durchgesetzt werden.
Die Gefahren der KI
Wie Google bei seinen jährlichen I/O Entwicklerkonferenzen nicht müde wird zu betonen, macht die Entwicklung der KI immer schnellere Fortschritte – in den vergangenen drei Jahren etwa so viele wie in den 30 Jahren davor.
In jüngster Zeit häufen sich die Berichte darüber, dass sich die Vorgänge im Inneren der KI dem menschlichen Verständnis immer mehr entziehen. Diese Programme ziehen aus riesigen Datenmengen selbständig Schlüsse und kommen zu Entscheidungen. Auf welcher Grundlage diese aber entstehen, kann kein Mensch mehr nachvollziehen.
Forscher bei Facebook haben ein AI-System abgeschaltet, als sie realisierten, dass sich zwei Bots in einer Sprache „unterhielten“, die für uns nicht verständlich ist. „Bob“ und „Alice“ waren ursprünglich auf Englisch trainiert worden. Doch sie entwickelten mit der Zeit eine eigene Sprache.
Bekannt geworden ist auch das Problem mit dem Twitter-Bot von Microsoft. Als dieser nach einiger Zeit rassistische und rechtsextreme Nazisprüche zu klopfen begann, musste er recht rasch vom Netz genommen werden.
Über weitere Probleme mit KI hat mein Kollege Thomas Nasswetter in einem Blogbeitrag berichtet.