© pixabay
Es kommt selten vor, dass die großen Techkonzerne vor dem Einsatz einer Technologie zurückschrecken, anstatt sie möglichst schnell für sich zu vereinnahmen. Deshalb ist die Story von ClearView AI umso überraschender. Im Mai wurde bekannt, dass das kleine Start-up aus New York eine Gesichtserkennungstechnologie anbietet, die Fotografien von Personen automatisch erkennt und ihnen die richtige Identität zuordnet. Mit mehr als drei Milliarden Bildern unter anderem aus sozialen Netzwerken gefüttert, wurde die künstliche Intelligenz bisher von Justizbehörden, aber allem Anschein nach auch Einkaufscentern, Sportligen oder Kasinos genutzt, um Personen zu identifizieren. Dabei soll die Technologie unter anderem dazu eingesetzt worden sein, bekannte Ladendiebe oder Betrüger automatisch mit Überwachungskameras zu erkennen.
Damit wird eine bislang noch geltende, moralische Grenze überschritten: Gesichtserkennungstechnologie ist nichts Neues, ihr Einsatz zur Massenüberwachung auf Grundlage öffentlich auffindbarer Fotos und als für jeden verfügbares Geschäftsmodell jedoch schon. Google oder Facebook halten auch heute noch Teile ihrer Software zurück, da sie möglicherweise missbraucht werden kann. Viele aufstrebende Firmen, wie etwa ClearView AI teilen diese Befürchtung jedoch anscheinend nicht.
Dabei ist Gesichtserkennungssoftware bei weitem noch nicht ausgereift. Selbst die führenden Algorithmen von Firmen wie IBM oder Microsoft haben eine hohe Fehlerquote. Während die Software weiße, männliche Gesichter noch mit 88 bis 94 prozentiger Sicherheit erkennen konnte, fielen diese Werte für Gesichter von People of Color und insbesondere bei Frauen dieser Gruppe auf 65 Prozent. Diese Ungenauigkeit, verbunden mit einer Datenbank von drei Milliarden Bildern ist im besten Falle problematisch, im schlimmsten Falle gefährlich. Ein Beispiel: 2019 wurde nach den Terroranschlägen in Sri Lanka das Bild einer jungen Frau veröffentlicht, die von einer Gesichtserkennungssoftware als Tatverdächtige klassifiziert wurde. Tatsächlich handelte es sich aber bei dieser Person um eine Bürgerin, die zum Zeitpunkt des Anschlags gar nicht im Land war, sondern an einer US-Universität ihre Abschlussexamina schrieb.
Neben der öffentlichen Empörung über ClearView AI reagierten auch die sozialen Netzwerke wie Twitter, Facebook oder LinkedIn, aus deren öffentlichen Profilen viele der Bilder stammten, mit Unterlassungserklärungen. Denn eigentlich ist laut deren Nutzungsbedingungen verboten, Bilder zu „scrapen“, also systematisch herunterzuladen, zu sammeln und weiterzuverarbeiten. Ob darauf noch weitere juristische Schritte folgen werden, bleibt zunächst offen.
Ganz abseits der Details dieses Falles offenbart das Beispiel ClearView, wie der technologische Fortschritt ethische, normative und gesellschaftliche Grenzen überschreitet, ohne dass die gesellschaftliche Debatte darüber mitkommt. Etwas, das gerade durch die rapiden Fortschritte der künstlichen Intelligenz in Zukunft immer öfter geschehen wird. Bisher war das Mantra im Valley immer „Lasst uns so schnell wie möglich das technisch Mögliche ausreizen, bevor es jemand anders macht. So können zumindest wir die Spielregeln festlegen.“ Aber vielleicht ist es nicht immer gut, Dinge zu tun, nur weil wir können – ohne zu fragen, ob wir sollen.
Mit diesem Ausblick beenden wie diese Ausgabe des Silicon Valley-Briefes. Sie stellt diesmal mehr Fragen, als dass sie Antworten gibt – in diesen Zeiten ist es vielleicht aber auch gar nicht schlecht, einen Schritt zurückzutreten und der Reflektion mehr Zeit einzuräumen.