Gesichtserkennung im Einzelhandel: britische Kundin fälschlich des Diebstahls bezichtigt
In Großbritannien wurde eine Frau in mehreren Supermärkten aufgrund eines Gesichtserkennungssystems fälschlich des Ladendiebstahls beschuldigt und aus den Filialen verwiesen. Der Vorfall wirft Fragen zum Einsatz solcher Technologien im Einzelhandel auf.
Eine britische Kundin aus der Region Greater Manchester erlebte kürzlich, wie ein moderner Sicherheitsmechanismus zu einer gravierenden Fehlinterpretation führte. Die Frau wurde in zwei Filialen der Supermarktkette Home Bargains beschuldigt, Toilettenpapier im Wert von rund zwölf Euro gestohlen zu haben – obwohl sie die Ware bezahlt hatte. Grundlage für die Anschuldigungen war das Gesichtserkennungssystem Facewatch, das in zahlreichen Geschäften Großbritanniens eingesetzt wird.
Das System soll laut Angaben des Unternehmens „einfach, sicher und konform mit UK-Gesetzen“ arbeiten. Sobald eine als „Person von Interesse“ eingestufte Person den Laden betritt, wird automatisch Alarm ausgelöst und das Personal informiert. Im Fall der betroffenen Frau führte dies jedoch zu einer Verwechslung: Sie wurde ohne konkreten Anlass als potenzielle Ladendiebin behandelt und mehrfach aufgefordert, die Geschäfte zu verlassen.
Die Betroffene berichtete gegenüber der BBC von ihrem Erlebnis: Beim ersten Vorfall Ende Mai dachte sie zunächst „es sei ein Scherz“, als sie vom Filialleiter angesprochen wurde. Kunden hätten sie an der Kasse misstrauisch angesehen, ohne dass ihr klar war warum. Wenige Tage später besuchte sie mit ihrer 81-jährigen Mutter eine weitere Filiale derselben Kette – dort umringten Mitarbeiterinnen und Mitarbeiter sie sofort nach Betreten des Geschäfts mit dem Hinweis: „Du musst den Laden verlassen.“ Erst nach mehreren E-Mails an Home Bargains sowie Facewatch konnte geklärt werden, dass es sich um einen Fehler handelte.
Bereits im Mai 2024 berichtete die BBC über einen ähnlichen Fall: Eine andere Kundin wollte lediglich Schokolade kaufen und wurde innerhalb weniger Minuten vom Personal als Diebin bezeichnet und zum Verlassen aufgefordert. Solche Vorfälle werfen erhebliche Zweifel an der Zuverlässigkeit automatisierter Überwachungssysteme auf.
Datenschutzbedenken und kritik am einsatz biometrischer systeme im handel
Derartige Fehlalarme führen nicht nur zu persönlichen Belastungen für Betroffene, sondern rufen auch Datenschutzorganisationen auf den Plan. Madeleine Stone von Big Brother Watch berichtet von mindestens 35 Fällen allein in Großbritannien, bei denen Menschen fälschlicherweise auf Überwachungslisten landeten oder öffentlich stigmatisiert wurden.
Stone kritisiert scharf: „Sie werden zu Unrecht als Kriminelle abgestempelt.“ Sie verweist darauf, dass traditionell in Großbritannien gilt: Unschuldig bis zur Schuld bewiesen ist – doch bei Algorithmen oder Kameras werde diese Grundregel unterlaufen. Ihre Organisation fordert daher ein vollständiges Verbot solcher Technologien im Einzelhandel durch die Regierung.
Die Debatte zeigt deutlich die Spannungsfelder zwischen Sicherheitstechnologie einerseits sowie Persönlichkeitsrechten und Datenschutz andererseits auf. Während Händler moderne Methoden nutzen wollen, um Verluste durch Ladendiebstahl einzudämmen oder Abläufe effizienter zu gestalten, entstehen Risiken für falsche Verdächtigungen sowie Eingriffe in Privatsphäre.
Status quo biometrischer systeme mit KI-unterstützung in Deutschland
In Deutschland sind vergleichbare Systeme wie Facewatch bislang nicht flächendeckend eingeführt worden; dennoch gewinnen KI-basierte Überwachungstechnologien zunehmend an Bedeutung – vor allem an Selbstbedienungskassen großer Handelsketten wie Rewe, Rossmann oder Ikea.
Ein Beitrag des Bayerischen Rundfunks zeigte Anfang März 2024 exemplarisch einen sogenannten KI-Supermarkt nachgestellt: Dort registrieren Kameras Kunden beim Betreten automatisch; Gesichter werden zwar nicht gespeichert, aber das Verhalten analysiert. Bei auffälligem Verhalten können Mitarbeitende alarmiert werden – ähnlich dem Prinzip britischer Systeme.
Die Verbraucherzentrale weist darauf hin, dass biometrische Daten wie Gesichtsmerkmale streng datenschutzrechtlich geschützt sind; deren Verarbeitung erfordert besondere Voraussetzungen gemäß europäischer Datenschutz-Grundverordnung . Trotz dieser Schutzmechanismen warnen Experten vor Risiken durch neue Techniken:
„Biometrische Gesichtserkennung ist eine vergleichsweise junge Technik […] Es gibt ganz offensichtliche Risiken und Nebenwirkungen.“
Artikel 6 DSGVO erlaubt Datenverarbeitung nur dann rechtmäßig zur Wahrung berechtigter Interessen,
„sofern nicht die Interessen oder Grundrechte […] überwiegen.“
Daher fordert die Verbraucherzentrale gesetzliche Anpassungen bereits vor einer breiten Einführung neuer Technologien:
„Dort wo durch Nutzung neuer Techniken rechtliche Lücken entstehen muss Politik Gesetze anpassen.“
Diese Forderung zielt darauf ab sicherzustellen,
dass technologische Innovationen weder Bürgerrechte einschränken noch unbeabsichtigte Folgen verursachen dürfen.