What is Nostr?
AlgorithmWatch /
npub1rq7…2kth
2024-09-21 06:55:11

AlgorithmWatch on Nostr: Biometrische Erkennungstechnologien machen viele Fehler: insbesondere bei vulnerablen ...

Biometrische Erkennungstechnologien machen viele Fehler: insbesondere bei vulnerablen Gruppen. Sie halten Menschen für gefährlich, obwohl sie es nicht sind - so werden People of Color überproportional häufig in polizeiliche Kontrollen verwickelt. KI-basierte Überwachungstechnologien verstärken somit Racial Profiling und Dirkiminierung.

👉 Schickt noch heute einen Appell an eure Abgeordneten – ganz einfach per Mail! ➡️ ➡️ ➡️ https://gesichtserkennung-stoppen.de/action.html#was-kann-ich-tun

#GesichtserkennungStoppen


Author Public Key
npub1rq7c3jywgzgmhw7rq4v5cx35hdcergz205hvzaef3qdqfsfwwjmqw82kth