Computerwelt: Aktuelle IT-News Österreich


21.11.2017 pte

Software soll "gute" von "schlechten" Bürgern unterscheiden

Die amerikanische Einwanderungsbehörde will ein automatisiertes Verfahren erstellen, das durch persönliche Daten und digitale Chroniken feststellt, wer positiv und negativ zur Gesellschaft beiträgt.

Screenshot der Website des US-Heimatschutzministerum (Department of Homeland Security - DHS).

Screenshot der Website des US-Heimatschutzministerum (Department of Homeland Security - DHS).

© Screenshot

Im Bestreben die Einwanderung in die USA zu verbessern und nur möglichst jene Menschen zuzulassen, die einen positiven Beitrag zur Gesellschaft leisten, will die US-Einwanderungs-behörde "Immigrations and Customs Enforcement" (ICE) künftig einen gemeinsam mit Softwarefirmen erstellten Algorithmus einsetzt, der erkennen soll, wer möglichst positiv, aber auch wer negativ zur Gesellschaft beiträgt. Auf diese Weise soll die Immigration erleichtert und beschleunigt werden. Damit haben die Behörden massiv Kritik von Bürgerrechtsorganisationen geerdet, die diesen Plan sehr kritisch bewerten.

Hexenverbrennung 2.0
"Wenn du einen Algorithmus aufbaust, der Hexen suchen soll, dann endet das sozusagen mit den Hexenprozessen von Salem. Man glaubt nämlich nur, dass man Hexen findet. Aber eigentlich findet man auch bloß normale Menschen, die Katzen und Besen besitzen", gibt Rachel Levinson-Waldman vom Brennan Center for Justice  zu bedenken. Es sei zudem beinahe unmöglich festzulegen, was genau "positive Kontributionen" seien.

"Das US-amerikanische Gesetz hat dafür keine Definition. Das bedeutet, dass wahrscheinlich diejenigen, die das Programm entwickeln, wahrscheinlich in Zusammenarbeit mit der ICE dies festlegen werden", unterstreicht Levinson Waldman. In einem Schreiben an das Department of Homeland Security haben bereits über 100 Branchenexperten klargemacht, dass sie einen Algorithmus dieses Ausmaßes äußerst gefährlich finden würden.

Viel zu viele Verdächtige
"Es gibt eine Vielzahl von Literatur, die bestens demonstriert, dass sogar die besten automatisierten Entscheidungsmodelle eine unakzeptable Anzahl von Fehlern erzeugen, wenn sie Geschehen vorhersagen sollen. Im Vergleich mit der US-Population und den Immigrationsraten ist die Zahl der Verbrechen relativ niedrig, vor allem Terrorangriffe sind selten. Das Ergebnis wäre, dass sogar das akkurateste Modell trotzdem noch eine sehr hohe Zahl von falschen, positiven Ergebnissen liefern würde", so der Brief. Ob der Algorithmus nach der breiten Kritik noch im gleichen Ausmaß umgesetzt werden soll, ist ungewiss.

Diesen Artikel

Bewertung:

Übermittlung Ihrer Stimme...
Noch nicht bewertet. Seien Sie der Erste, der diesen Artikel bewertet!
Klicken Sie auf den Bewertungsbalken, um diesen Artikel zu bewerten.
  Sponsored Links:

IT-News täglich per Newsletter

E-Mail:
Weitere CW-Newsletter

CW Premium Zugang

Whitepaper und Printausgabe lesen.  

kostenlos registrieren

Aktuelle Praxisreports

(c) FotoliaHunderte Berichte über IKT Projekte aus Österreich. Suchen Sie nach Unternehmen oder Lösungen.



Hosted by:    Security Monitoring by: