„Black Box“ nicht mehr: Dieses System kann die Vorspannung in diesen Algorithmen vor Ort

"Black Box" nicht mehr: Dieses System kann die Vorspannung in diesen Algorithmen vor Ort

Zwischen jüngsten Kontroversen über Facebook Trending Topics und die im US „Risikobewertung“ Partituren Rechtssystem mit kriminellen Angeklagten im Umgang, gibt es wahrscheinlich nie breiteres Interesse an den geheimnisvollen Algorithmen gewesen, die Entscheidungen über unser Leben machen.

Das Geheimnis kann nicht viel länger dauern. Die Forscher von der Carnegie Mellon University in dieser Woche angekündigt, dass sie eine Methode entwickelt haben, zu helfen, die Vorurteile aufzudecken, die in diesen Entscheidungshilfen codiert werden können.

Algorithmen für maschinelles Lernen nicht nur die persönlichen Empfehlungen fahren wir siehe Netflix oder Amazon. Zunehmend spielen sie eine wichtige Rolle bei Entscheidungen über Kredit, Gesundheit und Arbeitsmöglichkeiten, unter anderem.

Bisher haben sie weitgehend unklar blieb, woraufhin immer lauter Anrufe für das, was als algorithmische Transparenz bekannt ist, oder die Öffnung der Regeln, die Entscheidungsfindung zu fahren.

Einige Unternehmen haben damit begonnen, Transparenzberichte in einem Versuch zu schaffen, etwas Licht in die Angelegenheit zu vergießen. Diese Berichte können als Reaktion auf ein bestimmtes Ereignis erzeugt werden – warum ein Kreditantrag des Individuums wurde zum Beispiel abgelehnt. Sie könnten auch proaktiv von einer Organisation verwendet werden, um zu sehen, ob ein System künstlicher Intelligenz wie gewünscht arbeitet, oder durch eine Aufsichtsbehörde, um zu sehen, ob ein Entscheidungssystem diskriminierend ist.

Aber die Arbeit an den Rechengrundlagen dieser Berichte wurde nach Anupam Datta, CMU Associate Professor für Informatik und Elektrotechnik und Informatik beschränkt gewesen. „Unser Ziel war es Maßnahmen der Grad des Einflusses der einzelnen Faktoren durch ein System betrachtet zu entwickeln“, sagte Datta.

CMU Quantitative Eingangs Einfluss (QII) misst die relative Gewicht jedes Faktors in einem Algorithmus offenbaren endgültige Entscheidung, sagte Datta, auf die viel bessere Transparenz führen als es bisher möglich war. Ein Papier die Arbeit beschreibt, wurde in dieser Woche auf dem IEEE Symposium on Security and Privacy vorgestellt.

Uhr Wie jetzt von Windows 10 im abgesicherten Modus (01.35) Winging es mit den Chroma-und Libellen-Drohnen

Hier ist ein Beispiel zu geben einer Situation, wo eine Entscheidungsfindung Algorithmus dunkel sein kann: für einen Job die Einstellung, wo die Fähigkeit, schwere Gewichte zu heben ist ein wichtiger Faktor. Dieser Faktor ist positiv korreliert mit immer eingestellt, aber es ist auch positiv mit dem Geschlecht korreliert. Die Frage ist, welche Faktor – Geschlecht oder Gewichtheben Fähigkeit – das Unternehmen seine Personalentscheidungen zu machen mit? Die Antwort hat materielle Auswirkungen auf die Bestimmung, ob es in Diskriminierung engagieren.

Zur Beantwortung der Frage, CMU-System hält Fähigkeit Gewichtheben festgelegt, während Geschlecht erlaubt zu variieren, so dass keine geschlechtsspezifische Vorurteile in der Entscheidung der Aufdeckung -Herstellung. QII Maßnahmen auch die gemeinsame Einfluss einer Reihe von Eingaben auf ein Ergebnis zu quantifizieren – Alter und Einkommen, zum Beispiel -. Und die marginalen Einfluss jedes

„Um ein Gefühl für diesen Einfluss Maßnahmen zu erhalten, betrachten die US-Präsidentschaftswahlen „, sagte Yair Zick, ein Postdoktorand in CMU Informatik-Abteilung. „Kalifornien und Texas Einfluss haben, weil sie viele Wähler haben, während Pennsylvania und Ohio Macht haben, weil sie oft Zustände schwingen werden. Die Einfluss Aggregation Maßnahmen setzen wir Rechnung für beide Arten von Macht.“

Die Forscher testeten ihre Ansatz gegen einige Standard-Maschine-Learning-Algorithmen, die sie verwendet, um Entscheidungssysteme auf realen Datensätzen zu trainieren. Sie fanden heraus, dass QII zur Verfügung gestellt bessere Erklärungen als Standard-assoziativen Maßnahmen für eine Vielzahl von Szenarien, einschließlich der prädiktiven Polizeiarbeit und Einkommen Schätzung.

Als nächstes sie hoffen, mit Industriepartnern zusammenarbeiten, damit sie QII in großem Umfang einsetzen können auf operative Maschine-Learning-Systeme.

Zusammenhängende Posts:

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.