Wie wird treiberlos Autos Leben oder Tod Entscheidungen zu treffen? Google exec zugibt, dass er nicht weiß

Wie wird treiberlos Autos Leben oder Tod Entscheidungen zu treffen? Google exec zugibt, dass er nicht weiß

Technisch leicht verdreht nehmen auf dem Tech Falsche bietet, die über unser Leben genommen hat.

Wie wird treiberlos Autos Leben oder Tod Entscheidungen zu treffen? Google exec zugibt, dass er nicht weißEnlarge Bild

Wo auf dem Armaturenbrett ist seine moralischen Kompass?

KAREN BLEIER / AFP / Gettyimages

Ich denke, der Moral wie eine Feder im Wind verschiebt und gelegentlich Bürsten Ihr Gesicht herrlich, wie es auf die Erde fällt.

ich bin immer noch gestört, aber, ob Technologie ein feines Gespür für sie hat. Oder ob es kann.

Ich bin durch die Nachrichten verschoben, die Uber seine fahrerlose Fahrzeuge in Pittsburgh ins Leben gerufen.

Es fiel mir, ob diese Autos haben bereits wen zu töten, wenn sie ein moralisches Dilemma programmiert wurde.

Zum Beispiel ist das Auto über ein anderes Auto mit drei Personen im Inneren zu treffen . Es kann aus dem Weg, Effet, aber dann wird es drei Kinder treffen auf dem Bürgersteig stehen.

Wie funktioniert es die Wahl treffen?

Einstimmend Googles Director of Engineering, Ray Kurzweil, eine Antwort angeboten gerade in dieser Woche.

Meine kurze Übersetzung: „Wir wissen es nicht.“

Kurweil an der Singularität Universität sprach, den Ort, wo sie nicht bis Roboter uns werden warten können und wir ihnen geworden . Bis einer von uns den anderen unkleidsam denkt.

Kurzweil erklärte, dass das Gebot war: „Du sollst nicht töten“ einfach falsch. Wenn jemand über ein Gebäude oder eine Stadt zu sprengen, sagte er, natürlich ist es moralisch richtig ist, sie zu nehmen.

Wenn es Autos zu treiberlos kommt, er sagte, dass es ein Bedürfnis nach „moralische Programmierung war . “ Er sagte, dass Isaac Asimovs drei Regeln der Robotik eine gute war

Diese sind „first pass.“

  • Ein Roboter darf kein menschliches Wesen oder durch Untätigkeit zu verletzen, einen Menschen erlauben sein zu Schaden kommen.
  • Ein Roboter Befehle es von Menschen sei denn, diese Aufträge mit dem Ersten Gesetz würde im Widerspruch gegeben gehorchen müssen.
  • Ein Roboter muss seine eigene Existenz so lange schützen nicht als ein solcher Schutz nicht mit dem Ersten oder Zweiten Gesetz in Konflikt geraten.
  • Kurzweil tut Wunder, ob ein Akt der Unterlassung – wenn Sie etwas getan haben könnte eine andere Person das Leben zu retten -. Ist das Äquivalent zu töten

    Im Wesentlichen gab aber er er hatte keine Antwort parat auf alle Autos „moralischen Charakter zu treiberlos.

    „Ich werde über diese mehr zu denken. Ich habe nicht diese Analyse noch nicht getan“, sagte er.

    Für seinen Teil, sagte Google, dass nicht Teil ist Kurzweil des fahrerlosen Autos Projekt, wie es jetzt Teil von Google X ist.

    Das Unternehmen wies mich auf die Worte von Andrew Chatham, ein leitender Ingenieur.

    „die Hauptsache zu halten Geist ist, dass wir noch eines dieser Probleme zu begegnen „, begann er.

    ist es die Hauptsache? Es kann noch nicht geschehen sein, aber es wäre schön zu wissen, wie sich das Auto könnte entscheiden, wer ihre letzte atmen los ist.

    in der Regel „Selbst wenn wir ein Szenario wie das, sah“ Chatham fuhr fort: “ das würde bedeuten, Sie einen Fehler ein paar Sekunden früher gemacht. Und so wie eine moralische Software-Ingenieur kommt in der Arbeit im Büro, wenn ich will, um Leben zu retten, ist mein Ziel ist es, uns zu verhindern, dass in dieser Situation bekommen, denn das bedeutet, dass wir vermasselt. „

    Ein hehres Ziel, vielleicht. Oder ein erschreckender Selbst in Bezug auf ein. Aber was ist der aktuelle, tatsächliche, reale Situation wie diese Autos durch unsere Straßen rollen nach unten?

    Chatham dem Schluss, dass „die Antwort ist fast immer“ Slam auf die Bremse. „

    Einige können durch die Offenheit des Wortes berührt werden „fast“. Und was ist, wenn es zu bremsen zu spät ist?

    Er hat zugeben, dass dies möglicherweise nicht immer die richtige Antwort sein, sagte aber, dass es muss eine extreme Situation wäre, wenn „Bremse“ war nicht der richtige Anruf .

    Ist das nicht die Welt ist voll von extremen Situationen?

    Die Implikation ist, dass niemand schrecklich klar ist, wenn „Bremse“ eine wirklich schlechte Idee wäre.

    Nicht jeder will bei Google unvollständigem Maß an Sicherheit zur Ruhe.

    Mehr technisch falsch

    • Nein, Software-Ingenieure sind nicht die höchsten bezahlten Mitarbeiter in tech
    • Norwegian lawmaker gefangen spielen Pokemon Go im Parlament
    • Netflix brillant Antwort auf seine nordkoreanischen Doppelgänger

    die Forscher am MIT erstellt vor kurzem die Moral Machine. Dieser sucht, um zu sehen, was echte Menschen – wie die Ingenieure gegenüber -. In bestimmten driverless Auto Dilemmas tun würde

    Die Forscher nicht nur wissen wollen, wie Menschen könnten solche Entscheidungen zu treffen. Sie suchen nach „ein besseres Verständnis dafür, wie Menschen wahrnehmen Maschinenintelligenz solche Entscheidungen zu treffen.“

    Das scheint ziemlich klug.

    Uber reagierte nicht auf eine Anfrage für eine Stellungnahme, so ist es unklar, wo seine moralischen Kompass sein könnte.

    An einem gewissen Punkt eine dieser Katastrophen passieren kann.

    Wenn ja, wie viele Menschen schauen, um zu sehen, was die Maschine zu tun und fragen entschieden: „Warum?“

    Zusammenhängende Posts:

    Schreibe einen Kommentar

    Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.