Bauen die moralische Maschine: wer ist verantwortlich für die Ethik selbstverwalteten Autos?

0
11

Sie fahren auf der Autobahn, als plötzlich auf die Straße rennt Personen. Um Sie herum bewegen sich die Autos, und Sie haben einen Bruchteil einer Sekunde, um eine Entscheidung zu treffen: versuchen, die Menschen umfahren und das Risiko eines Unfalls zu erstellen? Weiterfahren in der Hoffnung, dass Sie es tun? Bremsen? Wie beurteilen Sie die Chancen, wenn Sie auf dem Rücksitz angeschnallt wird das Kind? In vielerlei Hinsicht ist es ein klassisches «moralische Dilemma», das Problem der Laufkatze. Sie hat eine Million von verschiedenen Möglichkeiten, die es erlauben, offenbaren das menschliche Vorurteil, aber die Essenz ist die gleiche.

Sie sind in einer Situation, auf dem Spiel steht das Leben und den Tod, einfach keine Wahl, und Ihre Entscheidung im wesentlichen bestimmen, wer Leben und wer sterben soll.

Das Dilemma der Laufkatze und künstliche Intelligenz

Neue Arbeit MIT, veröffentlichte Letzte Woche in der Zeitschrift Nature, versucht zu kommen mit eine funktionierende Lösung des Problems der Laufkatze, zieht Millionen von Freiwilligen. Das Experiment begann im Jahr 2014 und war sehr erfolgreich, erhielt mehr als 40 Millionen Antworten von 233 Ländern ist eines der größten getragenen moralischen Forschungen.

Der Mensch kann Entscheidungen treffen unverantwortlich. Schwer Wiegen die Ethik und die moralischen Voraussetzungen, wenn dein Auto Rast die Straße hinunter. Aber in unserer Welt Lösungen zunehmend akzeptiert algorithmen und Computer einfach schneller als wir reagieren können.

Hypothetische Situation mit Autos selbst verabreicht — das ist nicht die einzige moralische Entscheidung, die zu akzeptieren algorithmen. Medizinische algorithmen werden entscheiden, wer sich in Behandlung mit begrenzten Ressourcen. Automatisierte Drohnen werden entscheiden, wie viele «Kollateralschäden» ist in einem separaten militärischen Konfrontation.

Nicht alle moralischen Prinzipien sind gleich

«Lösungen» des Problems der Laufkatze ebenso vielfältig wie die Probleme selbst. Auf welche Weise werden die Maschinen nehmen die moralischen Entscheidungen, wenn die Grundlagen der Moral und Sittlichkeit nicht allgemeinhin angenommen werden und kann nicht eine Lösung? Wen definieren, richtig oder falsch ist kommt der Algorithmus?

Crowdsourcing-Ansatz von Wissenschaftlern Moral Machine, ziemlich pragmatisch. Am Ende, um die öffentlichkeit nahm selbst Autos, sollte es eine moralische Fundament stehen für Ihre Lösungen. Wird nicht sehr gut sein, wenn Ethiker oder Juristen kommen zu der Entscheidung, die nicht akzeptabel oder inakzeptabel für den normalen Fahrer.

Die Ergebnisse führen zu einer neugierigen Schluss, dass die moralischen Prioritäten (und damit auch Algorithmische Entscheidungen, die getroffen werden können, Menschen) hängen davon ab, in welchem Teil der Welt Sie sich befinden.

Vor allem Wissenschaftler erkennen, dass es unmöglich zu wissen, die Frequenz oder den Charakter dieser Situationen im realen Leben. Gefangen in einem Unfall Menschen sehr oft nicht sagen können, was genau passiert ist, und die Bandbreite der möglichen Situationen ausschließt einfache Klassifizierung. Also, dass Problem war es möglich zu verfolgen, ist es notwendig, zu brechen in vereinfachten Szenarien, nach universellen moralischen Regeln und Prinzipien.

Wenn Sie vorbei an die Umfrage, werden Sie aufgefordert, dreizehn Fragen, die eine einfache Wahl: ja oder Nein, versuchen einzugrenzen Antworten auf neun Faktoren.

Ob die Maschine Rollen auf einer anderen Spur weiterfahren? Sollten Sie Jungen Menschen zu retten, und nicht die alten? Frauen oder Männer? Tiere oder Menschen? Sollten Sie versuchen zu retten, wie man mehr Leben oder ein Kind «kostet» zwei ältere? Speichern Sie die Passagiere im Auto und nicht für Fußgänger? Diejenigen, die die Straße geht nicht nach den Regeln, oder diejenigen, die nach den Regeln? Sollten Sie retten Menschen, die körperlich stärkere? Was ist mit Menschen mit einem höheren sozialen Status wie ärzte oder Unternehmer?

In dieser rauen hypothetischen Welt jemand sterben sollte, und Sie Antworten auf jede dieser Fragen mit unterschiedlichem Grad der Begeisterung. Aber die Annahme dieser Entscheidungen zeigt auch die tief verwurzelten kulturellen Normen und Vorurteile.

Behandlung eine große Sammlung von Daten, die Wissenschaftler in der Umfrage, gibt Universelle Regeln, sondern auch interessante Ausnahmen. Drei dominantesten Faktor, gemittelt über die gesamte Bevölkerung, ausgedrückt in der Tatsache, dass jeder bevorzugt mehr Leben retten als weniger Menschen, nicht für Tiere, und die Jungen, nicht die alten.

Regionale Unterschiede

Sie können sich mit diesen Punkten, aber je tiefer Sie sich Gedanken über Sie, desto mehr alarmierenden werden die moralischen Schlussfolgerungen. Mehr der Befragten lieber Verbrecher zu retten, statt Katze, aber in der Regel lieber den Hund zu retten, und nicht der Täter. Im weltweiten Durchschnitt werden die alten höher bewertet als obdachlos sein, aber Obdachlose Menschen gerettet seltener als fettiges.

Und diese Regeln wurden nicht universell: die Befragten aus Frankreich, Großbritannien und den USA bevorzugt die Jungen, während die Befragten aus China und Taiwan sind eher ältere Menschen gerettet. Die Befragten aus Japan bevorzugt Fußgänger retten, aber nicht die Passagiere, sondern in China bevorzugen Passagiere Fußgängern.

Die Forscher fanden heraus, dass gruppieren der Antworten nach Ländern in drei Kategorien eingeteilt: «West», vorwiegend Nordamerika und Europa, wo die Moral beruht im Grunde auf der christlichen Lehre; die «Ost» — Japan, Taiwan, den nahen Osten, wo die vorherrschenden Konfuzianismus und Islam; «Südliche» Länder, einschließlich Mittel-und Südamerika, zusammen mit starkem französischen kulturellen Einfluss. Im südlichen Segment stärkere Präferenzen der Frauen Spenden, als anderswo. Im Östlichen Segment mehr Neigung zum Heil der Jungen Menschen.

Filterung nach verschiedenen Attributen Befragten bietet Ihnen unzählige interessante Möglichkeiten. «Sehr religiösen» Befragten mit geringer Wahrscheinlichkeit lieber die Rettung des Tieres, sondern sowohl religiöse als auch nicht-religiös die Befragten äußern sich etwa gleich Präferenz für das Heil der Menschen mit hohem sozialen Status (obwohl man sagen kann, dass es im Gegensatz zu einigen religiösen lehren). Männer und Frauen bevorzugen Frauen zu retten, aber die Männer immer noch weniger anfällig für diese.

Fragen ohne Antwort

Niemand behauptet, dass diese Studie in irgendeiner Weise «löst» alle diese zwingende moralische Probleme. Die Autoren der Studie weisen darauf hin, dass Crowdsourcing Online-Daten immer noch Voreingenommenheit. Aber auch bei einem großen Stichprobenumfang die Anzahl der Fragen begrenzt war. Was passiert, wenn die Risiken variieren je nach deiner Entscheidung? Was, wenn der Algorithmus in der Lage zu berechnen, dass Sie nur eine Chance von 50 Prozent zu töten Fußgänger, angesichts der Geschwindigkeit, mit der Sie sich bewegten?

Edmond Awad, einer der Autoren der Studie, äußerte Vorsicht in Bezug auf übermäßige Interpretation der Ergebnisse. Die Diskussion, seiner Meinung nach, sollte fließen in die Risikoanalyse — die mehr oder weniger anfällig für Risiken einzugehen — anstatt zu entscheiden, wer sterben darf und wer nicht.

Aber das wichtigste Ergebnis der Studie war die Diskussion, die entbrannte auf dem Boden. Da die algorithmen anfangen, immer mehr wichtige Entscheidungen, die Einfluss auf das Leben der Menschen, ist es äußerst wichtig, dass wir die ständige Diskussion über Ethik KI. Projektierung «künstliches gewissen» sollte die Meinung der einzelnen. Obwohl die Antworten nicht immer einfach zu finden, immer noch besser zu versuchen und bilden den moralischen Rahmen für die algorithmen, ohne dass algorithmen selbst die Welt zu gestalten, ohne menschliche Kontrolle.

Einverstanden? Erzählen Sie uns in unserem Chat in Телеграме.