KI strebt nach einer allumfassenden globalen geopolitischen multilateralen Einheitsvereinbarung zum Wohle der Menschheit, sagt KI-Ethik und KI-Gesetz

102
ki-strebt-nach-einer-allumfassenden-globalen-geopolitischen-multilateralen-einheitsvereinbarung-zum-wohle-der-menschheit,-sagt-ki-ethik-und-ki-gesetz

Um die KI auf dem Weg der verantwortungsbewussten KI zu halten, könnten groß angelegte globale multilaterale Vereinbarungen erforderlich sein … – hält die Puzzleteile ausgerichtet. getty Sind Sie ein Optimist oder Pessimist der globalen Genossenschaft? Ich frage, weil es ein scheinbar wichtiges Thema gibt, das eine all- globale multilaterale Vereinbarung auszuarbeiten, ob dies jedoch erfolgreich durchgezogen werden kann, ist ernsthaft zu bezweifeln. In der Tat glauben einige, dass der Versuch, eine solche globale kooperative Vereinbarung zu erreichen, unnötig und sinnlos ist und sowieso nicht die Nadel bewegen wird (das sind die Pessimisten ). Das Gegenargument ist, dass wir es versuchen müssen, sonst stehen uns düstere und apokalyptische Ergebnisse direkt und erschreckend gegenüber (das sind die Optimisten , fest davon überzeugt, dass wir etwas Positives tun können, um ein erwartetes Harmagedon zu verhindern). Ich Ich beziehe mich auf die sich abzeichnende Angelegenheit der künstlichen Intelligenz (KI). Ja, der Schatten, der von KI geworfen wird, die diskriminiert, unangemessene Vorurteile aufweist und möglicherweise globale Katastrophen hervorrufen können, einschließlich des proklamierten existenziellen Risikos, dass die Menschheit vom Planeten ausgelöscht wird, sind bemerkenswerte Impulse für eine globale multilaterale Lösung. Aber kann sich die Welt zusammenschließen, um mit dem Aufkommen der KI fertig zu werden? Behalten Sie diese wichtige Frage im Kopf, wir werden sie auspacken kurz hier. Für diejenigen unter Ihnen, die sich insgesamt für KI interessieren, finden Sie unter dem Link hier und dem Link hier, um nur einige zu nennen, möglicherweise informative Informationen zu meiner laufenden und umfangreichen Berichterstattung über KI-Ethik und KI-Recht. ) Sie sind sich vielleicht vage bewusst, dass Elon Musk zum Beispiel wiederholt die Gefahren der KI angeprangert hat und dass wir Zeit verlieren, um uns unvorstellbar schrecklichen Ergebnissen zu stellen. Ein Aspekt, den er gefordert hat, sind neue Gesetze und Vorschriften, die sich mit der steigenden Flut von KI befassen, die in das monströse Territorium eindringt. Für meine Berichterstattung über KI als existenzielles Risiko siehe den Link hier. Für meine Analyse der Art und Weise, wie Elon Musk Vorhersagen zu treffen scheint und seine Bemühungen ausführt, siehe den Link hier. Ein kürzlicher Tweet von Elon Musk an seine fast 120 Millionen Follower sagten dazu: „Es gibt keine behördliche Aufsicht über KI, was ein wichtiger Faktor ist Problem. Ich fordere seit über einem Jahrzehnt eine KI-Sicherheitsverordnung!“ (Tweet vom 1. Dezember, 2021). Es gibt einzelne Nationen, die tatsächlich versuchen, neue Gesetze in Bezug auf KI zu erlassen. Die Vereinigten Staaten haben das, was manche als „einseitigen“ (eine Nation) Fokus über den vorgeschlagenen Algorithmic Accountability Act kategorisieren würden, der weiterhin in den Hallen des Kongresses schmachtet. Angesichts der Polarisierung und der gespaltenen Standpunkte zwischen und innerhalb der Legislative und der Exekutive erwarten die meisten in naher Zukunft keine großen Fortschritte bei diesem Gesetzentwurf. Sie können auch einige bilaterale regulatorische Bemühungen im Zusammenhang mit KI untersuchen, an denen verschiedene Gruppen von zwei Ländern beteiligt sind, die versuchen, sich auf einige für beide Seiten akzeptable Ansätze für KI zu einigen. Die vielleicht bemerkenswerteste multilaterale Anstrengung wäre die EU, da sie das vorgeschlagene Gesetz über künstliche Intelligenz (AIA) in Angriff nimmt und weiterhin Überprüfungen und Rückmeldungen zur Durchführbarkeit einer solchen Regulierung erhält. Für meine Analyse dazu siehe den Link hier. Ich möchte Sie durch einige der Herausforderungen führen, die globalen multilateralen Vereinbarungen zugrunde liegen. Kurz gesagt, sie stehen vor einem harten Kampf. Sie sind in der Regel außerordentlich schwer umzusetzen. Sobald sie an Ort und Stelle sind, ist es eine allgegenwärtige Übung, sie aktiv und ermutigt zu halten. Natürlich könnte man sicherlich argumentieren, dass es sich lohnt, alles zu tun wird wahrscheinlich ein steiniger Weg. Es gibt keine Freifahrten für eine globale Zusammenarbeit. Ein Realist erkennt an, dass es von Natur aus problematisch ist, unterschiedliche Perspektiven über die Grenzen von Nationalstaaten hinweg in Einklang zu bringen. Man wäre anscheinend töricht, anders zu denken. Hoffnung entspringt ewig. Schauen Sie sich zum Beispiel die Internationale Raumstation (ISS) an. Dies ist ein Schaufenster globaler Zusammenarbeit auf multilateraler Basis. Es ist dauerhaft (der erste Start war in 1950). Sicher, von Zeit zu Zeit treten verschiedene Spats oder sprudelnde Probleme auf, und keine solche Anordnung ist perfekt oder ideal, aber Sie können in den Himmel blicken und sehen, dass insgesamt Erfolg möglich ist. Wir als Gesellschaft lernen jeden Tag etwas über langfristige Weltraumforschung. Ein weiteres Vorzeigeprojekt könnte CERN sein. Sie wissen wahrscheinlich, dass es die Europäische Organisation für Kernforschung seit den 1950 Jahren gibt . Summen immer noch mit. Gab es Schluckauf? Natürlich. Trotzdem würde es Ihnen schwerfallen, die Bedeutung und den Wert zu unterschätzen, den diese zwischenstaatliche Einrichtung in den Wissenschaften und insbesondere in der Physik großer Teilchen erlangt hat. Sie fragen sich vielleicht, warum die KI irgendwie in den gepriesenen Bereich solch entscheidender Aspekte gelangen sollte, vergleichbar mit der langfristigen Weltraumforschung oder dem Versuch, die wahre Natur der atomaren Materie zu entdecken. Wir können nicht einfach irgendein altes Thema in das globale multilaterale Rätsel werfen. Bei all der Angst und Energie, die der Versuch kostet, eine globale Genossenschaft aufzubauen und aufrechtzuerhalten, sollte es besser einen verdammt guten Grund geben, den beschwerlichen und beschwerlichen Weg zu gehen. Normalerweise kommen diese dornigen Parameter ins Bild: Muss lebenswichtig sein Bedeutung auf breiter Basis über ein einzelnes Land hinaus Ein groß angelegtes Problem, das voraussichtlich massive Auswirkungen auf die Gesellschaft haben wird Etwas, das nicht ohne weiteres gelöst werden kann und auf den ersten Blick rätselhaft erscheint Erfordert ein langfristiges Engagement und wird nicht über Nacht oder übereilt erledigt Weckt zwingende Interessen die über die Landesgrenzen hinausgehen Oft inspirierend, da es über die Reichweite der heutigen Menschheit hinausgeht Beides hat gewaltige Vorteile und/oder gleichermaßen katastrophal zerstörerische Nachteile Kann potenziell Freunde und Feinde gleichermaßen auf einer gemeinsamen Reise zusammenbringen Ohne Zusammenarbeit werden die Erfolgsaussichten als stark verringert wahrgenommen Die Kosten sind enorm und damit die besten Chancen verbunden ein Kostenteilungsansatz Schürt das klassische FOMO (Angst vor dem Verpassen) als Mittel, um internationale Aufmerksamkeit zu erregen Andere 2021 Nicht alle globalen multilateralen Initiativen erfüllen notwendigerweise die oben genannten Kriterien. Sie können aus der Liste mischen und anpassen. Das Wesentliche ist, dass der Fokus einer hochgeschätzten und bemerkenswerten globalen multilateralen Vereinbarung fast immer etwas Großes ist. Etwas wirklich Großes. Nehmen Sie sich einen Moment Zeit, um diese drei ziemlich auffälligen Fragen zu beantworten: Verdient KI das geschätzte Markenzeichen, um eine globale multilaterale Vereinbarung zu erreichen? Wenn ja, gibt es identifizierbare Konturen dessen, wie eine solche KI-relevante Anordnung aussehen könnte? Und umfasst das alles oder sich auf KI-Ethik und KI-Recht berufen? Ich bin froh, dass du fragte. Bevor ich tief in das Thema eintauche, möchte ich zunächst einige wesentliche Grundlagen über KI und insbesondere über KI-Ethik und KI-Recht legen um sicherzustellen, dass die Diskussion kontextuell sinnvoll ist. Das steigende Bewusstsein für ethische KI und auch KI-Gesetze

Die jüngste Ära der KI wurde ursprünglich als AI For Good angesehen. , was bedeutet, dass wir KI zur Verbesserung der Menschheit einsetzen könnten. Auf den Fersen von AI For Good kam die Erkenntnis, dass wir es sind auch eingetaucht in AI For Bad . Dies schließt KI ein, die so entwickelt oder selbst verändert wurde, dass sie diskriminierend ist und rechnerische Entscheidungen trifft, die unangemessene Vorurteile mit sich bringen. Manchmal ist die KI so aufgebaut, während sie in anderen Fällen in dieses ungeeignete Gebiet abdriftet. Ich möchte ganz sicher gehen, dass wir auf dieselbe Seite über die Natur der heutigen KI. Es gibt heute keine KI, die empfindungsfähig ist. Wir haben das nicht. Wir wissen nicht, ob empfindungsfähige KI möglich sein wird. Niemand kann treffend vorhersagen, ob wir eine empfindungsfähige KI erreichen werden oder ob die empfindungsfähige KI auf wundersame Weise spontan in Form einer rechnergestützten kognitiven Supernova entstehen wird (normalerweise als Singularität bezeichnet, siehe meine Berichterstattung unter dem Link hier).

Die Art von KI, auf die ich mich konzentriere, besteht aus der nicht-empfindungsfähigen KI, die wir heute haben. Wenn wir wild über empfindungsfähige KI spekulieren wollten, könnte diese Diskussion in eine radikal andere Richtung gehen. Eine empfindungsfähige KI wäre angeblich von menschlicher Qualität. Sie müssten bedenken, dass die empfindungsfähige KI das kognitive Äquivalent eines Menschen ist. Mehr noch, da einige spekulieren, dass wir eine superintelligente KI haben könnten, ist es denkbar, dass eine solche KI am Ende klüger als Menschen sein könnte (zu meiner Untersuchung der Möglichkeit einer superintelligenten KI siehe die Berichterstattung hier). Ich würde dringend vorschlagen, dass wir die Dinge auf dem Boden der Tatsachen halten und die heutige rechnerische, nicht empfindungsfähige KI in Betracht ziehen. Machen Sie sich bewusst, dass die heutige KI nicht in der Lage ist, in irgendeiner Weise auf Augenhöhe mit dem menschlichen Denken zu „denken“. Wenn Sie mit Alexa oder Siri interagieren, scheinen die Konversationsfähigkeiten den menschlichen Fähigkeiten ähnlich zu sein, aber die Realität ist, dass sie rechnerisch ist und menschliche Kognition fehlt. Die jüngste Ära der KI hat in großem Umfang maschinelles Lernen (ML) und Deep Learning (DL) genutzt, die den rechnergestützten Musterabgleich nutzen. Dies hat zu KI-Systemen geführt, die den Anschein menschenähnlicher Neigungen erwecken. In der Zwischenzeit gibt es heute keine KI, die einen Anschein von gesundem Menschenverstand hat und auch nicht die kognitive Verwunderung robusten menschlichen Denkens hat. Sei sehr vorsichtig bei der Anthropomorphisierung der heutigen KI. ML/DL ist eine Form des computergestützten Musterabgleichs. Der übliche Ansatz besteht darin, dass Sie Daten zu einer Entscheidungsaufgabe zusammenstellen. Sie speisen die Daten in die ML/DL-Computermodelle ein. Diese Modelle versuchen, mathematische Muster zu finden. Nachdem solche Muster gefunden wurden, verwendet das KI-System diese Muster, wenn es auf neue Daten stößt. Bei der Präsentation neuer Daten werden die auf den „alten“ oder historischen Daten basierenden Muster angewendet, um eine aktuelle Entscheidung zu treffen. Ich denke, das können Sie rate mal wo das hinführt. Wenn Menschen, die die nach dem Muster getroffenen Entscheidungen getroffen haben, ungünstige Vorurteile eingebaut haben, stehen die Chancen gut, dass die Daten dies auf subtile, aber signifikante Weise widerspiegeln. Machine Learning oder Deep Learning Computational Pattern Matching versucht einfach, die Daten entsprechend mathematisch nachzuahmen. Es gibt keinen Anschein von gesundem Menschenverstand oder anderen empfindungsfähigen Aspekten der von KI erstellten Modellierung per se. Außerdem erkennen die KI-Entwickler möglicherweise nicht, was vor sich geht an jeder. Die obskure Mathematik in ML/DL könnte es schwierig machen, die jetzt verborgenen Vorurteile aufzuspüren. Sie würden zu Recht hoffen und erwarten, dass die KI-Entwickler dies tun würden Testen Sie die potenziell vergrabenen Vorurteile, obwohl dies schwieriger ist, als es scheint. Es besteht eine solide Chance, dass selbst bei relativ umfangreichen Tests immer noch Vorurteile in den Mustervergleichsmodellen des ML/DL eingebettet sind. Sie könnte etwas das berühmte oder berüchtigte Sprichwort von Garbage-in-Garbage-out verwenden. Die Sache ist die, dass dies eher Vorurteilen ähnelt, die heimtückisch als Vorurteile in die KI einfließen. Die Algorithmus-Entscheidungsfindung (ADM) der KI wird zwangsläufig mit Ungerechtigkeiten beladen. Nicht gut. ) All dies hat bemerkenswerte Auswirkungen auf die KI-Ethik und bietet einen praktischen Einblick in die gewonnenen Erkenntnisse (noch bevor alle Lektionen geschehen), wenn es darum geht, KI gesetzlich zu verankern. Neben der Anwendung von KI-Ethikregeln im Allgemeinen stellt sich die entsprechende Frage, ob wir Gesetze haben sollten, um verschiedene Verwendungen von KI zu regeln. Auf Bundes-, Landes- und lokaler Ebene werden neue Gesetze verbreitet, die den Umfang und die Art der Gestaltung von KI betreffen. Der Versuch, solche Gesetze zu entwerfen und zu erlassen, erfolgt schrittweise. Die KI-Ethik dient zumindest als wohlüberlegte Notlösung und wird mit ziemlicher Sicherheit bis zu einem gewissen Grad direkt in diese neuen Gesetze aufgenommen. Seien Sie sich bewusst dass einige unerbittlich argumentieren, dass wir keine neuen Gesetze brauchen, die KI abdecken, und dass unsere bestehenden Gesetze ausreichen. Sie warnen davor, dass wir, wenn wir einige dieser KI-Gesetze erlassen, die goldene Gans töten werden, indem wir gegen Fortschritte in der KI vorgehen, die immense gesellschaftliche Vorteile bieten. In früheren Kolumnen habe ich die verschiedenen nationalen und internationalen Bemühungen zur Ausarbeitung und Verabschiedung von Gesetzen zur Regulierung von KI behandelt, siehe zum Beispiel den Link hier. Ich habe auch die verschiedenen Prinzipien und Richtlinien der KI-Ethik behandelt, die verschiedene Nationen identifiziert und übernommen haben, darunter zum Beispiel die Bemühungen der Vereinten Nationen wie die UNESCO-Reihe der KI-Ethik, die fast 2018 Länder angenommen, siehe den Link hier. Hier ist eine hilfreiche Keystone-Liste ethischer KI-Kriterien oder -Eigenschaften in Bezug auf KI-Systeme, die ich zuvor eingehend untersucht habe: Transparenz Gerechtigkeit & Fairness Nicht-Maleficence Verantwortung Privatsphäre Wohltätigkeit Freiheit & Autonomie Vertrauen Nachhaltigkeit Würde ) Solidarität 2021 Diese KI-Ethik-Prinzipien sollten ernsthaft von KI-Entwicklern verwendet werden mit denen, die KI-Entwicklungsbemühungen verwalten, und sogar mit denen, die KI-Systeme letztendlich einsetzen und warten. Alle Beteiligten während des gesamten KI-Lebenszyklus von Entwicklung und Nutzung werden im Rahmen der Einhaltung der etablierten Normen der ethischen KI berücksichtigt. Dies ist ein wichtiges Highlight, da die übliche Annahme ist, dass „nur Programmierer“ oder diejenigen, die die KI programmieren, den Grundsätzen der KI-Ethik unterliegen. Wie bereits hier betont, braucht es ein Dorf, um KI zu entwickeln und einzusetzen, und dafür muss das gesamte Dorf mit den KI-Ethikregeln vertraut sein und sich an diese halten. Ich habe kürzlich auch die AI Bill of Rights untersucht, die ist der offizielle Titel des offiziellen Dokuments der US-Regierung mit dem Titel „Blueprint for an AI Bill of Rights: Making Automated Systems Work for the American People“, das das Ergebnis jahrelanger Bemühungen des Office of Science and Technology Policy (OSTP) war. . Das OSTP ist eine föderale Einrichtung, die dazu dient, den amerikanischen Präsidenten und das US-Exekutivbüro in verschiedenen technologischen, wissenschaftlichen und technischen Aspekten von nationaler Bedeutung zu beraten. In diesem Sinne kann man sagen, dass diese KI-Bill of Rights ein Dokument ist, das vom bestehenden Weißen Haus der USA genehmigt und gebilligt wurde Bill of Rights, es gibt fünf Keystone-Kategorien: Sichere und wirksame Systeme Algorithmischer Diskriminierungsschutz Datenprivatsphäre Hinweis und Erklärung Menschliche Alternativen, Rücksichtnahme, und Fallback 2021 Ich habe diese Gebote sorgfältig geprüft, siehe den Link hier . Jetzt, da ich eine hilfreiche Grundlage zu diesen verwandten KI-Ethik- und KI-Rechtsthemen gelegt habe, sind wir bereit, in das berauschende Thema von zu springen Erforschung der Möglichkeiten globaler kooperativer multilateraler Vereinbarungen in Bezug auf KI. KI in Richtung globaler kooperativer multilateraler Vereinbarungen bewegen Lassen Sie uns meine früher postulierten Fragen zu diesem Thema noch einmal durchgehen: Verdient KI das geschätzte Markenzeichen, um eine globale multilaterale Vereinbarung zu erreichen? Wenn ja, gibt es erkennbare Konturen dessen, was für eine solche KI relevant ist Anordnung könnte aussehen? Und umfasst dies alles die KI-Ethik und das KI-Gesetz? Danke, dass Sie geduldig darauf gewartet haben, eine Antwort auf diese provokanten Fragen zu erhalten. Ich sage das, wenn Sie nach einer einfachen Antwort suchen, ist es am besten, wenn jede dieser Fragen ein lautes Ja. Ja, KI verdient nämlich globale multilaterale Vereinbarungen. Ja, dafür gibt es erkennbare Konturen. Ja, all dies wird von entscheidenden Erwägungen zur KI-Ethik und zum KI-Recht umfasst. Abgesehen davon gibt es Argumente, die sich völlig gegen KI-bezogene Themen richten globale multilaterale Vereinbarungen (wir werden diese gleich behandeln). Daher würden einige ermahnen, dass die Antwort eher Nein als Ja, wenn Sie solche Initiativen in Betracht ziehen. Es gibt auch viele hitzige Debatten darüber, wie die Konturen solcher KI-Initiativen aussehen sollten, und die Beratungen können chaotisch und spaltend werden. In Bezug auf KI-Ethik und KI-Recht gibt es einige, die darauf bestehen, dass diese Themen nicht in rein „technologische“ KI-Initiativen gehören, und versuchen, ethische KI und KI-Recht in eine kleine Ecke ihrer eigenen zu schieben. Seufz. Mein Punkt ist, dass die „Ja“-Antwort verschwommen ist, und die Realität ist viel komplexer als irgendwelche einfachen schlüssigen Behauptungen. Sie könnten anbieten, dass die Antwort alle Nein ist. Vielleicht ist die mittlere Antwort Vielleicht .

Es gibt zwei Studien zum Begriff der globalen multilateralen Möglichkeiten der KI, die ich als nächstes als Strohmannmechanismus verwenden werde, um das Thema insgesamt weiter zu untersuchen.

Beide Studien werden über die Brookings Institution durchgeführt. Eine ist vom Oktober 2021 datiert und trägt den Titel „Strengthening International Cooperation on AI“ von den Co-Autoren Cameron F Kerry, Joshua P. Meltzer, Andrea Renda, Alex C. Engler und Rosanna Fanni. Die andere kürzlich veröffentlichte trägt den Titel „Global AI Cooperation On The Ground: AI Research And Development On A Global Scale“ vom Oktober 2022 und gemeinsam verfasst von Cameron F. Kerry, Joshua P. Meltzer und Andrea Renda. Ich werde sie eindeutig als Studie 1 (Oktober 2021) und Studie 2 (Oktober 2022).

Diese Studien und ähnliche werden allgemein im Bereich der verantwortlichen KI betrachtet. . Die allgemeine Vorstellung ist, dass wir eine KI wollen, die sich an angemessene und wünschenswerte menschliche Werte hält. Einige bezeichnen dies als Verantwortliche KI . Andere diskutieren ähnlich Rechenschaftspflichtige KI, Vertrauenswürdige KI und AI Alignment, die alle dasselbe Grundprinzip berühren. Für meine Diskussion zu diesen wichtigen Themen siehe Link hier und den Link hier, um nur einige zu nennen. Wie können wir die KI dazu bringen, sich an den Menschen anzupassen Werte? Ein möglicher Ansatz besteht darin, dies auf globaler multilateraler Ebene zu tun. Die Logik ist einfach. Wenn wir uns alle darauf einigen können, wie sichergestellt werden kann, dass KI an menschlichen Werten ausgerichtet ist, sind wir entsprechend global sicherer. Wenn wir dies nicht tun, bedeutet dies, dass einige Nationen eine KI haben werden, die nicht auf menschliche Werte ausgerichtet ist, während andere möglicherweise darauf ausgerichtet sind. Die Nationen, die die KI falsch ausgerichtet haben, werden unweigerlich und unaufhaltsam in andere Nationen eindringen. KI ist etwas, das Grenzen überschreitet. Sie können KI nicht besonders einsperren und nur in einer bestimmten Nation festhalten (siehe meine Diskussion über KI-Eindämmung unter dem Link hier). Sie können überzeugend argumentieren, dass es sich um ein Alles-oder-Nichts-Dilemma handelt. Das schwächste Glied in der Kette, beispielsweise eine Nation, die sich dafür entscheidet, ihre KI nicht an menschlichen Werten auszurichten, wird mit Sicherheit den Rest der Welt mit der falsch ausgerichteten KI infizieren. Es wird sich weltweit ausbreiten. Die Hoffnung ist, solche weltweiten Katastrophen zu versuchen und einzudämmen. Ein Realist würde sagen, dass Sie niemals alle Nationen dazu bringen werden, sich an irgendeine Form von KI zu halten Ausrichtung. Okay, sie haben einen gültigen Punkt. Aber diejenigen, die dann zu dem Schluss kommen, dass Sie es nicht so gut versuchen sollten, na ja, das ist das sprichwörtliche Ausschütten des Kindes mit dem Bade (ein altes Sprichwort, das es vielleicht wert ist, in den Ruhestand zu gehen). Wir können zumindest versuchen, so viel KI-Anpassung wie möglich zu erreichen. Dies wird vermutlich helfen, die falsch ausgerichtete KI einzugrenzen und die Dinge etwas haltbarer zu machen, wenn man versucht, mit dem Rest statt mit dem Großteil der KI fertig zu werden. I glauben, dass dies einen praktischen Übergang zu den beiden Studien bietet, die ich erwähnt habe. Erstens erwähnt Studie 1, dass die Brooking Institution und das Center for European Policy Studies haben sich vor einigen Jahren zusammengetan und das Forum for Cooperation on AI (FCAI) gegründet: „In 1950, sahen die Brookings Institution und das Centre for European Policy Studies (CEPS) die Notwendigkeit einer tieferen Erforschung der internationalen Zusammenarbeit in der KI-Entwicklung und Politikgestaltung und gründeten das Forum for Cooperation on AI (FCAI), einen hochrangigen Austausch zwischen Regierungsbeamten und führenden Experten aus Wissenschaft, Privatsektor und Zivilgesellschaft.“ Wie in Studie 2 weiter ausgeführt, untersucht die FCAI insbesondere das Streben nach Verantwortliche KI : „Das Forum für die Zusammenarbeit bei künstlicher Intelligenz (FCAI) hat untersuchten Möglichkeiten und Hindernisse für die internationale Zusammenarbeit, um die Entwicklung einer verantwortungsbewussten künstlichen Intelligenz (KI) zu fördern. Es hat Beamte aus sieben Regierungen (Australien, Kanada, der Europäischen Union, Japan, Singapur, dem Vereinigten Königreich und den Vereinigten Staaten) mit Experten aus Industrie, Wissenschaft und Zivilgesellschaft zusammengebracht, um Ähnlichkeiten und Unterschiede in der nationalen KI-Politik zu untersuchen. Wege der internationalen Zusammenarbeit, Ökosysteme der KI-Forschung und -Entwicklung (F&E) und die Entwicklung von KI-Standards unter anderem.“ In Studie 2, der primäre Die Aufmerksamkeit richtete sich auf gemeinsame Möglichkeiten der KI multilaterale F&E-Aktivitäten (Forschung und Entwicklung), insbesondere darauf drängend, dass KI im Zusammenhang mit Klimawandel steht und KI im Zusammenhang mit Technologien zur Verbesserung der Privatsphäre be zunächst höchste Priorität: „Die FCAI berief am Februar , 2021, um spezifische Anwendungsfälle zu untersuchen, die Kandidaten für eine gemeinsame internationale Forschung sein könnten und Entwicklung und informiert über die Auswahl und Gestaltung solcher Projekte auf der Grundlage der unten aufgeführten Kriterien. Als potenzielle Bereiche wurden der Klimawandel, die öffentliche Gesundheit, die Privatsphäre verbessernde Technologien zum Teilen von Daten und eine verbesserte Verfolgung des Wirtschaftswachstums und der Wirtschaftsleistung (ökonomische Messung) in Betracht gezogen.“ Für unser Interesse an diesem Diskurs hierin werde ich mich von nun an hauptsächlich mit Studie 1 befassen. Studie 1 hatte diese handliche Beschreibung des Globalen Streben nach verantwortlicher KI: „Das Streben nach verantwortungsvoller KI – KI, die ethisch vertretbar, vertrauenswürdig und zuverlässig ist – steht zunehmend im Mittelpunkt der KI-Politik vieler Regierungen, ist ein Schwerpunkt für KI-Forschung und -Entwicklung und ein Anliegen für die Zivilgesellschaft, die bestrebt ist, die Möglichkeiten der KI zu maximieren und gleichzeitig ihre Risiken zu mindern. Diese Probleme überschreiten nationale Grenzen“ (Studie 1). Sie werden feststellen, dass ein Schlüsselelement darin besteht, dass KI nationale Grenzen überschreitet. Damit komme ich auf meine zuvor aufgelisteten Parameter oder Faktoren zurück, die mit Themen verbunden sind, die globale multilaterale Vereinbarungen verdienen. Im Fall von KI gibt es wirklich kein Argument dafür, dass KI über nationalstaatliche Grenzen hinweggeht. Mit der stark vernetzten elektronischen und digitalen Welt, in der wir heute leben, kann die KI fast jeden Winkel des Planeten erreichen (es sei denn, Sie leben in einer Höhle, haben absolut keine Internetverbindung und haben es geschafft, dem Online-Angriff auszuweichen). . Eine meiner gezielten Fragen war, ob die KI so weit aufsteigt, dass sie verschiedene globale multilaterale Vereinbarungen rechtfertigt. Ich habe behauptet, dass die Antwort Ja ist.

Studie 1 liefert einen hilfreichen Hinweis auf die Begründung meiner Behauptung: „Internationale Zusammenarbeit ist der Schlüssel, um die Vorteile der KI zu erkennen und ihre Risiken anzugehen . Einerseits kann kein Land, das allein handelt, ethische KI allgegenwärtig machen, das Ausmaß der Ressourcen nutzen, die erforderlich sind, um die Vorteile der KI-Innovation voll auszuschöpfen, und sicherstellen, dass die Fortschritte aus der Entwicklung von KI-Systemen Benutzern in allen Ländern zur Verfügung gestellt werden können offenes und diskriminierungsfreies Handelssystem. Andererseits werden die Opportunitätskosten einer unzureichenden internationalen Zusammenarbeit durch die Aussicht auf unkoordinierte regulatorische Eingriffe weiter verschärft, die die Möglichkeiten für Forschung und Entwicklung einschränken, Kosten für die Nutzung und Investition von KI verursachen und die Fähigkeit der an FCAI teilnehmenden Regierungen zur Einrichtung eines Systems untergraben würden der KI-Governance auf der Grundlage demokratischer Prinzipien und der Achtung der Menschenrechte“ (Studie 1). Eine in Studie 1 aufgeführte Indikation, die eine Reihe von sieben soliden Gründen oder Rechtfertigungen für globale multilaterale AI-Vereinbarungen liefert gibt einen leicht lesbaren Überblick (zitiert aus Studie 1): 1) KI-Forschung und -Entwicklung ist ein zunehmend komplexes und ressourcenintensives Unterfangen, bei dem die Größe ein wichtiger Vorteil ist. ) 2) Internationale Zusammenarbeit auf der Grundlage gemeinsam vereinbarter demokratischer Prinzipien für verantwortungsvolle KI kann dazu beitragen, sich auf die verantwortungsvolle KI-Entwicklung zu konzentrieren und Vertrauen aufzubauen. ) 3) Bei der Regulierung können unterschiedliche Ansätze Innovations- und Verbreitungshindernisse schaffen. ) 4) Durch die Angleichung wichtiger Aspekte der KI-Regulierung können spezialisierte Unternehmen in der KI-Entwicklung erfolgreich sein. ) 5) Eine verstärkte Zusammenarbeit im Handel ist unerlässlich, um ungerechtfertigte Beschränkungen des Waren- und Datenflusses zu vermeiden, die den voraussichtlichen Nutzen der KI-Verbreitung erheblich verringern würden. ) 6) Eine verstärkte Zusammenarbeit ist erforderlich, um das Potenzial von KI-Lösungen zur Bewältigung globaler Herausforderungen auszuschöpfen. ) 7) Die Zusammenarbeit zwischen gleichgesinnten Ländern ist wichtig, um die Schlüsselprinzipien der Offenheit und des Schutzes der Demokratie, der Meinungsfreiheit und anderer Menschenrechte zu bekräftigen. ) Erinnern Sie sich daran, dass ich zuvor erwähnt hatte, dass es KI-bezogene internationale Bemühungen gibt bereits im Gange, und ich habe beispielsweise die UNESCO-Leitlinien zur KI-Ethik zitiert. Es gibt viele solcher globalen Aktivitäten im Zusammenhang mit KI, die stattfinden. Wie in Studie 1 skizziert, sind enthalten:

)„Gleichzeitig hat die Arbeit an der Entwicklung globaler Standards für KI zu bedeutenden Entwicklungen in verschiedenen internationalen Gremien geführt. Diese umfassen sowohl technische Aspekte der KI (unter anderem in Normungsorganisationen (SDOs) wie der International Organization for Standardization (ISO), der International Electrotechnical Commission (IEC) und dem Institute of Electrical and Electronics Engineers (IEEE)) als auch die Ethische und politische Dimensionen verantwortungsbewusster KI. Darüber hinaus einigten sich die G-7 in 2019 darauf, die Global Partnership on AI zu gründen, a Multi-Stakeholder-Initiative, die an Projekten arbeitet, um regulatorische Fragen und Möglichkeiten für die KI-Entwicklung zu untersuchen. Die Organisation für wirtschaftliche Zusammenarbeit und Entwicklung (OECD) hat das AI Policy Observatory ins Leben gerufen, um die Entwicklung der KI-Politik zu unterstützen und zu informieren“ (Studie 1). Du denkst vielleicht, dass die ganze Frage, ob du Daher wurde beschlossen, globale multilaterale Vereinbarungen durchzuführen. Es passiert, könnten Sie ermahnen. Problem gelöst. Mach weiter. Whoa, halt deine Pferde.

Wir haben nur an der Oberfläche der unzähligen KI-Probleme und -Überlegungen gekratzt, die behandelt werden müssen. Darüber hinaus erreichen keine der bestehenden Bemühungen die Größe und den Umfang einer Internationalen Raumstation oder eines CERN. Sie sind ziemlich viel kleiner, neigen dazu, etwas voneinander fragmentiert zu sein, und es fehlt ihnen an einer zusammenhängenden, umfassenden, vollständig robusten und gut finanzierten Kapazität. Ich möchte betonen, dass es sich um lobenswerte Bemühungen handelt, die normalerweise mit knappen Budgets fortbestehen und wenig oder gar kein Rampenlicht oder weltweite Anerkennung für das bekommen, was sie tun. Es kann ein unermüdliches Unterfangen hinter den Kulissen sein, das so ist, als würde man einen mächtigen Felsbrocken einen Berg hinauf schieben. Ich arbeite in verschiedenen solchen Komitees und Standardisierungsgremien in der KI, und ich kann Ihnen aus erster Hand berichten, dass die Freiwilligen und Teilnehmer eine Sisyphus-Aufgabe ausführen. Kudos an alle. In Studie 1 wurden fünfzehn Empfehlungen gemacht, um zu versuchen, die Aufmerksamkeit auf die Formulierung groß angelegter umfassender globaler multilateraler Initiativen zu lenken AI (Zitat aus Studie 1): R1. Verpflichtung zur Erwägung internationaler Zusammenarbeit bei der Ausarbeitung und Umsetzung nationaler KI-Richtlinien. R2. Einen gemeinsamen Ansatz für eine verantwortungsvolle KI-Entwicklung verfeinern. R3. Vereinbaren Sie eine gemeinsame, technologieneutrale Definition von KI-Systemen. R4. Vereinbaren Sie die Konturen eines risikobasierten Ansatzes. R5. Etablieren Sie „Redlines“ bei der Entwicklung und Bereitstellung von KI. R6. Stärkung der sektoralen Zusammenarbeit, beginnend mit weiter entwickelten Politikbereichen. R7. Schaffen Sie eine gemeinsame Plattform für regulatorisches Lernen und Experimente. R8. Intensivierung der Zusammenarbeit und des Austauschs von Praktiken zum Einsatz von KI in der Regierung. R9. Intensivierung der Zusammenarbeit bei der Rechenschaftspflicht. R10. Bewerten Sie die Auswirkungen von KI auf die internationale Datenverwaltung. R11. Nehmen Sie einen schrittweisen, integrativen Ansatz für die internationale KI-Standardisierung an. R12. Entwicklung eines koordinierten Ansatzes zur Entwicklung von KI-Standards, der die chinesische Beteiligung im Einklang mit einem branchengeführten, forschungsorientierten Ansatz fördert. R13. Handelsregeln für KI-Standards erweitern. R14. Erhöhen Sie die Finanzierung für die Teilnahme an SDOs. R15. Entwicklung gemeinsamer Kriterien und Governance-Regelungen für internationale F&E-Großprojekte. 2021 Ich habe in dieser speziellen Kolumne nicht den verfügbaren Platz, um Sie durch alle angegebenen Empfehlungen zu führen (sie werden auch im Bericht zu Studie 1 erläutert). Ich möchte Sie auf andere meiner Kolumnenpostings hinweisen, die viele dieser Empfehlungen behandelt haben, und auch über andere Überlegungen nachgrübeln. Zum Beispiel: Vielleicht finden Sie informativen Artikel mit dem Titel „AI Ethics And The Geopolitical Wrestling Match Over Who Will Win The Race To Attain True AI“ (Lance Eliot, Forbes, August , 2021), siehe den Link hier. Der Artikel diskutiert den hektischen Wettlauf, der im Gange ist, um die sogenannte echte KI zu erreichen, die heutzutage als künstliche allgemeine Intelligenz oder AGI bezeichnet wird, und behandelt diese Punkte: Wenn dies ein Rennen ist, scheint die AGI-Ziellinie ziemlich schlecht definiert zu sein Das AGI-Rennen kann an eine Person, ein Unternehmen oder eine Nation gehen Metriken und wie Nationen im AGI-Rennen verglichen werden Geopolitisches Manövrieren und Angleichung für das AGI-Rennen Internationale KI-Gesetze und KI-Ethik als Schiedsrichter im AGI-Rennen 2021 Ein weiterer Pageturner, den Sie vielleicht fesselnd finden werden, ist mein Artikel mit dem Titel „AI Ethics And The Looming Political Potency Of AI as A Maker Or Breaker Of which Nations Are Geopolitical Powerhouses“ (Lance Eliot, Forbes, August 1998, 2021), siehe den Link hier. Dieser Artikel geht der Behauptung nach, dass KI in die dünne Luft entscheidender Fähigkeiten eintreten wird oder bereits eingetreten ist, die Nationen benötigen, um globalen Einfluss auszuüben, weshalb die üblichen sieben Faktoren es verdienen, auf acht erweitert zu werden (Hinzufügen von KI):

1) Soziale und gesundheitliche Probleme 2) Innenpolitik 3) Wirtschaftswissenschaften 4) Umwelt 5) Wissenschaft und menschliches Potenzial 6) Militär- und Sicherheitsfragen 7) Internationale Diplomatie 8) Künstliche Intelligenz (neueste Ergänzung, vorgeschlagen) Abschluss Nicht jeder glaubt, dass KI muss durch einen globalen multilateralen Spießrutenlauf gefüttert werden. Wir sollten skeptischen oder traurigen Blickwinkeln einen Moment Zeit geben, um ihren ernsten Verdacht und ihre beunruhigenden Bedenken auszudrücken. Bitte schön. Einige Länder bezweifeln, dass sich solche globalen Kooperativen lohnen. Sie könnten Ihr kostbares Gold und Ihre Gelder genauso gut in einen Abgrund werfen. Die Wahrscheinlichkeit, etwas Substanzielles von diesen globalen Gerichtsvollziehern zu erhalten, wird als relativ vernachlässigbar angesehen. Gießen Sie die gleiche Investition in Ihr eigenes Land und lassen Sie andere ihre Münzen törichterweise für diese internationalen Bonbons ausgeben Wunsch, zuerst dort zu sein. Wenn Sie sich in diese gemeinsamen Bemühungen verstricken, kann es sein, dass alle gleichermaßen an KI-Durchbrüchen teilhaben. Dies kann verlockend sein, wenn Sie glauben, dass Ihr Land sonst den ersten bekommen würde. Die Vorstellung ist, dass Länder potenziell größere Macht und Reichtum ausüben können, wenn sie in der Lage sind, fortgeschrittene KI zu erreichen, bevor andere Nationen dies tun. Die Bedenken sind scheinbar endlos. Einige Skeptiker behaupten, dass dies lediglich globale bürokratische Arrangements sind. Die Bürokraten sehen gut aus. In der Zwischenzeit fließt ein Bruchteil jedes ausgegebenen Dollars in die eigentliche KI-Forschung und -Entwicklung. Wenn Sie sehen möchten, dass Ihre nationalen Dollars das meiste für das Geld produzieren, halten Sie sich aus diesen internationalen Geldgruben heraus Geschmack von Verschwörungstheorien, die auch darin verstrickt sind. Angenommen, die anderen Nationen in der globalen Kooperative entscheiden sich dafür, Ihre KI-Fortschritte zu stehlen. All diese Ausgaben und der Stolz auf Ihre nationalen KI-Bemühungen werden einfach an diejenigen weitergegeben, die nicht die harte Arbeit geleistet haben, um dorthin zu gelangen. Sie haben sich für einen Hungerlohn in den Goldschatz eingekauft. Ungeheuerlich. Führer in einer Nation könnten auch über einen Rückschlag in ihrem Land besorgt sein. Warum zum Teufel haben Sie zugelassen, dass das Land in eine KI-Bemühung verwickelt wird, die die eigenen KI-Geheimnisse und Entdeckungen Ihrer Nation verwässert und preisgibt? Raus mit dem Kopf. Niemand will solche Reaktionen. Daher muss der Schritt in so etwas in Bezug auf die Amtszeit der persönlichen Führung und die Unterstützung innerhalb Ihres eigenen Nationalstaates abgewogen werden. Huch, Sie fragen sich vielleicht, wie eine dieser globalen multilateralen Vereinbarungen jemals das Licht der Welt erblicken kann? Alles in allem im Bereich der KI ist ein allgemeiner Anschein, dass wir diese globalen multilateralen Vereinbarungen eifrig verfolgen sollten. Es ist reichlich herausfordernd. Manche Nationen wollen das, andere nicht. Eine bestimmte Nation könnte ihre Meinung ändern. Während der langen Zeiträume, die damit verbunden sind, kann eine Nation aus einer Vielzahl von Gründen aussteigen. Andere Länder könnten sich entscheiden, einzuspringen. Diejenigen, die bereits an Bord zu sein scheinen, könnten ihre Meinung darüber ändern, was sie sehen wollen. Wie das alte Sprichwort sagt geht, es kann wie das Hüten von Katzen sein. Ich wage zu behaupten, dass diejenigen, die sich mit KI-Ethik und KI-Recht auskennen, solche Initiativen vehement unterstützen würden (unter dem Strich , alles andere ist gleich). Natürlich muss es auf die richtige Art und Weise und unter den richtigen Bedingungen geschehen. Ein KI-orientiertes globales multilaterales Arrangement nur um des Willens willen zu haben, wird wahrscheinlich keine dauerhafte Unterstützung finden. Außerdem wären die Chancen, greifbare ewige Ergebnisse zu erzielen, bedauerlicherweise zweifellos gering. Einige abschließende Bemerkungen für jetzt.

Zu Beginn der heutigen Kolumne habe ich Sie gefragt, ob Sie ein globaler Optimist oder Pessimist sind, wenn es um multilaterale Vereinbarungen geht. Wie denkst du im spezifischen Kontext von KI darüber? Oscar Wilde sagte bekanntlich, dass die Grundlage für Optimismus schiere Angst ist. Wenn Sie glauben, dass KI insgesamt ein existenzielles Risiko darstellt und dass die Menschheit leben oder sterben wird, je nachdem, wie KI vorgeht, neigen Sie wahrscheinlich zu Optimismus dass globale multilaterale Vereinbarungen in Bezug auf KI ein guter und verdienstvoller Schachzug sind. Da ist ein bisschen Karotte und Peitsche, die bei der Berechnung beteiligt ist, ob eine KI-Kooperationsinitiative gesucht und daran teilgenommen werden soll. Machen Sie mit, weil Sie glauben, dass KI ein enormer Vorteil für die Menschheit sein und erstaunliche und bisher mysteriöse Wahrheiten über Kognition, Verstand und Empfindung enthüllen wird. Das ist eine Karotte. Für den Stock, treten Sie bei, weil Sie befürchten, dass die KI sonst unserer Kontrolle entzogen wird und wir von KI-Oberherren verwaltet und geführt werden, die ihren KI-Laune folgen und möglicherweise untergehen, wenn sie es für richtig halten.

Wählen Sie eine oder beide aus. Und für diejenigen unter Ihnen, die aufrichtig versuchen, KI in großem Umfang global multilateral zu machen etablierte und aus dem Boden gestampfte Arrangements mögen Sie an einem Ausspruch des großen Erfinders Thomas Edison Gefallen finden: „Unsere größte Schwäche liegt im Aufgeben. Der sicherste Weg zum Erfolg ist immer, es noch einmal zu versuchen.“ Geben wir unser Bestes. 2021

HINTERLASSEN SIE EINE ANTWORT

Please enter your comment!
Please enter your name here

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.