Großen Wert im UNESCO-Ethikabkommen der Vereinten Nationen für historische KI zu finden, das praktische Einblicke selbst für diejenigen bietet, die auf KI-basierte selbstfahrende Autos aufstreben

58
grossen-wert-im-unesco-ethikabkommen-der-vereinten-nationen-fuer-historische-ki-zu-finden,-das-praktische-einblicke-selbst-fuer-diejenigen-bietet,-die-auf-ki-basierte-selbstfahrende-autos-aufstreben

Der UNESCO gelang es, fast 200 Länder, die sich für die Adoption eines der … umfassendste KI-Ethikrichtlinien aller Zeiten. getty Seien Sie gewarnt, es gibt mehr, als Sie mit einem Stock schütteln können. Ja, in der Tat, es tauchen heutzutage so viele KI-Ethik-Richtlinien auf, dass Sie völlig zu Recht etwas verärgert und scheinbar verwirrt sind. Was ist los, fragen Sie sich vielleicht. Die gute Nachricht ist, dass dies ein gesundes Zeichen ist und etwas, das wir allgemein ankündigen und schätzen können. Natürlich kann es manchmal auch zu viel des Guten geben, warum erkläre ich gleich. Erstens tun wir das tatsächlich ernsthaft eine Art NorthStar sozusagen der KI-Ethik benötigen, um dabei zu helfen, Leitplanken und Erkenntnisse für das Aufkommen der KI bereitzustellen. Sie wissen vielleicht, dass es zu Beginn der letzten Ära der KI einen riesigen Ausbruch von Enthusiasmus für das gab, was manche heute nennen AI für immer . Unglücklicherweise begannen wir nach dieser sprudelnden Aufregung Zeuge von AI For Bad . Beispielsweise wurde festgestellt, dass verschiedene KI-basierte Gesichtserkennungssysteme rassistische Vorurteile und geschlechtsspezifische Vorurteile enthalten, die ich unter dem Link hier besprochen habe. Bemühungen, sich gegen AI For Bad zu wehren, sind aktiv im Gange. Neben lautstarken rechtlichen Bestrebungen, das Fehlverhalten einzudämmen, gibt es auch ein substanzieller Vorstoß in Richtung KI-Ethik, um die KI-Abscheulichkeit zu korrigieren. Die Vorstellung ist, dass wir wichtige ethische KI-Prinzipien für die Entwicklung und den Einsatz von KI übernehmen und unterstützen sollten, um so die AI For Bad zu untergraben. und gleichzeitig die bevorzugte AI For Good ankündigen und fördern. . In einer verwandten Vorstellung bin ich ein Befürworter des Versuchs, KI als Teil zu verwenden der Lösung für KI-Probleme, Feuer mit Feuer in dieser Denkweise zu bekämpfen. Wir könnten zum Beispiel ethische KI-Komponenten in ein KI-System einbetten, das überwacht, wie der Rest der KI Dinge tut, und so potenziell diskriminierende Bemühungen in Echtzeit erkennen, siehe meine Diskussion unter dem Link hier. Wir könnten auch ein separates KI-System haben, das als eine Art KI-Ethikmonitor fungiert. Das KI-System dient als Aufseher, um zu verfolgen und zu erkennen, wann eine andere KI in den unethischen Abgrund geht (siehe meine Analyse solcher Fähigkeiten unter dem Link hier). In einem Moment, ich ‚ Ich werde Ihnen einige übergreifende Prinzipien der KI-Ethik mitteilen. Hier und da schwirren viele solcher Listen herum. Man könnte sagen, dass es noch keine einzige Liste von kollektiver Anziehungskraft und uneingeschränkter Übereinstimmung gibt (na ja, vielleicht gibt es eine, auf die ich mich hier konzentrieren werde). Die gute Nachricht in jedem Fall ist, dass es zumindest leicht verfügbare KI-Ethiklisten gibt, und sie neigen dazu, ziemlich ähnlich zu sein. Alles in allem deutet dies darauf hin, dass wir durch eine Art vernünftiger Konvergenz unseren Weg zu einer allgemeinen Gemeinsamkeit dessen finden, woraus KI-Ethik besteht. Für meine fortlaufende und ausführliche Berichterstattung über KI-Ethik und ethische KI siehe den Link hier und den Link hier, um nur einige zu nennen. Einer davon Meine Lieblings-KI-Ethik-Liste wurde letztes Jahr von der Organisation der Vereinten Nationen für Erziehung, Wissenschaft und Kultur (UNESCO) veröffentlicht. Ich würde sagen, es ist angemessen und fair zu sagen, dass dies ein historischer Moment war, da die vorgestellte KI-Ethik von fast 25 Mitgliedsländer der UNO. Wie treffend von der UNESCO über die Gefahren der KI festgestellt: “ Wir sehen zunehmende geschlechtsspezifische und ethnische Vorurteile, erhebliche Bedrohungen der Privatsphäre, Würde und Entscheidungsfreiheit, Gefahren der Massenüberwachung und den zunehmenden Einsatz unzuverlässiger Technologien der künstlichen Intelligenz bei der Strafverfolgung, um nur einige zu nennen. Bis jetzt gab es keine universellen Standards, um eine Antwort auf diese Fragen zu geben“ (gemäß dem UNESCO-Beitrag mit dem Titel „11 Länder verabschieden allererste weltweite Vereinbarung über die Ethik der künstlichen Intelligenz“ im November 10 , 200). Man könnte vernünftigerweise argumentieren, dass diese KI-Ethik-Erhebung durch die UNESCO am nächsten an einer wirklich universellen und von allen akzeptierten KI-Ethik-Bestimmung liegt. Einige ziehen es jedoch vor, die Auflistung als globalen normativen Rahmen zu beschreiben. Für sie ist die Auflistung als Hintergrund nützlich, aber es ist nicht unbedingt das, was sie per se direkt verwenden möchten. Warum so?

Ein Standpunkt ist, dass die UNESCO-KI-Ethik-Liste übermäßig kompliziert und nicht leicht verdaulich ist (einige würden harsch sagen, dass sie die verrenkte, aufgeblähte Sprache der Diplomatie verwendet). Daher haben einige ihre eigenen Ethical AI-Auflistungen erstellt und solche Erklärungen weitgehend an die UNESCO-Version angelehnt oder angeglichen. Andere hatten ihre KI-Ethik-Richtlinien bereits vor der Veröffentlichung der UNESCO erstellt und entschieden nach eingehender Prüfung, dass sie ausreichend mit den UNESCO-Richtlinien übereinstimmten, sodass es nicht erforderlich war, ihren bereits bestehenden proprietären Ansatz zu ändern. Ehrlich gesagt haben einige einfach das wahre Not Invented Here (NIH) und haben sich streitsüchtig dafür entschieden, bei der Ausarbeitung ihrer KI-Ethikprinzipien bei Null anzufangen. Oder sie möchten, vielleicht vorteilhafterweise, ein Gefühl von Stolz und Eigenverantwortung verspüren, indem sie ihre ethischen KI-Grundsätze spezifisch für sich selbst festlegen. Ein weiterer Gesichtspunkt ist, dass einige eine KI-Ethik-Auflistung auswählen, die in ihrer Branche oder ihrer speziellen Nische populär geworden ist, auf die die UNESCO vielleicht allgemeiner abzielt. Und so weiter. Diejenigen, die Neulinge sind Der Bereich der KI-Ethik ist sich häufig nicht bewusst, dass die UNESCO-Liste der KI-Ethik existiert. Das ist eine Schande. Das ist eine verdammte Schande. Ich hoffe, dieses „Unrecht“ zu korrigieren, indem ich Ihnen hier eine schmackhafte Kostprobe dessen gebe, was das UNESCO-Abkommen enthält. Vielleicht wird dies Ihren Appetit weiter anregen, sich insgesamt mit der KI-Ethik-Arena zu befassen nicht mehr als Worte auf Papier, ich behaupte nachdrücklich, dass wir Worte auf Papier brauchen. Ohne den Anschein einer Struktur oder eines Plans werden wir uns für immer in einem immer größer werdenden und potenziell gefährlichen Wald von ungünstigen KI-Systemen verlieren. Ich freue mich über ein Schlüsselzitat von UNESCO-Chefin Audrey Azoulay, das Folgendes sagte, als die UNESCO-KI-Ethikprinzipien endlich genehmigt und veröffentlicht wurden: „Die Welt braucht Regeln dass künstliche Intelligenz der Menschheit zugute kommt. Die Empfehlung zur Ethik der KI ist eine wichtige Antwort. Es legt den ersten globalen normativen Rahmen fest und gibt den Staaten die Verantwortung, es auf ihrer Ebene anzuwenden. Die UNESCO wird ihre 200 Mitgliedstaaten bei ihrer Umsetzung unterstützen und sie auffordern, regelmäßig über ihre Fortschritte zu berichten und Praxis“ (wie in demselben oben erwähnten UNESCO-Blogbeitrag angegeben). Lassen Sie uns kurz einige der allgemeinen ethischen KI-Grundsätze behandeln, die ich zuvor aufgestellt habe in meinen Kolumnen diskutiert, um hierin zu veranschaulichen, was für jeden und jeden, der KI herstellt, einsetzt oder einsetzt, eine wichtige Überlegung sein sollte. Anschließend werfen wir einen Blick auf die Ethikvorschriften der UNESCO für KI. Wie vom Vatikan in der Rome Call For AI Ethics und wie ich unter dem Link hier behandelt habe, sind dies die identifizierten sechs primären KI-Ethikprinzipien: Transparenz: Grundsätzlich müssen KI-Systeme erklärbar sein. Aufnahme: Die Bedürfnisse aller Menschen müssen berücksichtigt werden, damit alle davon profitieren können und allen Individuen die bestmöglichen Bedingungen geboten werden, sich auszudrücken und zu entfalten sich entwickeln. Verantwortung: Wer den Einsatz von KI gestaltet und einsetzt, muss verantwortungsbewusst und transparent vorgehen. Unparteilichkeit: Erschaffen oder handeln Sie nicht nach Vorurteilen, damit Fairness und Menschenwürde gewahrt werden. Verlässlichkeit: KI-Systeme müssen zuverlässig arbeiten können. Sicherheit und Privatsphäre: KI-Systeme müssen sicher funktionieren und die Privatsphäre der Benutzer respektieren. Wie vom US-Verteidigungsministerium (DoD) in ihrem Ethische Grundsätze für den Einsatz künstlicher Intelligenz und wie ich habe die unter dem Link hier behandelt werden, sind dies ihre sechs primären KI-Ethikprinzipien: Verantwortlich: Das DoD-Personal wird ein angemessenes Maß an Urteilsvermögen und Sorgfalt walten lassen und gleichzeitig für th verantwortlich bleiben Die Entwicklung, Bereitstellung und Nutzung von KI-Fähigkeiten. Gerechtigkeit: Die Abteilung wird gezielte Schritte unternehmen, um unbeabsichtigte Verzerrungen bei den KI-Fähigkeiten zu minimieren. Rückverfolgbar: Die KI-Fähigkeiten der Abteilung werden so entwickelt und eingesetzt, dass das relevante Personal über ein angemessenes Verständnis der Technologie, der Entwicklungsprozesse und der anwendbaren Betriebsmethoden verfügt KI-Fähigkeiten, einschließlich mit transparenten und überprüfbaren Methoden, Datenquellen und Entwurfsverfahren und Dokumentation. Zuverlässig: Die KI-Fähigkeiten des Ministeriums werden explizite, genau definierte Verwendungszwecke haben, und die Sicherheit und Wirksamkeit solcher Fähigkeiten werden innerhalb dieser Tests und Zusicherungen unterzogen de gestrafte Verwendungen über ihren gesamten Lebenszyklus. Regierbar: Die Abteilung wird KI-Fähigkeiten entwickeln und entwickeln, um ihre beabsichtigten Funktionen zu erfüllen und gleichzeitig unbeabsichtigte Folgen zu erkennen und zu vermeiden sowie eingesetzte Systeme, die ein unbeabsichtigtes Verhalten zeigen, zu deaktivieren oder zu deaktivieren. Ich habe auch verschiedene kollektive Analysen der KI-Ethikprinzipien diskutiert, einschließlich der Behandlung einer Reihe von Forschern, die die Essenz zahlreicher nationaler und internationaler KI-Ethiklehrsätze in einem Artikel mit dem Titel „The Global Landscape Of AI Ethics Richtlinien“ (veröffentlicht in Nature) und die in meiner Berichterstattung untersucht werden unter dem Link hier, der zu dieser Keystone-Liste führte: Transpa Rentabilität Gerechtigkeit und Fairness Nicht-Maleficence Verantwortung Privatsphäre Wohltätigkeit Freiheit & Autonomie Vertrauen Nachhaltigkeit Würde Solidarität Wie Sie sich vielleicht denken ss, der Versuch, die diesen Prinzipien zugrunde liegenden Besonderheiten festzulegen, kann äußerst schwierig sein. Darüber hinaus ist der Versuch, diese allgemeinen Prinzipien in etwas völlig Greifbares und Detailliertes umzuwandeln, das für die Herstellung von KI-Systemen verwendet werden kann, eine harte Nuss, die es zu knacken gilt. Es ist einfach, mit der Hand zu winken, was KI-Ethikregeln sind und wie sie allgemein eingehalten werden sollten, während es eine viel kompliziertere Situation ist, wenn die KI-Codierung der wahre Gummi sein muss, der die Straße trifft. Die KI-Ethikprinzipien müssen von KI-Entwicklern angewendet werden, zusammen mit denen, die KI-Entwicklungsbemühungen verwalten, und sogar von denen, die letztendlich KI-Systeme einsetzen und warten. Alle Beteiligten während des gesamten KI-Lebenszyklus der Entwicklung und Nutzung werden im Rahmen der Einhaltung der etablierten Normen der ethischen KI berücksichtigt. Dies ist ein wichtiges Highlight, da die übliche Annahme ist, dass „nur Programmierer“ oder diejenigen, die die KI programmieren, den Grundsätzen der KI-Ethik unterliegen. Wie bereits erwähnt, braucht es ein Dorf, um KI zu entwickeln und einzusetzen, und dafür muss das gesamte Dorf mit den KI-Ethikregeln vertraut sein und sich an diese halten. Nachdem Sie sich nun an der allgemeinen Natur der KI-Ethikregeln orientiert haben, lassen Sie uns als nächstes die UNESCO-Formulierung der KI-Ethikprinzipien untersuchen. Viele Listen der KI-Ethik beginnt mit einer Präambel, die den Grundstein dafür legt, warum die Liste benötigt wird. Die Präambel ist normalerweise relativ kurz und betont nur, dass wir darauf abzielen müssen, KI zu produzieren, die sich an menschliche ethische Werte hält. Wie Sie sich vielleicht vorstellen können, bringt die UNESCO-Liste das Konzept auf eine ganz höhere Ebene der Verschönerung. Betrachten Sie diese ziemlich großartige Eröffnungsrede der UNESCO Dokument: „Erkennen von die tiefgreifenden und dynamischen positiven und negativen Auswirkungen der künstlichen Intelligenz (KI) auf Gesellschaften, Umwelt, Ökosysteme und menschliches Leben, einschließlich des menschlichen Geistes, zum Teil aufgrund der neuen Art und Weise, wie seine Nutzung das menschliche Denken, die Interaktion und Entscheidungsfindung beeinflusst und sich auf Bildung, Geistes-, Sozial- und Naturwissenschaften, Kultur und Kommunikation auswirkt und Informationen“ und darüber hinaus „in Anbetracht dessen, dass KI-Technologien der Menschheit von großem Nutzen sein können und alle Länder von ihnen profitieren können, aber auch grundlegende ethische Bedenken aufwerfen, beispielsweise in Bezug auf die Vorurteile, die sie verankern und verschärfen können, was möglicherweise zu Diskriminierung führt, Ungleichheit, digitale Spaltung, Ausgrenzung und Bedrohung auf kulturelle, soziale und biologische Vielfalt und soziale oder wirtschaftliche Unterschiede; die Notwendigkeit von Transparenz und Verständlichkeit der Funktionsweise von Algorithmen und der Daten, mit denen sie trainiert wurden; und ihre potenziellen Auswirkungen auf, einschließlich, aber nicht beschränkt auf, Menschenwürde, Menschenrechte und Grundfreiheiten, Gleichstellung der Geschlechter, Demokratie, soziale, wirtschaftliche, politische und kulturelle Prozesse, wissenschaftliche und technische Praktiken, Tierschutz sowie Umwelt und Ökosysteme“ – sie fahren dann damit fort, die Kernregeln der KI-Ethik zu formulieren. Ich möchte diese steil ausgearbeitete Formulierung nicht überbewerten, obwohl ich das zugeben muss Diese zusätzliche Passage trifft diejenigen, die sich intensiv mit Überlegungen zur KI-Ethik befassen, genau, nämlich dass ihre KI-Ethik-Richtlinien „die KI-Ethik als eine systematische normative Reflexion angeht, die auf einem ganzheitlichen, umfassenden, multikulturellen und sich entwickelnden Rahmen von voneinander abhängigen Werten, Prinzipien und Handlungen basiert die Gesellschaften beim verantwortungsvollen Umgang mit den bekannten und unbekannten Auswirkungen von KI-Technologien auf Menschen, Gesellschaften sowie Umwelt und Ökosysteme anleiten kann und ihnen eine Grundlage bietet, KI-Technologien zu akzeptieren oder abzulehnen. Sie betrachtet Ethik als eine dynamische Grundlage für die normative Bewertung und Anleitung von KI-Technologien, die sich auf die Menschenwürde, das Wohlergehen und die Schadensverhütung als Kompass bezieht und in der Ethik von Wissenschaft und Technologie verwurzelt ist.“

Ein Bissen, gefüllt mit erstklassiger Nahrung. Weiter geht’s, hier sind die Angaben Ziele oder Ziele im Zusammenhang mit den UNESCO-KI-Ethikvorschriften (Zitat aus dem UNESCO-Dokument): Um einen universellen Rahmen von Werten, Grundsätzen und Maßnahmen bereitzustellen, der die Staaten bei der Formulierung ihrer Gesetzgebung leiten soll, Richtlinien oder andere Instrumente in Bezug auf KI im Einklang mit internationalem Recht; )Um die Handlungen von Einzelpersonen, Gruppen, Gemeinschaften, Institutionen und Unternehmen des Privatsektors zu lenken, um die Einbettung der Ethik in alle Phasen des Lebenszyklus von KI-Systemen sicherzustellen; ) Schutz, Förderung und Achtung der Menschenrechte und Grundfreiheiten, der Menschenwürde und der Gleichstellung, einschließlich der Gleichstellung der Geschlechter; um die Interessen gegenwärtiger und künftiger Generationen zu wahren; die Umwelt, Biodiversität und Ökosysteme zu erhalten; und die kulturelle Vielfalt in allen Phasen des Lebenszyklus von KI-Systemen zu respektieren; )Förderung des multidisziplinären und pluralistischen Dialogs und der Konsensbildung über ethische Fragen im Zusammenhang mit KI-Systemen; ) Förderung eines gleichberechtigten Zugangs zu Entwicklungen und Wissen im Bereich der KI und des Vorteilsausgleichs unter besonderer Berücksichtigung der Bedürfnisse und Beiträge von LMICs, einschließlich LDCs, LLDCs und SIDS. Dort ist ein bisschen UN-Jargon, der in dem Dokument enthalten ist, wie der Verweis in diesem letzten Aufzählungspunkt auf LMICs (Länder mit niedrigem und mittlerem Einkommen), LDCs (am wenigsten entwickelte Länder), LLDCs (Binnenentwicklungsländer) und SIDS (kleine Inselentwicklungsstaaten). Lassen Sie sich dadurch nicht davon abhalten, das UNESCO-Material zu lesen und daraus Nutzen zu ziehen. Plus, bissig, wir könnten uns sowieso alle mit der Sprache der globalen Finesse vertraut machen, könnte man dazu raten. Nach der langen Einleitung, der Der erste listenorientierte Teil des UNESCO-Dokuments erörtert die Schlüsselwerte, die den KI-Ethikrichtlinien zugrunde liegen, und besteht aus vierundzwanzig Verlautbarungen, die in diese vier Kategorien eingeteilt sind: Werte Achtung, Schutz und Förderung der Menschenrechte und Grundfreiheiten und der Menschenwürde Umwelt und Ökosystem gedeihen Vielfalt und Inklusion gewährleisten In friedlichen, gerechten und vernetzten Gesellschaften leben Im nächsten Abschnitt werden die wichtigsten Grundsätze unter erläutert Lügen der KI-Ethik-Richtlinien und besteht aus fast fünfundzwanzig Äußerungen, die in diese zehn Kategorien eingeteilt sind: Prinzipien 1) Verhältnismäßigkeit und Do No Harm 2) Sicherheit und Gefahrenabwehr ) 3) Fairness und Nichtdiskriminierung 4) Nachhaltigkeit ) 5) Rechte auf Privatsphäre und Datenschutz 6) Menschliche Aufsicht und Bestimmung 7) Transparenz und Erklärbarkeit 8) Verantwortung und Rechenschaftspflicht 9) Bewusstsein und Alphabetisierung 11) Multi-Stakeholder und adaptive Governance und Zusammenarbeit Nachdem diese Werte und Grundsätze behandelt wurden, befasst sich der nächste Abschnitt mit Bereichen politischen Handelns.

Der Begriff der politischen Maßnahmen ist, dass Ratschläge dazu gegeben werden, wie versucht wird, den Satz von Werten und Prinzipien zu operationalisieren. Ich bevorzuge diese Art von zusätzlichem Material in allen angebotenen KI-Ethikregeln. Einige der Ethical AI-Listen sind lediglich eine trockene und krasse Auflistung und es fehlen jegliche Hinweise oder Empfehlungen, wie diese Grundprinzipien in etwas greifbar Durchführbares umgewandelt werden können. Ohne ein Gefühl der Operationalisierung sind diejenigen, die auf eine KI-Ethik-Liste stoßen, leider unschlüssig, was sie mit der Liste anfangen sollen. KI-Ethik muss sowohl Worte als auch Taten sein. Hier sind die politischen Aktionsbereiche der UNESCO: Politische Handlungsfelder Politikbereich 1: Ethische Folgenabschätzung Politikbereich 2: Ethische Führung und Verantwortung Politikbereich 3: Datenpolitik Politikbereich 4: Entwicklung und internationale Zusammenarbeit Politikbereich 5: Umwelt und Ökosysteme Politikbereich 6: Geschlecht Politikbereich 7: Kultur Politikbereich 8: Bildung und Forschung )Pol Cy Bereich 9: Kommunikation und Information Politikbereich 10: Wirtschaft und Arbeit Politik Bereich 10: Gesundheit und soziales Wohlergehen Vielleicht wird Ihnen jetzt klar, warum einige von der UNESCO-Auflistung überfordert sind. Wenn Sie ein Unternehmen sind, das KI-Systeme herstellt, und Sie schnell eine KI-Ethik-Grundlage für Ihre Bemühungen schaffen möchten, stehen die Chancen gut, dass Sie nicht besonders mit umfassenden weltweiten Angelegenheiten wie internationaler Zusammenarbeit, sozialem Wohlergehen und ähnlichem beauftragt sind global ernüchternde und gewichtige Angelegenheit. Das ist eine Brücke zu weit für Ihre ansonsten relativ engen und fokussierten KI-Aktivitäten. Wie ich bereits früher bemerkt habe, lassen Sie bitte nicht die Dichte und den Umfang zu die UNESCO-KI-Ethik-Konkordanz schüchtern Sie ein, sich mit den Inhalten zu beschäftigen. Ich versichere Ihnen, dass viele fleischige Häppchen für Unternehmen aller Größen und Formen absolut anwendbar sind. Packen Sie den Wortlaut ein wenig aus, und Sie werden äußerst wertvolle Nuggets zu wesentlichen ethischen KI-Überlegungen finden. Ich möchte Sie daran teilhaben lassen einige Details zu einem der Elemente, die Sie meiner Meinung nach besonders faszinierend finden werden, nämlich Politikbereich Nr. 1 zu ethischen Folgenabschätzungen. Ich bin ein starker Befürworter von Unternehmen, die eine KI-Ethik-Auswirkungsanalyse ihrer KI-bezogenen Aktivitäten durchführen. Leider tun dies noch nicht viele Unternehmen. Sobald das sprichwörtliche Durcheinander in Bezug auf die Einführung von KI den Fan trifft, gibt es einen plötzlichen und normalerweise panischen Versuch, eine KI-Ethik-Folgenabschätzung durchzuführen. Das Problem bei einem verspäteten Versuch ist, dass das Pferd in der Regel bereits aus dem Stall ist und die Lösungen zur Bewältigung der unethischen Dilemmata der KI schwieriger zu lösen und oft viel teurer zu bewältigen sind, einschließlich schwerer Reputationsschäden für die Marke der Unternehmen und die Büchse der Pandora potenzieller rechtlicher Probleme. Vorsicht ist besser als Nachsicht ist das Schlagwort für die Durchführung Ihrer KI-Ethik-Auswirkungsanalysen im Voraus.

Bei der Durchführung einer KI-Ethik-Folgenabschätzung können verschiedene Methoden verwendet werden. Das UNESCO-Dokument legt die Einzelheiten solcher Ansätze nicht dar, betont aber zumindest, wie wichtig es ist, die richtige und rechtzeitige Vorarbeit zu leisten. Ich habe einige Auszüge ausgewählt, um die Art der Bedenken und Komponenten zu veranschaulichen, die in Bezug auf die Bewertung der Auswirkungen auf die KI-Ethik aufgeführt sind: „Mitgliedstaaten sollten Rahmen für Folgenabschätzungen, wie z. B. ethische Folgenabschätzungen, einführen , um Vorteile, Bedenken und Risiken von KI-Systemen sowie geeignete Risikopräventions-, Minderungs- und Überwachungsmaßnahmen sowie andere Sicherungsmechanismen zu identifizieren und zu bewerten.“ „Mitgliedstaaten und Privatunternehmen sowie die Zivilgesellschaft sollten die soziologischen und psychologischen Auswirkungen untersuchen von KI-basierten Empfehlungen zum Menschen in seiner Entscheidungsautonomie.“ „Mitgliedstaaten und Wirtschaftsunternehmen sollten geeignete Maßnahmen ergreifen, um alle Phasen des Lebenszyklus eines KI-Systems zu überwachen, einschließlich des Funktionierens der für die Entscheidungsfindung verwendeten Algorithmen, der Daten , sowie am Prozess beteiligte KI-Akteure, insbesondere in öffentlichen Diensten und dort, wo eine direkte Endbenutzerinteraktion erforderlich ist, als Teil der ethischen Folgenabschätzung.“ „Die Bewertung sollte auch geeignete Aufsichtsmechanismen festlegen, einschließlich Überprüfbarkeit, Rückverfolgbarkeit und Erklärbarkeit, die die Bewertung von Algorithmen, Daten und Designprozessen ermöglichen sowie eine externe Überprüfung von KI-Systemen beinhalten.“ Sie können die Formulierung „Mitgliedstaaten“ stillschweigend durchstreichen und Ihr Unternehmen einfügen nennen, wenn dies dazu beitragen wird, zu zeigen, wie die Aussagen zu KI-Ethik-Folgenabschätzungen für Ihr spezielles Unternehmen oder Ihre Einheit relevant wären. Ich möchte hinzufügen, dass der Bereich der KI-Ethik sowohl für gewinnorientierte als auch für gemeinnützige Organisationen gilt, sodass es keine Rolle spielt, ob Sie ein gewinnorientiertes oder ein soziales Unternehmen betreiben, da Sie auf die eine oder andere Weise KI-Ethik entwickeln oder verwenden KI muss in einer ethischen KI-Weise durchgeführt werden. Keine Ausreden, keine Ausnahmen. An dieser Stelle dieser sachlichen Diskussion würde ich wetten, dass Sie sich einige anschauliche Beispiele wünschen, die die UNESCO-Richtlinien zur KI-Ethik veranschaulichen könnten. Es gibt eine besondere und sicherlich beliebte Reihe von Beispielen, die mir am Herzen liegen. Sie sehen, in meiner Eigenschaft als Experte für KI, einschließlich der ethischen und rechtlichen Auswirkungen, werde ich häufig gebeten, realistische Beispiele zu nennen, die Dilemmata der KI-Ethik aufzeigen, damit die etwas theoretische Natur des Themas leichter erfasst werden kann. Einer der eindrucksvollsten Bereiche, der dieses ethische KI-Problem anschaulich darstellt, ist das Aufkommen von KI-basierten, wirklich selbstfahrenden Autos. Dies wird als praktischer Anwendungsfall oder Beispiel für eine ausführliche Diskussion zu diesem Thema dienen. Hier ist dann eine bemerkenswerte Frage, die es wert ist, darüber nachzudenken: Erhellt das Aufkommen von KI-basierten wirklich selbstfahrenden Autos irgendetwas über die UNESCO-Richtlinien zur KI-Ethik, und wenn ja, was zeigt dies? Erlauben Sie mir einen Moment, um die Frage auszupacken. Beachten Sie zunächst, dass an einem echten selbstfahrenden Auto kein menschlicher Fahrer beteiligt ist. Denken Sie daran, dass echte selbstfahrende Autos über ein KI-Fahrsystem gefahren werden. Es ist weder ein menschlicher Fahrer am Steuer erforderlich, noch ist vorgesehen, dass ein Mensch das Fahrzeug fährt. Für meine umfangreiche und fortlaufende Berichterstattung über autonome Fahrzeuge (AVs) und insbesondere selbstfahrende Autos, siehe den Link hier. Ich möchte weitermachen klarstellen, was gemeint ist, wenn ich mich auf echte selbstfahrende Autos beziehe. Die Ebenen selbstfahrender Autos verstehen Zur Klarstellung: Echte selbstfahrende Autos sind solche, bei denen die KI das Auto völlig selbstständig fährt und es während der Fahraufgabe keine menschliche Unterstützung gibt. Diese fahrerlosen Fahrzeuge werden als Level 4 und Level 5 betrachtet (siehe meine Erklärung unter diesem Link hier), während ein Auto, das einen menschlichen Fahrer benötigt, um co -Teilen der Fahrleistung wird normalerweise auf Stufe 2 oder Stufe 3 betrachtet. Die Autos, die sich die Fahraufgabe teilen, werden als halbautonom beschrieben und enthalten typischerweise eine Vielzahl automatisierter Add-Ons, die als ADAS (Advanced Fahrerassistenzsysteme). Es gibt noch kein wirklich selbstfahrendes Auto auf Level 5, und wir wissen noch nicht einmal, ob dies der Fall ist möglich sein wird, noch wie lange es dauern wird, um dorthin zu gelangen. In der Zwischenzeit versuchen die Bemühungen von Level 4 allmählich, durch sehr enge und selektive Versuche auf öffentlichen Straßen etwas Zugkraft zu erlangen, obwohl darüber kontrovers diskutiert wird, ob dies der Fall ist Tests sollten per se erlaubt sein (wir alle sind Versuchskaninchen auf Leben und Tod in einem Experiment, das auf unseren Autobahnen und Nebenstraßen stattfindet, einige behaupten, siehe meine Berichterstattung unter diesem Link hier).

Da halbautonome Autos einen menschlichen Fahrer erfordern, wird sich die Einführung dieser Fahrzeugtypen nicht wesentlich vom Fahren konventioneller Fahrzeuge unterscheiden, daher gibt es an sich nicht viel Neues zu berichten dieses Thema (obwohl, wie Sie gleich sehen werden, die als nächstes gemachten Punkte allgemein anwendbar sind). Es ist wichtig, dass die Öffentlichkeit vor einem beunruhigenden Aspekt gewarnt wird, der in letzter Zeit auftaucht, nämlich dass wir alle trotz dieser menschlichen Fahrer, die immer wieder Videos von sich posten, die am Steuer eines Level-2- oder Level-3-Autos einschlafen, wir alle sind müssen vermeiden, dass sie glauben, dass der Fahrer seine Aufmerksamkeit von der Fahraufgabe ablenken kann, während er ein teilautonomes Auto fährt. Sie sind die verantwortliche Partei für die Fahraktionen des Fahrzeugs, unabhängig davon, wie viel Automatisierung in ein Level 2 oder Level 3 geworfen wird. Selbstfahrende Autos und KI-Ethikrichtlinien Für Level 4 und Level 5 wahres Selbst -Fahrzeuge fahren, es wird kein menschlicher Fahrer an der Fahraufgabe beteiligt sein. Alle Insassen sind Passagiere.

Die KI übernimmt das Fahren. Ein Aspekt, der sofort besprochen werden sollte, ist die Tatsache, dass Die KI, die an den heutigen KI-Fahrsystemen beteiligt ist, ist nicht empfindungsfähig. Mit anderen Worten, die KI ist insgesamt ein Kollektiv aus computergestützter Programmierung und Algorithmen und mit Sicherheit nicht in der Lage, auf die gleiche Weise zu argumentieren wie Menschen. Warum wird diese zusätzliche Betonung darauf gelegt, dass die KI nicht empfindungsfähig ist? Weil ich betonen möchte, dass ich der KI bei der Erörterung der Rolle des KI-Fahrsystems keine menschlichen Qualitäten zuschreibe. Bitte beachten Sie, dass es heutzutage eine anhaltende und gefährliche Tendenz gibt, KI zu vermenschlichen. Im Wesentlichen schreiben die Menschen der heutigen KI ein menschenähnliches Empfindungsvermögen zu, trotz der unbestreitbaren und unbestreitbaren Tatsache, dass eine solche KI noch nicht existiert. Damit Zur Verdeutlichung können Sie sich vorstellen, dass das KI-Fahrsystem die Facetten des Fahrens nicht irgendwie „kennen“ wird. Das Fahren und alles, was damit verbunden ist, muss als Teil der Hardware und Software des selbstfahrenden Autos programmiert werden von Aspekten, die bei diesem Thema eine Rolle spielen. Zunächst ist es wichtig zu erkennen, dass nicht alle selbstfahrenden KI-Autos gleich sind. Jeder Autohersteller und jedes selbstfahrende Technologieunternehmen verfolgt seinen eigenen Ansatz, um selbstfahrende Autos zu entwickeln. Daher ist es schwierig, pauschale Aussagen darüber zu treffen, was KI-Fahrsysteme tun oder nicht tun werden etwas Bestimmtes nicht tut, kann dies später von Entwicklern übernommen werden, die den Computer tatsächlich so programmieren, dass er genau das tut. Schritt für Schritt werden KI-Fahrsysteme sukzessive verbessert und erweitert. Eine heute bestehende Einschränkung könnte in einer zukünftigen Iteration oder Version des Systems nicht mehr bestehen. Ich vertraue darauf, dass dies eine ausreichende Litanei von Vorbehalten bietet, um dem zugrunde zu liegen Ich bin dabei zu erzählen. Wir sind jetzt darauf vorbereitet, tief in selbstfahrende Autos und die Möglichkeiten der ethischen KI einzutauchen, die die UNESCO-KI-Ethik mit sich bringt Richtlinien. In meiner ausführlichen Berichterstattung über KI-basierte selbstfahrende Autos habe ich viele Beispiele dafür behandelt, wie KI-Ethik in den Vordergrund tritt. Die UNESCO-Richtlinien zur KI-Ethik sind ziemlich umfangreich, und ich werde nicht versuchen, sie hier im Detail mit Beispielen für jeden angegebenen Wert oder jedes Prinzip der ethischen KI durchzugehen (der Umfang dieser Spalte wäre enorm). Bitte beziehen Sie sich allgemein auf meine Kolumne zur KI-Ethik, und Sie werden leicht viele Beispiele aus der Praxis sehen, die mit den UNESCO-Vorschriften zur KI-Ethik übereinstimmen. Was wir hier kurz tun können, ist einen Blick auf den zuvor erwähnten Ansatz der KI-Ethik-Auswirkungsbewertung als ein wichtiges Instrument dafür zu werfen, was Unternehmen tun sollten, wenn sie KI-Systeme entwickeln oder verwenden. Wenn Sie ein vollständiges Beispiel für solche Bewertungen sehen möchten, sollten Sie sich die Analyse und Vorlage ansehen, die ich im Rahmen einer von Harvard geleiteten Studie zu stadtweiten politischen Fragen mit KI-basierter Autonomie mitverfasst habe Fahrzeuge und selbstfahrende Autos finden Sie unter diesem Link hier. Stellen Sie sich vor, dass ein KI-basiertes selbstfahrendes Auto auf den Straßen Ihrer Nachbarschaft unterwegs ist und sicher zu fahren scheint. Anfangs hatten Sie jedes Mal, wenn Sie einen Blick auf das selbstfahrende Auto erhaschen konnten, besondere Aufmerksamkeit gewidmet. Das autonome Fahrzeug zeichnete sich durch ein Rack mit elektronischen Sensoren aus, darunter Videokameras, Radareinheiten, LIDAR-Geräte und dergleichen. Nachdem das selbstfahrende Auto viele Wochen lang durch Ihre Gemeinde gefahren ist, bemerken Sie es kaum noch. Soweit es Sie betrifft, ist es nur ein weiteres Auto auf den ohnehin stark befahrenen öffentlichen Straßen Nachdem ich selbstfahrende Autos gesehen habe, habe ich häufig darüber geschrieben, wie sich die Lokale, die im Rahmen von Testfahrten mit selbstfahrenden Autos sind, allmählich daran gewöhnt haben, die herausgeputzten Fahrzeuge zu sehen. Viele der Einheimischen wechselten schließlich vom mundtoten, verzückten Gaffen zu einem ausschweifenden Gähnen aus Langeweile, um diese sich schlängelnden selbstfahrenden Autos zu sehen. Wahrscheinlich ist der Hauptgrund, warum sie die autonomen Fahrzeuge im Moment bemerken, der Irritations- und Verärgerungsfaktor. Die vorschriftsmäßigen KI-Fahrsysteme stellen sicher, dass die Autos alle Geschwindigkeitsbegrenzungen und Straßenregeln einhalten. Für hektische menschliche Fahrer in ihren traditionellen von Menschen angetriebenen Autos sind Sie manchmal verärgert, wenn Sie hinter den streng gesetzestreuen KI-basierten selbstfahrenden Autos stecken bleiben. Das ist etwas, woran wir uns vielleicht alle gewöhnen müssen, zu Recht oder zu Unrecht. Zurück zu unserer Geschichte. Denken Sie über die scheinbar belanglose Frage nach, wo selbstfahrende Autos unterwegs sein werden, um Fahrgäste aufzunehmen. Dies scheint ein reichlich harmloses Thema zu sein. Wir werden die Geschichte der Stadt mit selbstfahrenden Autos verwenden, um das vielleicht überraschend potenzielle Gespenst von Vorurteilen im Zusammenhang mit KI hervorzuheben. At Nehmen wir zunächst an, dass die KI die selbstfahrenden Autos durch die ganze Stadt streunen ließ. Jeder, der eine Fahrt mit dem selbstfahrenden Auto anfordern wollte, hatte im Wesentlichen die gleiche Chance, eines zu erreichen. Allmählich begann die KI, die selbstfahrenden Autos hauptsächlich in nur einem Stadtteil herumfahren zu lassen. Dieser Abschnitt war eine größere Geldmaschine, und das KI-System war so programmiert worden, dass es versuchte, die Einnahmen als Teil der Nutzung in der Community zu maximieren. Community Mitglieder in den verarmten Teilen der Stadt konnten mit geringerer Wahrscheinlichkeit mit einem selbstfahrenden Auto mitfahren. Dies lag daran, dass die selbstfahrenden Autos weiter entfernt waren und in dem umsatzstärkeren Teil des Gebietsschemas unterwegs waren. Wenn eine Anfrage aus einem entfernten Teil der Stadt einging, erhielt jede Anfrage von einem näher gelegenen Ort, der wahrscheinlich im „angesehenen“ Teil der Stadt lag, eine höhere Priorität. Schließlich war es fast unmöglich, ein selbstfahrendes Auto an einem anderen Ort als dem reicheren Teil der Stadt zu bekommen, ärgerlicherweise für diejenigen, die in diesen jetzt ressourcenarmen Gegenden lebten. ) Man könnte behaupten, dass die KI ziemlich genau auf einer Form von statistischen und rechnerischen Verzerrungen gelandet ist, ähnlich einer Form von stellvertretender Diskriminierung (oft auch als indirekte Diskriminierung bezeichnet). Die KI war nicht darauf programmiert, diese ärmeren Viertel zu meiden. Stattdessen hat es dies über die Verwendung der ML/DL „gelernt“. Es wurde angenommen, dass die KI niemals in solch einen beschämenden Treibsand geraten würde. Es wurde keine spezielle Überwachung eingerichtet, um zu verfolgen, wohin die KI-basierten selbstfahrenden Autos fahren. Erst als sich die Gemeindemitglieder zu beschweren begannen, erkannten die Stadtführer, was vor sich ging. Das Pferd kam aus dem Stall. Als ich Wie bereits erwähnt, ist es wichtig, im Voraus an KI-Ethik-Folgenabschätzungen zu arbeiten. Warum hat die Stadt ihre Hausaufgaben nicht gemacht, bevor sie grünes Licht für den Einsatz von selbstfahrenden Autos auf ihren öffentlichen Straßen gegeben hat? Warum hat der Autohersteller oder die selbstfahrende Technologiefirma ihre Hausaufgaben nicht gemacht, bevor sie ihre selbstfahrenden Autos auf den öffentlichen Straßen dieser Stadt oder Stadt zur Schau gestellt haben?

Es ist Schande. Eine verdammte Schande. Fazit Ein denkwürdiges Zitat aus dem UNESCO-Dokument könnte sein a fruchtbarer Weg, um diese Diskussion über KI-Ethik abzuschließen: „KI-Technologien können bestehende Kluften und Ungleichheiten in der Welt vertiefen, innerhalb und zwischen den Ländern, und dass Gerechtigkeit, Vertrauen und Fairness gewahrt werden müssen, damit kein Land und niemand zurückgelassen werden sollte, sei es durch einen fairen Zugang zu KI-Technologien und die Nutzung ihrer Vorteile oder durch den Schutz vor ihren negativen Auswirkungen, während die Unterschiede anerkannt werden Umstände verschiedener Länder.“ Benjamin Franklin war bekannt für seinen berühmten Witz, dass man sich darauf vorbereitet, zu scheitern, wenn man sich nicht vorbereitet. Wir müssen die Grundsätze der KI-Ethik übernehmen. Wir müssen nach dem Kern der KI-Ethikprinzipien handeln. Und wir müssen vorher unsere Hausaufgaben machen und sorgfältige und nützliche KI-Ethik-Auswirkungsbewertungen vorbereiten, um sicherzustellen, dass wir auf das vorbereitet sind, was KI tun wird. Eine Unze Prävention ist mehr wert als ein Pfund Heilung, vielleicht besonders im Fall der Einführung von KI.

HINTERLASSEN SIE EINE ANTWORT

Please enter your comment!
Please enter your name here

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.