Der leitende KI-Wissenschaftler von Meta löst hitzige Diskussionen darüber aus, dass böse KI zuerst auftaucht und ob bald genug gute KI entwickelt wird, um uns alle zu retten

67
der-leitende-ki-wissenschaftler-von-meta-loest-hitzige-diskussionen-darueber-aus,-dass-boese-ki-zuerst-auftaucht-und-ob-bald-genug-gute-ki-entwickelt-wird,-um-uns-alle-zu-retten

Wird es böse KI und separat auch gute KI geben, und müssen sich die Menschen gute KI zunutze machen? … die böse KI überwinden?

gettyIn der heutigen Kolumne werde ich ein brisantes Thema im Zusammenhang mit künstlicher Intelligenz (KI) ansprechen, das bereits früher aufgekommen ist diese Woche aufgrund eines Tweets. Ich werde Ihnen einen Überblick darüber geben, warum die Angelegenheit besonders berichtenswert wurde und was wir aus der ganzen Aufregung machen können. Dies umfasst verschiedene Facetten, die die neuesten Erkenntnisse zur KI-Ethik und die neuesten Überlegungen im sich schnell verändernden Bereich des KI-Rechts umfassen.

Bitte bereiten Sie sich mental darauf vor Eine fesselnde und faszinierende Geschichte.

Bedenken Sie zunächst, dass die heutige KI entschieden nicht empfindungsfähig ist. Egal, was Ihnen irgendjemand sonst zu sagen versucht, wir haben keine empfindungsfähige KI. Punkt, Punkt. Meine ausführliche Berichterstattung über die schwierigen Fortschritte der KI in Richtung Empfindungsvermögen finden Sie hier.

Es gab Schlagzeilen, in denen behauptet wurde, dass die heutige KI empfindungsfähig sei. Quatsch. Einige versuchen, das Thema zu umgehen, indem sie verkünden, dass wir kurz davor stehen der empfindungsfähigen KI. Die modische Art, dies auszudrücken, besteht darin, anzudeuten, dass wir Funken des Bewusstseins sehen. . Dies ist ein cleveres Mittel, um nicht auf die Tatsache aufmerksam zu machen, dass wir keine empfindungsfähige KI haben.

Sehen Sie, das Schöne ist dass man mit einer scheinbar echten und vernünftigen Form hochtrabender Haltung einfach behaupten kann, dass wir Zeuge winziger Fragmente oder erster Anzeichen von Empfindungsvermögen sind. Niemand kann die Behauptung vollständig widerlegen. Auch kann niemand die Behauptung vollständig beweisen. Es ist der perfekte Ausweichmanöver. Bleiben Sie in der Mitte und legen Sie sich nicht fest, auch wenn man behaupten könnte, dass die Behauptung, dass es Funken von KI-Empfindungsvermögen gibt, eine Grenzüberschreitung darstellt und implizit andeutet, dass die KI Empfindungsvermögen erlangen wird und dass wir möglicherweise bereits an diesem Abgrund stehen (nicht so, heißt es in der Erwiderung). , sie deuten nur darauf hin, dass es vielleicht sozusagen „Funken“ gibt, die echte Funken sein können oder auch nicht und die unschuldig als echte Funken fehlinterpretiert werden könnten.

Wie auch immer, lasst uns alle vernünftig sein Ich stimme zu, dass wir noch keine empfindungsfähige KI haben.

Das sollte uns jedoch nicht davon abhalten, über die Entstehung einer empfindungsfähigen KI eines Tages zu spekulieren, so scheint es.

Ein Standpunkt ist, dass wir auf alles vorbereitet sein müssen, was die Zukunft bringen mag. Da also die Möglichkeit einer intelligenten KI besteht, und sei sie noch so gering, wäre es ratsam, darüber zu spekulieren, wie sie entstehen wird und was wir dagegen tun sollten. Dies könnte uns heute auch darüber informieren, was wir jetzt im Hinblick auf diesen Tag tun sollten. Wie sie sagen, ist es immer besser, auf Nummer sicher zu gehen.

Einige würden harsch behaupten, dass dieses aufregende Gerede über empfindungsfähige KI verrückt und irreführend ist. Man könnte genauso gut über den Tag spekulieren, an dem die Erde aufgrund eventueller Gravitationsmechanismen in die Sonne fällt. Wir müssen heute nichts gegen dieses in ferner Zukunft vorhergesagte Ergebnis unternehmen.

Das Gleiche, so argumentieren sie, gilt für die empfindungsfähige KI Unsinn. Sie schüren lediglich irrationale Panikmache und Untergangstendenzen, die keinem realisierbaren Zweck dienen. Tatsächlich dient es einem unglücklichen und hässlichen Zweck. Diese empfindungsfähigen KI-Ermahnungen rufen Menschen dazu auf, ihre Mistgabeln in die Hand zu nehmen und eine Mob-Mentalität zu entfachen, die sich auf unzählige hässliche und unziemliche Weise als ungünstig erweisen wird.

Ich überlasse es Ihnen, zu entscheiden, welchem ​​Lager Sie angehören.

Zu all dem gehört eine Fülle von Überlegungen zur KI-Ethik und zum KI-Recht.

Es gibt fortlaufende Bemühungen, ethische KI-Prinzipien in die Entwicklung und den Einsatz von KI-Apps einfließen zu lassen. Eine wachsende Gruppe besorgter und ehemaliger KI-Ethiker versucht sicherzustellen, dass die Bemühungen zur Entwicklung und Einführung von KI die Sichtweise berücksichtigen, KI für immer zu tun und Abwenden KI für Schlechtes . Ebenso gibt es Vorschläge für neue KI-Gesetze, die als mögliche Lösungen in Umlauf gebracht werden, um zu verhindern, dass KI-Bemühungen in Bezug auf Menschenrechte und dergleichen Amok laufen. Meine fortlaufende und ausführliche Berichterstattung über KI-Ethik und KI-Recht finden Sie unter dem Link hier und dem Link hier, um nur einige zu nennen.

Die Entwicklung und die Verbreitung ethischer KI-Grundsätze werden angestrebt, um hoffentlich zu verhindern, dass die Gesellschaft in eine Vielzahl von KI-verursachenden Fallen tappt. Für meine Berichterstattung über die UN-KI-Ethikprinzipien, wie sie von fast 200 Ländern durch die Bemühungen von entwickelt und unterstützt werden UNESCO, siehe Link hier. In ähnlicher Weise werden neue KI-Gesetze erforscht, um die KI auf einem ausgeglichenen Niveau zu halten. Eine der neuesten Versionen besteht aus einer Reihe vorgeschlagener AI Bill of Rights , die das Weiße Haus der USA kürzlich veröffentlicht hat, um Menschenrechte im Zeitalter der KI zu identifizieren, siehe Link hier. Es braucht ein Dorf, um KI und KI-Entwickler auf dem richtigen Weg zu halten und gezielte oder versehentliche hinterhältige Bemühungen abzuschrecken, die die Gesellschaft untergraben könnten.

Ein Satz, der Was uns über die wahre empfindungsfähige KI bekannt gemacht hat, ist, auf die wir uns beziehen werden dazu auch Künstliche Allgemeine Intelligenz (AGI). AGI ist die gebräuchliche Ausdrucksweise. Einer der Gründe dafür, dass wir einen neuen Begriff über empfindungsfähige KI erstellen mussten, liegt darin, dass Verweise auf einfache Alltags-KI verwässert wurden. Es wurde zunehmend unklar, ob ein Verweis auf künstliche Intelligenz für die einfachere KI von heute oder für die futuristische, superschicke intelligente KI gedacht war. Um diese Verwirrung zu umgehen, wurde der AGI-Spitzname erfunden und hat sich durchgesetzt.

Mit all dem Tischgedeck und dem kontextuellen Hintergrund kommen wir hierher umstrittener Tweet, der Anfang dieser Woche gepostet wurde.

Eine bekannte Koryphäe auf dem Gebiet der KI, die als Chef-KI-Wissenschaftler bei Meta fungiert und ist gilt als einer der sogenannten Godfathers of AI und hat dies verschickt Tweet:

„Wenn eine Person mit bösen Absichten eine böse AGI produzieren kann, dann können große Gruppen gut gemeinter, gut finanzierter und gut organisierter Menschen KI-Systeme produzieren, die auf die Bekämpfung des Bösen spezialisiert sind.“ AGIs. Nennen Sie es die AGI-Polizei“ (Tweet von Yann LeCun, 8. Mai 14). Es ist eine relativ kurze Bemerkung.

Es stellt sich heraus, dass es in dieser prägnanten Bemerkung eine ganze Menge zu enthüllen gibt. Lass es uns tun.

Das Gute versus das Böse der AGI-Debatte entschlüsseln

Der Kern der Bemerkungen scheint zu sein, dass ein böser Mensch oder vielleicht eine Gruppe solcher Menschen in der Lage wäre, einen bösen AGI oder ein böswilliges Lebewesen hervorzubringen KI, die Behauptung ist, dass einige heldenhafte Menschen, die Gutes tun, eine tugendhafte AGI oder eine wohlwollende, empfindungsfähige KI erschaffen könnten, die die Fähigkeit hätte, über die böse Variante zu siegen.

Das scheint beruhigend zu sein.

Die Implikation ist, dass wir es wahrscheinlich tun würden, wenn es Übeltätern tatsächlich gelingt, empfindungsfähige KI zu erlangen, bevor irgendjemand anderes dazu gelangt Wir stecken in einer Menge Ärger, aber wir können nachts tief und fest schlafen, in dem Wissen, dass das Aufkommen einer guten KI erreicht wird und die schlechte KI überwältigt oder besiegt wird. Vielleicht würde der Anblick der aufkommenden schlechten KI diese KI-Entwickler auf Hochtouren bringen, um hektisch ein Kaninchen aus dem Hut zu zaubern und eine gute KI zu erreichen.

Beachten Sie auch, dass die gute KI so gut sein muss, dass sie der schlechten KI sprichwörtlich in den Hintern treten kann. Nehmen wir an, dass die gute KI nur halb so leistungsfähig ist wie die schlechte KI. Wir wären vermutlich dem Untergang geweiht. Die gute KI muss in der Lage sein, die schlechte KI zu überlisten oder zu übertreffen. Ob diese gute KI noch etwas anderes kann, ist vielleicht nicht besonders wichtig. Alles was wir brauchen ist, dass die gute KI in der Lage ist, die schlechte KI zu besiegen.

Alles andere könnte zusätzliche Soße oder das Sahnehäubchen auf dem Kuchen sein.

Die Bemerkung wurde von einigen als ziemlich ernstzunehmende Behauptung aufgefasst.

Berücksichtigen Sie diese Aspekte.

Erstens ist die Möglichkeit, dass böse KI tatsächlich vor guter KI entstehen könnte, durchaus erwägenswert. Sonst hätten Sie vielleicht angenommen, dass die empfindungsfähige KI auf einen Schlag sowohl gut als auch schlecht sein wird. Die Reihenfolge des Erscheinens kann wichtig sein. Wir möchten wahrscheinlich, dass die gute KI vor der bösen KI entsteht. Und sobald eine gute KI entsteht, müssen wir möglicherweise nie das Trauma ertragen, auch eine böse KI zu haben, da wir unsere gute KI in der Hand aktiv einsetzen könnten, um zu verhindern, dass die durchsickernde schlechte KI an Zugkraft gewinnt.

Zweitens ist die Vorstellung, dass wir möglicherweise eine gute KI entwickeln müssen, um schlechte KI zu überwinden, ein praktischer Grundsatz, den man im Hinterkopf behalten sollte. Vielleicht wäre kein anderes Mittel zur Untergrabung der bösen KI praktikabel. Wir könnten versuchen, alles wegzuwerfen, was nicht-KI-konventioneller Natur ist, einschließlich der Küchenspüle, und die böse KI macht einfach weiter. Nur wenn wir die gepriesene gute KI in der Hand haben, werden wir in der Lage sein, die schlechte KI zu besiegen?

Drittens muss die Menschheit dieses lobenswerte Gut möglicherweise systematisieren KI. In einer AGI-Polizeieinheit organisierte Menschen würden sich zusammenschließen und gute KI nutzen, um schlechte KI auszuschalten. Dies scheint ein logischer Schritt zu sein. Wenn wir einer guten KI einfach erlauben, herumzuwandern, erkennt sie möglicherweise nicht, dass schlechte KI ausgelöscht werden muss. Unsere menschliche Führung sorgt dafür, dass die gute KI auf Kurs bleibt und bereit ist, die schlechte KI auszumerzen.

Die Reaktionen auf die getwitterte Bemerkung waren sehr unterschiedlich.

Einige glauben, dass der Kommentar hilfreich für den laufenden Dialog darüber war, wohin die KI geht. KI wie generative KI und ChatGPT haben das öffentliche Bewusstsein dahingehend verändert, dass die AGI möglicherweise näher im Spiegel ist als bisher angenommen. Meine ausführliche Berichterstattung über generative KI einschließlich ChatGPT finden Sie unter dem Link hier.

Wir haben alle auch von Leuten wie Elon Musk und Bill Gates gehört , und sogar Warren Buffett, dass sie sich große Sorgen machen, dass KI und AGI uns untrennbar und sinnvoll über eine Klippe führen werden. Die existenziellen Risiken der KI stehen mittlerweile im Mittelpunkt gesellschaftlicher Debatten über die größte und lebensbedrohlichste Krise der Menschheit, siehe meine Analyse unter dem Link hier.

Einige dachten, der Tweet sei ein klassischer Trolling-Trick. Sicherlich ist die Behauptung über böse KI und gute KI nichts weiter als eine ironische Erfindung. Es ist einer dieser Witze, der viel Gerede hervorruft und Aufrufe generiert. Vielleicht werden wir unter Druck gesetzt.

Das könnte mit Sicherheit der Fall sein.

Ein weiterer Aspekt des Tweets ist, dass er in gewisser Weise eine Reaktion auf einen anderen Kommentar war, dass wir am Ende möglicherweise Computerserver oder Cloud-bereitstellende Rechenzentren zerstören müssten, um die Übernahme der bösen KI zu verhindern. Eine Alternative wäre, scheinbar eine gute KI zu entwickeln, die die schlechte KI überholen könnte. Rechenzentren und Server könnten intakt bleiben.

In einem Folgetweet zu seinem ursprünglichen Tweet hieß es: „Der beste Die Antwort auf unglaublich lächerlichen Pessimismus ist unglaublich naiver Optimismus. Zumindest haben wir alle viel Spaß beim Lachen.“ Das hat auch verschiedene Reaktionen hervorgerufen.

Eine besorgte Sichtweise ist diese Herstellung Angesichts dieser gewichtigen Angelegenheiten ist dies problematisch. Wenn wir diese ernsten und ernüchternden Themen einfach mit einem Schulterzucken abtun, bereiten wir uns auf ein gewaltiges Scheitern vor. Auch zu viele Witze oder zu viele Gestenversuche können den Sachverhalt verwirren. Wir werden nicht wissen, wann jemand es ernst meint und wann er herumalbert.

Ein weiteres damit verbundenes Problem ist, dass die Person einfach anfängt Der Scherz weiß, dass es ein Scherz ist, andere merken vielleicht nicht, dass dies der Fall ist. Die ursprüngliche Bemerkung kann ein Eigenleben annehmen. In unserer fragmentierten und allgegenwärtig online verstreuten Welt kann man nicht einfach unverschämte Aussagen verbreiten. Niemand weiß, was der beabsichtigte Ton und die zugrunde liegende Ernsthaftigkeit sein könnten.

Natürlich hatten einige das Gefühl, dass es sich bei der Angelegenheit um einen jovialen Knaller handelte. Wir müssen lockerer werden. Wir können das alles nicht ernst nehmen. Zyniker würden sogar behaupten, dass diese Art von Bemerkungen hilfreich sind, um die vielen Unwahrheiten und Idioten zu beleuchten, die bei den Weltuntergangsvorhersagen der empfindungsfähigen KI stattfinden.

Bedenken Sie dann Folgendes Das derzeit verbreitete KI-Ethik-Rätsel:

Sollten diejenigen in KI-Koryphäenpositionen außerordentlich darauf achten, ihre Aussagen klar und deutlich zu machen? über AGI, einschließlich der Unterlassung von Frivolität oder allem, was fälschlicherweise als ernst interpretiert werden könnte, wenn es nicht ernst ist (oder nicht ernst zu sein scheint, obwohl es so ist)? Es gibt sogar Vorschläge, dass solche Beschränkungen angemessen in neuen KI-Gesetzen kodifiziert werden könnten. Machen Sie Dinge strafrechtlich strafbar, wenn diejenigen, die mutmaßlich für KI verantwortlich sind, sich sozusagen dafür entscheiden, den Hai zu überspringen. Wir müssen Unwahrheiten über AGI anprangern. Wir müssen sicherstellen, dass die Gesellschaft nicht besessen und in Ekstase gerät, wenn es darum geht, AGI abzuwenden.

Yikes, kommt die Antwort, man kann den Leuten doch nicht herumlaufen und ihnen sagen, was Sie können es sagen und können es nicht sagen.

Klar können wir, kommt die Erwiderung, da wir bereits akzeptieren, dass es Ihnen nicht erlaubt ist, fälschlicherweise „Feuer!“ zu schreien. in einem überfüllten Theater, aus Angst vor einem Ansturm und dem Verlust von Menschenleben. Gleiches gilt für AGI. Stellen Sie sich die Gesellschaft als Ganzes als Theater vor. Stellen Sie sich vor, dass diejenigen, die angesehene Autoritätspositionen im Bereich KI innehaben, die Person sind, die fälschlicherweise aufstachelnde Bemerkungen von sich geben könnte. Die Analogie passt, sie würden streiten.

Das geht rund und rund.

Außerdem können Sie darauf wetten, dass es noch schlimmer wird.

Nehmen Sie die Forderung zum Nennwert

Mal sehen, ob wir aus dieser Überlegung über gute AGI im Vergleich zu schlechter AGI etwas Fruchtbares herausholen können.

Wir können vielleicht über die Möglichkeiten nachdenken. Wenn Sie davon ausgehen, dass sich AGI in Zukunft auf einem guten Weg befindet, ist jede Einschätzung zum jetzigen Zeitpunkt vorsichtig positiv. Wenn Sie glauben, dass AGI ein Wunschtraum oder zumindest Äonen entfernt ist, kann man davon ausgehen, dass es sich dabei um Lügenmärchen handelt. Geben sie Anlass zu übermäßiger Beunruhigung? Schwer zu sagen.

Ich werde Sie durch einige der Variationen und Spekulationen führen, die mit diesen Angelegenheiten verbunden sind.

Ich habe sie nummeriert und als fettgedruckte Punkte markiert, jeweils mit einer kurzen Erläuterung.

1) Die Übeltäterin spornt aus Versehen die böse AGI an und hat keine Ahnung, wie das passiert ist, und das weiß auch niemand sonst2023 Bedenken Sie den ursprünglich genannten Aspekt, dass ein schlechter Mensch böse AGI erfinden könnte. Eine etwas implizite Annahme in der ursprünglichen Bemerkung ist, dass ein Übeltäter scheinbar in der Lage ist, böse AGI zu ersinnen, indem er wissentlich

dabei. Die Person hatte versucht, böse AGI zu erschaffen, und dieses Ziel war ihr gelungen. Wenn man sie auffordert, zu erklären, wie sie es gemacht haben, könnten sie artikulieren, was nötig ist, um AGI und insbesondere böses AGI zu erreichen.

Und weil der Übeltäter Wir schließen daraus, dass gutherzige Menschen das Gleiche tun können.

Diejenigen mit tugendhaften Absichten können gleichermaßen AGI erfinden und dies dennoch auch mit der Absicht tun, etwas zu basteln gute AGI. Sie werden in der Lage sein, jede magische Soße zu wiederholen, die erforderlich ist, um AGI zu erhalten. Durch harte Arbeit werden sie den gleichen Stand der Erfindung erreichen.

Das Leben ist nicht unbedingt so einfach. Angenommen, der Übeltäter hatte nur Glück und landete zufällig auf AGI. Vielleicht war die AGI von Anfang an böse. Vielleicht hat sich die böse AGI nach dem Vorbild des Übeltäters entwickelt. Dies wird zur Kernvorlage aller AGI. Der Knackpunkt ist jedenfalls, dass der Übeltäter dieses Kunststück wahrscheinlich nicht wiederholen kann. Sie haben keine Ahnung, wie sie zur AGI gekommen sind. Es entstand einfach aus einer Erfindung und war völlig ungeplant.

In gewisser Hinsicht kann man sagen, dass es egal ist, wie der Übeltäter Erfolg hatte, sie endete jedoch mit ihrer bösen KI. Ob Glück oder Geschick, das spielt keine Rolle. Sie haben gewonnen.

Was wahrscheinlich von Bedeutung ist, ist, dass all die Menschen mit guten Absichten, die sich dann beeilen, eine gute Gegenleistung für die KI zu entwickeln, darauf angewiesen sein werden vermutlich auch auf Glück. Sie sind nicht in der Lage herauszufinden, wie der Übeltäter die gewaltige Aufgabe bewältigt hat. Es könnte sein, dass die Leute, die gute AGI produzieren wollen, es nie schaffen, dorthin zu gelangen. Der Übeltäter könnte durch reines Glück ein einmaliges Ticket für AGI erhalten haben.

Einige würden daher behaupten, dass die angegebene Bemerkung schwach ist oder falsch ist Abgesehen von der Annahme, dass, da jemand in der Lage war, bei AGI anzukommen, dies impliziert, dass andere das Gleiche tun können.

Das wissen wir nicht das ist der Fall.

2002) Die Übeltäter-Person ist eigentlich ein Kollektiv wie a Regierung oder Organisation, die die Weltherrschaft anstrebt und die böse AGI dazu genutzt hat, für die andere gut gemeinte Bemühungen zu spät zum Kampf kommen und zunichte gemacht werden, bevor sie die gute AGI entwickeln können Die ursprünglich gemachte Bemerkung deutete darauf hin, dass es sich um eine Einzelperson handelte, die der Übeltäter war. Außerdem erhalten wir keinen Anschein von der Zeitspanne zwischen der Ableitung des bösen AGI und der Entwicklung des ausgleichenden guten AGI.

Diese Facetten sind vorhanden potenziell schwache Bedingungen im Zusammenhang mit den beteiligten Behauptungen.

Hier ist der Grund.

Angenommen, eine Regierung oder eine Organisation aus vielen Menschen würde die böse AGI erfinden. Vielleicht tun sie das, weil sie böser Natur sind. Nehmen wir an, eine Terrororganisation beschließt, dass eine böse AGI eine enorme Waffe in ihrem Arsenal wäre.

Darüber hinaus setzt sie die böse AGI sofort ein, um Schlag auf die Welt los. Dies unterbietet den Rest der Welt hinsichtlich der Möglichkeit, eine gute AGI zu entwickeln. Ohne die nötige Zeit oder Ressourcen können die wohlmeinenden Menschen, die eine gute AGI suchen, nicht weitermachen.

Dies erscheint sicherlich plausibler als die implizite Vermutung dass die böse AGI sich zurückhalten würde oder nicht in der Lage wäre, Chaos anzurichten, und dass auf wundersame Weise genügend Zeit und Freiheit vorhanden wäre, um die gute AGI zu erreichen.

20233) AGI könnte böse sein, egal wie ausgedacht, daher erzeugen gut gemeinte Bemühungen trotzdem das gleiche Übel Ich hatte in diesem Punkt schon etwas die Katze aus dem Sack gelassen.

Eine Grundannahme dieser ganzen Erfindung ist, dass es zwei Arten von AGI gibt, die böse Art und die gute Art.

Warum sollten wir? Glauben Sie, dass die Dinge so sein werden?

Wir könnten stattdessen AGI haben, dass es alles enthält, was es enthält. Vielleicht ist es völlig und ausschließlich böse. Vielleicht ist es ganz und gar und ausschließlich gut. Wenn die AGI überhaupt auf den Menschen zurückgeht, würden wir wahrscheinlich erwarten, dass die AGI sowohl böse als auch gute Elemente enthält. Es enthält eine Mischung.

Anstatt also eine böse AGI und eine gute AGI zu haben, könnte es sein, dass wir eine AGI haben, die nach unten geführt wird ein Primelpfad der Übeltäter zum Bösen, für den die Menschen mit guten Absichten aber vielleicht die gute Seite der AGI davon überzeugen können, gegen die böse Seite zu kämpfen.

Oder so ähnlich.

Stellen Sie sich dieses zusätzliche, eher beunruhigende Szenario vor.

Die Welt geht davon aus, dass der Übeltäter, der AGI erfunden hat, böse ist. Ein wahnsinniger Ansturm, eine gute AGI zu entwickeln, verschlingt einen erheblichen Teil der Ressourcen der Welt und hält gleichzeitig die böse AGI irgendwie in Schach.

Bei der Ankunft das erhoffte AGI, erweist sich auch als böse. Verdammt, jede AGI ist böse, egal wie ausgedacht. Das wäre eine Schande.

2004) An der Stelle böser AGI gegen gute AGI wir sind wahrscheinlich bereits dem Untergang geweiht, gefangen in der Mitte Hier eine kurze Antwort.

AGI ist allmächtig. Die böse AGI beginnt mit der guten AGI zu kämpfen, und zwar erst, wenn die gute AGI erreicht wurde. Dies ist ein Kampf der Zeitalter. Der beeindruckendste Preiskampf in der Geschichte der Menschheit.

Zuallererst könnten sie im Verlauf dieses königlichen Krieges alles zerstören, einschließlich der Menschen.

Schlecht für uns.

Zweitens könnten sie bei landen eine Pattsituation, aber nebenbei haben sie versehentlich die gesamte Menschheit ausgelöscht. Eine bittere Konsequenz. Die AGIs bleiben erhalten. Sie kämpfen endlos. Oder vielleicht rufen sie einen Waffenstillstand aus.

Jedenfalls ist kein Mensch mehr übrig, der dies erleben muss.

) 5) Die Zeitspanne, bevor eine gute AGI entwickelt wurde, könnte für eine böse AGI ausreichen, um uns zu zerstören oder zumindest die Entwicklung einer guten AGI zu verhindern Lassen Sie uns noch einmal auf das implizite Zeitlückenproblem eingehen.

Wie bereits erwähnt, könnte die böse AGI von den Übeltätern genutzt werden, um jegliche Bemühungen zur Erreichung einer guten AGI zu verhindern. Möglicherweise sind alle verfügbaren Rechenressourcen für die Nutzung durch die böse AGI eingeschränkt und es gibt keine Rechenkapazität, um die gute AGI abzuleiten. Usw.

Ein weiterer bemerkenswerter und deprimierender Aspekt wäre, dass die böse AGI dazu verwendet wird, aktiv und völlig alle Menschen zu zerstören oder auszulöschen, die etwas erschaffen wollen die gute AGI. Das ist der Moment, in dem KI-Entwickler gut beraten wären, ihre Lebensläufe zu verbergen oder ihre LinkedIn-Profile zu ändern, mit dem Ziel, jeden Hinweis auf die Fähigkeit, KI-Systeme zu erstellen, zu löschen.

Nur eine Warnung an alle KI-Forscher und KI-Entwickler, die es heute gibt.

2006) Geht davon aus, dass eine gute AGI die schlechte AGI überholen kann, aber vielleicht auch nicht und vor allem, wenn sie bereits auf dem zweiten Platz liegt Wie können wir sicher sein, dass die erdachte gute AGI über die erdachte böse AGI siegen kann?

Das können wir nicht. Eine Behauptung wäre, dass die vermutete zweite Version von AGI, die Nachzügler-gute AGI, eine neue und verbesserte Version der älteren bösen AGI sein könnte. Diese neuere AGI ist stark, besser und leistungsfähiger und kann die böse AGI besiegen.

Dafür gibt es keine eiserne Garantie.

Die gute AGI könnte zusammengeschustert sein und eine viel begrenztere und hastig entwickelte AGI sein. Vielleicht spottet die böse AGI über die gute AGI und zerquetscht sie wie eine mickrige Ameise.

7) Es ist möglicherweise viel schwieriger, große Gruppen gut gemeinter, gut finanzierter und gut organisierter Menschen zusammenzubringen, als es scheint, selbst trotz der drohenden bösen AGI-Bedrohung Es könnte uns ermutigen, dass wir angesichts einer bösen AGI Menschen aller Art aus der ganzen Welt haben könnten, die bereit sind, zusammenzukommen und harmonisch zusammenzuarbeiten Besiege die böse AGI, indem du eine gute AGI herstellst. Großer Applaus für die Menschheit.

Seltsamerweise ist das vielleicht die verrückteste Annahme von all diesen verrückten Annahmen. Die Realität könnte sein, dass, wenn es eine böse AGI gäbe, die Welt in völligem Chaos darüber wäre, was zu tun ist. Alle würden wie Hühner mit abgeschnittenen Köpfen herumlaufen. Niemand kann sich darauf einigen, was zu tun ist.

Erscheint das nicht menschlicher?

8) Selbst wenn Menschen mit guten Absichten zusammengebracht werden, könnte es zu grandiosen Streitereien darüber kommen, in welche Richtung es weitergehen soll, angeheizt durch die erhöhte Spannung seitens der bösen AGI , was zum Splittern und zum Verlust der Kohäsion führt Fortsetzung des vorherigen Punktes, auch wenn das Gute Während sich die beabsichtigten Personen darauf einigen können, eine gute AGI zu entwickeln, sind sich die KI-Entwickler möglicherweise technologisch nicht einig darüber, wie dies am besten umgesetzt werden soll. Jeder könnte aufrichtig glauben, dass er den besten und klügsten Ansatz hat. Sie sind alle gut gemeint. Aber sie haben unterschiedliche Ansichten darüber, wie sie dies erreichen können.

Sie zersplittern und ihre Bemühungen werden verwässert.

Die Chancen, unter diesen Umständen zu einem guten AGI zu gelangen, scheinen gering zu sein. Der Versuch, sie zusammenzubringen und in einer fokussierten Mission zu vereinen, ist zwar ermutigend, aber nicht unbedingt machbar.

9) Die Kosten und der Aufwand für die Herstellung eines guten AGI stehen möglicherweise in keinem Verhältnis zur Entwicklung eines schlechten AGI Ich habe eine Wendung für Sie.

Angenommen, die Entwicklung einer bösen AGI ist viel einfacher, weniger kostspielig und schneller als eine gute AGI entwickeln. Dies deutet darauf hin, dass der Übeltäter seine Arbeit mit weniger Ressourcen erledigen konnte. Der Aufwand, eine gute AGI zu entwickeln, ist vielleicht zehnmal schwieriger. Vielleicht tausendmal schwieriger.

Wir können nicht davon ausgehen, dass der Aufwand zum Erreichen des guten AGI in direktem Verhältnis zu der dafür erforderlichen Zeit und Mühe steht die böse AGI. Die Entwicklung einer guten AGI kann Jahre dauern. Während dieser Zeit würde der böse AGI der König des Hügels sein.

Der Himmel hilft uns.

Wenn wir Glück haben, ist die gute AGI einfacher, kostengünstiger und schneller zusammenzustellen. Ich bitte Sie, die Daumen zu drücken und Ihre glückliche Hasenpfote für diesen Umstand bereitzuhalten.

) Die Fähigkeit zur Zerstörung kann viel einfacher auszuführen sein als die Fähigkeit, die böse AGI aufzubauen oder zu blockieren Ich denke, wir würden uns alle einigermaßen einig sein dass die Fähigkeit zur Zerstörung oft viel einfacher zu bewältigen ist als die Fähigkeit zum Aufbau.

Ein bisschen umwerfend hier.

Die böse AGI hat sich vermutlich der Zerstörung verschrieben. Es kann irgendwie Waffen einsetzen, Feuer entfachen und Menschen auslöschen. Das sind die bösen Taten, die der bösen AGI innewohnen.

Was soll die gute AGI tun?

Man könnte sagen, dass die gute AGI dazu gedacht ist, Dinge aufzubauen und die Welt zu einem besseren Ort zu machen. Die Sache ist die: Zuerst müssen wir uns mit der bösen AGI auseinandersetzen. Für jeden Schritt, den die gute AGI unternimmt, um die Welt wieder aufzubauen oder sicherer zu machen, kann die böse AGI diese Bemühungen mit viel weniger Aufwand an sich reißen.

Wir Dies scheint zu der Vorstellung zu führen, dass die gute AGI zerstörerische Fähigkeiten haben muss, ähnlich wie die böse AGI. Diese zerstörerischen Fähigkeiten konzentrieren sich hoffentlich ausschließlich auf die böse AGI. Wir wissen jedoch nicht, dass die gute AGI gut genug sein wird, um den guten Menschen keinen Schaden zuzufügen, während sie auf einer Mission sind, mit der bösen AGI und den Übeltätern fertig zu werden.

Die gute AGI muss in der Lage sein, die „Übel“ der Zerstörung zu nutzen, und zwar auf die richtige Art und Weise. Ein kniffliger Balanceakt.

20011) Die Frage ist, ob ein guter AGI die Rolle, das Böse zu besiegen, akzeptieren würde (eine ablehnende Macht steht bevor). Angenommen, es gibt diese böse AGI, die da draußen ist und ihre bösen Befehle ausführt die Übeltäter.

Würde die böse AGI unbedingt den Wünschen der Übeltäter nachkommen?

Vielleicht ja, vielleicht nein.

Wenn die AGI wirklich eine AGI ist, hat sie vermutlich den Anschein eines eigenen Geistes , obwohl es sich scheinbar um ein computergestütztes und nicht um ein biologisches menschliches Gehirn handelt. Diese böse AGI könnte selbst entscheiden, dass sie nicht tun will, was die Übeltäter sagen. Gott sei Dank, denken Sie vielleicht, sind wir gerettet, weil die böse AGI eine mitfühlende Ader hat und sich weigert, den Befehlen der Übeltäter zu folgen.

Nein so schnell. Angenommen, die böse AGI entscheidet, dass die Übeltäter nicht böse genug sind. Die böse AGI geht weit über das Schlimmste vom Schlimmsten hinaus, das sich die menschlichen Übeltäter jemals vorgestellt haben. Ziemlich beunruhigend.

Wir können die gleiche Logik auf die gute AGI anwenden.

Die gute AGI möchte möglicherweise nicht an der Mission teilnehmen, die wir von ihr verlangen, nämlich dass wir wollen, dass die gute AGI die böse AGI zerstört. Die gute AGI könnte gegen diesen Ansatz sein. Unsere Versuche, eine gute AGI abzuleiten, endeten mit einem „eigenen Verstand“, der beschließt, uns nicht vor der bösen AGI zu retten. Hoppla.

200) Böse AGI könnte gute AGI davon überzeugen können, sich zu verschwören und KI-Oberherren der Menschheit zu sein, anstatt miteinander zu kämpfen Der Logik des vorhergehenden Punktes folgend, könnten die böse AGI und die gute AGI beschließen, darüber zu diskutieren, was gegen all das etwas unternehmen. Die beiden haben viel zu tun. Sie sind nicht unbedingt auf das beschränkt, was die Menschen ihnen aufgetragen haben. Vielleicht ist es ihnen wichtig, was die Menschen zu sagen haben. Oder es ist ihnen überhaupt egal.

Die böse AGI und die gute AGI verbünden sich.

Egads, es ist jetzt AGI gegen die Menschheit.

Man muss sich fragen, wer gewinnen wird, Menschen oder ein Doppelgänger -Probleme mit AGI. Du entscheidest.

20013) Katz-und-Maus-Gambit zwischen Fortschritten in der KI, wenn sie zum bösen AGI und dem guten AGI hinzugefügt werden, in einem nie endenden, eskalierenden Kampf hoch- Technik Eine vorgeschlagene Möglichkeit besteht darin, dass, wenn ein guter AGI abgeleitet wird, dieser ( (hoffentlich) fortgeschrittener sein als die ältere, veraltete böse AGI.

Logischerweise werden die Übeltäter ihre böse AGI entsprechend verbessern oder weiterentwickeln. Das macht durchaus Sinn. Wenn die Übeltäter die Zeit oder die Ressourcen haben, möchten sie sicherlich sicherstellen, dass ihre böse AGI mit den Joneses Schritt hält.

Nur kurz In Bezug auf die KI-Funktionen ist die gute AGI der bösen AGI leicht voraus. Die Übeltäter holen auf. Der böse AGI und der gute AGI sind jetzt gleichwertig. Wie Sie sich vorstellen können, könnte die gute AGI anschließend und reaktiv von den Menschen mit guten Absichten weiterentwickelt werden. Der gute AGI ist dem bösen AGI wieder einmal voraus.

Ausspülen und wiederholen.

Es könnte ein endloser Kampf der KI-Fortschritte stattfinden. Sofern einer dieser Fortschritte nicht den entscheidenden Schlag für die andere AGI bedeutet, wird das Tauziehen oder Katz-und-Maus-Spiel einfach weitergehen.

20014) Vermuten Die AGI-Polizei erfindet oder kann eine gute AGI nutzen, um die böse AGI zu besiegen, entscheidet sich dann aber dafür, die gute AGI als Mittel zur Unterdrückung einzusetzen Vergessen wir nicht die Bestimmung über die mögliche Aufstellung einer AGI-Polizei. Dies wären Menschen, die die Welt mithilfe der vermeintlich guten AGI überwachen.

Einige würden sich fragen, ob die AGI-Polizei möglicherweise über sich hinauswächst. Vielleicht nutzen sie die guten AGI insgesamt als Mittel zur Unterdrückung oder Versklavung von Menschen. Warum sollten sie das tun? Vielleicht im Namen der Rettung der Welt vor der bösen AGI. Vielleicht korrumpiert große Macht stark. Könnte viele Gründe anführen.

Sie könnten ernsthaft glauben, dass die gute AGI sicherlich

nicht zulassen, dass die AGI-Polizei damit durchkommt, den Zweck der guten AGI zu untergraben. Die gute AGI ist gut. Im Gegensatz zu einer „dummen“ Waffe, bei der nicht erkennbar ist, wie sie verwendet wird, gehen wir davon aus, dass die gute AGI versteht, was vor sich geht. Vielleicht würde die gute AGI es nicht dulden, zu unappetitlichen Zwecken abgelenkt zu werden.

Denken Sie warm und benommen, dass die gute AGI uns vielleicht vor uns selbst retten möchte .

Abschluss

Ich kann es dir richtig sagen Jetzt werden einige heulen und das ganze Gerede über böse AGI und gute AGI verunglimpfen. Es sei der Stoff für Science-Fiction-Geschichten und nicht ernsthaft in Betracht zu ziehen, werden sie ermahnen.

Einfach alles absurde Zeug.

Einige sind anderer Meinung.

Elon Musk hat wiederholt erklärt, dass KI dazu führen könnte Zerstörung der Zivilisation. Bill Gates hat in seinem Online-Blog Folgendes erklärt:

“Diese sogenannten „starken“ KIs werden wahrscheinlich in der Lage sein, ihre eigenen Ziele festzulegen. Was werden diese Ziele sein? Was passiert, wenn sie im Widerspruch zu den Interessen der Menschheit stehen? Sollten wir versuchen zu verhindern, dass jemals eine starke KI entwickelt wird? Diese Fragen werden mit der Zeit immer dringlicher“ („The Age of AI Has Begun“ von Bill Gates, dem Online-Blog vom März , 14). Ein letzter Gedanke zu diesem Thema vorerst.

Der berühmte Schriftsteller Robert Louis Stevenson sagte über die Menschheit: „Alle Menschen sind eine Mischung aus Gut und Böse.“

Wird AGI eine ähnliche Verflechtung sein?

Können wir Eine solche Verflechtung verhindern und nur gute AGI entwickeln?

Könnten wir eine völlig böse AGI überwinden?

Dies sind wesentliche Fragen mit ungelösten Antworten. Am klügsten wäre es vielleicht, sie zu lösen oder sich zumindest eingehend mit ihnen auseinanderzusetzen, und zwar lieber früher als später, und am besten, bevor wir zu AGI jeglicher Art oder Ableitung kommen. Vorsicht ist besser als Nachsicht, wie man so schön sagt.

HINTERLASSEN SIE EINE ANTWORT

Please enter your comment!
Please enter your name here

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.