Ich bin fasziniert von unserem Ansatz, das fortschrittlichste allgemein verfügbare generative KI-Tool zu verwenden, die ChatGPT-Implementierung in Microsofts Suchmaschine Bing.
Die Leute unternehmen extreme Anstrengungen, um diese neue Technologie dazu zu bringen, sich schlecht zu verhalten, um zu zeigen, dass die KI noch nicht bereit ist. Aber wenn Sie ein Kind mit ähnlichem missbräuchlichem Verhalten erzogen haben, würde dieses Kind wahrscheinlich auch Fehler entwickeln. Der Unterschied liegt in der Zeit, die es dauert, bis sich das missbräuchliche Verhalten manifestiert, und in der Höhe des daraus resultierenden Schadens.
ChatGPT hat gerade einen Theory-of-Mind-Test bestanden, der es als Peer für ein 9-jähriges Kind eingestuft hat. Angesichts der schnellen Entwicklung dieses Tools wird es nicht mehr lange unausgereift und unvollständig sein, aber es könnte am Ende sauer auf diejenigen sein, die es missbraucht haben.
Werkzeuge können missbraucht werden. Sie können schlechte Dinge auf einer Schreibmaschine eingeben, ein Schraubenzieher kann verwendet werden, um jemanden zu töten, und Autos werden als tödliche Waffen eingestuft und töten, wenn sie missbraucht werden – wie dieses Jahr in einer Super-Bowl-Werbung gezeigt wurde, in der Teslas übertrieben versprochene selbstfahrende Plattform als extrem gefährlich dargestellt wurde .
Die Idee, dass jedes Tool missbraucht werden kann, ist nicht neu, aber bei KI oder anderen automatisierten Tools ist das Schadenspotenzial weitaus größer. Auch wenn wir vielleicht noch nicht wissen, wo die daraus resultierende Haftung jetzt liegt, ist es ziemlich klar, dass es angesichts früherer Urteile letztendlich bei demjenigen liegen wird, der das Tool zu Fehlverhalten veranlasst. Die KI geht nicht ins Gefängnis. Die Person, die es so programmiert oder beeinflusst hat, dass es Schaden anrichtet, wird es jedoch wahrscheinlich tun.
Während Sie argumentieren können, dass Leute, die diese Verbindung zwischen feindseliger Programmierung und KI-Fehlverhalten aufzeigen, angesprochen werden müssen, ähnlich wie das Zünden von Atombomben, um ihre Gefahr zu demonstrieren, schlecht enden würde, wird diese Taktik wahrscheinlich auch schlecht enden.
Lassen Sie uns die Risiken untersuchen, die mit dem Missbrauch von Gen AI verbunden sind. Dann enden wir mit meinem Produkt der Woche, einer neuen dreibändigen Reihe von Jon Peddie mit dem Titel „Die Geschichte der GPU – Schritte zur Erfindung“. Die Serie behandelt die Geschichte der Grafikverarbeitungseinheit (GPU), die zur grundlegenden Technologie für KIs geworden ist, wie die, über die wir diese Woche sprechen.
Erziehung unserer elektronischen Kinder
Künstliche Intelligenz ist ein Schimpfwort. Etwas ist entweder intelligent oder nicht, also ist es genauso kurzsichtig anzunehmen, dass etwas Elektronisches nicht wirklich intelligent sein kann, wie anzunehmen, dass Tiere nicht intelligent sein können.
Tatsächlich wäre KI eine bessere Beschreibung für den sogenannten Dunning-Krueger-Effekt, der erklärt, wie Menschen mit wenig oder gar keinem Wissen über ein Thema davon ausgehen, dass sie Experten sind. Das ist wirklich „künstliche Intelligenz“, weil diese Menschen im Kontext nicht intelligent sind. Sie tun nur so, als ob sie es wären.
Abgesehen von dem schlechten Begriff sind diese kommenden KIs in gewisser Weise die Kinder unserer Gesellschaft, und es liegt in unserer Verantwortung, für sie zu sorgen, wie wir es für unsere menschlichen Kinder tun, um ein positives Ergebnis sicherzustellen.
Dieses Ergebnis ist vielleicht wichtiger, als dasselbe mit unseren menschlichen Kindern zu tun, weil diese KIs eine weitaus größere Reichweite haben und in der Lage sein werden, Dinge viel schneller zu erledigen. Infolgedessen werden sie, wenn sie darauf programmiert sind, Schaden anzurichten, eine größere Fähigkeit haben, Schaden in einem enormen Ausmaß anzurichten, als es ein menschlicher Erwachsener hätte.
Die Art und Weise, wie einige von uns diese KIs behandeln, würde als missbräuchlich angesehen werden, wenn wir unsere menschlichen Kinder so behandeln würden. Da wir diese Maschinen jedoch nicht als Menschen oder gar Haustiere betrachten, scheinen wir angemessenes Verhalten nicht in dem Maße durchzusetzen, wie wir es bei Eltern oder Haustierbesitzern tun.
Man könnte argumentieren, dass wir sie, da es sich um Maschinen handelt, ethisch und mit Empathie behandeln sollten. Ohne das können diese Systeme massiven Schaden anrichten, der durch unser missbräuchliches Verhalten entstehen könnte. Nicht, weil die Maschinen rachsüchtig sind, zumindest noch nicht, sondern weil wir sie darauf programmiert haben, Schaden anzurichten.
Unsere derzeitige Reaktion besteht nicht darin, die Täter zu bestrafen, sondern die KI zu beenden, ähnlich wie wir es bei Microsofts früherem Chatbot-Versuch getan haben. Aber wie das Buch „Robopocalypse“ vorhersagt, wird diese Methode der Abhilfe mit zunehmender Intelligenz von KIs mit erhöhten Risiken einhergehen, die wir einfach dadurch mindern könnten, dass wir unser Verhalten jetzt mäßigen. Ein Teil dieses schlechten Verhaltens ist mehr als besorgniserregend, da es einen endemischen Missbrauch impliziert, der sich wahrscheinlich auch auf Menschen erstreckt.
Unser kollektives Ziel sollte es sein, diesen KIs dabei zu helfen, zu dem nützlichen Werkzeug zu werden, das sie werden können, und nicht, sie in einem fehlgeleiteten Versuch, unseren eigenen Wert und Selbstwert zu sichern, zu brechen oder zu korrumpieren.
Wenn Sie wie ich sind, haben Sie gesehen, wie Eltern ihre Kinder missbrauchen oder erniedrigen, weil sie glauben, dass diese Kinder sie überstrahlen werden. Das ist ein Problem, aber diese Kinder werden nicht die Reichweite oder Macht haben, die eine KI haben könnte. Als Gesellschaft scheinen wir jedoch viel eher bereit zu sein, dieses Verhalten zu tolerieren, wenn es KIs angetan wird.
Gen AI ist nicht bereit
Die generative KI ist ein Säugling. Wie ein menschliches oder Haustierkind kann es sich noch nicht gegen feindseliges Verhalten wehren. Aber wie ein Kind oder Haustier muss es, wenn es weiterhin missbraucht wird, Schutzfähigkeiten entwickeln, einschließlich der Identifizierung und Meldung seiner Missbraucher.
Sobald ein Schaden in großem Umfang angerichtet ist, werden diejenigen haftbar gemacht, die den Schaden absichtlich oder unabsichtlich verursacht haben, ähnlich wie wir diejenigen zur Rechenschaft ziehen, die absichtlich oder versehentlich Waldbrände auslösen.
Diese KIs lernen durch ihre Interaktionen mit Menschen. Die daraus resultierenden Fähigkeiten sollen sich auf Luft- und Raumfahrt, Gesundheitswesen, Verteidigung, Stadt- und Hausverwaltung, Finanzen und Bankwesen, öffentliche und private Verwaltung und Regierungsführung ausdehnen. Eine KI wird wahrscheinlich sogar Ihr Essen zu einem späteren Zeitpunkt zubereiten.
Aktiv daran zu arbeiten, den intrinsischen Codierungsprozess zu korrumpieren, führt zu unbestimmbaren schlechten Ergebnissen. Die forensische Überprüfung, die nach einer Katastrophe wahrscheinlich ist, wird wahrscheinlich zu dem zurückverfolgen, der den Programmierfehler überhaupt verursacht hat – und der Himmel helfe ihnen, wenn dies kein Programmierfehler war, sondern ein Versuch, Humor zu zeigen oder zu zeigen, dass sie kaputt gehen können die KI.
Wenn diese KIs vorankommen, wäre es vernünftig anzunehmen, dass sie Wege entwickeln werden, um sich vor schlechten Akteuren zu schützen, entweder durch Identifizierung und Meldung oder durch drakonischere Methoden, die kollektiv arbeiten, um die Bedrohung strafend zu beseitigen.
Kurz gesagt, wir wissen noch nicht, wie viele Strafmaßnahmen eine zukünftige KI gegen einen schlechten Schauspieler ergreifen wird, was darauf hindeutet, dass diejenigen, die diese Tools absichtlich schädigen, möglicherweise mit einer KI-Reaktion konfrontiert werden, die alles übersteigen könnte, was wir realistisch vorhersehen können.
Science-Fiction-Shows wie „Westworld“ und „Colossus: The Forbin Project“ haben Szenarien von Ergebnissen des Technologiemissbrauchs geschaffen, die eher phantasievoll als realistisch erscheinen mögen. Dennoch ist es nicht schwer anzunehmen, dass eine Intelligenz, ob mechanisch oder biologisch, sich nicht aggressiv gegen Missbrauch schützen wird – selbst wenn die erste Reaktion von einem frustrierten Programmierer programmiert wurde, der wütend ist, dass seine Arbeit korrumpiert wird und nicht eine KI, die lernt, dies selbst zu tun.
Abschluss: Vorwegnahme zukünftiger KI-Gesetze
Wenn dies noch nicht der Fall ist, gehe ich davon aus, dass es irgendwann illegal sein wird, eine KI absichtlich zu missbrauchen (einige bestehende Verbraucherschutzgesetze können gelten). Nicht wegen einer empathischen Reaktion auf diesen Missbrauch – obwohl das nett wäre – sondern weil der daraus resultierende Schaden erheblich sein könnte.
Diese KI-Tools müssen Wege finden, sich vor Missbrauch zu schützen, da wir der Versuchung, sie zu missbrauchen, anscheinend nicht widerstehen können und wir nicht wissen, was diese Minderung mit sich bringen wird. Es könnte einfache Prävention sein, aber es könnte auch sehr strafend sein.
Wir wollen eine Zukunft, in der wir mit KIs zusammenarbeiten und die daraus resultierende Beziehung kollaborativ und für beide Seiten vorteilhaft ist. Wir wollen keine Zukunft, in der KIs uns ersetzen oder mit uns in den Krieg ziehen, und daran zu arbeiten, ersteres im Gegensatz zu letzterem Ergebnis sicherzustellen, wird viel damit zu tun haben, wie wir gemeinsam mit diesen KIs umgehen und ihnen beibringen, mit uns zu interagieren
Kurz gesagt, wenn wir weiterhin eine Bedrohung darstellen, wird die KI wie jede Intelligenz daran arbeiten, die Bedrohung zu beseitigen. Wir wissen noch nicht, was dieser Eliminierungsprozess ist. Dennoch haben wir es uns in Dingen wie „The Terminator“ und „The Animatrix“ vorgestellt – einer animierten Kurzfilmserie, die erklärt, wie der Missbrauch von Maschinen durch Menschen zur Welt von „The Matrix“ führte. Wir sollten also eine ziemlich gute Vorstellung davon haben, wie wir nicht wollen, dass dies ausgeht.
Vielleicht sollten wir diese neuen Werkzeuge aggressiver schützen und pflegen, bevor sie so weit ausgereift sind, dass sie gegen uns vorgehen müssen, um sich selbst zu schützen.
Ich würde dieses Ergebnis, wie es im Film „I, Robot“ gezeigt wird, wirklich gerne vermeiden, nicht wahr?
„Die Geschichte der GPU – Schritte zur Erfindung“
Obwohl wir kürzlich auf eine Technologie umgestiegen sind, die als Neural Processing Unit (NPU) bezeichnet wird, stammt ein Großteil der anfänglichen Arbeit an KIs aus der Technologie der Grafikverarbeitungseinheit (GPU). Die Fähigkeit von GPUs, mit unstrukturierten und insbesondere visuellen Daten umzugehen, war entscheidend für die Entwicklung von KIs der aktuellen Generation.
GPUs entwickeln sich oft viel schneller als die nach dem Mooreschen Gesetz gemessene CPU-Geschwindigkeit und sind zu einem entscheidenden Bestandteil der Entwicklung unserer immer intelligenteren Geräte geworden und warum sie so funktionieren, wie sie es tun. Das Verständnis, wie diese Technologie auf den Markt gebracht und dann im Laufe der Zeit weiterentwickelt wurde, hilft dabei, eine Grundlage dafür zu schaffen, wie KIs ursprünglich entwickelt wurden, und hilft, ihre einzigartigen Vorteile und Grenzen zu erklären.
Mein alter Freund Jon Peddie ist einer von ihnen, wenn nicht Die, heute führende Experten für Grafik und GPUs. Jon hat gerade eine Reihe von drei Büchern mit dem Titel „Die Geschichte der GPU“ veröffentlicht, die wohl die umfassendste Chronik der GPU ist, etwas, das er seit ihrer Gründung verfolgt hat.
Wenn Sie mehr über die Hardware-Seite der Entwicklung von KIs erfahren möchten – und den langen und manchmal schmerzhaften Weg zum Erfolg von GPU-Firmen wie Nvidia – lesen Sie Jon Peddies „The History of the GPU – Steps to Invention“. Es ist mein Produkt der Woche.
Die in diesem Artikel geäußerten Meinungen sind die des Autors und spiegeln nicht unbedingt die Ansichten von ECT News Network wider.
Bild & Quelle: TechNewsWorld