Mira Murati, CTO von OpenAI, schürte am Sonntag die Kontroverse über die staatliche Aufsicht über künstliche Intelligenz, als sie in einem Interview mit dem Time Magazine einräumte, dass die Technologie reguliert werden müsse.
„Für OpenAI und Unternehmen wie unseres ist es wichtig, dies auf kontrollierte und verantwortungsbewusste Weise in das öffentliche Bewusstsein zu bringen“, sagte Murati gegenüber Time. „Aber wir sind eine kleine Gruppe von Menschen, und wir brauchen eine Menge mehr Input in diesem System und viel mehr Input, der über die Technologien hinausgeht – definitiv Regulierungsbehörden und Regierungen und alle anderen.“
Auf die Frage, ob eine staatliche Beteiligung in dieser Phase der KI-Entwicklung Innovation behindern könnte, antwortete sie: „Es ist nicht zu früh. Angesichts der Auswirkungen, die diese Technologien haben werden, ist es sehr wichtig, dass sich alle daran beteiligen.“
Da der Markt Anreize für Missbrauch bietet, ist wahrscheinlich eine gewisse Regulierung notwendig, stimmte Greg Sterling, Mitbegründer von Near Media, einer Nachrichten-, Kommentar- und Analyse-Website, zu.
„Durchdachte Fehlanreize gegen unethisches Verhalten können den potenziellen Missbrauch von KI minimieren“, sagte Sterling gegenüber TechNewsWorld, „aber die Regulierung kann auch schlecht konstruiert sein und nichts davon stoppen.“
Er räumte ein, dass eine zu frühe oder zu strenge Regulierung der Innovation schaden und die Vorteile der KI einschränken könnte.
„Regierungen sollten KI-Experten und Branchenführer einberufen, um gemeinsam einen Rahmen für eine mögliche zukünftige Regulierung festzulegen. Es sollte wahrscheinlich auch einen internationalen Umfang haben“, sagte Sterling.
Berücksichtigen Sie bestehende Gesetze
Künstliche Intelligenz kann, wie viele Technologien und Werkzeuge, für eine Vielzahl von Zwecken eingesetzt werden, erklärte Jennifer Huddleston, Research Fellow für Technologiepolitik am Cato Institute, einem Think Tank in Washington, DC.
Viele dieser Anwendungen sind positiv, und die Verbraucher stoßen bereits auf nützliche Anwendungen von KI, wie z. B. Echtzeitübersetzung und bessere Verkehrsnavigation, fuhr sie fort. „Bevor neue Vorschriften gefordert werden, sollten politische Entscheidungsträger überlegen, wie bestehende Gesetze zu Themen wie Diskriminierung bereits Bedenken ausräumen können“, sagte Huddleston gegenüber TechNewsWorld.
Künstliche Intelligenz sollte reguliert werden, aber wie sie bereits reguliert ist, muss auch berücksichtigt werden, fügte Mason Kortz, klinischer Ausbilder an der Cyberlaw Clinic an der Harvard University Law School in Cambridge, Mass., hinzu.
„Wir haben viele allgemeine Vorschriften, die Dinge legal oder illegal machen, unabhängig davon, ob sie von einem Menschen oder einer KI durchgeführt werden“, sagte Kortz gegenüber TechNewsWorld.
„Wir müssen untersuchen, inwiefern bestehende Gesetze bereits ausreichen, um KI zu regulieren, und inwiefern dies nicht der Fall ist und wir etwas Neues tun und kreativ sein müssen“, sagte er.
So stellte er beispielsweise fest, dass es keine allgemeine Regelung zur Haftung für autonome Fahrzeuge gibt. Verursacht ein autonomes Fahrzeug jedoch einen Crash, gibt es noch zahlreiche Rechtsgebiete, auf die zurückgegriffen werden kann, etwa das Fahrlässigkeitsrecht und das Produkthaftungsrecht. Dies seien mögliche Möglichkeiten, diesen Einsatz von KI zu regulieren, erklärte er.
Leichte Berührung erforderlich
Kortz räumte jedoch ein, dass viele bestehende Regeln nachträglich ins Spiel kommen. „In gewisser Weise sind sie also die zweitbesten“, sagte er. „Aber sie sind eine wichtige Maßnahme, während wir Vorschriften entwickeln.“
„Wir sollten versuchen, bei der Regulierung proaktiv zu sein, wo wir können“, fügte er hinzu. „Regress durch das Rechtssystem erfolgt, nachdem ein Schaden eingetreten ist. Es wäre besser, wenn der Schaden nie eingetreten wäre.“
Mark N. Vena, President und Principal Analyst bei SmartTech Research in San Jose, Kalifornien, argumentiert jedoch, dass eine starke Regulierung die aufkeimende KI-Industrie unterdrücken könnte.
„In diesem frühen Stadium bin ich kein großer Fan von staatlicher Regulierung der KI“, sagte Vena gegenüber TechNewsWorld. „KI kann viele Vorteile haben, und staatliche Eingriffe könnten dazu führen, dass sie erstickt werden.“
Diese Art von erstickender Wirkung auf das Internet sei in den 1990er Jahren abgewendet worden, behauptete er, durch „light touch“-Vorschriften wie Abschnitt 230 des Communications Decency Act, der Online-Plattformen Immunität von der Haftung für auf ihren Websites erscheinende Inhalte Dritter gewährte.
Kortz glaubt jedoch, dass die Regierung etwas vernünftig bremsen kann, ohne eine Industrie zu schließen.
„Die Leute kritisieren die FDA, dass sie anfällig für behördliche Eingriffe ist, dass sie von Pharmaunternehmen betrieben wird, aber wir leben immer noch in einer besseren Welt als vor der FDA, als jeder alles verkaufen und auf ein Etikett setzen konnte“, sagte er .
„Gibt es eine gute Lösung, die nur die guten Aspekte der KI erfasst und alle schlechten stoppt? Wahrscheinlich nicht“, fuhr Vena fort, „aber etwas Struktur ist besser als keine Struktur.“
„Gute KI und schlechte KI gegeneinander antreten zu lassen, wird für niemanden gut sein“, fügte er hinzu. „Wir können nicht garantieren, dass die guten KIs diesen Kampf gewinnen werden, und der Kollateralschaden könnte ziemlich beträchtlich sein.“
Regulierung ohne Strangulation
Es gibt ein paar Dinge, die politische Entscheidungsträger tun können, um KI zu regulieren, ohne Innovationen zu behindern, bemerkte Daniel Castro, Vizepräsident der Information Technology & Innovation Foundation, einer Forschungs- und Politikorganisation, in Washington, DC
„Eine besteht darin, sich auf bestimmte Anwendungsfälle zu konzentrieren“, sagte Castro gegenüber TechNewsWorld. „Zum Beispiel sollte die Regulierung selbstfahrender Autos anders aussehen als die Regulierung von KI, die zur Erzeugung von Musik verwendet wird.“
„Eine andere ist, sich auf Verhaltensweisen zu konzentrieren“, fuhr er fort. „Zum Beispiel ist es illegal, bei der Einstellung von Mitarbeitern oder der Anmietung von Wohnungen zu diskriminieren – ob ein Mensch oder ein KI-System die Entscheidung trifft, sollte irrelevant sein.“
„Aber die politischen Entscheidungsträger sollten darauf achten, KI nicht auf unfaire Weise an einen anderen Standard zu halten oder Vorschriften einzuführen, die für KI keinen Sinn ergeben“, fügte er hinzu. „Zum Beispiel sind einige der Sicherheitsanforderungen in heutigen Fahrzeugen, wie Lenkräder und Rückspiegel, für autonome Fahrzeuge ohne Passagiere oder Fahrer nicht sinnvoll.“
Vena wünscht sich einen „transparenten“ Regulierungsansatz.
„Ich würde eine Regulierung vorziehen, die von KI-Entwicklern und Inhaltsproduzenten verlangt, dass sie hinsichtlich der von ihnen verwendeten Algorithmen völlig transparent sind“, sagte er. „Sie könnten von einer Drittpartei überprüft werden, die sich aus Akademikern und einigen Geschäftseinheiten zusammensetzt.“
„Transparenz in Bezug auf Algorithmen und die Quellen von Inhalten, aus denen KI-Tools stammen, sollte das Gleichgewicht fördern und Missbrauch eindämmen“, sagte er.
Planen Sie Worst-Case-Szenarien ein
Kortz bemerkte, dass viele Menschen glauben, Technologie sei neutral.
„Ich glaube nicht, dass Technologie neutral ist“, sagte er. „Wir müssen an schlechte Schauspieler denken. Aber wir müssen auch an schlechte Entscheidungen der Menschen denken, die diese Dinge erschaffen und in die Welt hinaustragen.“
„Ich würde jeden, der KI für einen bestimmten Anwendungsfall entwickelt, ermutigen, nicht nur darüber nachzudenken, was der beabsichtigte Zweck ist, sondern auch, was der denkbar schlechteste Nutzen für seine Technologie ist“, schloss er.
Bild & Quelle: TechNewsWorld