Vint Cerf, bekannt als der Vater des Internets, zog am Montag ein paar Augenbrauen hoch, als er Investoren aufforderte, vorsichtig zu sein, wenn sie in Unternehmen investieren, die auf Konversations-Chatbots basieren.
Die Bots machen immer noch zu viele Fehler, behauptete Cerf, Vizepräsident bei Google, das einen KI-Chatbot namens Bard in der Entwicklung hat.
Als er ChatGPT, einen von OpenAI entwickelten Bot, bat, eine Biografie über ihn zu schreiben, seien einige Dinge falsch gelaufen, sagte er einem Publikum auf dem TechSurge Deep Tech Summit, der von der Risikokapitalgesellschaft Celesta veranstaltet und im Computer History Museum abgehalten wurde in Mountain View, Kalifornien
„Es ist wie ein Salat-Shooter. Es mischt sich [facts] zusammen, weil es es nicht besser weiß“, sagte Cerf laut Silicon Angle.
Er riet Anlegern, eine Technologie nicht zu unterstützen, weil sie cool erscheint oder „Summe“ erzeugt.
Cerf empfahl außerdem, bei Investitionen in KI ethische Erwägungen zu berücksichtigen.
Er sagte: „Ingenieure wie ich sollten dafür verantwortlich sein, einen Weg zu finden, einige dieser Technologien zu zähmen, damit sie mit geringerer Wahrscheinlichkeit Probleme verursachen“, berichtete Silicon Angle.
Menschliche Aufsicht erforderlich
Wie Cerf betont, gibt es einige Fallstricke für Unternehmen, die sich auf den Weg machen, um in das KI-Rennen einzusteigen.
Ungenauigkeit und falsche Informationen, Voreingenommenheit und anstößige Ergebnisse sind potenzielle Risiken, denen Unternehmen bei der Verwendung von KI ausgesetzt sind, bemerkte Greg Sterling, Mitbegründer von Near Media, einer Nachrichten-, Kommentar- und Analyse-Website.
„Die Risiken hängen von den Anwendungsfällen ab“, sagte Sterling gegenüber TechNewsWorld. „Digitale Agenturen, die sich zu sehr auf ChatGPT oder andere KI-Tools verlassen, um Inhalte zu erstellen oder Arbeiten für Kunden abzuschließen, könnten Ergebnisse erzielen, die suboptimal sind oder dem Kunden in irgendeiner Weise schaden.“
Er behauptete jedoch, dass Checks and Balances und eine starke menschliche Aufsicht diese Risiken mindern könnten.
Kleine Unternehmen, die kein Fachwissen in der Technologie haben, müssen vorsichtig sein, bevor sie den Sprung in die KI wagen, warnte Mark N. Vena, Präsident und leitender Analyst bei SmartTech Research in San Jose, Kalifornien.
„Zumindest muss jedes Unternehmen, das KI in seine Geschäftstätigkeit integriert, die Auswirkungen verstehen“, sagte Vena gegenüber TechNewsWorld.
„Datenschutz – insbesondere auf Kundenebene – ist offensichtlich ein großes Problem“, fuhr er fort. „Nutzungsbedingungen müssen äußerst explizit sein, ebenso wie die Haftung, falls die KI-Fähigkeit Inhalte produziert oder Maßnahmen ergreift, die das Unternehmen einer potenziellen Haftung aussetzen.“
Ethik braucht Erforschung
Während Cerf möchte, dass Benutzer und Entwickler von KI die Ethik berücksichtigen, wenn sie KI-Produkte auf den Markt bringen, könnte dies eine herausfordernde Aufgabe sein.
„Die meisten Unternehmen, die KI einsetzen, konzentrieren sich auf Effizienz und Zeit- oder Kosteneinsparungen“, bemerkte Sterling. „Für die meisten von ihnen wird Ethik ein zweitrangiges Anliegen oder sogar eine Nichtberücksichtigung sein.“
Es gibt ethische Fragen, die angegangen werden müssen, bevor KI weit verbreitet wird, fügte Vena hinzu. Als Beispiel verwies er auf den Bildungssektor.
„Ist es für einen Studenten ethisch vertretbar, eine Arbeit einzureichen, die vollständig aus einem KI-Tool extrahiert wurde?“ er hat gefragt. „Auch wenn der Inhalt kein Plagiat im strengsten Sinne ist, weil er ‚original‘ sein könnte, glaube ich, dass die meisten Schulen – insbesondere auf Highschool- und College-Ebene – darauf zurückgreifen würden.“
„Ich bin mir nicht sicher, ob Nachrichtenmedien von der Verwendung von ChatGPT durch Journalisten begeistert wären, die über Echtzeitereignisse berichten, die oft auf abstrakten Urteilen beruhen, mit denen ein KI-Tool Probleme haben könnte“, sagte er.
„Ethik muss eine starke Rolle spielen“, fuhr er fort, „deshalb muss es einen KI-Verhaltenskodex geben, dem Unternehmen und sogar die Medien zustimmen müssen, und diese Compliance-Bedingungen zu einem Bestandteil der Bedingungen machen und Bedingungen beim Einsatz von KI-Tools.“
Unbeabsichtigte Konsequenzen
Für jeden, der mit KI zu tun hat, ist es wichtig sicherzustellen, dass er verantwortungsbewusst handelt, sagte Ben Kobren, Leiter der Abteilung Kommunikation und öffentliche Ordnung bei Neeva, einer KI-basierten Suchmaschine mit Sitz in Washington, DC
„Viele der unbeabsichtigten Folgen früherer Technologien waren das Ergebnis eines Wirtschaftsmodells, das die Geschäftsanreize nicht auf den Endbenutzer ausrichtete“, sagte Kobren gegenüber TechNewsWorld. „Unternehmen müssen sich entscheiden, ob sie einen Werbetreibenden oder den Endnutzer bedienen. Die überwiegende Mehrheit der Zeit würde der Werbetreibende gewinnen. „
„Das kostenlose Internet ermöglichte unglaubliche Innovationen, aber es hatte seinen Preis“, fuhr er fort. „Diese Kosten waren die Privatsphäre einer Person, die Zeit einer Person, die Aufmerksamkeit einer Person.“
„Dasselbe wird mit KI passieren“, sagte er. „Wird KI in einem Geschäftsmodell angewendet, das sich an Benutzern oder an Werbetreibenden ausrichtet?“
Die Mahnungen von Cerf zur Vorsicht scheinen darauf abzuzielen, den Markteintritt von KI-Produkten zu verlangsamen, aber das scheint unwahrscheinlich.
„ChatGPT brachte die Branche viel schneller voran, als irgendjemand erwartet hatte“, bemerkte Kobren.
„Das Rennen hat begonnen und es gibt kein Zurück mehr“, fügte Sterling hinzu.
„Es gibt Risiken und Vorteile, diese Produkte schnell auf den Markt zu bringen“, sagte er. „Aber der Marktdruck und die finanziellen Anreize, jetzt zu handeln, werden die ethische Zurückhaltung überwiegen. Die größten Unternehmen sprechen von ‚verantwortungsbewusster KI‘, aber sie schreiten trotzdem voran.“
Transformationstechnologie
In seinen Ausführungen auf dem TechSurge-Gipfel erinnerte Cerf die Investoren auch daran, dass alle Menschen, die KI-Technologien einsetzen werden, diese nicht für die beabsichtigten Zwecke verwenden werden. Sie „werden danach streben, das zu tun, was ihnen zugute kommt und nicht Ihnen“, sagte er Berichten zufolge.
„Regierungen, NGOs und die Industrie müssen zusammenarbeiten, um Regeln und Standards zu formulieren, die in diese Produkte eingebaut werden sollten, um Missbrauch zu verhindern“, bemerkte Sterling.
„Die Herausforderung und das Problem bestehen darin, dass sich die Markt- und Wettbewerbsdynamik schneller bewegt und viel stärker ist als politische und staatliche Prozesse“, fuhr er fort. „Aber die Regulierung kommt. Es ist nur eine Frage, wann und wie es aussieht.“
Die politischen Entscheidungsträger setzen sich schon seit einiger Zeit mit der Rechenschaftspflicht von KI auseinander, kommentierte Hodan Omaar, ein leitender KI-Politikanalyst des Center for Data Innovation, einer Denkfabrik, die die Schnittmenge von Daten, Technologie und öffentlicher Ordnung in Washington, DC, untersucht
„Entwickler sollten verantwortlich sein, wenn sie KI-Systeme erstellen“, sagte Omaar gegenüber TechNewsWorld. „Sie sollten sicherstellen, dass solche Systeme mit repräsentativen Datensätzen trainiert werden.“
Sie fügte jedoch hinzu, dass es die Betreiber der KI-Systeme sein werden, die die wichtigsten Entscheidungen darüber treffen werden, wie sich KI-Systeme auf die Gesellschaft auswirken.
„Es ist klar, dass KI hier bleiben wird“, fügte Kobren hinzu. „Es wird viele Facetten unseres Lebens verändern, insbesondere wie wir auf Informationen im Internet zugreifen, sie konsumieren und mit ihnen interagieren.“
„Es ist die transformierendste und aufregendste Technologie, die wir seit dem iPhone gesehen haben“, schloss er.
Bild & Quelle: TechNewsWorld