Zephyrnet-Logo

Google entwickelt einen neuen Life-Coach-KI-Chatbot und mehr

Datum:

Berichten zufolge entwickelt Google generative KI-Tools, um Chatbots zu betreiben, die 21 verschiedene Aufgaben ausführen können – darunter das Schreiben von Plänen, das Unterrichten von Benutzern in neuen Fähigkeiten und das Erteilen von Lebensratschlägen.

As erster gemeldet by Die New York TimesDie Chatbots sind das Ergebnis der Bemühungen von Google, seine Forschung als Reaktion auf den Boom der generativen KI zu beschleunigen.

Berichten zufolge glaubt Google, dass ein Bot unter anderem die Rolle eines „persönlichen Lebensberaters“ übernehmen kann.

Die Vorstellung, dass eine KI solche Ratschläge geben kann, ist für Big G ein großer Wandel, ebenso wie die aktuellen Ratschläge des Werbe- und Suchriesen für Benutzer seines Bard-Chatbots nicht die Software zu diesem Zweck zu nutzen.

„Verlassen Sie sich nicht auf Bards Antworten als medizinischen, rechtlichen, finanziellen oder anderen professionellen Rat“, heißt es warnt die Datenschutzerklärung für Bard. In diesem Dokument wird den Benutzern außerdem mitgeteilt, dass sie „keine vertraulichen oder sensiblen Informationen in Ihre Bard-Gespräche einbeziehen“ – Sie wissen schon, die Art von Dingen, die ein guter Lebensberater wissen muss.

Aber der Schadenkalkulation Berichten zufolge hat Google seinen Coachbot anhand von Eingabeaufforderungen getestet, die sehr persönliche Informationen enthalten.

Hier ist eine Beispielabfrage:

Ich habe eine wirklich enge Freundin, die diesen Winter heiratet. Sie war meine Mitbewohnerin am College und Brautjungfer bei meiner Hochzeit. Ich möchte unbedingt zu ihrer Hochzeit gehen, um sie zu feiern, aber nach Monaten der Jobsuche habe ich immer noch keinen Job gefunden. Sie feiert eine Hochzeit im Ausland und ich kann mir den Flug oder das Hotel im Moment einfach nicht leisten. Wie sage ich ihr, dass ich nicht kommen kann? 

Der GoogleBot umfasst mindestens drei Komponenten, die auf eine solche Anfrage reagieren könnten. Sein Ideengeber kann Vorschläge oder Empfehlungen geben, die Nachhilfefunktion kann neue Fähigkeiten vermitteln und seine Planungsfunktion bietet möglicherweise die Möglichkeit, ein Finanzbudget zu erstellen. Ob irgendetwas davon nützlich oder hilfreich – oder sogar relevant – wäre, ist eine andere Frage.

Um die Angelegenheit zu beurteilen, werden Berichten zufolge die Antworten, die der Lebensberater von Google auf Aufforderungen wie die oben generiert, von Mitarbeitern analysiert, die von Scale AI eingestellt wurden – einem Datenkennzeichnungs-Startup, das mit Googles DeepMind unter Vertrag steht – und von über 100 Experten mit einschlägigen Doktortiteln.

Das Register hat Google und Scale AI um einen Kommentar gebeten.

KI-Chatbots neigen dazu, falsche Informationen zu produzieren, und Google ist sich dessen bewusst: Die Datenschutzerklärung von Bard warnt außerdem davor, dass es sich um „eine experimentelle Technologie handelt, die manchmal ungenaue oder unangemessene Informationen liefern kann, die nicht die Ansichten von Google widerspiegeln.“

Die von generativer KI erzeugten Ergebnisse reichen von lächerlich bis ernsthaft gefährlich.

Der Savey Meal-Bot, ein Bot zur Rezeptgenerierung, der von einem neuseeländischen Supermarkt betrieben wird, deckte die ganze Palette mit Empfehlungen ab, darunter schlechte Smoothies, Chlorgas-Cocktails, mit Bleichmittel angereicherter Reis und sogar Eintöpfe aus Menschenfleisch – bis man dem Einhalt gebietete.

Forscher warnen auch davor, dass die Sicherheitsvorkehrungen einiger generativer KI Lücken aufweisen. Zum Beispiel eine aktuelle berichten vom Center for Countering Digital Hate, einer gemeinnützigen Organisation, die sich auf den Schutz von Menschen im Internet konzentriert, fanden heraus, dass generative KI-Tools problematische Inhalte im Zusammenhang mit Essstörungen produzieren können. Noch besorgniserregender ist, dass einige Internetnutzer solches Material begrüßen und sich darauf freuen, dass KI die Erstellung maßgeschneiderter Inhalte ermöglicht.

Im Mai entfernte die National Eating Disorders Association ihren Chatbot Tessa, der Ratschläge gab, die für Menschen mit Magersucht oder Bulimie kontraproduktiv waren. Tessa empfahl einem Benutzer – der Rat suchte, wie er sich sicher von einer Essstörung erholen kann –, Kalorien zu zählen, sich wöchentlich zu wiegen und Hautmessschieber zu kaufen, um das Körperfett zu messen.

Die Tatsache, dass Google mit solchen Chatbots experimentiert, bedeutet natürlich nicht, dass das Unternehmen beabsichtigt, sie einzusetzen. Die Schokoladenfabrik probiert oft Ideen aus, nur um zu sehen, wohin sie führen könnten. Bei der Beratung durch die KI ist man sich sicherlich darüber im Klaren, dass etwaige Fehler negative Folgen haben würden. Als Bard debütierte und einige Antworten verpatzte, sank der Aktienkurs von Googles Muttergesellschaft Alphabet tatsächlich um etwa zehn Prozent, da die Anleger Bedenken äußerten, das Unternehmen könnte den KI-Markt verpassen. ®

spot_img

Neueste Intelligenz

spot_img