banner
Heim / Nachricht / Ellen Loeshelle von Qualtrics: Wählen Sie Ihre KI basierend auf dem Problem aus, das Sie lösen möchten
Nachricht

Ellen Loeshelle von Qualtrics: Wählen Sie Ihre KI basierend auf dem Problem aus, das Sie lösen möchten

Jul 11, 2023Jul 11, 2023

In Verbindung mit unseremArtikel „Nummer des Monats“.Über die Bereitschaft der Verbraucher, mit auf künstlicher Intelligenz (KI) basierenden Lösungen zu interagieren, sprach No Jitter mitAn Ellen Loeshe,Qualtrics 'Direktor der KI-Produktentwicklung. Sie teilte ihre Erkenntnisse zu verschiedenen KI-Themen mit, die hier im Frage-und-Antwort-Format präsentiert werden.

NJ: Können Sie über den Anstoß sprechen, von der Art der KI, die in der Kategorie „Konversation“ verwendet wird – Verarbeitung natürlicher Sprache (NLP) und Verständnis natürlicher Sprache (NLU) –, zur generativen KI (Gen AI) und den großen Sprachmodellen überzugehen ( LLMs), die sie antreiben?

An Ellen Loeshe : NLP ist eigentlich der weit gefasste Überbegriff für die Nützlichkeit dieser Algorithmen. LLMs sind nur eine Reihe von Werkzeugen innerhalb dieser Toolbox, die wir für die Verarbeitung natürlicher Sprache oder das Verständnis natürlicher Sprache verwenden würden. Ich sehe sie nicht als völlig dichotom an.

Wenn Sie NLP betreiben, gibt es eine Menge verschiedener Arten von Werkzeugen, die Sie verwenden können, um Prozesse zu verstehen, zu interpretieren und Sprache zu generieren – einige davon sind so einfach wie das Schreiben von Regeln oder regulären Ausdrücken oder ähnliches. Es gibt auch grundlegendere maschinelle Lernfunktionen, die schon seit langem auf dem Markt sind. Und dann gibt es die Deep-Learning-Modelle, die großen Sprachmodelle usw.

Was wir bei den großen Sprachmodellen festgestellt haben, ist, dass sie einfach eine wirklich beeindruckende Leistung bei der Erzeugung menschenähnlicher Sprache haben – sie ist nicht perfekt. Erstens ist es nicht immer genau, aber es sieht von allem, was ich je gesehen habe, am natürlichsten aus.

LLMs bieten also eine Art „Sprung nach vorne“ in Bezug auf Genauigkeit, Relativität usw., so dass andere NLP-Strategien wirklich nicht die gleiche Wirkung hatten oder zumindest nicht den gleichen Hype erzeugten. Es ist eine der Bewegungen, die sich seit ich im Raum befinde, tektonisch anfühlt.

Aber wir befinden uns immer noch mitten in einem Hype-Zyklus. Ich versuche immer, meine eigenen Reaktionen und die aller anderen in Worte zu fassen und zu sagen: „Okay, abgesehen von der Technik, was ist los und wie können wir uns angesichts vieler Ereignisse auf dem Laufenden halten?“

NJ: Okay, aber warum schneiden LLMs besser ab als die traditionelleren NLP-Ansätze?

Löshelle : Viele Datenwissenschaftler wissen nicht wirklich, warum sie so viel besser sind, aber der größte Hinweis, den wir bisher haben, liegt im Wort „groß“. Die Größe der Trainingssätze für LLMs ist einfach viel größer als alles andere, was wir in der Vergangenheit verwendet haben. LLMs verfügen also über mehr Übung und mehr Erfahrung mit tatsächlichen Sprachmustern im Vergleich zu anderen Ansätzen, die wir in der Vergangenheit verwendet haben und die auf kleineren Sprachsätzen basierten oder eher auf Kosten als auf Leistung optimiert waren. Wir befinden uns immer noch in der seltsamen Phase, in der die Kosten für LLMs in vielen Fällen für Unternehmen unerschwinglich sind, wenn sie sie nutzen oder eigene Systeme erstellen. Das muss sich ändern.

NJ: Gibt es Erkenntnisse aus „älteren Arten“ von KI, die auf diese neueren Anwendungsfälle angewendet werden können?

Löshelle : Total. Ich habe am Wochenende sogar einen interessanten Artikel über die Rolle gelesen, die Ontologien spielen – man kann sich eine Ontologie grundsätzlich als eine Taxonomie von Begriffen oder Konzepten vorstellen, und oft sind [diese Taxonomien] hierarchisch. Solche Dinge können ein generatives Modell als Eingabe beeinflussen.

Daher bin ich sehr begeistert von der Tatsache, dass es keine einheitliche Technologie gibt, die für alle passt. Wir sollten die Art des Algorithmus basierend auf dem Problem, das wir lösen möchten, und auch auf unseren geschäftlichen Einschränkungen auswählen. Die Kosten sind offensichtlich enorm. Wenn ich es mir nicht leisten kann, sind die zusätzlichen 2 % an Präzision vielleicht nicht die Mühe wert. Vielleicht sollte ich einfach etwas verwenden, das in der Vergangenheit für mich schon einmal funktioniert hat.

Aber wenn man sie zusammen verwendet, wird meiner Meinung nach im Allgemeinen ein besseres Ergebnis zu einem kostengünstigeren Preis erzielt. Meine Philosophie hier bei Qualtrics ist, dass Gen AI ein Werkzeug ist, das wir nutzen können, wenn es sinnvoll ist und uns einzigartige Vorteile verschafft. Aber es ist nicht das einzige Werkzeug. Es ist nicht etwas, was wir nur tun, um es zu tun.

Unser Vorteil als Unternehmen entsteht, wenn wir unsere eigenen Vermögenswerte anders einsetzen können als alle anderen. Wenn unsere Konkurrenten sagen: „Ja, wir greifen auf denselben Open-Source-Datensatz und denselben Open-Source-Algorithmus zurück“ und wir sie auf genau die gleiche Weise einbinden, dann haben wir keinen Abstand zu unserer Konkurrenz erreicht alle.

Für uns ist es besser, etwas zu vermischen, zu kombinieren, einige der älteren Sachen zu verwenden, um die neueren Sachen zu untermauern, oder sehr strategisch vorzugehen, wenn wir die einzelnen Sorten verwenden, damit wir unser Budget nicht für sehr geringe Gewinne sprengen.

NJ: Können Sie etwas Klarheit darüber schaffen, was Sie unter „älteren Sachen“ verstehen?

Löshelle : Klar, wenn du „super alte Sachen“ machen willst, dann basiert es auf Regeln. In unserem Produkt verfügen wir über Funktionen, mit denen Sie tatsächlich Stimmungen basierend auf Wörtern, Wortarten, sprachlichen Strukturen [und anderen Dingen] definieren können, die im Text vorkommen würden. Das ist auf der einen Seite des Spektrums. Die andere Seite des Spektrums besteht darin, zu fragen, ob wir ein großes Sprachmodell verwenden können, um die Stimmung vorherzusagen, ohne jedes einzelne Wort tatsächlich codiert zu haben. Aber sie können zusammenarbeiten – sie können voneinander profitieren – und aus den Regeln lernen, die wir in der Vergangenheit aufgestellt haben.

Und diese Regeln wurden von Menschen mit Geschäfts- oder Fachkenntnissen erstellt. Wir arbeiten mit Branchen wie Finanzdienstleistungen, Versicherungen und Gesundheitswesen zusammen, in denen es ihnen aufgrund ihrer eigenen internen Risikotoleranz eigentlich nicht gestattet ist, LLMs oder generative Modelle zu verwenden. Sie müssen also auf einige der rudimentäreren Techniken zurückgreifen, um ein Produkt wie dieses verwenden zu können. Das bieten zu können, war für uns ein strategischer Vorteil.

NJ: Eine der Fragen, die immer wieder auftauchen, ist die Sorge um den Datensatz selbst, worauf er trainiert wurde, und die Einführung von Toxizität oder Voreingenommenheit oder, Sie wissen schon, Halluzinationen usw. Wie transparent sind Sie in Bezug auf die Daten, die zum Trainieren des Modells verwendet werden? – Sie haben gerade erwähnt, einen Open-Source-Datensatz und einen Open-Source-Algorithmus. Kann ein IT-Manager eines Unternehmens tatsächlich an den Datensatz gelangen?

Löshelle : Die Datensätze, die wir verwenden, stammen typischerweise aus unseren eigenen Daten – sie sind Teil unseres Ökosystems. In unseren Verträgen gibt es eine Formulierung, die vorschreibt, wie wir Kundendaten nutzen dürfen oder nicht. Dieser Korpus ist einer unserer strategischen Vorteile und daher werden wir ihn nicht teilen. Es liegt jedoch völlig im Recht eines IT-Managers, danach zu fragen und uns zur Rechenschaft zu ziehen – und das tun sie auch – dafür, wie wir ihre Daten verwenden oder nicht, wie wir unsere eigenen Modellierungspraktiken auf Voreingenommenheit und ethische Einschränkungen prüfen .

NJ: In den letzten Monaten gab es einige Beispiele von Unternehmen, die einen Gen-AI-gestützten Bot eingeführt haben, der mit dem Kunden interagiert, und dann geht etwas schief, und sie müssen es entfernen. Dann gibt es noch das Agent-Assist-Modell, bei dem dem Agenten Dinge vorgeschlagen werden, die der Agent nach eigenem Ermessen verwenden oder nicht verwenden kann. Irgendwelche Gedanken dazu?

Löshelle: Wir haben eine so geringe Toleranz gegenüber Unvollkommenheit, sowohl in menschlichen Situationen als auch in Bot-Situationen, dass es so leicht ist, das Vertrauen in diese Dinge zu verlieren.

Denken Sie an die frühen Erfahrungen mit Google oder Amazons Alexa, oder? Du stellst diese Fragen und sobald du eine beschissene Antwort bekommst, denkst du: „Vergiss es, ich werde diese Frage nicht noch einmal stellen. Ich vertraue dir nicht, dass du diese Antwort hast.“ Und wenn ich mit einem echten menschlichen Agenten spreche – können Sie mir keine Antwort geben? Eskalieren Sie es an Ihren Vorgesetzten. Das gleiche Verhalten tritt auf.

Es schränkt also automatisch den Suchraum ein, den ich für diesen Chatbot oder diese Schnittstelle jeglicher Art verwenden möchte, oder? Und dann ist es wirklich schwer, dieses Vertrauen wiederzugewinnen.

Ich denke, dass es von großem Vorteil ist, einen Menschen auf dem Laufenden zu halten. Und es gibt gleich zwei Vorteile, denn da ist die technologische Seite: „Können unsere Gen-KI-Geräte damit umgehen?“ Und dann ist da noch die andere Seite: „Sind Gesellschaft und Kultur dafür bereit?“

NJ: Was sind einige Best Practices für KI-Bereitstellungen?

Löshelle : Wenn wir noch einmal an Alexa denken, fällt mir auf, dass mir an Amazon besonders gut gefallen hat, dass sie E-Mails verschicken, in denen sie mir zum Beispiel die neuen Fähigkeiten meiner Alexa beschreiben. Das schränkt tatsächlich das ein, was ich von ihr verlangen kann, damit sie erfolgreich sein kann. Die Schaffung eines UX- oder UI-Paradigmas, damit Menschen von Natur aus mit Ihrer Technologie erfolgreich sein können, wird Sie und sie schützen.

Ein Qualtrics-Bericht ergab, dass Verbraucher nicht nur gerne mit KI für den Kundensupport interagieren, sondern auch bereit sind, KI in ihre finanziellen, medizinischen und rechtlichen Interaktionen einzubeziehen.

Diese Woche in den Nachrichten: ASAPP hat GenerativeAgent eingeführt, Amazon Bedrock von AWS enthält jetzt neue und aktualisierte Modelle und ein Low-Code/No-Code-Tool, und ServiceNow hat seinem auf Gen AI basierenden Toolkit Fallzusammenfassung und Text-to-Code hinzugefügt.

Die Preisstruktur von Microsoft Copilot machte Schlagzeilen – aber was bekommen Benutzer für diese 30 US-Dollar jeden Monat? Wir erläutern, wie Copilot funktioniert, was es kann und wie sicher Benutzerdaten in Copilot sind.

In den Nachrichten dieser Woche: Microsoft gibt Copilot-Preise bekannt, Poly stellt zertifizierte Microsoft Teams-Headsets vor, Minerva integriert sein Agent-Assist-Produkt mit der KI-gesteuerten Textanalyse von Luminoso und Qualtrics bringt XM/os2 auf den Markt, seine aktualisierte Plattform, die jetzt vollständig mit KI ausgestattet ist .

Artikel „Nummer des Monats“.An Ellen LoesheQualtricsNJ: Können Sie über den Anstoß sprechen, von der Art der KI, die in der Kategorie „Konversation“ verwendet wird – Verarbeitung natürlicher Sprache (NLP) und Verständnis natürlicher Sprache (NLU) –, zur generativen KI (Gen AI) und den großen Sprachmodellen überzugehen ( LLMs), die sie antreiben?An Ellen LoesheNJ: Okay, aber warum schneiden LLMs besser ab als die traditionelleren NLP-Ansätze?LöshelleNJ: Gibt es Erkenntnisse aus „älteren Arten“ von KI, die auf diese neueren Anwendungsfälle angewendet werden können?LöshelleNJ: Können Sie etwas Klarheit darüber schaffen, was Sie unter „älteren Sachen“ verstehen?Löshelle NJ: Eine der Fragen, die immer wieder auftauchen, ist die Sorge um den Datensatz selbst, worauf er trainiert wurde, und die Einführung von Toxizität oder Voreingenommenheit oder Halluzinationen usw. Wie transparent sind Sie in Bezug auf die Daten, die zum Trainieren des Modells verwendet werden? – Sie haben gerade erwähnt, einen Open-Source-Datensatz und einen Open-Source-Algorithmus. Kann ein IT-Manager eines Unternehmens tatsächlich an den Datensatz gelangen?Löshelle NJ: In den letzten Monaten gab es einige Beispiele von Unternehmen, die einen Gen-AI-gestützten Bot eingeführt haben, der mit dem Kunden interagiert, und dann geht etwas schief, und sie müssen es entfernen. Dann gibt es noch das Agent-Assist-Modell, bei dem dem Agenten Dinge vorgeschlagen werden, die der Agent nach eigenem Ermessen verwenden oder nicht verwenden kann. Irgendwelche Gedanken dazu?LöshelleNJ: Was sind einige Best Practices für KI-Bereitstellungen?Löshelle