Die Stiftung der Sparkassen (Funcas) hat die Banken vor dem Einsatz von generativer Künstlicher Intelligenz (GenAI) wie ChatGPT gewarnt, wegen der Gefahr, die diese beim Schutz vertraulicher Kundendaten darstellen könnte. Insbesondere empfiehlt die Organisation dem Finanzsektor, eigene Programme mit dieser Technologie zu entwickeln, um Lecks zu verhindern und die Vertraulichkeit sicherer zu bewahren.
Laut Funcas werden GenAI-Tools für den täglichen Betrieb von Bankinstituten unverzichtbar. Die Organisation betont, dass es notwendig ist, sich dieser Technologie anzupassen, um im Sektor wettbewerbsfähig zu bleiben.
“Der Einsatz von generativer KI würde ihnen helfen, ihre interne Produktivität zu steigern und das Kundenerlebnis zu verbessern. Die Banken bereiten sich auf ihre Einführung vor, was sich in einer Zunahme der technologischen Investitionen widerspiegelt”, betont die Stiftung.
Dennoch sieht die Organisation in ihrer Anwendung einige Probleme: “Fachleute aus dem Sektor stimmen dem disruptiven Potenzial der generativen KI zu, aber ihre Implementierung unterliegt einer Reihe von Risiken und Überlegungen, die berücksichtigt werden müssen.”
Einsatz von ChatGPT im Bankwesen
Funcas sieht eine Versuchung innerhalb der Banken, GenAI von Drittanbietern wie “ChatGPT von OpenAI, Bard von Google oder Copilot von Microsoft” zu nutzen. Die Risiken veranlassen jedoch viele Einrichtungen, Maßnahmen zu ergreifen, um sich nicht zu sehr anderen Unternehmen auszusetzen.
“Einige internationale Finanzinstitute wie JPMorgan Chase, CitiGroup, Bank of America, Deutsche Bank, Goldman Sachs oder Wells Fargo haben ihren Mitarbeitern die Nutzung von ChatGPT verboten”, erklärt die Stiftung.
Auch andere Sektoren haben diese Probleme ernst genommen und entschieden, diese Tools einzuschränken: “Andere große Unternehmen wie Verizon, Amazon, Apple oder Spotify haben ähnliche Maßnahmen bezüglich der Nutzung von KI-Tools wie ChatGPT ergriffen.”
Die Befürchtung dieser Unternehmen bezüglich der GenAI-Technologien ist, dass sie “zu einem möglichen Datenleck führen könnten”, das die internen Systeme der Unternehmen gefährdet.
“Eine der Hauptbedenken ist, dass, wenn Mitarbeiter diese externen Tools nutzen, die von den Mitarbeitern eingegebenen Daten Teil des Wissensbereichs des Algorithmus und somit des Entwicklers werden. Diese Situationen könnten unbeabsichtigt vertrauliche oder exklusiv geschützte Informationen in die Hände Dritter legen”, warnen sie.
Eigene Künstliche Intelligenz
Um diese Probleme zu vermeiden, schlägt Funcas vor, dass Finanzinstitute in die Schaffung eigener KI-Tools investieren. “Die Banken stehen vor der Wahl, ihre eigenen generativen KI-Lösungen intern zu entwickeln, sie von Technologieunternehmen zu erwerben oder beide Strategien zu kombinieren. Der Vorteil der internen Entwicklung ist die Kontrolle und die Möglichkeit, diese Technologie an die Besonderheiten des Geschäftsmodells der Bank anzupassen”, erklärt sie.
Die Institution warnt jedoch, dass diese Lösung auch eine negative Seite hat: “Die Entwicklung interner generativer KI-Modelle erfordert erheblichen technologischen und finanziellen Aufwand für die Bankinstitute. Daher haben einige Einrichtungen Allianzen mit KI-Technologieanbietern etabliert.”
Um dies zu lösen, schaffen einige Banken “Allianzen mit KI-Technologieanbietern”, was es zwei Unternehmen ermöglicht, zum Schutz der Vertraulichkeit der privaten Daten der Kunden zusammenzuarbeiten.
“Zum Beispiel hat sich die amerikanische Bank Ally Bank mit Microsoft zusammengetan, um Ally.ai zu schaffen, das GPT-3.5 mit den internen Anwendungen der Bank verbindet. Andererseits nutzt Westpac, eine große australische Bank, Kai-GPT, ein großes Sprachmodell von Kasisto, einem FinTech, das KI-Lösungen für Banken bietet.”
GenAI wird im Bankwesen eingesetzt, um das Kundenerlebnis durch Chatbots und virtuelle Assistenten zu verbessern, die rund um die Uhr Unterstützung bieten können. Das heißt, sie dienen dazu, häufig gestellte Fragen zu beantworten und einfache Transaktionen durchzuführen.
Darüber hinaus können diese Technologien zur Betrugserkennung und Cybersicherheit eingesetzt werden, indem fortschrittliche Algorithmen verwendet werden, um verdächtige Muster zu erkennen und betrügerische Aktivitäten in Echtzeit zu verhindern.
Sie können auch zur Personalisierung von Finanzdienstleistungen verwendet werden, wie die Empfehlung von Produkten und Dienstleistungen, die auf die individuellen Bedürfnisse jedes Kunden zugeschnitten sind, was dazu beiträgt, die Kundenbindung zu verbessern und die Rentabilität zu erhöhen.
No Responses