Nie jest tajemnicą, że od czasu wprowadzenia generatywnych chatbotów AI, takich jak ChatGPT, i późniejszego rozpoczęcia rewolucji AI, każda branża, w tym banki, dokłada starań, aby zintegrować sztuczną inteligencję i obniżyć koszty operacyjne. Jednak Biuro Ochrony Finansów Konsumentów (CFPB) niedawno wydała ostrzeżenie dotyczące korzystania przez banki z chatbotów AI po tym, jak liczne zgłoszenia klientów wskazywały na brak szybkich i bezpośrednich odpowiedzi.
Podczas gdy dane z branży bankowej wskazują, że wysokiego zadowolenia klientów, obawy CFPB koncentrują się wokół faktu, że te chatboty AI mogą dostarczać nieprawidłowe informacje finansowe lub naruszać prywatność i dane klientów, podważając w ten sposób zaufanie do instytucji finansowej i jej usług.
„Aby obniżyć koszty, wiele instytucji finansowych integruje technologie sztucznej inteligencji, aby kierować ludzi w stronę chatbotów. Źle wdrożony chatbot może prowadzić do frustracji klientów, zmniejszenia zaufania, a nawet naruszenia prawa” – powiedział dyrektor CFPB Rohit Chopra.
Odpowiedź banku
W odpowiedzi na raport Brooke Ybarra, starszy wiceprezes American Bankers Association, wyraziła swoje poparcie odpowiedzialnych innowacji przynoszących korzyści konsumentom i podkreślił, że te chatboty to dodatkowe narzędzia mające na celu przyspieszenie obsługi klienta i uzupełnienie tradycyjnych kanałów interakcji.
„Istnieje wiele sposobów, na jakie konsumenci mogą komunikować się ze swoim bankiem, a ostatnie badania pokazują przytłaczająca większość klientów wysoko ocenia obsługę klienta swojego banku” – powiedział Ybarra.
Wzywa do regulacji
Chociaż obawy CFPB dotyczące rozprzestrzeniania dezinformacji są uzasadnione, popularność chatbotów AI rośnie, a około jedna trzecia osób w Stanach Zjednoczonych będzie wchodzić w interakcje z chatbotem w 2022 r., a liczba ta wzrośnie tylko wtedy, gdy firmy będą chciały wdrożyć sztuczną inteligencję w celu obniżenia kosztów.
Dlatego debata toczy się teraz wokół firm takich jak Google i Microsoft starannie projektujących i monitorujących te narzędzia, aby upewnić się, że nie wyrządzają szkód. Co więcej, nawet rząd bada sposoby kontrolowania i regulowania rozwoju sztucznej inteligencji.