AI đang khiến dịch vụ chăm sóc khách hàng trở nên tệ hơn?
"Botshit", thuật ngữ mô tả thông tin không chính xác hoặc bịa đặt do chatbot tạo ra trong quá trình trao đổi với khách hàng, đang trở thành chủ đề gây tranh cãi đối với nhiều chuyên gia…
Vào năm 2022, khi nhận tin người thân qua đời, cậu thanh niên Jake Moffatt đã đặt chuyến bay của hãng hàng không Air Canada để về tham dự với hy vọng được hưởng ưu đãi giảm giá trong trường hợp dự tang lễ.
Chatbot của Air Canada trả lời Moffatt rằng khách hàng có thể gửi yêu cầu giảm giá sau chuyến bay. Tuy nhiên sau đó, công ty từ chối yêu cầu giảm giá của Moffatt và cho biết yêu cầu ưu đãi cần được nộp trước chuyến bay.
Vào tháng 2 vừa qua, Tòa án Dân sự Canada cuối cùng đưa ra phán quyết rằng chatbot của Air Canada lừa dối khách hàng, đồng thời yêu cầu hãng hàng không phải bồi thường cho Moffatt khoản chiết khấu theo quy định.
Vụ việc giữa Air Canada và khách hàng Moffatt liên quan tới cung cấp thông tin sai lệch là ví dụ điển hình của "botshit", mô tả thông tin không chính xác hoặc bịa đặt do chatbot tạo ra trong quá trình trao đổi với người dùng.
Nhóm nhà nghiên cứu Ian P. McCarthy, Timothy R. Hannigan và André Spicer đặt ra thuật ngữ trên trong bài báo xuất bản vào tháng 1/2024 và một công trình khác đăng tải tại Harvard Business Review vào ngày 17/7 mới đây.
Botshit là minh chứng rõ rệt về cách doanh nghiệp sử dụng AI có thể ảnh hưởng tiêu cực tới trải nghiệm khách hàng. Nhóm nhà nghiên cứu đề nghị các công ty phải nghiêm khắc hơn trong việc quản lý phản hồi do chatbot tạo ra.
TẦN SUẤT SỬ DỤNG AI TỶ LỆ THUẬN VỚI SỐ LƯỢNG "BOTSHIT"
Theo cuộc khảo sát với hơn 31.000 người lao động toàn cầu do công ty nghiên cứu Edelman Data and Intelligence thực hiện từ tháng 2/2024 đến tháng 3/2024, tần suất sử dụng generative AI tại nơi làm việc đã tăng gần gấp đôi trong sáu tháng qua.
Đặc biệt, 79% lãnh đạo tham giam cho biết công ty chắc chắn sẽ áp dụng AI nhằm duy trì khả năng cạnh tranh.
Theo nhà kinh tế học Dan Davies, các công ty thường sử dụng công nghệ như AI và chatbot với mục đích hợp lý hóa quá trình ra quyết định và tối ưu vận hành. Xuyên suốt thập kỷ qua, chatbot phát triển mạnh mẽ như một tính năng dịch vụ khách hàng thiết yếu trong doanh nghiệp.
Tuy nhiên, bối cảnh bùng nổ thần tốc dẫn đến hệ quả chính là dường như không có bộ phận nào sẵn sàng đứng ra chịu trách nhiệm nếu thuật toán xuất hiện sai lệch.
Vào năm 2023, một số nhà nghiên cứu phát hiện ra khoảng 75% phản hồi của ChatGPT dành cho các câu hỏi liên quan đến ma túy thường không chính xác hoặc không đầy đủ. Thậm chí, ChatGPT còn tạo ra trích dẫn giả mạo để hỗ trợ một số phản hồi sai lệch đã đưa ra.
Đầu năm nay, một công ty chuyển phát đến từ Vương quốc Anh đã quyết định gỡ bỏ chatbot của hãng sau khi bot này có lời nói xúc phạm khách hàng khi trò chuyện.
Điển hình nhất, khi gã khổng lồ tìm kiếm Google tung ra chatbot AI Gemini, mô hình ngay lập tức nhận về chỉ trích khi tạo ra hình ảnh không chính xác về người da màu. Công ty phải tạm dừng và sau đó khởi chạy lại toàn bộ công cụ tạo hình ảnh sau phản ứng dữ dội từ công chúng.
Trong bức thư gửi nhân viên vào tháng 2/2024, CEO Google Sundar Pichai thừa nhận phản hồi của chatbot là "không thể chấp nhận được" và công ty đã "sai" khi hấp tấp tiến hành công nghệ mới.
Trong bản báo cáo ngày 17/7, nhóm nhà nghiên cứu McCarthy, Hannigan và Spicer kết luận rằng doanh nghiệp sử dụng thông tin do AI tạo ra một cách bất cẩn sẽ gây nguy hiểm tới trải nghiệm khách hàng và danh tiếng thương hiệu, thậm chí có nguy cơ phải chịu trách nhiệm pháp lý.
Tuy nhiên, nhóm cũng khẳng định AI hoàn toàn có thể mang lại ứng dụng hữu ích "miễn là rủi ro về thông tin đầu ra được giảm thiểu".
“BLACK BOX” VÀ RỦI RO KHI SỬ DỤNG AI
Theo các chuyên gia, thách thức lớn nhất liên quan tới việc sử dụng chatbot AI trong dịch vụ chăm sóc khách hàng chính là rất khó để dự đoán câu trả lời tiếp theo của mô hình, mọi thứ như vẫn đang ở trong một chiếc “hộp đen”.
Đồng tác giả McCarthy, Hannigan và Spicer đề xuất cải thiện chatbot dịch vụ khách hàng thông qua bộ hướng dẫn, biện pháp bảo vệ và hạn chế cụ thể về phạm vi từ vựng hay chủ đề phản hồi có sẵn.
Tất nhiên, nghiên cứu cũng cho rằng lĩnh vực dịch vụ chăm sóc khách hàng đã là ứng dụng AI mang tới ít rủi ro nhất cho doanh nghiệp.
Theo đó, việc sử dụng chatbot AI cho một số nhiệm vụ có quy trình phức tạp như chăm sóc sức khỏe, lập ngân sách tài chính hoặc cân nhắc phán quyết pháp lý là những trường hợp ưu tiên tính chính xác của AI nhưng lại khó xác minh thông tin đầu ra theo thời gian thực.
Năm ngoái, một văn phòng luật ở New York đã bị phạt 5.000 USD sau khi các luật sư nộp hồ sơ tòa án có chứa thông tin tham khảo sai sự thật do ChatGPT đưa ra.
Cũng tại nghiên cứu của tác giả McCarthy, Hannigan và Spicer, trong khi phần lớn chatbot AI thông thường như ChatGPT dễ bị botshit tấn công, một số chatbot chuyên sâu sử dụng công nghệ tăng cường khả năng truy xuất, công nghệ giúp tăng cường độ chính xác của AI, lại mang đến nhiều tín hiệu khả quan.
Thao tác kiểm tra và hiệu chỉnh chặt chẽ đầu ra của AI theo thời gian thực, bao gồm cả việc kiểm tra thực tế thường xuyên phản hồi của AI, có thể giảm thiểu rủi ro tạo ra botshit.
Chatbot và một số công cụ khác sử dụng generative AI sở hữu tiềm năng to lớn trong việc cải thiện đáng kể quy trình làm việc, nhóm nhà nghiên cứu nhấn mạnh. "Giống như bất kỳ công nghệ mới nổi nào, mô hình này cũng đi kèm rủi ro. Tuy nhiên, với sự quản lý cẩn thận từ doanh nghiệp, rủi ro có thể được hạn chế trong khi vẫn khai thác tối đa tiềm năng phát triển", nghiên cứu của McCarthy, Hannigan và Spicer cho biết.