“Khủng hoảng” dữ liệu trong đào tạo AI và lời giải từ dữ liệu tổng hợp
Khi AI tiếp tục chuyển đổi các ngành công nghiệp trên toàn cầu, việc giải quyết khủng hoảng chất lượng dữ liệu là điều tối quan trọng…Dữ liệu tổng hợp mang đến một giải pháp đầy triển vọng trong việc giải “bài toán” thiếu dữ liệu trong đào tạo AI…
Các nghiên cứu dự đoán rằng dữ liệu do con người tạo ra và được công khai để đào tạo các mô hình AI có thể cạn kiệt trong vòng từ hai đến tám năm tới, buộc chúng ta phải phụ thuộc vào "dữ liệu tổng hợp" (thông tin được sản xuất nhân tạo bởi thuật toán) khiến cho tính chính xác và độ tin cậy của AI có thể bị ảnh hưởng…
Theo Tiến sĩ James Kang, giảng viên cấp cao về Khoa học máy tính tại Đại học RMIT Việt Nam, huấn luyện AI và khả năng suy luận của chúng đóng vai trò cốt yếu trong việc tạo ra dự đoán và kết quả đầu ra. “Dùng dữ liệu thiên lệch hoặc không đầy đủ sẽ ảnh hưởng đến đầu ra. Ví dụ, nếu AI được đào tạo nhận diện khuôn mặt chỉ dựa trên dữ liệu của một nhóm sắc tộc, nó có thể đưa ra các dự đoán kém chính xác hơn khi xử lý khuôn mặt thuộc các sắc tộc khác”, TS.Kang cho biết.
DỮ LIỆU KHÔNG NHẤT QUÁN KHIẾN AI NHẦM LẪN
Dữ liệu không chính xác, không nhất quán hoặc lỗi thời còn có thể khiến AI nhầm lẫn và giảm hiệu suất xử lý. Việc gắn dữ liệu không đúng cách cũng ảnh hưởng đến chất lượng vì liên quan trực tiếp đến tính chính xác và nhất quán của quá trình huấn luyện AI. “Khi huấn luyện AI bằng các hình ảnh của táo, dứa và cam, nhưng dứa bị gắn nhãn nhầm thành táo, AI sẽ bị nhầm lẫn và nhận diện cả táo lẫn dứa là cùng một loại. Do đó, việc gắn nhãn chính xác ngay từ đầu là rất quan trọng và đóng vai trò then chốt trong việc đảm bảo huấn luyện ra mô hình AI đáng tin cậy và hiệu quả”, TS.Kang nêu ví dụ.
Khảo sát từ Forbes Advisor cho thấy 64% doanh nghiệp tin rằng AI sẽ giúp tăng năng suất, nhưng điều đó còn phụ thuộc vào chất lượng dữ liệu được dùng để huấn luyện AI.
NHỮNG MẶT ĐƯỢC VÀ MẤT KHI DÙNG DỮ LIỆU TỔNG HỢP
Trong khi dữ liệu thực chủ yếu được thu thập từ các nguồn như phỏng vấn, khảo sát, thí nghiệm, quan sát và khai thác dữ liệu, thì dữ liệu tổng hợp được tạo ra nhân tạo bởi các thuật toán. Bằng cách sử dụng mô phỏng máy tính và dự đoán thay vì dữ liệu thực, dữ liệu tổng hợp được thiết kế để tái hiện các mô hình hoặc đặc tính thống kê của dữ liệu thực, nhằm tiết kiệm chi phí – ví dụ, giảm tới 60% chi phí kiểm tra và rút ngắn đến 30% chu kỳ phát triển.
Theo TS.Kang, dữ liệu tổng hợp có thể được tạo ra nhanh chóng, trong khi dữ liệu thực thường tốn kém và mất nhiều thời gian để thu thập cũng như gắn nhãn khi sử dụng làm đầu vào cho những hệ thống AI. Các công ty công nghệ thường chọn dữ liệu tổng hợp trong trường hợp gặp rào cản về quyền riêng tư hoặc các vấn đề đạo đức liên quan đến việc thu thập dữ liệu, chẳng hạn như thông tin cá nhân người dùng hoặc dữ liệu y tế nhạy cảm.
Dữ liệu tổng hợp cũng rất hữu ích trong việc giảm thiểu hoặc loại bỏ một số thiên lệch, vì dữ liệu thực tế đôi khi cũng mang theo các thiên lệch này. Khi dữ liệu thực khan hiếm hoặc khó tiếp cận, việc bổ sung dữ liệu tổng hợp vào các tập dữ liệu hiện có có thể giúp cung cấp một bộ mẫu huấn luyện đa dạng hơn. “Do đó, có rất nhiều tình huống mà các nhà nghiên cứu và công ty công nghệ sử dụng dữ liệu tổng hợp để vượt qua các hạn chế và thách thức của dữ liệu thực”, TS.Kang chia sẻ.
Trong lĩnh vực y tế, các nhà nghiên cứu thường đối mặt với thách thức về quyền truy cập vào dữ liệu bệnh nhân đa dạng và toàn diện do các quy định bảo mật. Ví dụ, Watson Health của IBM đã tận dụng dữ liệu tổng hợp để khắc phục những hạn chế này. Bằng cách tạo ra các tập dữ liệu tổng hợp mô phỏng hồ sơ bệnh nhân thực, họ đã xây dựng được một bộ dữ liệu đào tạo đa dạng và toàn diện cho các mô hình AI của mình. “Điều này giúp giảm thiểu các thiên lệch, chẳng hạn như về giới tính, độ tuổi và sắc tộc, vốn thường thấy trong dữ liệu thực tế”, TS.Kang cho biết.
CẦN CÓ HỆ THỐNG XÁC THỰC DỮ LIỆU CHẶT CHẼ
TS.Kang cho biết, một vấn đề cốt lõi khi sử dụng dữ liệu tổng hợp trong các mô hình AI là mức độ không chắc chắn liên quan đến tính hợp lệ và chất lượng thông tin. Người dùng gặp khó khăn trong việc đánh giá mức độ tin cậy của dữ liệu do AI tạo ra, vì vẫn chưa có hệ thống đánh giá chất lượng hoặc "chấm điểm" nào được chấp nhận rộng rãi và chuẩn hóa. Do đó, việc triển khai một hệ thống xác thực dữ liệu chặt chẽ là điều cần thiết để đảm bảo độ chính xác và tin cậy của dữ liệu dùng trong huấn luyện.
Để phân biệt giữa dữ liệu thực và dữ liệu tổng hợp, AI có thể theo dõi siêu dữ liệu và nguồn gốc của dữ liệu được sử dụng để xác định nơi xuất phát và chất lượng hoặc mức độ đáng tin cậy của dữ liệu. Khi cần, có thể có sự can thiệp của con người vào quá trình chuẩn bị và huấn luyện AI để đảm bảo duy trì chất lượng dữ liệu được tạo ra.
“Việc thay thế một phần dữ liệu thực để tạo dữ liệu tổng hợp một phần có thể là một giải pháp nhằm bảo vệ quyền riêng tư cá nhân – chẳng hạn như dùng định danh giả cho tên người dùng hoặc ngày sinh – mà không cần tổng hợp toàn bộ dữ liệu. Sử dụng kết hợp dữ liệu thực và dữ liệu tổng hợp theo cách được quản lý cẩn trọng như vậy có thể tăng hiệu suất AI bằng cách duy trì quyền riêng tư và vừa giảm thiểu các thiên lệch”, TS. Kang cho biết.
TS. Kang cho rằng, khi AI tiếp tục chuyển đổi các ngành công nghiệp trên toàn cầu, việc giải quyết khủng hoảng chất lượng dữ liệu là điều tối quan trọng. Dữ liệu tổng hợp mang đến một giải pháp đầy triển vọng, nhưng cần được sử dụng cẩn thận để giảm thiểu rủi ro về tính chính xác độ tin cậy.
“Để đảm bảo sự phát triển bền vững của AI tại Việt Nam, việc hợp tác giữa chính phủ, doanh nghiệp, các ngành nghề và các trường đại học nhằm nâng cao chất lượng dữ liệu đào tạo, bao gồm cả dữ liệu huấn luyện, là điều thiết yếu. Chỉ khi cùng nhau hành động, chúng ta mới có thể vượt qua tình trạng thiếu hụt dữ liệu, nâng cao tính chính xác và độ tin cậy của các mô hình AI, thúc đẩy đổi mới và phát triển trong lĩnh vực này”, TS.Kang nhấn mạnh.